Sei sulla pagina 1di 260

Giacinto Gelli e Francesco Verde

Segnali e sistemi
per i corsi di laurea triennale di Teoria dei Segnali

NAPOLI 2008
c 2007–2008 Giacinto Gelli (gelli@unina.it) & Francesco Verde (f.verde@unina.it)
Gli autori consentono la riproduzione anche parziale del testo agli studenti del corso. Non è consentito
modificare il testo, diffonderlo, pubblicarlo anche con mezzi telematici senza il consenso scritto degli
autori.
Prima versione: marzo 2007.
Seconda versione: marzo 2008.
Principali notazioni

A, B,C insiemi
0/ insieme vuoto
a∈A x appartiene ad A
a ∈ A x non appartiene ad A
A⊆B A è un sottoinsieme di B
A⊂B A è un sottoinsieme proprio di B
A ∪ B, A + B unione di A e B
A ∩ B, AB intersezione di A e B
A−B differenza tra A e B
A×B prodotto cartesiano di A e B

= uguale per definizione
N insieme dei numeri naturali {1, 2, . . . , }
N0 = N ∪ {0} insieme dei numeri naturali, zero incluso {0, 1, 2, . . .}
Z insieme dei numeri interi relativi {. . . , −2, −1, 0, 1, 2, . . .}
R insieme dei numeri reali
R+ =]0, ∞[ insieme dei numeri reali positivi (zero escluso)
R− =] − ∞, 0[ insieme dei numeri reali negativi (zero escluso)
R = R ∪ {−∞, ∞} insieme ampliato dei numeri reali
[a, b] intervallo a ≤ x ≤ b
[a, b[ intervallo a ≤ x < b
]a, b] intervallo a < x ≤ b
]a, b[ intervallo a < x < b
] − ∞, b[ intervallo x < b
] − ∞, b] intervallo x ≤ b
]a, ∞[ intervallo x > a
[a, ∞[ intervallo x ≥ a
(a, b) indica indifferentemente un qualunque intervallo di estremi a e b
x, y, z vettori
A, B, C matrici
det(A) determinante della matrice A
A−1 inversa della matrice A
AT trasposta della matrice A
repT0 [xg (t)] replicazione di xg (t) con passo T0 [cfr. eq. (2.18)]
repN0 [xg (n)] replicazione di xg (n) con passo N0 [cfr. eq. (2.19)]
sinc(x) funzione sinc [cfr. eq. (5.14)]
DM (x) funzione di Dirichlet [cfr. eq. (5.31)]
u(x) funzione gradino
sgn(x) funzione signum
δ (x) funzione delta di Dirac
δ (n) funzione delta discreta
rect(x) funzione rettangolo
RM (n) funzione rettangolo discreto
Λ(x) funzione triangolo
∗ convoluzione tra due segnali
Indice

1 Segnali e sistemi: introduzione 1


1.1 Definizione di segnale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Definizione di sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Segnali deterministici ed aleatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Classificazione elementare dei segnali . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.1 Proprietà della variabile indipendente . . . . . . . . . . . . . . . . . . . . . 9
1.4.2 Proprietà della variabile dipendente . . . . . . . . . . . . . . . . . . . . . . 14
1.4.3 Segnali analogici e digitali . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5 Classificazione elementare dei sistemi . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2 Proprietà dei segnali 25


2.1 Operazioni elementari sui segnali . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.1.1 Trasformazioni della variabile dipendente . . . . . . . . . . . . . . . . . . . 26
2.1.2 Trasformazioni della variabile indipendente . . . . . . . . . . . . . . . . . . 27
2.1.3 Combinazione di operazioni elementari . . . . . . . . . . . . . . . . . . . . 34
2.1.4 Derivazione, integrazione, differenza prima e somma . . . . . . . . . . . . . 37
2.2 Caratterizzazione sintetica dei segnali . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.3 Estensione e durata temporale di un segnale . . . . . . . . . . . . . . . . . . . . . . 45
2.3.1 Segnali di durata rigorosamente limitata . . . . . . . . . . . . . . . . . . . . 46
2.3.2 Segnali di durata praticamente limitata . . . . . . . . . . . . . . . . . . . . . 49
2.3.3 Segnali di durata non limitata e segnali periodici . . . . . . . . . . . . . . . 54
2.4 Area e media temporale di un segnale . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.4.1 Componente continua e alternata di un segnale . . . . . . . . . . . . . . . . 70
2.5 Energia di un segnale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.5.1 Segnali di energia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.5.2 Energia mutua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.6 Potenza e valore efficace di un segnale . . . . . . . . . . . . . . . . . . . . . . . . . 75
2.6.1 Segnali di potenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2.6.2 Relazioni tra segnali di energia e di potenza . . . . . . . . . . . . . . . . . . 78
2.6.3 Potenza mutua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
2.7 Misura in dB della potenza e dell’energia . . . . . . . . . . . . . . . . . . . . . . . 80
2.8 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
ii INDICE

3 Proprietà dei sistemi 91


3.1 Relazione ingresso-uscita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3.2 Interconnessione di sistemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.3 Proprietà dei sistemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.3.1 Non dispersività . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.3.2 Causalità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
3.3.3 Invertibilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.3.4 Invarianza temporale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.3.5 Stabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
3.3.6 Linearità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
3.4 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

4 Sistemi lineari tempo-invarianti (LTI) 127


4.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
4.2 Relazione i-u di un sistema LTI e risposta impulsiva . . . . . . . . . . . . . . . . . . 128
4.3 Convoluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.3.1 Proprietà della convoluzione . . . . . . . . . . . . . . . . . . . . . . . . . . 138
4.4 Risposta al gradino . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
4.5 Proprietà della risposta impulsiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
4.5.1 Non dispersività . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
4.5.2 Causalità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
4.5.3 Invertibilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
4.5.4 Stabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
4.6 Esempi di sistemi LTI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
4.6.1 Sistemi descritti da equazioni differenziali . . . . . . . . . . . . . . . . . . . 168
4.6.2 Sistemi descritti da equazioni alle differenze (sistemi ARMA) . . . . . . . . 174
4.7 Risposta in frequenza di un sistema LTI . . . . . . . . . . . . . . . . . . . . . . . . 182
4.7.1 Risposta ad un fasore di un sistema TC LTI . . . . . . . . . . . . . . . . . . 182
4.7.2 Risposta ad un fasore di un sistema TD LTI . . . . . . . . . . . . . . . . . . 186
4.7.3 Risposta ad una sinusoide di un sistema LTI reale . . . . . . . . . . . . . . . 190
4.8 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193

5 Serie di Fourier 207


5.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
5.2 Serie di Fourier per segnali TC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
5.2.1 Condizioni matematiche per la convergenza della serie di Fourier . . . . . . 216
5.2.2 Ricostruzione di un segnale periodico con un numero finito di armoniche . . 220
5.3 Serie di Fourier per segnali TD (DFS) . . . . . . . . . . . . . . . . . . . . . . . . . 225
5.4 Principali proprietà della serie di Fourier e della DFS . . . . . . . . . . . . . . . . . 229
5.4.1 Linearità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
5.4.2 Simmetria hermitiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
5.4.3 Uguaglianza di Parseval . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
5.5 Risposta di un sistema LTI ad un segnale periodico . . . . . . . . . . . . . . . . . . 237
5.6 Selettività in frequenza dei sistemi LTI e filtri ideali . . . . . . . . . . . . . . . . . . 239
5.7 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
INDICE iii

6 Trasformata di Fourier 255


6.1 Trasformata di Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
6.1.1 Trasformata di Fourier per segnali TC . . . . . . . . . . . . . . . . . . . . . 258
6.1.2 Trasformata di Fourier per segnali TD . . . . . . . . . . . . . . . . . . . . . 260
6.1.3 Proprietà elementari della trasformata di Fourier . . . . . . . . . . . . . . . 263
6.2 Relazione i-u nel dominio della frequenza per i sistemi LTI . . . . . . . . . . . . . . 267
6.2.1 Proprietà di convoluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
6.3 Esistenza ed invertibilità della trasformata di Fourier . . . . . . . . . . . . . . . . . 272
6.3.1 Segnali TC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
6.3.2 Segnali TD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
6.3.3 Segnali TD transitori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
6.4 Estensione spettrale e banda di un segnale . . . . . . . . . . . . . . . . . . . . . . . 295
6.4.1 Segnali a banda rigorosamente limitata . . . . . . . . . . . . . . . . . . . . 298
6.4.2 Segnali a banda praticamente limitata . . . . . . . . . . . . . . . . . . . . . 300
6.4.3 Segnali a banda non limitata . . . . . . . . . . . . . . . . . . . . . . . . . . 311
6.5 Proprietà della trasformata di Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . 312
6.5.1 Trasformazioni della variabile dipendente . . . . . . . . . . . . . . . . . . . 312
6.5.2 Trasformazioni della variabile indipendente . . . . . . . . . . . . . . . . . . 321
6.5.3 Derivazione e differenza prima, integrazione e somma . . . . . . . . . . . . 336
6.6 Trasformata di Fourier dei segnali periodici . . . . . . . . . . . . . . . . . . . . . . 345
6.6.1 Trasformata di Fourier di un segnale periodico TC . . . . . . . . . . . . . . 345
6.6.2 Trasformata di Fourier di un segnale periodico TD . . . . . . . . . . . . . . 347
6.6.3 Estensione spettrale e banda di un segnale periodico . . . . . . . . . . . . . 351
6.6.4 Relazioni tra serie e trasformata di Fourier . . . . . . . . . . . . . . . . . . . 352
6.7 Caratterizzazione e proprietà dei sistemi LTI nel dominio della frequenza . . . . . . 357
6.7.1 Separazione di segnali mediante filtraggio . . . . . . . . . . . . . . . . . . . 357
6.7.2 Banda passante e banda di un sistema . . . . . . . . . . . . . . . . . . . . . 361
6.7.3 Studio dell’interconnessione di sistemi LTI nel dominio della frequenza . . . 365
6.7.4 Proprietà della risposta in frequenza . . . . . . . . . . . . . . . . . . . . . . 369
6.8 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382

7 Campionamento e conversione A/D e D/A 395


7.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395
7.2 Campionamento ed interpolazione ideale . . . . . . . . . . . . . . . . . . . . . . . . 398
7.2.1 Teorema del campionamento . . . . . . . . . . . . . . . . . . . . . . . . . . 400
7.2.2 Interpolazione ideale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405
7.2.3 Aliasing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407
7.3 Campionamento ed interpolazione in pratica . . . . . . . . . . . . . . . . . . . . . . 409
7.3.1 Campionamento di segnali a banda praticamente limitata . . . . . . . . . . . 409
7.3.2 Interpolazione non ideale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415
7.4 Quantizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 418
7.5 Esercizi proposti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427

A Richiami sui numeri complessi 433


A.1 Definizione di numero complesso . . . . . . . . . . . . . . . . . . . . . . . . . . . 433
A.2 Forma algebrica dei numeri complessi . . . . . . . . . . . . . . . . . . . . . . . . . 434
A.3 Rappresentazione geometrica e forma trigonometrica dei numeri complessi . . . . . 437
iv INDICE

A.4 Forma esponenziale dei numeri complessi . . . . . . . . . . . . . . . . . . . . . . . 440


A.5 Funzioni complesse di una variabile reale . . . . . . . . . . . . . . . . . . . . . . . 442

B Richiami di analisi matematica 445


B.1 Successioni e serie numeriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 445
B.1.1 Definizione di limite di una successione . . . . . . . . . . . . . . . . . . . . 445
B.1.2 Serie monolatere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 447
B.1.3 Serie bilatere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 448
B.1.4 Successioni sommabili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 450
B.2 Funzioni complesse di una variabile reale . . . . . . . . . . . . . . . . . . . . . . . 451
B.2.1 Continuità e derivabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . 451
B.2.2 Integrazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453
B.2.3 Sommabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 456

C Proprietà matematiche della convoluzione 459


C.1 Integrale di convoluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 459
C.2 Somma di convoluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 461

D Invertibilità di un sistema 463


D.1 Invertibilità di un sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463
D.2 Invertibilità di un sistema LTI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 466

E Proprietà della serie di Fourier 471


E.1 Serie di Fourier a TC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471
E.1.1 Definizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471
E.1.2 Proprietà . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471
E.2 Serie di Fourier a TD (DFS) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473
E.2.1 Definizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473
E.2.2 Proprietà . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473
E.3 Convergenza in media quadratica della serie di Fourier . . . . . . . . . . . . . . . . 474

F Proprietà della trasformata di Fourier 479


F.1 Trasformata di Fourier a TC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 479
F.1.1 Definizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 479
F.1.2 Proprietà . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 479
F.1.3 Trasformate notevoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 482
F.2 Trasformata di Fourier a TD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 482
F.2.1 Definizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 482
F.2.2 Proprietà . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 483
F.2.3 Trasformate notevoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 485

Bibliografia 487
Capitolo 1

Segnali e sistemi: introduzione

I concetti di segnale e di sistema sono diffusamente impiegati in molti campi della conoscenza
umana con significati specifici che, in alcuni casi, possono essere radicalmente diversi. Ad esempio,
in astronomia, le radiazioni emesse dai corpi celesti sono segnali desiderati che portano informazione
circa la struttura dell’universo mentre, nel campo delle telecomunicazioni spaziali, essi rappresentano
segnali indesiderati che disturbano le comunicazioni tra la terra e le navicelle spaziali. Allo stesso
modo, per un ingegnere delle telecomunicazioni, un sistema può essere una rete telefonica o un ponte
radio, per un economista un sistema è invece un insieme di individui che producono e si scambiano
beni. Una definizione univoca e non ambigua di segnale e sistema può essere data solo ricorrendo
a opportuni modelli matematici, poichè il linguaggio della matematica è unico e preciso. In questo
capitolo saranno introdotti i concetti di base necessari per lo studio dei segnali e dei sistemi, partendo
dai loro modelli matematici, e proseguendo con alcune definizioni e classificazioni elementari.

1.1 Definizione di segnale


La definizione di segnale che segue, sebbene astratta, è del tutto generale: essa risulterà certamente
più chiara e concreta dopo aver studiato gli esempi forniti nel seguito.

Definizione 1.1 (segnale)


Un segnale è un modello matematico che descrive la variazione di una o più grandezze (fisiche)
in funzione di altre grandezze (fisiche).

Esempi di segnali ricorrono in numerosi campi delle scienze matematiche, fisiche e dell’ingegneria.
 Esempio 1.1 (moto circolare uniforme) Si consideri un corpo (raffigurato in nero in fig. 1.1) che si muove
di moto circolare uniforme, lungo una circonferenza di raggio A. La velocità di rotazione del corpo si può mi-
surare in termini di velocità angolare ω0 , espressa in rad/s (rappresenta l’angolo in radianti percorso nel tempo
di 1 s) o equivalentemente in termini di frequenza di rotazione f0 = ω2π0 , espressa in Hertz (Hz) (rappresenta
il numero di giri effettuati nel tempo di 1 s). La posizione del corpo all’istante t è individuata da una coppia
di coordinate cartesiane (x, y). Concentriamo l’attenzione in particolare sulla posizione lungo l’asse x: poiché
2 Segnali e sistemi: introduzione

y x(t)
ω0 A A cos (ϕ 0 )

θ(t) A
x(t) x t

-A

Fig. 1.2. Il segnale sinusoidale degli es. 1.1 e 1.2 è


Fig. 1.1. Un corpo (in nero) si muove lungo una cir-
una funzione del tempo x(t).
conferenza con velocità angolare ω0 costante. La
sua proiezione sull’asse x al variare del tempo t è il
segnale sinusoidale x(t) di fig. 1.2.

l’angolo (misurato rispetto all’asse x) percorso nel tempo t è pari a θ (t) = ω0t + ϕ0 , dove ϕ0 è la posizione
angolare del corpo all’istante t = 0, la coordinata x all’istante t è data da:

x(t) = A cos[θ (t)] = A cos(ω0t + ϕ0 ) = A cos(2π f0t + ϕ0 ) .

Il segnale x(t) prende il nome di segnale sinusoidale1 di ampiezza A, pulsazione ω0 o frequenza f0 , e fase
iniziale ϕ0 , ed è raffigurato in fig. 1.2. Si noti che per t = 0 il segnale vale x(0) = A cos(ϕ0 ). 

 Esempio 1.2 (tensione alternata) La tensione alternata della rete di distribuzione dell’energia elettrica può
essere descritta anch’essa da un segnale sinusoidale di ampiezza A, frequenza f0 , e fase iniziale ϕ0 :

x(t) = A cos(2π f0t + ϕ0 ) .

L’espressione analitica del segnale e la sua rappresentazione grafica sono le stesse del segnale dell’es. 1.1, anche
se il significato fisico ed i valori dei parametri A, f0 e ϕ0 sono diversi. 

 Esempio 1.3 (successione) In matematica, nello studio delle equazioni per le quali non è possibile deter-
minare analiticamente la soluzione, è possibile applicare metodi per determinare soluzioni approssimate. Un
esempio classico è il metodo di Newton o della tangente, che consente di risolvere approssimativamente equa-
zioni del tipo f (x) = 0. Supponiamo che f sia dotata di derivata prima continua e, inoltre, che sia crescente,
convessa e tale che f (a) < 0 ed f (b) > 0. Posto x(0) = b, il metodo di Newton (fig. 1.3) consiste inizial-
mente nel tracciare la tangente alla curva f (x) nel suo punto di coordinate (b, f (b)) e nel ricavare il punto di
intersezione x(1) di tale tangente con l’asse delle ascisse. Il secondo passo del metodo consiste nel ripetere il
procedimento precedente a partire questa volta da x(1): si traccia la tangente alla curva f (x) nel suo punto di
coordinate (x(1), f [x(1)]) e si ricava il punto di intersezione x(2) della retta ottenuta con l’asse delle ascisse.
Ripetendo tale procedimento, si ottiene una relazione ricorsiva in cui l’n-esimo elemento è dato da
f [x(n − 1)]
x(n) = x(n − 1) − , con n = 1, 2, 3, . . . ,
f [x(n − 1)]
1 Nel seguito indicheremo indistintamente come “sinusoidale” un segnale del tipo x(t) = A cos(ω0 t + ϕ0 ) oppure x(t) =
A sin(ω0 t + ϕ0 ).
1.1 Definizione di segnale 3

y Studente Voto
Carlo Rossi 22
Ugo Bianchi 30
f(x) Maria Turchini 25
Franca Neri 30
.... ....
a b x .... ....

x(0) Fig. 1.4. Il segnale in forma tabellare


dell’es. 1.4.
x(1)
x(2)

Fig. 1.3. Il metodo di Newton dell’es. 1.3.

dove f (x) denota la derivata prima di f (x). Tale relazione definisce una successione numerica, ovvero un
segnale definito nell’insieme N0 dei numeri naturali. Al crescere di n, i valori assunti dal segnale tendono
all’unica soluzione dell’equazione f (x) = 0. 

 Esempio 1.4 (tabella) In alcuni casi, un segnale può essere definito mediante una tabella. Ad esempio,
consideriamo i risultati dell’esame di Teoria dei Segnali riportati in fig. 1.4. Tale tabella definisce un segnale
che ad ogni studente associa il voto del corrispondente compito scritto; in questo caso, l’insieme di definizione
del segnale è rappresentato dagli studenti che hanno partecipato alla prova scritta (e che hanno consegnato il
compito). 
Gli es. 1.1, 1.2 e 1.3 mostrano che un segnale può essere descritto matematicamente da una funzione
che istituisce una relazione tra una variabile indipendente (il tempo t negli es. 1.1 e 1.2, l’indice n
nell’es. 1.3, lo studente nell’es. 1.4) ed una variabile dipendente x (una lunghezza nell’es. 1.1, una
tensione nell’es. 1.2, un’approssimazione della soluzione dell’equazione f (x) = 0 nell’es. 1.3, un voto
nell’es. 1.4). Utilizzando la simbologia comunemente impiegata nei corsi di analisi matematica, un
segnale di questo tipo può essere indicato come segue:

x : T → X, (1.1)

dove l’insieme T, che prende il nome di insieme di definizione o dominio di x, racchiude l’insieme dei
valori ammissibili della variabile indipendente t oppure n, mentre l’insieme X, che prende il nome di
immagine di T mediante x o anche codominio di x, racchiude i valori assunti dalla variabile dipendente
x. Si osservi che, per gli es. 1.1 e 1.2, il dominio T di x coincide con l’insieme dei numeri reali, cioè
T = R; nel caso dell’es. 1.3, il dominio del segnale risulta essere T = N0 = {0, 1, 2, . . .} ⊂ Z e quindi
la variabile indipendente n può assumere solo valori interi non negativi; infine, nel caso dell’es. 1.4, il
dominio del segnale T = {Carlo Rossi, Ugo Bianchi, Maria Turchini, Franca Neri . . .} è costituito dai
nomi degli studenti. Va osservato che la natura fisica delle variabili indipendenti in gioco può essere
profondamente diversa; ad esempio per molti segnali la variabile indipendente è proprio il tempo, ma
esistono casi significativi di segnali – le immagini, ad esempio – in cui la variabile indipendente è di ti-
po spaziale (vedi es. 1.10 e 1.14 più avanti). Inoltre, come accade nell’es. 1.3, le variabili indipendenti
di un segnale possono non avere un significato fisico o, come nell’es. 1.4, possono rappresentare dati
4 Segnali e sistemi: introduzione

segnale segnale
segnale di ingresso

di sistema di

segnale di uscita
R1
ingresso uscita

R2

Fig. 1.6. Rappresentazione di un sistema mediante


schema a blocchi.

Fig. 1.5. Schema elettrico di un partitore resistivo.

di natura più generale (gli studenti). Di norma, comunque, a prescindere dal loro effettivo significato
fisico, ci riferiremo alla variabile indipendente t oppure n come al “tempo”, e alla variabile dipendente
x come all’“ampiezza” del segnale. Per cui i segnali che considereremo saranno descritti quasi sempre
attraverso funzioni del tempo. Tali funzioni potranno essere descritte mediante un’espressione mate-
matica, un grafico o una tabella. Gli es. 1.1 e 1.2 mostrano inoltre che uno stesso segnale – nel caso
specifico sinusoidale – può comparire nella descrizione di fenomeni fisici completamente diversi.
Concludiamo osservando che, con riferimento ad un segnale funzione del tempo, la notazione x(t)
è ambigua: essa può significare il valore assunto dal segnale per un particolare valore di t (cioè l’im-
magine mediante x di t), oppure può rappresentare la legge di corrispondenza (1.1) (cioè il segnale nel
suo complesso per ogni t ∈ T). In molti casi la distinzione è ininfluente oppure si ricava dal contesto;
quando tuttavia vorremo enfatizzare la seconda interpretazione, scriveremo {x(t)}t∈T. Considerazioni
analoghe valgono ovviamente anche per le notazioni x(n) e {x(n)}n∈T.

1.2 Definizione di sistema


Anche per i sistemi forniamo una definizione abbastanza generale ed astratta, rimandando il lettore
agli esempi che ne chiariscono meglio il significato.

Definizione 1.2 (sistema)


Un sistema è un modello matematico che descrive la relazione tra due o più segnali, dei quali
alcuni sono identificati come segnali di ingresso (o cause), e gli altri come segnali di uscita (o
effetti).

 Esempio 1.5 (circuito elettrico) Un circuito elettrico è un primo esempio di sistema in cui alla variazione
di tensioni e correnti in certi punti del circuito (individuati come ingressi) corrisponde la variazione di tensioni
e correnti in altri punti del circuito (individuati come uscite). Un semplice esempio di sistema con un solo
ingresso ed una sola uscita è il partitore resistivo di fig. 1.5, in cui il segnale di ingresso è la tensione ai capi
della serie dei resistori R1 ed R2 , mentre l’uscita è la tensione ai capi del resistore R2 . 

Uno schema astratto particolarmente conveniente per rappresentare graficamente un sistema ad un


ingresso e ad una uscita, quale il partitore resistivo dell’es. 1.5, è lo schema a blocchi di fig. 1.6.
 Esempio 1.6 (sistema di comunicazione) Un secondo esempio è quello di un sistema di comunicazione,
riportato schematicamente in fig. 1.7, capace di trasportare un messaggio dalla sorgente alla destinazione. Es-
so è composto da tre elementi fondamentali: un trasmettitore, che associa ad ogni messaggio da trasmettere
1.2 Definizione di sistema 5

messaggio messaggio
trasmettitore canale ricevitore
sorgente destinazione

Fig. 1.7. Schema semplificato di un sistema di comunicazione.

(“messaggio sorgente”) un segnale opportuno (generalmente elettrico o ottico); un canale, che è il mezzo fisico
(ad esempio, un cavo telefonico) lungo il quale viaggia il segnale d’informazione; ed, infine, un ricevitore, che
ha il compito di estrarre dal segnale ricevuto il messaggio trasmesso e recapitarlo alla destinazione (“messaggio
destinazione”). 

Gli esempi precedenti mettono in luce alcuni aspetti importanti. Innanzitutto, il concetto di sistema
è inscindibilmente legato a quello di segnale: senza alcun segnale in ingresso, un sistema è una mera
collezione di componenti elettrici, meccanici, o biochimici; infatti, sono i segnali di ingresso che
“forzano” il sistema a “reagire” e, quindi, a “produrre” dei segnali di uscita. Un sistema può essere
particolarmente complesso e può essere composto da più entità fisiche distinte, che interagiscono tra
di loro; in questo caso, ogni singola entità può essere riguardata come un sottosistema che concorre
a definire l’intero sistema. Ad esempio, il sistema di comunicazione in fig. 1.7 può essere suddiviso
in tre sottosistemi distinti: il trasmettitore, il canale ed il ricevitore. La decomposizione di un sistema
in sottosistemi è particolarmente utile quando occorre studiare sistemi complessi, per i quali l’analisi
diretta dell’intero sistema risulta essere troppo complicata.
Dato un sistema e assegnati i segnali di ingresso, uno dei problemi fondamentali che si incontra
nell’analisi dei sistemi è quello di ricavare analiticamente i corrispondenti segnali di uscita. La pos-
sibilità di caratterizzare analiticamente il comportamento di un sistema è importante perchè, in alcuni
casi, è più semplice ed economicamente vantaggioso determinare i segnali di uscita analiticamente
piuttosto che sperimentalmente. Inoltre, il calcolo analitico della risposta di un sistema è spesso l’u-
nica strada disponibile; si pensi, ad esempio, allo studio di fattibilità di un sistema che è in fase di
progetto e che, pertanto, non è stato ancora realizzato fisicamente; oppure, allo studio di un sistema
in condizioni operative particolari che sono pericolose da riprodurre in pratica. Da quanto detto si
evince che è necessario introdurre una descrizione matematica dei sistemi. A tal fine, soffermiamo
l’attenzione su un sistema che ha un solo segnale di ingresso e un solo segnale di uscita (come il
partitore resistivo), e indichiamo con I l’insieme dei possibili segnali di ingresso e con U l’insieme
dei possibili segnali di uscita. Un sistema può essere descritto matematicamente da un operatore o
una trasformazione S, che istituisce una relazione tra l’insieme dei segnali di ingresso I e l’insieme
dei segnali di uscita U, simbolicamente:
S : I → U. (1.2)

S U
I

y
x
insieme dei
segnali di uscita
insieme dei
segnali di ingresso

Fig. 1.8. L’operatore S associa ad ogni segnale x di I un segnale y di U.


6 Segnali e sistemi: introduzione

In fig. 1.8 è riportata una rappresentazione schematica della legge di corrispondenza (1.2). Si osservi
che i due insiemi I e U implicitamente definiscono anche il dominio e il codominio dei segnali di
ingresso ed uscita del sistema, rispettivamente.
 Esempio 1.7 (integratore) Un integratore è un sistema che realizza la seguente trasformazione:
 t
y(t) = x(u) du ,
−∞

dove x(t) denota il segnale di ingresso e y(t) quello di uscita. In tal caso, l’insieme I dei segnali di ingresso è
rappresentato da tutte le funzioni x(u) che risultano integrabili in ogni intervallo ]−∞,t], con t ∈ R, e l’operatore
S associa ad ogni segnale {x(u)}u∈R appartenente ad I il segnale y(t), ottenuto integrando x(u) sull’intervallo
] − ∞,t], per ogni t ∈ R. 

 Esempio 1.8 (accumulatore) Un accumulatore è un sistema che realizza la seguente trasformazione:


n
y(n) = ∑ x(k) ,
k=−∞

dove la successione x(n) denota il segnale di ingresso e la successione y(n) quello di uscita. In tal caso, l’insieme
I dei segnali di ingresso è rappresentato da tutte le successioni x(k) la cui serie tra k = −∞ ed k = n, con n ∈ Z,
risulta essere convergente, e l’operatore S realizza semplicemente la somma corrente y(n) dei valori del segnale
di ingresso {x(k)}k∈Z a partire da k = −∞ fino all’istante k = n, per ogni n ∈ Z. 

Si osservi che, sebbene le corrispondenze (1.1) e (1.2) che definiscono segnali e sistemi, rispettiva-
mente, possano sembrare simili a prima vista, esse sono tuttavia completamente differenti dal punto di
vista concettuale: infatti, la (1.1), che definisce un segnale, è una legge di corrispondenza tra insiemi
“numerici”, i cui elementi sono numeri reali o interi relativi; d’altra parte, la (1.2) sta ad indicare una
corrispondenza tra insiemi i cui elementi sono segnali (ovvero funzioni). Una seconda osservazione
importante è che, com’è anche evidente dagli es. 1.7 e 1.8, il valore del segnale di uscita in un da-
to istante di tempo può dipendere dal valore assunto dal segnale di ingresso in più istanti o, più in
generale, su tutto il proprio dominio di definizione T. Sulla base di tale osservazione, risulta essere
particolarmente fuorviante l’impiego della notazione y(t) = S[x(t)] oppure y(n) = S[x(n)] per descri-
vere sinteticamente la trasformazione (1.2). Infatti, la scrittura y(t) = S[x(t)] (e lo stesso si può dire
di y(n) = S[x(n)]) può evocare erroneamente alla mente del lettore il concetto di funzione composta,
secondo il quale il valore y(t) del segnale di uscita all’istante t dipende solo dal valore x(t) assunto
dal segnale di ingresso nello stesso istante t. Per evidenziare invece il fatto che nella trasformazione
(1.2), il segnale di uscita in un dato istante può dipendere dall’intero segnale di ingresso, si useranno
le notazioni

y(t) = S[{x(u)}u∈T;t]
y(n) = S[{x(k)}k∈T; n] (1.3)

per descrivere sinteticamente la trasformazione (1.2).


Nel seguito introdurremo le principali metodologie di analisi e di sintesi per i segnali ed i sistemi,
con particolare riguardo a quelle che sono applicabili in generale, indipendentemente dai fenomeni fi-
sici coinvolti. Per questo motivo nella definizione stessa di segnale e di sistema abbiamo posto l’enfasi
sul concetto di modello matematico, piuttosto che sulla realtà fisica cui il modello si riferisce. In molti
casi, tuttavia, facendo leva sulle conoscenze generalmente possedute dagli allievi ingegneri nell’area
dell’informazione, forniremo esempi di segnali e sistemi presi principalmente dall’elettrotecnica e
dall’elettronica. A questo punto è necessario fare una considerazione che è bene che il lettore tenga
1.3 Segnali deterministici ed aleatori 7

1 1

0.5 0.5
x(t)

x(t)
0 0

−0.5 −0.5

−1 −1
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
t t

(a) (b)
Fig. 1.9. Esempio di segnale aleatorio: (a) il segnale vocale x(t) corrispondente alla parola “pace” pronunciata
da un adulto; (b) il segnale vocale x(t) corrispondente alla parola “pace” pronunciata da un bambino.

ben presente nel seguito. Va osservato come principio generale che un modello è solo una rappresen-
tazione, quasi sempre estremamente semplificata, della realtà che intende descrivere. In primo luogo,
infatti, il modello matematico è quasi sempre frutto di approssimazioni; ad esempio, la tensione alter-
nata della rete di distribuzione dell’energia elettrica (cfr. es. 1.2) non è mai esattamente sinusoidale,
per la presenza di disturbi, non linearità, accoppiamenti parassiti, ecc. In secondo luogo, la scelta del
modello matematico è sempre un compromesso tra accuratezza della descrizione del fenomeno fisico
di interesse e semplicità matematica. In conclusione, per evitare possibili fraintendimenti derivanti
dalla confusione tra modello e realtà, il lettore è invitato a tenere bene a mente il celebre aforisma di
Arthur Bloch:2 “Confondere il modello con la realtà è come andare al ristorante e mangiare il menù”.

1.3 Segnali deterministici ed aleatori


I segnali considerati negli es. 1.1, 1.2 e 1.3 ammettono una descrizione matematica esatta attraver-
so una funzione del tempo. Va detto però che l’identificazione tra il concetto di segnale e quello
di funzione è appropriata solo se restringiamo l’attenzione al caso dei segnali perfettamente noti o
deterministici.

Definizione 1.3 (segnale deterministico)


Un segnale si dice deterministico (o determinato) se è perfettamente descritto da una funzione
(espressa analiticamente, in forma tabellare, o in forma grafica).

La classe dei segnali deterministici è ampia, ma non esaurisce tutti i possibili segnali: esiste infatti
la classe importante dei segnali non deterministici, che non possono cioè essere descritti esattamente,
in quanto contengono un certo grado di imprevedibilità o di incertezza. Tali segnali scaturiscono da
fenomeni fisici che, per la loro complessità, o per la conoscenza imperfetta dei meccanismi che li
governano, non ammettono una descrizione matematica esatta.
 Esempio 1.9 (segnale vocale) La voce può essere descritta da un segnale x(t) (segnale vocale), che esprime
la pressione acustica in funzione del tempo. In fig. 1.9 (a) si riporta ad esempio il segnale vocale corrispondente
alla parola “pace” pronunciata da un adulto. Il segnale vocale assume una forma profondamente diversa, non
2 Arthur Bloch è l’autore di una fortunata serie di libri umoristici sulle “leggi di Murphy”.
8 Segnali e sistemi: introduzione

soltanto – come è ovvio – al variare della parola o del suono pronunciato, ma anche al variare del sesso, dell’età,
e dello stato d’animo del parlatore. Ad esempio in fig. 1.9 (b) si riporta il segnale vocale corrispondente alla
stessa parola “pace”, pronunciata stavolta da un bambino. 
Un segnale come quello dell’es. 1.9 si dice aleatorio (dal vocabolo latino alea=dado, che per esten-
sione sta anche a significare “rischio, incertezza”).

Definizione 1.4 (segnale aleatorio)


Un segnale si dice aleatorio (o casuale) se nella sua definizione è contenuto un certo grado di
incertezza.

Un segnale aleatorio, non essendo perfettamente noto a priori, non può essere descritto da una sem-
plice funzione. In effetti, l’es. 1.9 relativo al segnale vocale suggerisce intuitivamente, con un piccolo
sforzo di generalizzazione, che un segnale aleatorio possa essere rappresentato non da una sola fun-
zione, ma da una collezione di funzioni (una per ogni possibile parlatore, con riferimento al segnale
vocale). Per ottenere una valida ed utile descrizione matematica a partire da questo concetto intuitivo,
tuttavia, sono necessari strumenti più sofisticati, quali la teoria della probabilità [15].
Bisogna notare che, proprio a causa della loro imprevedibilità, i segnali aleatori rivestono un gran-
de interesse nell’ingegneria dell’informazione, in quanto, a differenza dei segnali deterministici, essi
sono adatti a trasportare informazione. Basti pensare infatti che, per sua natura, il concetto di informa-
zione è intrinsecamente legato a quello di imprevedibilità [15, cap. 10]. Ad esempio, l’affermazione
“stanotte farà buio” non trasporta nessuna informazione, semplicemente perché è una affermazio-
ne certa, perfettamente prevedibile. Viceversa, una affermazione poco probabile, quale “domani il
pianeta Terra sarà invaso dai Marziani” convoglia una grande quantità di informazione, perché poco
probabile, e quindi non prevedibile. Per questo motivo, un segnale deterministico, che è noto a priori
e quindi perfettamente prevedibile, non è adatto a trasportare informazione.
Nonostante abbiamo sottolineato l’importanza dei segnali aleatori, nel seguito si affronterà esclu-
sivamente lo studio dei segnali deterministici. Tale scelta ha una chiara motivazione didattica, in
quanto operare con segnali deterministici consente di introdurre ad un livello relativamente semplice
le principali tecniche di analisi ed elaborazione dei segnali, rimandando a corsi successivi l’appli-
cazione di tali metodologie anche al caso di segnali aleatori. Va osservato peraltro che, una volta
osservato o memorizzato, un segnale aleatorio perde la sua caratteristica di imprevedibilità e diventa
in effetti deterministico: pertanto esso può essere elaborato con le tecniche caratteristiche dei segnali
deterministici.
1.4 Classificazione elementare dei segnali 9

Fig. 1.10. Esempio di segnale multidimensionale:


un’immagine in bianco e nero z(x, y).

1.4 Classificazione elementare dei segnali


I segnali possono essere suddivisi in classi sulla base di diverse proprietà. In particolare, avendo os-
servato che i segnali deterministici possono essere descritti, in senso matematico, mediante funzioni,
in questo paragrafo introdurremo una prima classificazione dei segnali sulla base delle proprietà della
variabile indipendente e della variabile dipendente della funzione che modella il segnale. La com-
binazione opportuna delle proprietà della variabile dipendente ed indipendente consentirà infine di
introdurre la fondamentale distinzione tra segnali analogici e segnali numerici o digitali.

1.4.1 Proprietà della variabile indipendente

Definizione 1.5 (segnale monodimensionale/multidimensionale)


(a) Un segnale si dice monodimensionale se è descritto da una funzione di una variabile
indipendente.
(b) Un segnale si dice multidimensionale se è descritto da una funzione di due o più variabili
indipendenti.

I segnali sinusoidali degli es. 1.1 e 1.2 e la successione dell’es. 1.3 sono segnali monodimensionali, in
quanto sono descritti da una funzione [x(t) o x(n)] di una sola variabile indipendente. Tipici esempi
di segnali multidimensionali sono le immagini (fisse o in movimento).
 Esempio 1.10 (immagine in bianco e nero) Un’immagine fissa in bianco e nero, o monocromatica, quale
quella di fig. 1.10, può essere descritta da un segnale multidimensionale z(x, y), che descrive le variazioni di
luminosità (o luminanza) in funzione della posizione spaziale (x, y) del punto (detto anche pixel) dell’immagine.
Se l’immagine è in movimento (filmato in bianco e nero), è necessario considerare anche una terza variabile
temporale, per cui il segnale diventa una funzione z(x, y,t) di tre variabili. 

Sebbene l’elaborazione di immagini (image processing) sia estremamente importante dal punto di
vista applicativo, per gli stessi motivi di semplicità didattica già esposti per i segnali aleatori, nel
seguito ci occuperemo di segnali monodimensionali, ed inoltre la variabile indipendente t oppure n
sarà quasi sempre interpretata come “tempo”. Questo si rifletterà in parte nella terminologia utilizzata,
come evidenziato in particolare dalla classificazione che segue.
10 Segnali e sistemi: introduzione

3 3

2 2

1 1

x(n)
x(t)

0 0

−1 −1

−2 −2

−3 −3
−5 0 5 −5 0 5
t n

Fig. 1.11. Rappresentazione grafica di un segnale a Fig. 1.12. Rappresentazione grafica di un segnale a
TC. Tale rappresentazione si può ottenere in Matlab TD. Tale rappresentazione si può ottenere in Matlab
utilizzando il comando plot. utilizzando il comando stem.

Definizione 1.6 (segnale a tempo continuo/discreto)


(a) Un segnale si dice a tempo continuo (TC), o “forma d’onda”, se la variabile indipendente
(tempo) varia in un insieme continuo.
(b) Un segnale si dice a tempo discreto (TD), o “sequenza”, se la variabile indipendente (tempo)
varia in un insieme discreto.

Ad esempio, la sinusoide x(t) = A cos(ω0t + ϕ0 ) degli es. 1.1 e 1.2 è definita per ogni t ∈ R, e quindi
è un segnale a TC. Da un punto di vista matematico, un segnale a TC è rappresentabile mediante la
legge di corrispondenza (1.1), in cui il dominio T della funzione è un insieme continuo. Un segnale
a TC viene denotato preferibilmente con x(t) o x(τ ), cioè utilizzando come variabile indipendente un
simbolo che evoca il tempo, e la sua rappresentazione grafica è quella raffigurata in fig. 1.11. La legge
di corrispondenza (1.1) modella matematicamente anche un segnale a TD, in questo caso il dominio
T della funzione è un insieme discreto. La successione dell’es. 1.3 è definita per ogni n ∈ N0 , e quindi
è un segnale a TD. Allo stesso modo, anche la tabella dell’es. 1.4 va considerato un segnale a TD,
in quanto il suo dominio è costituito da un numero finito di possibili elementi (le generalità degli
studenti). Un segnale a TD sarà denotato preferibilmente con x(n), x(m) o x(k), utilizzando cioè la
convenzione di alcuni linguaggi di programmazione (es. Fortran) secondo la quale le variabili i, j,
k, , m, n indicano quantità intere. La rappresentazione grafica di un segnale a TD è quella riportata
in fig. 1.12. Si osservi che, sebbene un segnale a TD sia rappresentato utilizzando come ascissa un
retta, cioè un insieme continuo, esso è definito solo nei punti interi della retta, cioè quelli appartenenti
all’insieme Z; in altre parole, nei punti dell’asse delle ascisse appartenenti all’insieme R − Z, un
segnale a TD è semplicemente non definito. Come già evidenziato nell’es. 1.3, notiamo che dal punto
di vista matematico un segnale a TD x(n) è assimilabile ad una successione, e pertanto per il suo
studio si possono applicare tutti i risultati matematici disponibili per le successioni.

2 Un
insieme discreto è un insieme costituito da un numero finito di elementi oppure costituito da un numero infinito
numerabile di elementi (cioè i suoi elementi sono ordinabili in successione). In altre parole, un insieme è discreto se può
essere posto in corrispondenza biunivoca con l’insieme dei numeri naturali; ad esempio, sono discreti l’insieme dei numeri
interi relativi Z e quello dei numeri razionali Q. D’altra parte, un insieme continuo è un insieme infinito non numerabile, ad
esempio, sono continui l’insieme [0, 1[ e l’insieme dei numeri reali R.
1.4 Classificazione elementare dei segnali 11

60

50

40

30

x(n)
20

10

0
3 gennaio 1995 3 gennaio 1996
−10
0 10 20 30 40 50
n

Fig. 1.13. Esempio di serie temporale (segnale a TD):


il prezzo in dollari di un’azione IBM alla borsa di
New York preso con cadenza settimanale nel corso
di un anno.

 Esempio 1.11 (serie temporale) Si consideri il segnale x(n) disegnato in fig. 1.13, che rappresenta il prezzo
(in dollari) di un’azione IBM (valore di chiusura) alla borsa di New York presa con cadenza settimanale dal 3
gennaio 1995 al 3 gennaio 1996. Tale segnale è intrinsecamente discreto, in quanto presenta valori solo in cor-
rispondenza dell’insieme discreto delle settimane dell’anno. Un segnale a TD di questo tipo viene denominato
serie temporale o serie storica. Altri esempi di serie storiche sono l’inflazione mensile calcolata dall’ISTAT,
la produzione di un certo bene nei diversi mesi dell’anno, ecc. Le serie storiche sono molto utilizzate nella
statistica, nell’economia e nella finanza. 
Una serie temporale è un segnale “intrinsecamente” a TD, in quanto descrive un fenomeno in cui la
variabile indipendente è discreta (ad esempio rappresenta un giorno, un mese, o un anno). I segnali
del mondo fisico, tuttavia, ed in particolare quelli caratteristici dell’elettrotecnica e nell’elettronica,
sono quasi sempre a TC: è importante allora considerare la classe dei segnali a TD che si ottengono
dai segnali a TC mediante l’operazione di campionamento.
 Esempio 1.12 (campionamento) Dato un segnale a TC x(t), e definito un passo di campionamento Tc ed
una frequenza di campionamento fc = 1/Tc , si definisce campionamento (in inglese, sampling) o conversione
t/n del segnale x(t) il segnale x(n) ottenuto da x(t) mediante la relazione seguente:

x(n) = x(nTc ) .

In pratica, il segnale x(n) è composto dai campioni, prelevati con passo Tc , del segnale x(t). Ad esempio, dal
campionamento della sinusoide a TC x(t) = A cos(ω0t), raffigurata in fig. 1.14(a), si ottiene la sinusoide a TD
x(n) = A cos(ω0 nTc ), rappresentata in fig. 1.14(b) per ω0 Tc = π /4. 
L’operazione inversa del campionamento prende il nome di interpolazione o ricostruzione, e consente
di passare da un segnale a TD ad un segnale a TC.
 Esempio 1.13 (interpolazione lineare) Il più semplice esempio di interpolazione è l’interpolazione lineare,
ottenuta congiungendo con segmenti di retta le ampiezze dei campioni del segnale a TD, supposte equispaziate
di Tc (passo di interpolazione). Posto x(n) = x(nTc ) e x(n + 1) = x[(n + 1)Tc ], l’espressione del segnale a TC
x(t) ottenuto per interpolazione lineare nell’intervallo [nTc , (n + 1)Tc ] è:
 
x(n + 1) − x(n)
x(t) = x(n) + (t − nTc ) , t ∈ [nTc , (n + 1)Tc ] .
Tc
In fig. 1.15(b) è rappresentato il segnale a TC ottenuto interpolando linearmente i campioni x(n) del segnale
sinusoidale dell’es. 1.12. Si noti che l’interpolazione lineare non consente, anche visivamente, la perfetta
12 Segnali e sistemi: introduzione

x(nTc )
x(t) x(n)

A A

3 4 5
Tc t -2 -1 1 2 n

-A -A

(a) (b)

Fig. 1.14. Campionamento di un segnale: (a) il segnale sinusoidale a TC x(t) dell’es. 1.12 ed i suoi campioni
x(nTc ), uniformemente spaziati di Tc (passo di campionamento); (b) il segnale a TD x(n) ottenuto campionando
il segnale x(t) per ω0 T = π /4 (si noti la spaziatura unitaria tra i campioni del segnale a TD).
x(nTc )
x(n) x(t)

A A

3 4 5
-2 -1 1 2 n Tc t

-A -A

(a) (b)

Fig. 1.15. Interpolazione di un segnale: (a) il segnale a TD x(n) dell’es. 1.12; (b) il segnale a TC x(t)
dell’es. 1.13 ottenuto interpolando linearmente i campioni x(nTc ).
1.4 Classificazione elementare dei segnali 13

segnale segnale segnale segnale


a TC campion . a TD a TD interp. a TC

Tc Tc

Fig. 1.16. Schema a blocchi di un campionatore (si Fig. 1.17. Schema a blocchi di un interpolatore (si
noti il passo di campionamento Tc indicato in basso). noti il passo di interpolazione Tc indicato in basso).

ricostruzione del segnale analogico originario; in particolare, il segnale interpolato x(t) presenta, a differenza
della sinusoide originale, un andamento “a spezzata”. 
L’interpolazione lineare non è l’unico tipo di interpolazione possibile: in particolare, l’esempio pre-
cedente mostra che se si vuole ottenere un andamento più “dolce” del segnale interpolato è necessa-
rio ricorrere a tecniche di interpolazione più sofisticate. In ogni caso, la teoria del campionamento
e dell’interpolazione, ed in particolare la fondamentale questione se un segnale a TC, dopo esse-
re stato campionato, possa essere ricostruito perfettamente a partire dai suoi campioni (teorema del
campionamento), sarà studiata approfonditamente nel cap. 7. Notiamo infine che campionamento e
interpolazione possono essere interpretati come sistemi, denominati rispettivamente campionatore ed
interpolatore, e rappresentati graficamente in fig. 1.16 e fig. 1.17.
14 Segnali e sistemi: introduzione

Red

z R(x,y)

Green

z G(x,y)

Blue

z B(x,y)

Fig. 1.18. Esempio di segnale vettoriale: un’immagine a colori si può de-


comporre nelle componenti RGB, e quindi nei segnali zR (x, y), zG (x, y),
zB (x, y).

1.4.2 Proprietà della variabile dipendente

Definizione 1.7 (segnale scalare/vettoriale)


(a) Un segnale si dice scalare se il valore assunto dal segnale (la variabile dipendente) è uno
scalare.
(b) Un segnale si dice vettoriale se il valore assunto dal segnale (la variabile dipendente) è un
vettore, ovvero un “array” di scalari.

Negli esempi visti in precedenza, i segnali sono tutti scalari. Un esempio di segnale vettoriale è
l’immagine a colori, discusso nell’esempio seguente.
 Esempio 1.14 (immagine a colori) Una immagine fissa a colori (fig. 1.18) può essere decomposta dalle
sue tre componenti fondamentali, rosso (R), verde (G) e blu (B), e quindi può essere descritta da tre segnali
monocromatici associati a ciascuna componente, siano essi zR (x, y), zG (x, y), zB (x, y). In questo caso il segnale
è complessivamente una funzione vettoriale di due variabili:
z(x, y) = [zR (x, y), zG (x, y), zB (x, y)] .
Combinando opportunamente questi tre segnali è possibile riprodurre l’immagine a colori originaria. Se l’im-
magine a colori è in movimento (filmato a colori), alle due variabili indipendenti spaziali bisogna aggiungere
una variabile temporale, per cui il segnale sarà descritto da una funzione vettoriale z(x, y,t) di tre variabili. 
1.4 Classificazione elementare dei segnali 15

x(t)

... ...

-5

Fig. 1.19. Esempio di segnale ad ampiezza discreta:


il segnale logico dell’es. 1.15.

Definizione 1.8 (segnale ad ampiezza continua/discreta)


(a) Un segnale si dice ad ampiezza continua (AC) se la variabile dipendente (ampiezza) varia in
un insieme continuo.
(b) Un segnale si dice ad ampiezza discreta (AD) se la variabile dipendente (ampiezza) varia in
un insieme discreto.

Sulla base del modello matematico (1.1), utilizzato per descrivere un segnale, il codominio X della
funzione è un insieme continuo per un segnale ad ampiezza continua, mentre X è un insieme discreto
per un segnale ad ampiezza discreta. I segnali visti negli esempi precedenti sono tutti ad ampiezza
continua: ad esempio, la sinusoide degli es. 1.1 e 1.2 assume con continuità tutti i valori dell’intervallo
[−A, A] ≡ X. Un esempio di segnale ad ampiezza discreta è il segnale logico.
 Esempio 1.15 (segnale logico) La codifica degli stati logici “0” (falso) ed “1” (vero) avviene in un circuito
digitale associando ad essi due livelli di tensione (in Volt), ad esempio 5V per rappresentare lo stato “0” e −5V
per rappresentare lo stato ”1”. Il segnale risultante x(t) (fig. 1.19) descrive la variazione dello stato logico nel
tempo. Si tratta di un segnale a tempo continuo ma ad ampiezza discreta, visto che il suo codominio X = {−5, 5}
è costituito solo da due valori. 
Un segnale ad ampiezza discreta si può ottenere da un segnale ad ampiezza continua mediante una
opportuna trasformazione delle ampiezze, detta quantizzazione. In pratica tale operazione consiste
nell’effettuare una discretizzazione delle ampiezze continue del segnale, rimpiazzandole con un nu-
mero finito di possibili valori. Il vantaggio che si consegue con la quantizzazione è che, se il numero
delle ampiezze è finito, esse possono essere rappresentate mediante cifre binarie “0” ed ”1” (bit).
 Esempio 1.16 (quantizzazione) Si consideri il segnale sinusoidale a TD x(n) = A cos(ω0 nT ) dell’es. 1.12,
raffigurato in fig. 1.20(a). Esso può essere trasformato in un segnale ad ampiezza discreta con due soli livelli
±A mediante l’operazione di quantizzazione “ad un bit”:

+A , se x(n) ≥ 0 ;
y(n) =
−A , altrimenti .

Il segnale risultante è mostrato in fig. 1.20 (b). La quantizzazione si dice “ad un bit” in quanto l’ampiezza
16 Segnali e sistemi: introduzione

x(n) y(n)
A
A

3 4 5 3 4 5
-2 -1 1 2 n -2 -1 1 2 n

-A -A

(a) (b)

Fig. 1.20. Quantizzazione di un segnale: (a) il segnale a TD x(n) dell’es. 1.12; (b) il segnale ad ampiezza
discreta y(n) dell’es. 1.16 ottenuto quantizzando con due livelli A e −A il segnale x(n).

segnale segnale
ad quantizz . ad
ampiezza ampiezza
continua discreta

Fig. 1.21. Schema a blocchi di un quantizzatore.

assume due soli valori, e quindi può essere rappresentata con un solo bit, ad esempio “1” per l’ampiezza A e
“0” per l’ampiezza −A. 
Anche l’operazione di quantizzazione si può interpretare come un sistema, denominato quantizzatore,
e raffigurato in fig. 1.21. Così come il campionamento, anche la teoria della quantizzazione sarà
approfondita nel cap. 7.
1.4 Classificazione elementare dei segnali 17

discreta
segnali a segnali
TC/AD digitali

ampiezza
(TD/AD)

continua
segnali segnali a
analogici TD/AC
(TC /AC)

continuo discreto
tempo

Fig. 1.22. Le quattro categorie di segnali che si otten-


gono combinando le classificazioni nel tempo ed in am-
piezza. Tra esse, le categorie dei segnali analogici e
digitali sono le uniche di interesse applicativo.

1.4.3 Segnali analogici e digitali


Dal punto di vista applicativo, le classificazioni più importanti tra quelle viste in precedenza sono
quella tra segnali a tempo continuo o discreto, e tra segnali ad ampiezza continua o discreta. Poiché
tali classificazioni riguardano una il tempo e l’altra l’ampiezza del segnale, esse sono indipendenti,
e dalla loro combinazione scaturiscono quattro possibili categorie di segnali (fig. 1.22). Di queste,
tuttavia, solo le due che seguono hanno un’importanza rilevante nelle applicazioni, tanto da meritare
una denominazione particolare:

Definizione 1.9 (segnale analogico/digitale)


(a) Un segnale si dice analogico se è a tempo continuo e ad ampiezza continua.
(b) Un segnale si dice digitale o numerico se è a tempo discreto e ad ampiezza discreta (con un
numero finito di ampiezze).

I segnali del mondo fisico sono analogici, in quanto i fenomeni fisici evolvono con continuità sia nel
tempo che in ampiezza, e per il loro studio matematico, affrontato già a partire dal XVIII secolo,
esistono metodologie ben consolidate. Viceversa, l’interesse per i segnali digitali è più recente, ma
essi rivestono un ruolo predominante nello scenario tecnologico attuale, in quanto possono essere
rappresentati mediante stringhe di bit ed immagazzinati ed elaborati mediante dispositivi digitali (ela-
borazione digitale dei segnali o digital signal processing, DSP), con vantaggi rilevanti in termini di
costi e flessibilità (si veda l’es. 1.18 e la successiva discussione).
18 Segnali e sistemi: introduzione

ingresso 1 uscita

sistema a y(t)
x(t)
TC
ingresso 2
(a) (a)

ingresso 1 uscita
sistema a y(n)
x(n)
TD

ingresso 2 (b)
(b)

Fig. 1.23. Esempi di sistemi MISO; (a) sommatore a Fig. 1.24. Rappresentazione di un sistema SISO me-
due ingressi; (b) moltiplicatore a due ingressi. diante schema a blocchi: (a) sistema a TC; (b) sistema
a TD.

1.5 Classificazione elementare dei sistemi


Come i segnali, anche i sistemi possono essere classificati sulla base delle loro proprietà elementa-
ri, quali il numero degli ingressi e delle uscite, e la natura temporale (a tempo continuo o a tempo
discreto) degli ingressi e delle uscite.

Definizione 1.10 (sistema SISO/MISO/SIMO/MIMO)


(a) Un sistema con un ingresso ed una uscita si dice single-input single-output (SISO).
(b) Un sistema con più ingressi ed una uscita si dice multiple-input single-output (MISO).
(c) Un sistema con un ingresso e più uscite si dice single-input multiple-output (SIMO).
(d) Un sistema con più ingressi e più uscite si dice multiple-input multiple-output (MIMO).

I sistemi visti in precedenza, quali ad esempio il partitore resistivo, il campionatore, l’interpolatore,


ed il quantizzatore, sono tutti di tipo SISO. Semplici esempi di sistemi MISO sono il sommatore ed
il moltiplicatore, raffigurati schematicamente in fig. 1.23. Nel seguito, a parte il caso dei sommatori
e dei moltiplicatori, faremo esclusivamente riferimento a sistemi SISO: per questo motivo, quando
parleremo di sistema, supporremo implicitamente che esso sia di tipo SISO.

Definizione 1.11 (sistema a tempo continuo/discreto/misto)


(a) Un sistema si dice a tempo continuo (TC) se l’ingresso e l’uscita sono entrambi segnali a
tempo continuo.
(b) Un sistema si dice a tempo discreto (TD) se l’ingresso e l’uscita sono entrambi segnali a
tempo discreto.
(c) Un sistema si dice misto (o ibrido) se l’ingresso e l’uscita sono uno a tempo continuo e l’altro
a tempo discreto, o viceversa.
1.5 Classificazione elementare dei sistemi 19

segnale segnale
A/D digitale (a)
analogico

segnale
campionato
segnale segnale
campion . quantizz . (b)
analogico digitale

Tc

Fig. 1.25. Conversione A/D: (a) schema a blocchi di un convertitore A/D; (b) rappresentazione schematica della
conversione A/D come un campionamento seguito da una quantizzazione.

Sulla base del modello (1.2) utilizzato per descrivere matematicamente un sistema, nel caso di sistemi
a TC, entrambi gli insiemi I e U dei segnali di ingresso e di uscita racchiudono solo segnali a TC,
mentre I e U sono costituiti solo da segnali a TD nel caso di sistemi a TD ed, infine, nel caso di sistemi
misti, l’insieme I racchiude solo segnali a TC, mentre U contiene solo segnali a TD, o viceversa.
Praticamente tutti i sistemi del mondo fisico evolvono con continuità nel tempo, e quindi sono sistemi
a TC: ad esempio una rete elettrica, come il partitore dell’es. 1.5, è un sistema a TC. In accordo con
la simbologia introdotta in fig. 1.6, un generico sistema a TC può essere rappresentato con lo schema
a blocchi in fig. 1.24(a). I sistemi a TD non esistono generalmente “in natura”, ma sono di grande
interesse in quanto descrivono numerosi fenomeni delle scienze naturali ed umane (ad esempio, in
campo economico o sociale); essi sono inoltre di grande interesse ingegneristico, in quanto consentono
di “simulare” mediante un calcolatore digitale il comportamento di un sistema fisico. Un generico
sistema a TD si rappresenta con lo schema a blocchi in fig. 1.24(b). Notiamo infine che talvolta i
sistemi a TC sono anche denominati sistemi analogici, ed i sistemi a TD sono denominati, in maniera
lievemente imprecisa, sistemi digitali.3
Infine, i sistemi misti (TC/TD o TD/TC) sono molto utili quando bisogna passare dal mondo
“fisico” dei segnali a TC al mondo “virtuale” dei segnali a TD, e viceversa. Esempi significativi di
sistemi di questo tipo sono il campionatore (es. 1.12), che presenta ingresso a TC e uscita a TD, e
l’interpolatore (es. 1.13), che presenta ingresso a TD e uscita a TC. Il seguente esempio introduce due
ulteriori esempi di sistemi misti.
 Esempio 1.17 (conversione A/D e D/A) Un segnale analogico può essere convertito in un segnale digitale
mediante una conversione A/D, effettuata da un sistema denominato convertitore A/D (fig. 1.25). Per effettuare
tale conversione è necessario discretizzare sia i tempi che le ampiezze del segnale, e quindi bisogna effettuare
sia un campionamento (cfr. es. 1.12), sia una quantizzazione (cfr. es. 1.16). Lo schema del convertitore A/D
riportato in fig. 1.25 è puramente di principio; in un convertitore A/D reale (denominato anche analog-to-
digital converter, ADC), le operazioni di campionamento e quantizzazione non sono necessariamente effettuate
nell’ordine visto, e spesso non sono nemmeno chiaramente separabili. Inoltre, in un ADC sarà presente in uscita
anche un codificatore binario per trasformare le ampiezze del segnale quantizzato in stringhe di bit.
La conversione inversa (da segnale digitale ad analogico) prende il nome di conversione D/A ed è effet-
tuata da un convertitore D/A (fig. 1.26): essa consiste fondamentalmente in una operazione di interpolazione
3 Più precisamente, i sistemi digitali sono particolari sistemi a TD implementati con un’aritmetica a precisione finita.
20 Segnali e sistemi: introduzione

segnale segnale (a)


digitale D/A analogico

segnale segnale (b)


interp.
digitale analogico

Tc

Fig. 1.26. Conversione D/A: (a) schema a blocchi di un convertitore D/A; (b) rappresentazione schematica della
conversione D/A in termini di interpolazione.

(cfr. es. 1.13), in quanto gli effetti della quantizzazione sono irreversibili, e quindi non può esistere una opera-
zione inversa di “dequantizzazione”. Un convertitore D/A reale (denominato anche digital-to-analog converter,
DAC), accetta in ingresso stringhe di bit, che sono trasformate in valori di ampiezza da un decodificatore binario,
prima di effettuare l’interpolazione. 

Un’applicazione particolarmente interessante dei sistemi misti, ed in particolare dei convertitori A/D
e D/A, è lo schema classico dell’elaborazione digitale dei segnali o digital signal processing (DSP)
riportato in fig. 1.27, e finalizzato ad elaborare un segnale analogico in maniera digitale. In tale
schema, un segnale analogico x(t) viene prima convertito, mediante un convertitore A/D, in un segnale
digitale x(n); successivamente, il segnale x(n) viene elaborato mediante un sistema digitale, ed il
segnale risultante y(n) viene nuovamente trasformato in un segnale analogico dal convertitore D/A. Si
noti che il sistema complessivo (tratteggiato in fig. 1.27) è un sistema analogico; per questo motivo,
lo schema di fig. 1.27 può essere interpretato anche come uno schema di simulazione di un sistema
analogico mediante un sistema digitale. Rispetto ad una elaborazione analogica del segnale x(t),
lo schema digitale in fig. 1.27 offre alcuni vantaggi importanti, quali maggiore flessibilità, minore
ingombro, minore consumo di potenza e, non ultimo, minor costo dell’hardware. Per questo motivo,
schemi DSP del tipo precedentemente visto trovano applicazioni in quasi tutti i moderni settori della
tecnologia, dalle telecomunicazioni all’informatica, alla biomedica, all’automazione, alle costruzioni
aerospaziali, ai trasporti, e numerosi altri.

x(n) sistema y(n)


x(t) A/D D/A y(t)
digitale

sistema analogico

Fig. 1.27. Schema classico per l’elaborazione digitale dei segnali.


1.5 Classificazione elementare dei sistemi 21

registrazione

masterizzatore
analogico
microfono

amplificatori disco
in vinile

trasduttore
("puntina ")
altoparlante
riproduzione

Fig. 1.28. Schema analogico per la registrazione/riproduzione audio. L’informazione è memorizzata sul disco
in vinile in forma analogica (come profondità del solco).

La sintesi e l’analisi dei convertitori A/D e D/A saranno approfondite nel cap. 7. Tuttavia l’esem-
pio che segue mostra come tali sistemi giochino un ruolo fondamentale in una familiare applicazione
dell’elettronica di consumo.
 Esempio 1.18 (schemi analogici e digitali per la registrazione/riproduzione audio) In fig. 1.28 si riporta
lo schema di principio che descrive la registrazione di un brano musicale su un disco in vinile e la sua successiva
riproduzione, entrambe effettuate in maniera analogica. Il brano da registrare viene captato da un microfono,
che si comporta da trasduttore, ovvero converte la pressione acustica del suono in un segnale elettrico. Tale
segnale elettrico, di debole intensità, viene amplificato e inviato ad un masterizzatore (analogico). Il maste-
rizzatore si comporta da attuatore, trasforma cioè il segnale elettrico in un segnale che comanda l’incisione
dei solchi su un supporto (master), tipicamente in materiale metallico pregiato. Il profilo dei solchi del disco
riproduce il più fedelmente possibile l’ampiezza del segnale audio all’ingresso del masterizzatore. Una volta
inciso il master, da esso si possono ricavare dei master secondari, e da questi ultimi le copie in materiale plastico
(vinile), che vengono vendute all’utente finale. Da ciascuna copia, l’utente può riascoltare il brano inciso uti-
lizzando un giradischi, nel quale un trasduttore – la cosiddetta “puntina” – muovendosi lungo i solchi converte
il movimento verticale in una debole tensione elettrica, che dopo essere stata amplificata può essere applicata
ai diffusori acustici (le casse) e finalmente ascoltata.
Lo schema di registrazione/riproduzione analogica precedentemente visto è stato tuttavia sostituito al gior-
no d’oggi dallo schema digitale riportato in fig. 1.29. In esso, la differenza significativa è che il segnale captato
dal microfono, dopo l’amplificatore, viene sottoposto ad una conversione A/D, codificato in bit, ed inviato ad
un masterizzatore (digitale), il quale memorizza su un supporto ottico (il compact disc) le stringhe di bit che
rappresentano il segnale dopo il campionamento e la quantizzazione, bruciando con un laser in misura maggiore
o minore le zone del disco. Successivamente, l’informazione binaria può essere letta dal compact disc utilizzan-
do un trasduttore ottico (ancora un laser): le stringhe di bit vengono decodificate, ed inviate ad un convertitore
D/A. Successivamente il segnale viene amplificato e riprodotto mediante i diffusori acustici (le casse). 

L’es. 1.18 può servire per evidenziare più chiaramente alcuni dei numerosi vantaggi che lo schema
digitale presenta rispetto a quello analogico.
22 Segnali e sistemi: introduzione

registrazione

masterizzatore
A/D
digitale
microfono

amplificatori compact
disc

trasduttore
D/A
(laser )
altoparlante

riproduzione

Fig. 1.29. Schema digitale per la registrazione/riproduzione audio. L’informazione è memorizzata sul compact
disc in forma digitale (come stringhe di bit).

Il vantaggio principale è che l’informazione, una volta memorizzata in maniera digitale, può essere
riprodotta infinite volte e senza quasi alcuna degradazione. Infatti, se il supporto analogico (il disco in
vinile) è sottoposto a deterioramento, polvere, graffi, deformazioni, ecc., queste si traducono comun-
que in una degradazione acusticamente percepibile della qualità del segnale audio (fruscio, “click”,
ecc.); di contro, piccole degradazioni del supporto digitale (il compact disc), tali da non comportare
scambi in lettura tra “0” ed “1” (o viceversa), non determinano alcuna degradazione della qualità del
segnale audio. Esiste evidentemente la possibilità che, a causa di degradazioni più significative del
supporto digitale, uno o più bit possano essere letti erroneamente, ma a tale evenienza si può por-
re rimedio mediante tecniche sofisticate per la rivelazione e correzione di errori (codifica di canale):
questo è un altro vantaggio dello schema digitale su quello analogico, in quanto in quest’ultimo caso
non sono concepibili tecniche semplici per la protezione dagli errori.
Un altro vantaggio della conversione digitale è che differenti sorgenti di informazione, una volta
convertite in stringhe di bit, possono essere facilmente memorizzate in maniera integrata su uno stesso
supporto; si pensi ad esempio al supporto DVD (digital versatile disc) in cui si integrano con facilità
informazioni “multimediali” quali video, audio, e dati di varia natura.
Infine l’informazione digitale, essendo stata convertita in bit, può più facilmente essere elaborata,
memorizzata, compressa, protetta, anche con un semplice personal computer (PC). Di contro, l’e-
laborazione dell’informazione analogica comporta l’uso di sofisticate apparecchiature professionali,
costose da progettare e da realizzare. Non a caso, con l’avvento delle tecniche digitali, è diventato
possibile per chiunque disporre di uno studio di registrazione audio semiprofessionale o di una stazio-
ne per l’editing video basati su un PC sufficientemente potente, a costi sempre più bassi, dell’ordine
di qualche migliaio di euro.
24 Segnali e sistemi: introduzione
Capitolo 2

Proprietà dei segnali

I n questo capitolo, che costituisce la naturale prosecuzione del precedente, viene ulteriormente ap-
profondito lo studio dei segnali. In particolare, dopo aver introdotto le operazioni elementari che si
possono effettuare sui segnali, viene definito e discusso il concetto di estensione temporale e di durata
di un segnale. Successivamente si introducono le definizioni di area e media temporale di un segnale,
che consentono di calcolare la componente continua ed alternata di un segnale arbitrario. Infine, sono
definiti e discussi i fondamentali concetti di energia e potenza, sulla base dei quali è possibile classifi-
care ulteriormente i segnali in segnali di energia e segnali di potenza. Nel corso del capitolo saranno
introdotti numerosi segnali cosiddetti elementari, che possono considerarsi alla stregua di “mattoni”,
assemblando i quali è possibile ottenere quasi tutti i segnali di interesse pratico.

2.1 Operazioni elementari sui segnali


Poiché i segnali deterministici a TC sono descritti mediante funzioni di variabili reali, tutti i concetti e
le operazioni introdotti nei corsi di analisi matematica per le funzioni valgono anche per i segnali TC;
in particolare, con riferimento a un segnale TC, è possibile introdurre i concetti di limite e continuità,
e le operazioni di derivazione e integrazione. Allo stesso modo, poiché i segnali deterministici a TD
sono descritti mediante successioni, tutti i concetti e le operazioni definiti per le successioni sono
validi anche per i segnali a TD; in particolare, per un segnale TD, è possibile definire le nozioni di
limite e serie. Alcune definizioni e operazioni fondamentali sulle funzioni e sulle successioni sono
brevemente richiamati nell’app. B. Tuttavia, esistono alcune operazioni elementari sulle funzioni
che giocano un ruolo fondamentale nella teoria dei segnali e dei sistemi e, pertanto, meritano una
particolare attenzione. Tali operazioni si possono schematicamente classificare come:
• trasformazioni della variabile dipendente (l’ampiezza);
• trasformazioni della variabile indipendente (il tempo).
Anticipiamo che mentre le prime sono più semplici da interpretare, le seconde sono più complesse
e soggette talvolta ad errori di interpretazione. In aggiunta a tali operazioni elementari, vi sono altre
operazioni meno elementari che sono di stretto interesse dal punto di vista della teoria dei segnali
26 Proprietà dei segnali

x1 (·) y(·)

x2 (·)
(a)

x1 (·) y(·)

x2 (·)
(b)

Fig. 2.1. Operazioni sui segnali: (a) somma di due segnali; (b) moltiplicazione di due segnali.

e dei sistemi, quali, ad esempio, le operazioni di derivazione ed integrazione per segnali TC. La
rivisitazione di tali proprietà consentirà di ottenere alcune importanti generalizzazioni, che porteranno
in particolare a definire un particolare segnale TC dalle “strane” proprietà, detto impulso di Dirac.
Inoltre, nel caso TD, in stretta analogia alle operazioni di derivazione ed integrazione per il caso TC,
saranno definite due operazioni corrispondenti, denominate differenza prima e somma corrente.

2.1.1 Trasformazioni della variabile dipendente


Tra le trasformazioni elementari della variabile dipendente, considereremo in particolare la somma di
due segnali, il prodotto di due segnali, la moltiplicazione di un segnale per una costante.

Somma

La somma di due segnali1

y(·) = x1 (·) + x2 (·)

si effettua sommando punto a punto le ordinate delle funzioni corrispondenti. La somma di due segnali
si può interpretare come un sistema MISO (a due ingressi ed una uscita) (cfr. § 1.5) denominato
sommatore e rappresentato schematicamente in fig. 2.1(a). La somma si può estendere facilmente
a più di due segnali, così come si può generalizzare lo schema del sommatore anche al caso in cui
alcuni segnali siano sottratti anziché sommati (in questo caso si aggiunge un segno “–” in prossimità
del corrispondente ingresso del sommatore).

Prodotto

In maniera simile alla somma, si definisce il prodotto di due segnali

y(·) = x1 (·) x2 (·) .


1 Qui e nel seguito, useremo la notazione del tipo x(·) per denotare indifferentemente un segnale TC x(t) o TD x(n).
2.1 Operazioni elementari sui segnali 27

x(·) a y(·)

Fig. 2.2. Schema a blocchi di un amplificatore/attenuatore.

Il prodotto di due segnali si può interpretare anch’esso come un sistema MISO (a due ingressi ed una
uscita) denominato moltiplicatore e rappresentato in fig. 2.1(b). Anche la definizione di prodotto e lo
schema del moltiplicatore può essere generalizzato in modo ovvio al caso di più di due ingressi.

Moltiplicazione per una costante

La moltiplicazione di un segnale per una costante

y(·) = a x(·) ,

con a > 0, corrisponde a moltiplicare tutti i valori di ampiezza del segnale per il fattore a. Tale
operazione può essere interpretata come l’effetto di un sistema SISO denominato amplificatore (se
a > 1) o attenuatore (se a < 1), raffigurato in fig. 2.2. Genericamente, il fattore a viene denominato
guadagno dell’amplificatore/attenuatore.
Se a = −1, l’operazione y(·) = −x(·) corrisponde ad un cambio di segno delle ampiezze del
segnale, e viene denominata inversione (da non confondere con la riflessione temporale che è discussa
dopo). Più in generale, se a < 0, l’operazione y(·) = a x(·) si può riguardare come un’inversione
seguita da un’amplificazione (o attenuazione) con guadagno |a|; lo schema di fig. 2.2 può essere
utilizzato anche in questo caso.

2.1.2 Trasformazioni della variabile indipendente


Tra le trasformazioni elementari della variabile indipendente considereremo la traslazione temporale,
la riflessione temporale, ed il cambiamento di scala temporale; per quest’ultima operazione, in par-
ticolare, considereremo alcune caratteristiche peculiari del caso TD, attraverso l’introduzione delle
operazioni di decimazione ed espansione.

Traslazione temporale (ritardo/anticipo)

La traslazione temporale di un segnale TC si definisce come

y(t) = x(t − t0 ) ,

dove per t0 > 0 si ha una traslazione verso destra del segnale, o ritardo, mentre per t0 < 0 si ha una
traslazione verso sinistra, o anticipo, come rappresentato in fig. 2.3. Si noti che una traslazione tem-
porale non modifica la forma del segnale, ma comporta solo una variazione del riferimento temporale.
Una definizione analoga di traslazione temporale si può dare per un segnale TD:

y(n) = x(n − n0 ) ,

dove però, a differenza del caso TC, il parametro della traslazione n0 assume necessariamente valori
interi, cioè n0 ∈ Z: in altri termini, un segnale TD può essere traslato solo di quantità intere.
28 Proprietà dei segnali

x(t)

(a)

t1 t2 t
y(t) = x(t-t0)
t0 > 0

(b)

t1+t0 t2+t0 t

y(t) = x(t-t0)
t0 < 0

(c)

t1+t0 t2+t0 t

Fig. 2.3. Traslazione temporale di un segnale TC: (a) segnale originario; (b) segnale ritardato (t0 > 0); (c)
segnale anticipato (t0 < 0).

Riflessione temporale

La riflessione temporale di un segnale consiste nel ribaltamento della scala dei tempi, secondo le
seguenti relazioni, valide rispettivamente per il caso TC e TD:

y(t) = x(−t) ;
y(n) = x(−n) .

Un esempio di riflessione per un segnale TC è riportato in fig. 2.4; in pratica il grafico del segna-
le subisce una rotazione intorno all’asse delle ordinate (si noti che il valore in t = 0 oppure n = 0
resta immutato per effetto della riflessione). Dal punto di vista fisico, se ad esempio il segnale x(t)
rappresenta l’audio di un brano musicale, la riflessione corrisponde a riprodurre il brano al contrario.
Un segnale TC invariante alla riflessione, x(−t) = x(t), si dice pari; invece, un segnale TC inva-
riante rispetto alla cascata di una riflessione e inversione, x(t) = −x(−t), si dice dispari. Analogamen-
te, un segnale TD si dice pari se x(−n) = x(n), dispari se x(n) = −x(−n). Ad esempio, in fig. 2.5 (a)
2.1 Operazioni elementari sui segnali 29

x(t)

(a)

t1 t2 t
y(t) = x(-t)

(b)

- t2 - t1 t

Fig. 2.4. Riflessione temporale di un segnale TC: (a) segnale originario; (b) segnale riflesso.

e (b) sono raffigurati due esempi di segnali pari, mentre in fig. 2.5 (c) e (d) sono raffigurati due esempi
di segnali dispari. Si noti che un segnale pari o dispari è completamente descritto dal suo andamento
per valori positivi (oppure negativi) della variabile indipendente. A partire dalla definizione di segnale
pari e dispari, si possono facilmente dimostrare (la dimostrazione è lasciata al lettore per esercizio) le
seguenti semplici proprietà:

Proprietà 2.1 (proprietà elementari dei segnali pari e dispari)


(a) Se x(·) è dispari ed è definito il suo valore nell’origine, risulta necessariamente x(0) = 0.
(b) La somma di due segnali pari [dispari] è un segnale pari [dispari].
(c) Il prodotto di due segnali pari è un segnale pari, mentre il prodotto di due segnali dispari è
un segnale pari.
(d) Il prodotto di un segnale pari e di un segnale dispari è un segnale dispari.
(e) Ogni segnale x(·) (nè pari nè dispari) può essere decomposto come x(·) = Pa[x(·)] + Di[x(·)],
dove
x(·) + x(−(·)) x(·) − x(−(·))
Pa[x(·)] = e Di[x(·)] = .
2 2
sono rispettivamente la componente pari (o parte pari) e la componente dispari (o parte
dispari) del segnale x(·).

Un esempio di decomposizione di un segnale TC in parte pari e dispari è riportato in fig. 2.6.


30 Proprietà dei segnali

x(t) x(n)

(a) (b)

t -3 -2 -1 0 1 2 3 n

x(t) x(n)

(c) (d)

1 2

t -3 -2 -1 0 3 n

Fig. 2.5. Invarianza alle riflessioni/inversioni: (a) segnale pari a TC; (b) segnale pari a
TD; (c) segnale dispari a TC; (b) segnale dispari a TD.
x(t)

-1 1 t

Pa[x(t)] Di[x(t)]

1
1

-1
-1 1 t 1 t

-1
-1

Fig. 2.6. Esempio di decomposizione di un segnale TC in parte pari e dispari.


2.1 Operazioni elementari sui segnali 31

x(t)

(a)

t1 t2 t
y(t) = x(at)
a>1

(b)

t1/a t2/a t
y(t) = x(at)
a<1

(c)

t1/a t2/a t

Fig. 2.7. Cambiamento di scala temporale di un segnale TC: (a) segnale originario; (b) segnale compresso
(a > 1); (b) segnale espanso (0 < a < 1).

Cambiamento di scala temporale

L’operazione di cambiamento di scala temporale presenta sostanziali differenze tra il caso TC e quello
TD, per cui tratteremo separatamente questi due casi. Nel caso TC, il cambiamento di scala temporale
è definito come

y(t) = x(at) ,

dove a ∈ R+ : per a > 1, in particolare, si ha una compressione dei tempi [fig. 2.7(a)], mentre per
0 < a < 1 si ha una espansione dei tempi [fig. 2.7(b)]; il caso a = 1 lascia ovviamente il segnale
inalterato. Si noti che sia nel caso della compressione che dell’espansione, il valore del segnale per
t = 0 rimane inalterato. Nel caso a < 0, l’operazione y(t) = x(at) non è elementare, in quanto si può
riguardare come la cascata di una riflessione e di un cambiamento di scala di |a| > 0.
Dal punto di vista fisico, se il segnale x(t) è l’audio di un brano musicale, la compressione corri-
sponde a riprodurre il segnale in un tempo più piccolo, e quindi a velocità maggiore (ad esempio, si
ha una compressione se si riproduce un disco in vinile a 33 giri alla velocità di un 45 giri), mentre con
32 Proprietà dei segnali

x(n)

(a)

-9 -7 -2 1 4 7 9
-8 -6 -5 -4 -3 -1 0 2 3 5 6 8
n

y(n) = x(3n)

x(0) x(6)
x(-3)
x(-6) x(3) (b)

-3 3

-2 -1 0 1 2
n
x(-9)

x(9)

Fig. 2.8. Decimazione di un segnale TD: (a) segnale originario; (b) segnale decimato con M = 3.

l’espansione si ottiene esattamente l’effetto opposto. Notiamo che per segnali a TC il cambiamento di
scala dei tempi è una operazione perfettamente reversibile, ed in particolare un cambiamento di scala
con fattore a è perfettamente compensato da un cambiamento di scala con fattore 1/a.
Per segnali a TD, l’espressione y(n) = x(an) ha senso per a > 1 solo se a è intero, ovvero se
a = M ∈ N, per cui si scrive:

y(n) = x(nM) .

In questo caso è possibile ancora parlare di compressione, ma nel caso TD si utilizza il termine più
specifico di decimazione;2 infatti, se se sceglie M = 10, il segnale y(n) si ottiene dal segnale x(n) pren-
dendo un campione ogni 10. Un esempio di decimazione con M = 3 è rappresentato graficamente in
fig. 2.8; si noti l’effetto di compressione (minore durata) del segnale risultante, derivante dalla perdi-
ta di due campioni ogni tre del segnale originario. È proprio tale perdita dei campioni caratteristica
della decimazione che segna la maggiore differenza tra il caso TD ed il caso TC; infatti, a differenza
2 L’uso
del termine “decimazione” rievoca la terribile tecnica adoperata dall’esercito nazista durante la seconda guerra
mondiale per selezionare i prigionieri da sottoporre a fucilazione per rappresaglia, come accadde ad esempio in occasione
del massacro delle Fosse Ardeatine.
2.1 Operazioni elementari sui segnali 33

x(n)

(a)

-3 3

-2 -1 0 1 2
n

y(n)=x[n/3]

x(0) x(2)
x(-1) (b)
x(-2) x(1)

-9 9
-8 -7 -6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8
n
x(-3)
x(3)

Fig. 2.9. Espansione di un segnale TD: (a) segnale originario; (b) segnale espanso con L = 3.

della compressione di un segnale TC, la decimazione è una operazione non reversibile, perché alcuni
campioni del segnale TD (in generale, M − 1 campioni ogni M) sono eliminati completamente.
Passiamo ora ad esaminare l’operazione di espansione nel caso TD. Analogamente a quanto visto
per la decimazione, l’espressione y(n) = x(an) non ha senso per qualunque a < 1, in quanto an non
è un numero intero. Se anche, per analogia con il caso a = M, si assume a = 1/L, con L ∈ N,
l’espressione y(n) = x(n/L) ha senso solo se n è multiplo di L. Le precedenti considerazioni inducono
allora a definire l’operazione di espansione nel caso TD nel modo seguente (si noti l’uso “formale”
delle parentesi quadre):
 n
n  x , se n è multiplo di L ;
y(n) = x = L (2.1)
L 0, altrimenti .

Un esempio di espansione per L = 3 è fornito in fig. 2.9; da tale esempio si capisce perché l’espansione
viene denominata anche interpolazione con zeri, in quanto essa espande il segnale x(n) inserendo L−1
campioni nulli (zeri) tra due campioni consecutivi. A differenza della decimazione, l’espansione a
TD è una operazione perfettamente reversibile, in quanto il segnale originario può essere ottenuto
semplicemente eliminando gli zeri inseriti, ovvero facendo seguire all’espansione con fattore L una
decimazione con uguale fattore M = L.
34 Proprietà dei segnali

2.1.3 Combinazione di operazioni elementari


Spesso un segnale è sottoposto in sequenza a più operazioni elementari del tipo precedentemente
visto. Dal punto di vista matematico, una combinazione di operazioni elementari definisce una fun-
zione composta, per cui non dovrebbe essere difficile individuare il segnale risultante; va detto però
che spesso, specialmente quando sono coinvolte trasformazioni della variabile indipendente (tempo),
è facile commettere errori. Per evitare ciò, il principio fondamentale da tener presente è che le trasfor-
mazioni che agiscono sull’asse dei tempi (ritardo, riflessione, cambiamento di scala) possono essere
interpretate come semplici sostituzioni formali. Ad esempio, ritardare un segnale x(t) di 3 significa
effettuare la seguente sostituzione: ogni volta che nell’espressione di x(t) compare t, sostituire ad esso
t − 3 (sinteticamente, questa sostituzione si denota con t − 3 → t). Allo stesso modo, espandere un
segnale x(t) di un fattore 2 significa effettuare la sostituzione t/2 → t. Tenendo bene a mente questo
principio, si giungerà al risultato corretto, come illustrato dall’esempio che segue.
 Esempio 2.1 (combinazione di operazioni elementari, caso TC) Un segnale TC x(t) viene sottoposto nel-
l’ordine alle seguenti operazioni:
(1) riflessione;
(2) ritardo di 3;
(3) compressione di 2.
Per individuare il segnale y(t) risultante, è conveniente seguire il seguente procedimento. Prima scriviamo le
relazioni che descrivono le varie operazioni individualmente, introducendo dei segnali intermedi u(t), v(t), etc.
Nel nostro caso, le tre operazioni sono descritte da:

riflessione: u(t) = x(−t) ;


ritardo di 3: v(t) = u(t − 3) ;
compressione di 2: y(t) = v(2t) .

Successivamente, effettuiamo sostituzioni simboliche a ritroso partendo dall’ultima espressione scritta:

y(t) = v(2t) = u(2t − 3) = x[−(2t − 3)] = x(3 − 2t) ,

che è il risultato cercato. Si noti che quando effettuiamo sostituzioni a catena, operiamo sempre con sostituzioni
formali in tutti i passaggi: ad esempio per calcolare v(2t) abbiamo effettuato la sostituzione 2t → t, mentre per
calcolare u(2t − 3) abbiamo effettuato la sostituzione 2t − 3 → t. Procedendo in questo modo si giunge sempre
al risultato corretto. 
È importante notare che, in generale, il risultato ottenuto dalla combinazione di più operazioni dipende
anche dall’ordine con cui sono compiute tali operazioni.
 Esempio 2.2 (effetto dell’ordine nella combinazione di operazioni elementari, caso TC) Si riprenda per
un momento l’es. 2.1 scambiando l’ordine delle operazioni, in particolare effettuiamo le stesse operazioni ma
nel seguente ordine:
(1) ritardo di 3;
(2) riflessione;
(3) compressione di 2.
Utilizzando lo stesso procedimento dell’es. 2.1, descriviamo le tre operazioni individualmente e nell’ordine
assegnato:

ritardo di 3: u(t) = x(t − 3) ;


riflessione: v(t) = u(−t) ;
compressione di 2: y(t) = v(2t) .
2.1 Operazioni elementari sui segnali 35

Successivamente operiamo le sostituzioni ricorsivamente partendo dall’ultima espressione:

y(t) = v(2t) = u(−2t) = x(−2t − 3) ,

ottenendo un segnale differente da quello dell’es. 2.1. 


Un altro problema che si pone in pratica è il seguente: dato un segnale ottenuto per combinazione
di operazioni elementari, individuare quali siano le operazioni elementari ed in che ordine vadano
effettuate. È importante infatti notare che uno stesso segnale si può ottenere con diverse combinazioni
di operazioni elementari. L’esempio che segue chiarisce meglio quest’aspetto.
 Esempio 2.3 (individuazione delle operazioni elementari, caso TC) Si consideri il segnale

4−t
y(t) = x .
5

Esso si può pensare ottenuto a partire da x(t) mediante le seguenti tre operazioni, nell’ordine elencato:
t 
espansione di un fattore 5: z(t) = x ,
5
anticipo di 4: u(t) = z(t + 4) ,
riflessione: y(t) = u(−t) .

Infatti si ha, sostituendo ricorsivamente a partire dall’ultima,



−t + 4 4−t
y(t) = u(−t) = z(−t + 4) = x =x .
5 5
Si può verificare che il risultato dipende dall’ordine in cui si eseguono le operazioni. Ad esempio se si effettua
prima la riflessione, poi l’anticipo, ed infine l’espansione, si ha:
t  t   t 
y(t) = u =v +4 = x − −4
5 5 5
e quindi un risultato differente da quello precedente.
D’altra parte, lo stesso segnale di partenza si può pensare ottenuto mediante una diversa combinazione di
operazioni:

4 4
anticipo di : z(t) = x t + ,
5 5
riflessione: u(t) = z(−t) ,
t 
espansione di un fattore 5: y(t) = u .
5
Infatti si ha sostituendo a ritroso:
t 

−t −t 4 4−t
y(t) = u =z =x + =x
5 5 5 5 5
e quindi lo stesso segnale. Ovviamente, poiché portano allo stesso risultato, entrambe le sequenze di operazioni
sono “corrette”; va osservato peraltro che in genere la prima è da preferire, in quanto più “semplice”. 

Nel caso di segnali a TD, la tecnica da seguire per combinare operazioni elementari è la stessa vista
per il caso TC. Qualche approfondimento merita il solo caso in cui è presente l’espansione a TD
definita dalla (2.1), in quanto quest’ultima non si può interpretare semplicemente come la sostituzione
formale di n/L → n: se n/L non è intero, infatti, non ha senso calcolare il valore del segnale in n/L,
per cui nella definizione (2.1) si assume convenzionalmente che tale valore sia nullo. Per ottenere
36 Proprietà dei segnali

il risultato corretto per via analitica, è conveniente utilizzare la notazione formale con le parentesi
quadre introdotta in (2.1), nel senso che se in corrispondenza di un certo istante n l’argomento delle
parentesi quadre è intero, allora il risultato si ottiene calcolando il valore del segnale in quel punto,
altrimenti il valore del segnale è nullo. Gli esempi che seguono mostrano come procedere in due
situazioni tipiche.
 Esempio 2.4 (combinazione di operazioni elementari, caso TD) Un segnale TD x(n) viene sottoposto nel-
l’ordine alle seguenti operazioni:
(1) riflessione;
(2) anticipo di 5;
(3) espansione di 2.
Procediamo come come nel caso TC descrivendo matematicamente le operazioni prese individualmente:

riflessione: u(n) = x(−n) ;


anticipo di 5: v(n) = u(n + 5) ;
n
espansione di 2: y(n) = v .
2
Successivamente sostituiamo ricorsivamente partendo dall’ultima espressione, e mantenendo le parentesi qua-
dre dell’espansione con il loro significato simbolico:
n n   n 
y(n) = v = u +5 = x − −5 .
2 2 2
Con riferimento all’ultima espressione, osserviamo che l’argomento tra parentesi quadre è intero se e solo se
n è multiplo di 2, ovvero se n è pari, mentre in tutti gli altri casi è frazionario, per cui il segnale y(n) vale
convenzionalmente zero. Pertanto, il segnale y(n) si può esprimere esplicitamente, eliminando la notazione
simbolica con le parentesi quadre, come:

0,  se n è pari ,
y(n) = n
x − − 5 , altrimenti .
2


 Esempio 2.5 (combinazione di operazioni elementari, caso TD) Un segnale TD x(n) viene sottoposto nel-
l’ordine alle seguenti operazioni:
(1) decimazione per 3;
(2) espansione di 6;
(3) anticipo di 5.
Procediamo come come nel caso TC descrivendo matematicamente le operazioni prese individualmente:

decimazione per 3: u(n) = x(3n) ;


n
espansione di 6: v(n) = u ;
6
anticipo di 5: y(n) = v(n + 5) .

Successivamente sostituiamo ricorsivamente partendo dall’ultima espressione, e mantenendo le parentesi qua-


dre dell’espansione con il loro significato simbolico:
     
n+5 n+5 n+5
y(n) = v(n + 5) = u =x 3 =x .
6 6 2
2.1 Operazioni elementari sui segnali 37

0.8

x(t) = u(t)
0.6

0.4

0.2

−2 0 2 4 6 8 10
t

Fig. 2.10. Gradino a TC.

Con riferimento all’ultima espressione, notiamo che l’argomento tra parentesi quadre è intero se e solo se n + 5
è multiplo di 2, il che accade se e solo se n è dispari, per cui l’espressione ottenuta si può rendere esplicita,
eliminando la notazione con le parentesi quadre, come:

0 ,
se n è dispari ,
y(n) = n+5
x , altrimenti .
2


2.1.4 Derivazione, integrazione, differenza prima e somma


Poiché un segnale TC x(t) è essenzialmente una funzione a valori reali di una variabile reale, per esso
si applicano in modo naturale i concetti di derivabilità e integrabilità tipicamente trattati nei corsi di
analisi matematica (cfr. § B.2). In particolare, se il segnale x(t) è derivabile nel punto t0 ∈ T, allora la
sua derivata è definita mediante il limite del rapporto incrementale:
 
d  x(t) − x(t0 )
x(t) = lim (2.2)
dt t=t0
t→t0 t − t0

che esiste ed è finito. Se il segnale x(t) è derivabile in t0 , si dimostra che x(t) è anche continuo in t0 .
Pertanto, la continuità del segnale x(t) in t0 è condizione necessaria (ma non sufficiente) affinchè il
limite del rapporto incrementale (2.2) esista e sia finito. Tuttavia, nell’ambito della teoria dei segnali
si incontrano molto frequentemente segnali che non sono continui in tutti i punti del loro insieme di
definizione T. In particolare, un problema che ricorre spesso è il calcolo della derivata di un segnale
x(t) che presenta un numero finito o, al più, infinito numerabile di punti di discontinuità di prima
specie. L’esempio più semplice di funzione di tale tipo è rappresentato dal gradino a TC. Il gradino a
TC è definito come:

 1 , se t ≥ 0 ;
u(t) =
0 , altrimenti ;

ed è rappresentato graficamente in fig. 2.10. Il gradino presenta una discontinuità di prima specie per
t = 0, per cui il valore in tale punto può essere definito piuttosto arbitrariamente come il limite da
38 Proprietà dei segnali

1 1/(2 ε)
x(t) = u (t)

x(t) = δ (t)
ε
ε

−ε +ε −ε +ε
t t

(a) (b)
Fig. 2.11. Definizione dell’impulso a TC: (a) approssimazione uε (t) di un gradino; (b) la derivata δε (t) di uε (t).
Al diminuire di ε la funzione δε (t) diventa sempre più stretta ed alta, conservando area unitaria.

destra (che vale 1), da sinistra (che vale 0), e talvolta come la semisomma dei due limiti (che vale
1/2): qui abbiamo scelto la prima convenzione. La derivata di u(t), calcolata applicando la regola di
derivazione ordinaria, vale zero in tutti i punti, tranne che nel punto t = 0, in cui il limite del rapporto
incrementale (2.2) non è definito. Questo risultato, sebbene matematicamente corretto, non è intuiti-
vamente accettabile, se facciamo riferimento all’interpretazione “fisica” della derivata come “rapidità
di variazione” di una funzione. Infatti, il gradino presenta effettivamente una rapidità di variazione
nulla (e quindi una derivata nulla) per ogni t = 0, ma per t = 0 presenta una rapidità di variazione
infinita, in quanto passa istantaneamente (in un tempo nullo) dal valore 0 al valore 1. Per tener conto
di questo comportamento e, quindi, poter definire la derivata del gradino anche per t = 0, bisogna
ricorrere al concetto di derivata generalizzata, non previsto dall’analisi matematica elementare, la cui
trattazione rigorosa richiede la conoscenza dei fondamenti di una branca della matematica nota come
teoria delle distribuzioni. Per mantenere la trattazione ad un livello sufficientemente elementare, tut-
tavia, cercheremo di calcolare la derivata di u(t) euristicamente, rimandando il lettore desideroso di
maggiore rigore matematico ai corsi avanzati di analisi matematica.
Allo scopo di calcolare la derivata generalizzata del gradino, posto ε ∈ R+ , definiamo la seguente
funzione uε (t):


0 , per t < −ε ;
 
uε (t) = 2 1 + ε , per |t| ≤ ε ;
1 t


1, per t > ε ;
raffigurata in fig. 2.11(a). Tale funzione rappresenta evidentemente un’approssimazione del gradino
u(t), ma a differenza di quest’ultimo è una funzione continua anche per t = 0. L’approssimazione è
tanto migliore quanto più ε è piccolo; in effetti, al limite per ε → 0, si ha:
lim uε (t) = u(t) .
ε →0

La funzione uε (t), essendo continua, non presenta i problemi del gradino per quanto riguarda il calcolo
della derivata. Infatti la funzione uε (t) è derivabile nell’intorno di t = 0, e la sua derivata vale:

d 0 , per |t| > ε ;
δε (t) = uε (t) = 1
2ε , per |t| < ε ;
dt
2.1 Operazioni elementari sui segnali 39

ed è raffigurata in fig. 2.11(b): si tratta di un rettangolo di area unitaria avente base 2 ε ed altezza
1/(2 ε ). Poiché al tendere di ε a zero la funzione uε (t) tende al gradino u(t), risulta naturale definire
la derivata di u(t) come segue:
d 
u(t) = lim δε (t) . (2.3)
dt ε →0

La questione fondamentale è ora capire a cosa tende la funzione δε (t) quando ε tende a zero. Al
diminuire di ε , la funzione δε (t) diviene sempre più “stretta” e più “alta” nell’origine, conservando
tuttavia area unitaria. Al limite per ε → 0, si ottiene che δε (t) tende ad una funzione di area unitaria
che è ovunque nulla, eccetto che nell’origine dove assume valore infinito: non esiste alcuna funzione
nel senso ordinario dell’analisi matematica che può soddisfare queste condizioni. Quindi, per ε → 0,
la funzione ordinaria δε (t) non converge ad una funzione ordinaria. Ciò suggerisce che la convergenza
del limite al secondo membro della (2.3) deve essere intesa diversamente da come si è solito fare per
le funzioni ordinarie. A tale scopo, se è vero che, al limite per ε che tende a zero, δε (t) non ha alcun
significato come funzione ordinaria, essa ha invece un significato ben preciso se la si moltiplica per
un’arbitrario segnale x(t) continuo nell’origine e si integra il risultato su tutto l’asse reale:
 +∞  ε
1
δε (t) x(t)dt = x(t)dt . (2.4)
−∞ 2ε −ε

Dal punto di vista matematico, la (2.4) definisce un funzionale che si “appoggia” alla funzione δε (t),
cioè, un operatore che associa alla funzione x(t) un numero reale, che è dato dal rapporto tra l’area
sottesa da ϕ (t) nell’intervallo (−ε , ε ) e la misura di tale intervallo. Invocando il teorema della media,
possiamo affermare che esiste un punto tε ∈ [−ε , ε ] tale per cui
 +∞
1
δε (t) x(t)dt = x(tε ) [ε − (−ε )] = x(tε ) ,
−∞ 2ε
da cui passando al limite e ricordando che x(t) è continua nell’origine, si ottiene:
 +∞
lim δε (t) x(t)dt = lim x(tε ) = x(0) . (2.5)
ε →0 −∞ ε →0

In altre parole, al limite per ε che tende a zero, il funzionale (2.4) semplicemente “campiona” il
segnale x(t) nell’istante di tempo t = 0. Questo risultato suggerisce di definire il limite al secondo
membro della (2.3) mediante una funzione, che indichiamo con

δ (t) = lim δε (t) , (2.6)


ε →0

la quale è definita dalla relazione integrale


 +∞
δ (t) x(t)dt = x(0) , (2.7)
−∞

dove x(t) è un arbitrario segnale continuo nell’origine. Tale funzione è una funzione generalizzata e fu
introdotta dal fisico P. Dirac nei suoi studi sulla meccanica quantistica, motivo per cui è comunemente
nota come impulso o delta di Dirac.
Come indicato dal loro stesso nome, tali funzioni costituiscono una generalizzazione del concetto
di funzione: un funzione generalizzata è sempre definita mediante un integrale e non ha senso quindi
pensare al valore assunto da essa per un dato valore dell’argomento. Infatti, a differenza del concetto
di convergenza di funzioni ordinarie, la convergenza della famiglia di funzioni δε (t) alla funzione
40 Proprietà dei segnali

δ (t) non deve essere intesa puntualmente, ma, in virtù delle (2.5) e (2.7), deve essere intesa in senso
generalizzato come:
 +∞  +∞
lim δε (t) x(t)dt = δ (t) x(t)dt , (2.8)
ε →0 −∞ −∞
ovvero, la convergenza è mediata attraverso una operazione di integrazione al di fuori della quale la
funzione δ (t) non ha senso. Ci sono due considerazioni interessanti che si possono fare con riferi-
mento alle relazioni (2.5) e (2.8). La prima, di carattere prettamente matematico, riguarda il fatto che,
implicitamente, la (2.8) rende lecito per definizione il passaggio al limite sotto il segno di integrale;
secondo l’analisi matematica convenzionale, questa operazione per l’integrale di Riemann è consen-
tita solo se la famiglia di funzioni δε (t) converge uniformemente (il che non avviene nel nostro caso).
La seconda, di carattere esclusivamente applicativo, consiste nell’osservare che, poiché nell’ambito
della teoria dei segnali ciò che importa non è tanto la definizione dell’impulso di Dirac bensì il suo
impiego nelle applicazioni, nel seguito useremo frequentemente la delta di Dirac al di fuori dell’ope-
razioni di integrazione che la definisce; ad esempio, a valle delle considerazioni fatte finora, possiamo
concludere che la derivata generalizzata del gradino è data dall’impulso di Dirac e, anzichè scrivere
formalmente
 +∞    +∞
d
u(t) x(t)dt = δ (t) x(t)dt ,
−∞ dt −∞

scriveremo più semplicemente


d
u(t) = δ (t) . (2.9)
dt
In altre parole, per semplicità d’impiego nelle applicazioni, useremo per δ (t) la stessa notazione che
tipicamente si usa per le funzioni ordinarie, convenendo tacitamente che le uguaglianze dove compare
la delta di Dirac vanno intese in senso generalizzato.
A partire dalla definizione (2.7) dell’impulso di Dirac si possono ricavare le seguenti proprietà
elementari, la cui verifica è lasciata al lettore per esercizio:

Proprietà 2.2 (proprietà elementari dell’impulso di Dirac)


 +∞
(a) Area unitaria: δ (t) dt = 1.
−∞
 +∞
(b) Campionamento: δ (t − t0 ) x(t) dt = x(t0 ), ∀t0 ∈ R, ∀x(t) continua in t0 .
−∞
(c) Prodotto: x(t) δ (t − t0 ) = x(t0 ) δ (t − t0 ), ∀t0 ∈ R, ∀x(t) continua in t0 .
(d) Parità: δ (−t) = δ (t).
1
(e) Cambiamento di scala: δ (at) = δ (t), ∀a ∈ R − {0}.
|a|
 +∞  n   n 
d n d
(f) Derivazione: δ (t) x(t) dt = (−1) x(t) , ∀n ∈ N, ∀x(t) derivabile fino
−∞ dt n dt n t=0
all’ordine n con derivata n-esima continua in t = 0.
 t
(g) Integrazione: u(t) = δ (u) du.
−∞
 b

x(0) , se a < 0 < b ;
(h) Integrazione definita: δ (t) x(t) dt = ∀a < b ∈ R, ∀x(t)
a 0, se a > 0 oppure b < 0 ;
continuo in t = 0.
2.1 Operazioni elementari sui segnali 41

Dalla proprietà (a) si ricava che l’impulso di Dirac ha area unitaria, come la famiglia di funzioni
δε (t). Le proprietà (b) e (c) esprimono, con un diverso formalismo matematico, la medesima proprietà
dell’impulso di Dirac, ovvero quella di estrarre (nel gergo della teoria dei segnali, “campionare”) il
valore del segnale nel punto t0 in cui l’impulso è centrato. La proprietà (d) evidenzia che la delta di
Dirac è un segnale pari, mentre la proprietà (e) mostra che, anche per l’impulso a TC, un cambiamento
di scala comporta un cambiamento di area. L’operazione di derivazione è definita anche per le funzioni
generalizzate e, a tal proposito, la proprietà (f) chiarisce come tale operazione vada correttamente
interpretata per l’impulso di Dirac. La proprietà (g) definisce invece la relazione inversa della (2.9),
mostrando che il gradino è il risultato dell’integrazione dell’impulso di Dirac. A tale proposito, sia ben
chiaro che l’integrale che compare nella proprietà (g) è valido nel senso delle distribuzioni e non in
senso ordinario (secondo Riemann); infatti, non esiste nessuna funzione ordinaria che possa restituire
un gradino mediante integrazione (nell’analisi convenzionale, le funzioni definite mediante integrali
sono continue). Un commento a parte merita infine la proprietà (h). Innanzitutto, si osservi che se uno
degli estremi di integrazioni (a oppure b) è zero, allora l’integrale tra a e b dell’impulso di Dirac non
è definito. Tuttavia, l’integrale sull’intervallo (0− , b) è definito e si calcola con la seguente procedura
al limite:
 b  b
δ (t) x(t)dt = lim δ (t) x(t)dt = x(0) .
0− ε → 0 −ε
ε >0

Analogo risultato sussiste per l’integrazione sull’intervallo (a, 0+ ). A partire dalla proprietà (h),
ponendo x(t) = 1, ∀t ∈ R, e b = −a = ε , si ottiene:
 ε
δ (t)dt = 1 , con ε ∈ R+ piccolo a piacere ,
−ε

che suggerisce l’interpretazione intuitiva (matematicamente non corretta) che δ (t) sia nulla ovunque
tranne che nell’origine. In virtù di questa interpretazione e della proprietà (a), l’impulso di Dirac
δ (t) si può rappresentare graficamente come in fig. 2.12. Si noti che l’area unitaria dell’impulso
viene rappresentata convenzionalmente assimilandola ad un’ampiezza, ovvero tracciando una freccia
di altezza pari ad uno. Mediante cambiamento di scala delle ampiezze e traslazione temporale, è
possibile definire un impulso di Dirac centrato in t0 ∈ R e di area A:

x(t) = A δ (t − t0 ) ,

raffigurato in fig. 2.13. Concludiamo questa breve trattazione dell’impulso di Dirac, osservando che la
(2.9) consente di ricavare la regola di derivazione per un segnale TC che presenta un numero finito o, al
più, infinito numerabile di punti di discontinuità di prima specie: se il segnale x(t) presenta N (con N
che può essere eventualmente infinito) discontinuità di prima specie negli istanti di tempo t1 ,t2 , . . . ,tN ,
la sua derivata generalizzata presenterà un impulso di Dirac nel punto tn , per n ∈ {1, 2, . . . , N}, avente

area pari al valore del “salto” di discontinuità s(tn ) = x(tn+ ) − x(tn− ) nel punto in questione. Più preci-
samente, detta h(t) la derivata ordinaria della parte continua di x(t), ∀t ∈ T − {t1 ,t2 , . . . ,tN }, si ottiene
la seguente espressione:
N
d
x(t) = h(t) + ∑ s(tn ) δ (t − tn ) . (2.10)
dt n=1

Il fatto che x(t) sia continuo per t ∈ T − {t1 ,t2 , . . . ,tN } non implica che esso sia derivabile in tutti i
punti dell’insieme T − {t1 ,t2 , . . . ,tN }. Questo significa che la funzione h(t) può non essere definita
in qualche punto. Se tali punti sono isolati (rappresentano cioè un insieme di misura nulla), questo
42 Proprietà dei segnali

1
A
0.8

x(t) = A δ(t−t0)
x(t) = δ(t)

0.6

0.4

0.2

0
t
0
−5 0 5
t t

Fig. 2.12. Impulso a TC (delta di Dirac). Fig. 2.13. Impulso a TC x(t) = A δ (t −t0 ). L’impulso
è centrato in t0 ed ha area A.

x(t) x'(t)

(a) 1 (b)

-1 1 t -1 1 t

-2

Fig. 2.14. Calcolo della derivata di un segnale TC discontinuo (es. 2.6): (a) il segnale x(t); (b) la sua derivata
generalizzata.

mancanza di informazione è spesso inessenziale: dal punto di vista dell’analisi dei segnali, la carat-
terizzazione completa di un segnale è in molti casi superflua e, come vedremo più avanti in questo
capitolo, è sufficiente una caratterizzazione sintetica, in cui il valore del segnale in un punto isolato
non è rilevante; da un punto di vista dell’analisi dei sistemi, come vedremo nei prossimi capitoli, il
segnale di uscita da un sistema dipende dal segnale di ingresso mediante una relazione integrale, il cui
calcolo non dipende dai valori assunti dal segnale di ingresso in insiemi di misura nulla.
 Esempio 2.6 (derivata generalizzata di un segnale TC) Si voglia calcolare la derivata generalizzata del
segnale TC riportato in fig. 2.14(a). Tale funzione presenta una sola discontinuità di prima specie nel punto

t1 = 1 (N = 1), il cui salto è s(t1 ) = x(t1+ ) − x(t1− ) = −2. Applicando la regola (2.10), si ottiene immediatamente
che:
d
x(t) = [u(t + 1) − u(t − 1)] − 2 δ (t − 1) ,
dt
raffigurata in fig. 2.14(b). 
Per un segnale TD x(n), il cui insieme di definizione è un insieme discreto, non è possibile con-
siderare le operazioni di derivazione ed integrazione. Tuttavia, è possibile definire alcune operazioni
2.1 Operazioni elementari sui segnali 43

0.8

x(n) = u(n)
0.6

0.4

0.2

−2 0 2 4 6 8 10
n

Fig. 2.15. Gradino a TD.

che hanno una certa analogia con quelle di derivazione ed integrazione per segnali a TC. Si definisce
differenza prima del segnale x(n) la seguente operazione:

∇1 [x(n)] = x(n) − x(n − 1) ,

che può essere vista come la “controparte” a TD della operazione di derivazione a TC. Il calcolo
della differenza prima di un segnale TD non crea gli stessi problemi che invece pone il calcolo della
derivata di un segnale TC. Per capire ciò, seguendo parallelamente la trattazione fatta per i segnali
TC, consideriamo il calcolo della differenza prima del gradino a TD. La definizione del gradino a TD
è analoga a quella del gradino a TC:

 1 , se n ≥ 0 ;
u(n) =
0 , altrimenti ;

e la sua rappresentazione grafica è riportata in fig. 2.15. Si noti che, a differenza del gradino a TC,
nella definizione del gradino a TD non vi è ambiguità nel valore assunto dal segnale nell’origine, in
quanto il concetto di continuità non si applica ad una sequenza. Notiamo, inoltre, che il gradino a TD
si può ottenere da quello a TC mediante campionamento con passo unitario. In questo caso, senza
dover ricorrere a nessun strumento matematico avanzato, è immediato stabilire che

 1 , se n = 0 ;
δ (n) = ∇1 [u(n)] = (2.11)
0 , altrimenti ;

Volendo stabilire un parallelo tra il caso TC e quello TD, si può affermare che la (2.11) è la contro-
parte a TD della relazione (2.9). Il segnale δ (n) prende il nome di impulso a TD o impulso discreto
(anche detto delta di Kronecker), ed è rappresentato graficamente in fig. 2.16. Notiamo che l’impulso
elementare δ (n) è centrato nell’origine e ha ampiezza unitaria. Mediante cambiamento di scala del-
le ampiezze e traslazione temporale, è possibile definire un impulso discreto centrato in n0 ∈ Z e di
ampiezza A ∈ R arbitraria:

x(n) = A δ (n − n0 ) ,

raffigurato graficamente in fig. 2.17. Analogamente all’impulso di Dirac, l’impulso a TD gode delle
seguenti proprietà elementari, la cui semplice verifica è lasciata al lettore per esercizio:
44 Proprietà dei segnali

1
A
0.8

x(n) = A δ(n−n )
0
x(n) = δ(n)

0.6

0.4

0.2

0
n0
−5 0 5
n n

Fig. 2.16. Impulso unitario a TD. Fig. 2.17. Impulso a TD x(n) = A δ (n − n0 ).


L’impulso è centrato in n0 ed ha ampiezza A.

Proprietà 2.3 (proprietà elementari dell’impulso discreto)


+∞
(a) Area unitaria: ∑ δ (n) = 1.
n=−∞
+∞
(b) Campionamento: ∑ x(n) δ (n − n0 ) = x(n0 ), ∀n0 ∈ Z.
n=−∞
(c) Prodotto: x(n) δ (n − n0 ) = x(n0 ) δ (n − n0 ), ∀n0 ∈ Z.
(d) Parità: δ (−n) = δ (n).
(e) Decimazione ed espansione:

δ (nM) = δ (n) , ∀M ∈ N ;
n
δ = δ (n) , ∀L ∈ N .
L
n
(f) Somma: u(n) = ∑ δ (m).
m=−∞

Osservazioni analoghe a quelle effettuate per l’impulso di Dirac si possono fare per le proprietà (a),
(b), (c) e (d), che esprimono le proprietà di area unitaria, campionamento e parità dell’impulso discre-
to. La proprietà (e) evidenzia che l’impulso a TD è invariante rispetto alle operazioni di decimazione
ed espansione. Infine, la proprietà (f) stabilisce che il gradino a TD è la somma corrente dell’impulso
discreto e rappresenta la controparte a TD della proprietà (g) dell’impulso di Dirac. Si noti che la
somma corrente gioca nel caso TD lo stesso ruolo che gioca l’integrale tra −∞ e t per i segnali TC.
2.2 Caratterizzazione sintetica dei segnali 45

2.2 Caratterizzazione sintetica dei segnali


Nel capitolo precedente abbiamo visto che un segnale (deterministico) è completamente descritto da
una funzione, cioè da una legge che ad ogni elemento del dominio T fa corrispondere uno ed un
solo elemento del codominio X. In alcuni casi pratici, tuttavia, la descrizione completa di un segnale
mediante una funzione è eccessivamente dettagliata, ed è invece di interesse conoscere solo alcuni
parametri numerici del segnale, che forniscono una descrizione o caratterizzazione sintetica (rispetto
all’assegnazione della corrispondenza tra T e X) del segnale. In altri casi, i segnali possono essere
frutto di dati sperimentali e, pertanto, da un lato possono non essere noti in tutti gli istanti di tempo,
dall’altro la loro conoscenza può essere soggetta ad un certo margine di incertezza; quindi, piuttosto
che descrivere puntualmente un segnale, è più ragionevole descrivere il segnale mediante quantità
medie, come, ad esempio, il valore di un integrale, che risentono meno o non risentono affatto di
cambiamenti poco significativi del segnale.
I principali parametri numerici che concorrono a caratterizzare sinteticamente un segnale sono i
seguenti:

• durata temporale;
• area e media temporale;
• energia e potenza.

La durata è una misura dell’estensione temporale del segnale, cioè dell’intervallo di tempo all’interno
del quale il segnale assume valori non trascurabili, mentre l’operazione di media temporale è utilizzata
per definire la componente continua ed alternata di un segnale. I concetti di energia e potenza sono
alla base della caratterizzazione energetica dei segnali, e consentono di introdurre la relativa classi-
ficazione in segnali di energia e di potenza. Come esempio particolarmente significativo di segnali
di potenza, verranno presentati i segnali periodici e le loro proprietà, e tra essi si esamineranno in
particolare i fasori e le sinusoidi, evidenziando alcune differenze significative tra il caso TC ed il caso
TD.

2.3 Estensione e durata temporale di un segnale


La durata di un segnale è un concetto intuitivo, legato evidentemente alla misura dell’estensione
temporale del segnale. Una definizione generale può essere la seguente:

Definizione 2.1 (estensione e durata temporale di un segnale)


(a) L’estensione temporale Dx ⊆ T di un segnale x(t) a TC è l’intervallo di tempo in cui |x(t)|
assume valori non trascurabili. La durata di x(t) è la misura ∆x ≥ 0 dell’insieme Dx .
(b) L’estensione temporale Dx ⊆ T di un segnale x(n) a TD è l’intervallo di tempo in cui |x(n)|
assume valori non trascurabili. La durata di x(n) è la misura ∆x ∈ N dell’insieme Dx .

Per quanto concerne la definizione di misura di un insieme, è bene mettere in evidenza che esiste una
differenza notevole tra il caso TC e quello TD. Infatti, nel caso TC, la misura dell’insieme Dx è quella
secondo Peano-Jordan o, più in generale, secondo Lebesgue. Ad esempio, la misura dell’intervallo
[t1 ,t2 ] coincide con la sua lunghezza |t2 − t1 |. Nel caso TD, invece, poiché l’insieme Dx è discreto,
è possibile utilizzare la stessa definizione di misura secondo Peano-Jordan o Lebesgue, secondo le
quali un insieme composto da punti isolati ha sempre misura nulla, cioè, risulterebbe ∆x = 0 per ogni
46 Proprietà dei segnali

x(t)

t1 t2 t
durata

Fig. 2.18. Segnale di durata rigorosamente limitata.

segnale x(n). Nel caso TD, la definizione di misura da adottare per Dx è molto più semplice ed è
uguale al numero di punti isolati che costituiscono Dx (in sostanza coincide con la cardinalità di Dx ).
Un secondo aspetto importante riguarda un certo grado di arbitrarietà presente nella definizione
precedente, legato all’interpretazione di quali valori del segnale siano trascurabili, e quali no. In altre
parole, non esiste una definizione universalmente accettata di estensione temporale di un segnale.
Tuttavia, con riferimento a taluni casi particolari di segnali, esistono alcune definizioni di estensione
temporale di un segnale che sono di comune impiego. Una prima classificazione dei segnali sulla base
della durata può essere quella tra segnali di durata rigorosamente e praticamente limitata, e segnali
di durata non limitata. Nel seguito, approfondiremo questa classificazione, considerando sia segnali
TC che TD.

2.3.1 Segnali di durata rigorosamente limitata


Un segnale TC x(t) si dice di durata rigorosamente limitata se esistono due numeri reali finiti t1 e
t2 , con t2 > t1 , tali che il segnale si annulla identicamente al di fuori dell’intervallo di tempo (t1 ,t2 ),
cioè, x(t) = 0 per ogni t ∈ (t1 ,t2 ). Un primo esempio di segnale TC a durata rigorosamente limitata
è quello riportato in fig. 2.18. In tal caso, con riferimento alla definizione generale di estensione, si
considerano trascurabili solo i valori nulli del segnale. Conseguentemente, l’estensione del segnale
è definita come Dx = (t1 ,t2 ) e la sua durata è data da ∆x = t2 − t1 . Analogamente, un segnale TD
x(n) si dice di durata rigorosamente limitata se esistono due numeri interi finiti n1 e n2 , con n2 > n1 ,
tali che il segnale si annulla identicamente al di fuori dell’intervallo di tempo {n1 , n1 + 1, . . . , n2 },
cioè, x(n) = 0 per ogni n ∈ {n1 , n1 + 1, . . . , n2 }. In questo caso, l’estensione del segnale è definita
come Dx = {n1 , n1 + 1, . . . , n2 } e la sua durata è data da ∆x = n2 − n1 + 1. Talvolta un segnale a
durata rigorosamente limitata è anche denominato finestra. Alcuni esempi elementari di finestre sono
presentati di seguito.
2.3 Estensione e durata temporale di un segnale 47

1
A
0.8

x(t) = A rect[(t−t0)/T]
x(t) = rect(t)

0.6

0.4

0.2

0
t0−T/2 t0 t0+T/2
−2 −1 0 1 2
t t

Fig. 2.19. Finestra rettangolare a TC. Fig. 2.20. Finestra rettangolare a TC dell’es. 2.7. Ta-
le finestra è ottenuta dalla finestra elementare median-
te moltiplicazione per A, cambiamento di scala con
a = 1/T e traslazione temporale di t0 .

Finestra rettangolare e triangolare

La finestra rettangolare a TC è definita3 come



 1 , se |t| ≤ 0.5 ;
rect(t) =
0 , altrimenti ;

ed è rappresentata graficamente in fig. 2.19. Si tratta di un segnale pari (centrato nell’origine), di durata
∆x = 1 ed ampiezza unitaria (finestra elementare o “prototipo”). A partire dalla finestra prototipo,
mediante moltiplicazione per una costante, traslazione temporale e cambiamento di scala, è possibile
ottenere una finestra di ampiezza e durata arbitraria ed arbitrariamente posizionata sull’asse dei tempi.
Notiamo infine che la finestra rettangolare si può esprimere come differenza di due gradini traslati
temporalmente, in quanto si ha rect(t) = u(t + 1/2) − u(t − 1/2).
 Esempio 2.7 (finestra rettangolare arbitraria) La finestra

t − t0
x(t) = A rect
T

è ottenuta dalla finestra prototipo mediante moltiplicazione per A, cambiamento di scala con a = 1/T e trasla-
zione temporale di t0 . Utilizzando la definizione, si vede che


t − t0 A, se t ∈ [t0 − T /2,t0 + T /2] ;
x(t) = A rect =
T 0, altrimenti ;

il cui andamento è raffigurato in fig. 2.20: la finestra è centrata in t = t0 e ha durata ∆x = T . 

La finestra rettangolare a TD è definita da:



 1 , se 0 ≤ n ≤ N − 1 ;
RN (n) =
0 , altrimenti ;
3 In numerosi testi, la finestra rettangolare è denotata con il simbolo Π(t).
48 Proprietà dei segnali

1 1

0.8 0.8
x(n) = R5(n)

x(t) = Λ(t)
0.6 0.6

0.4 0.4

0.2 0.2

0 0
−2 0 2 4 6 8 10 −2 −1 0 1 2
n t

Fig. 2.21. Finestra rettangolare a TD per N = 5. Fig. 2.22. Finestra triangolare a TC.

ed è rappresentata graficamente in fig. 2.21. La finestra ha estensione temporale Dx = {0, 1, . . . , N −1}


e durata ∆x = N, ed è asimmetrica rispetto all’origine, a differenza della sua versione a TC. Una fine-
stra simmetrica (pari) si può ottenere da RN (n) solo per N dispari, considerando la versione anticipata
RN (n + n0 ) con n0 = (N − 1)/2. Come nel caso TC, anche nel caso TD la finestra rettangolare si può
esprimere come differenza di due gradini traslati temporalmente, infatti si ha RN (n) = u(n)−u(n−N).
Infine, si noti che, ponendo N = 1, la finestra rettangolare a TD degenera nell’impulso discreto, cioè,
R1 (n) = δ (n).
La finestra triangolare a TC è definita da:

 1 − |t| , se |t| < 1 ;
Λ(t) =
0, altrimenti ;

ed è rappresentata graficamente in fig. 2.22. Si tratta di un segnale pari (centrato nell’origine), di


ampiezza unitaria e durata ∆x = 2. Notiamo in particolare che la durata della finestra triangolare
prototipo è doppia rispetto a quella della finestra rettangolare prototipo. Così come visto per la finestra
rettangolare nell’es. 2.7, a partire dalla finestra triangolare prototipo, mediante operazioni elementari
(moltiplicazione per una costante, traslazione temporale, e cambiamento di scala) è possibile ottenere
una finestra triangolare di ampiezza e durata arbitraria ed arbitrariamente posizionata sull’asse dei
tempi.
È possibile definire la finestra triangolare (si veda la fig. 2.23) anche nel caso TD, ed essa è nota
come finestra di Bartlett:

 |n − N|
1− , se 0 ≤ n ≤ 2N − 1 ;
B2N (n) = N
0 , altrimenti .

La finestra di Bartlett ha durata ∆x = 2N − 1 (il valore del segnale per n = 0 è nullo) e, così come
la finestra rettangolare a TD, è asimmetrica rispetto all’origine. Tuttavia, si noti che il numero di
campioni non nulli è sempre un numero dispari e il massimo del segnale si raggiunge per n = N;
pertanto, come riportato in fig. 2.24, per ottenere una finestra triangolare a TD con simmetria pari è
sufficiente traslare la finestra di Bartlett di N campioni verso sinistra, ovvero considerare B2N (n + N).
2.3 Estensione e durata temporale di un segnale 49

1 1

0.8 0.8

x(n) = B8(n+4)
x(n) = B8(n)

0.6 0.6

0.4 0.4

0.2 0.2

0 0

−2 0 2 4 6 8 10 −6 −4 −2 0 2 4 6
n n

Fig. 2.23. Finestra triangolare a TD per N = 4. Fig. 2.24. Finestra triangolare a TD per N = 4 con
simmetria pari.

x(t)

soglia

... ...
t1 t2 t
durata

Fig. 2.25. Segnale di durata praticamente limitata.

2.3.2 Segnali di durata praticamente limitata

Esistono casi di segnali aventi ancora durata limitata, ma per i quali l’interpretazione e la misura della
durata non è altrettanto univoca di quella per i segnali che si annullano identicamente al di fuori di un
intervallo. In particolare, si consideri un segnale TC come quello riportato in fig. 2.25, il quale decade
asintoticamente a zero per t → ±∞, senza mai annullarsi. È chiaro intuitivamente che tale segnale
debba essere considerato a durata limitata, in quanto i suoi valori risultano trascurabili al di fuori di
un certo intervallo di tempo; per esso, tuttavia, l’estensione Dx si può definire solo se si introduce un
valore di soglia per le ampiezze, e si considerano trascurabili le ampiezze del segnale inferiori alla
soglia fissata. Fissare una soglia (vedi fig. 2.25) consente anche in questo caso di individuare come
estensione del segnale un intervallo Dx = (t1 ,t2 ) di valori significativi del segnale, con t2 > t1 , e la
misura ∆x = t2 − t1 di tale intervallo è per definizione la durata del segnale. Un segnale TC di questo
tipo di dice segnale di durata praticamente limitata. Un discorso analogo sussiste anche per i segnali
a TD.
Si noti che, se si fissa una soglia diversa, si perviene ad un diverso valore di durata del segnale;
questo introduce, a differenza del caso di segnali a durata rigorosamente limitata, un certo elemento di
arbitrarietà nella misura della durata, legato proprio all’arbitrarietà nella scelta del valore della soglia.
50 Proprietà dei segnali

14 14

12 12

10 10
x(t)=A eat

x(t)=A eat
8 8

6 6

4 4

2 A 2 A

0 0

−2 −2
−10 −5 0 5 10 −10 −5 0 5 10
t t

(a) (b)
Fig. 2.26. Esponenziale a TC con A = 1 e per due valori di a: (a) a > 0 (valore effettivo a = 0.25); (a) a < 0
(valore effettivo a = −0.25).

Tale scelta può variare a seconda della natura del segnale, delle applicazioni, e degli scopi per i quali
il segnale stesso viene studiato o elaborato.
Osserviamo inoltre che i segnali di durata limitata – sia quelli a durata rigorosamente limitata, che
quelli a durata praticamente limitata – sono anche detti segnali transitori, in quanto assumono valori
significativi solo in corrispondenza di un intervallo di tempo Dx limitato.
Infine, notiamo che tra le operazioni elementari introdotte nel § 2.1, solo il cambiamento di scala
dei tempi è in grado di alterare la durata di un segnale. In particolare, con riferimento al caso TC per
semplicità, una compressione con fattore a > 1 riduce la durata del segnale da ∆x a ∆x /a < ∆x , mentre
un’espansione con fattore 0 < a < 1 aumenta la durata del segnale da ∆x a ∆x /a > ∆x .
Un tipico esempio di segnali di durata praticamente limitata è rappresentato dai segnali esponen-
ziali reali monolateri, che sono descritti di seguito.

Segnale esponenziale reale

Per definire il segnale esponenziale monolatero a TC, partiamo dalla definizione del segnale esponen-
ziale bilatero a TC:
x(t) = A eat ,
dove a ∈ R è un fattore di scala dei tempi, mentre A > 0 rappresenta un fattore di ampiezza (si noti
che x(0) = A, ∀a ∈ R). L’esponenziale a TC è una funzione monotona di t, ed in particolare per
a > 0 l’esponenziale risulta crescente, come in fig. 2.26(a), mentre per a < 0 l’esponenziale risulta
decrescente, come in fig. 2.26(b). Inoltre al crescere di |a| l’esponenziale cresce o decresce più rapida-
mente, come mostra il calcolo della derivata di x(t). Il caso a = 0 è degenere, in quanto per tale valore
di a l’esponenziale si riduce ad una funzione costante x(t) = A. Poiché, in dipendenza dal valore di
a = 0, l’esponenziale bilatero è infinitesimo solo per t → +∞ o solo per t → −∞, esso non rientra
nella famiglia dei segnali di durata praticamente limitata.
Moltiplicando il segnale esponenziale per un gradino u(t) si ottiene l’esponenziale monolatero:
x(t) = A eat u(t) ,
che risulta diverso da zero, per effetto del gradino, solo per t ≥ 0; si noti peraltro che il comportamento
per t ≥ 0, al variare di a, è lo stesso dell’esponenziale x(t) = A eat . In particolare, nel caso a < 0,
2.3 Estensione e durata temporale di un segnale 51

u(t)
−t/T
x(t)=A e

T
t

Fig. 2.27. Esponenziale monolatero a TC ed in-


terpretazione geometrica della costante di tempo
T.

essendo infinitesimo per t → ±∞, l’esponenziale monolatero è un segnale di durata praticamente


limitata4 , la cui estensione è Dx = (0, ∆x ), con ∆x > 0 (durata) dipendente dalla scelta della soglia. In
tal caso, se si pone per definizione a = −1/T con T > 0, l’esponenziale monolatero si riscrive come
segue:
x(t) = A e−t/T u(t) ,
dove il parametro T prende il nome di costante di tempo, e rappresenta il valore di t in corrispondenza
del quale x(t) = A e−1 ≈ 0.368 A. La costante di tempo ammette anche una interessante interpretazione
geometrica, legata alla pendenza della funzione esponenziale nell’origine, ed indirettamente alla sua
durata. Infatti la derivata (calcolata da destra) della funzione x(t)
 dell’origine
 vale x (0+ ) = −A
T , per
cui la retta tangente alla curva nell’origine ha equazione x = A 1 − T (fig. 2.27): tale retta interseca
t

l’asse delle ascisse proprio in corrispondenza di t = T . È chiaro allora che, al crescere di T , la


pendenza diminuisce, l’esponenziale tende ad “allargarsi” (espandersi) sull’asse dei tempi, e quindi
aumenta la misura dell’intervallo di tempo in cui x(t) assume valori non trascurabili. Viceversa,
al diminuire di T , la pendenza aumenta, si ha un restringimento (compressione) dell’esponenziale
sull’asse dei tempi, e quindi diminuisce la misura dell’intervallo di tempo in cui x(t) assume valori
non trascurabili. Si capisce allora che la costante di tempo T governa proprio l’estensione Dx e,
dunque, la durata ∆x , dell’esponenziale monolatero. Per calcolare la durata analiticamente, scegliamo
come valore di soglia α A, con 0 < α < 1. Così facendo, risolvendo l’equazione x(∆x ) = α A, la durata
del segnale risulta

1
∆x = T ln
α
e, com’era intuibile, cresce con legge direttamente proporzionale a T . A titolo esemplificativo, se
si sceglie α = 0.05, cioè, si ritengono trascurabili tutti i valori del segnale che risultano essere più
piccoli del 5% del valore massimo A, si ottiene che ∆x ≈ 3 T . In altre parole, sebbene il segnale non
si annulli mai al finito, esso assume valori praticamente trascurabili dopo solo 3 costanti di tempo.
Passiamo ora ad introdurre l’esponenziale bilatero a TD, che è definito dalla relazione
x(n) = A an ,
4 Lo stesso discorso può essere fatto anche per l’esponenziale monolatero x(t) = A eat u(−t), con a > 0.
52 Proprietà dei segnali

dove a ∈ R − {0} è un fattore di scala dei tempi, mentre A > 0 rappresenta un fattore di ampiezza (si
noti che x(0) = A, ∀a ∈ R − {0}). L’andamento dell’esponenziale a TD al variare di a è più articolato
rispetto a quello dell’esponenziale a TC. In particolare, per |a| > 1 l’esponenziale è crescente in mo-
dulo, mentre per 0 < |a| < 1 l’esponenziale è decrescente in modulo. Inoltre, per a > 0 l’esponenziale
assume sempre valori positivi, mentre per a < 0 assume valori di segno alterno (positivi per n pari, ne-
gativi per n dispari). Infine, per |a| = 1, l’esponenziale è costante in modulo: in particolare, se a = 1,
l’esponenziale si riduce al segnale costante x(n) = A, mentre, se a = −1, si ha x(n) = A (−1)n , che
assume alternativamente i valori ±A. I sei possibili andamenti dell’esponenziale a TD sono rappre-
sentati graficamente in fig. 2.28. Similmente all’esponenziale bilatero a TC, l’esponenziale bilatero
a TD non ricade nella classe dei segnali di durata praticamente limitata. Per ottenere un segnale
esponenziale di durata praticamente limitata, bisogna introdurre l’esponenziale monolatero:

x(n) = A an u(n) ,

che presenta lo stesso comportamento di x(n) = A an per n ≥ 0, mentre è identicamente nullo per n < 0,
a causa della presenza del gradino. Per 0 < |a| < 1, in particolare, l’esponenziale monolatero tende a
zero per n → ∞, per cui è un esempio di segnale TD di durata praticamente limitata5 , la cui estensione è
Dx = {0, 1, . . . , ∆x − 1}, con ∆x > 0 (durata) dipendente dalla scelta della soglia. La durata del segnale,
in tal caso, è funzione di |a|: per valori di |a| prossimi ad 1, l’esponenziale decresce più lentamente,
mentre per valori di |a| prossimi a zero, l’esponenziale decresce più rapidamente. Più precisamente,
scegliendo come valore di soglia α A, con 0 < α < 1, e risolvendo l’equazione |x(∆x )| = α A, si ottiene
che la durata del segnale è data da
 
ln α1 ln(α )
∆x =   = .
ln |a| 1 ln(|a|)

Come preannunciato, fissato 0 < α < 1, la durata del segnale tende ad essere infinitamente grande,
per |a| → 1; viceversa, per |a| → 0, la durata del segnale tende a zero.

5 Lo stesso discorso può essere fatto anche per l’esponenziale monolatero x(n) = A an u(−n), con |a| > 1.
2.3 Estensione e durata temporale di un segnale 53

8 8
7 6
6 4
5
2
4
x(n)

x(n)
0
3
−2
2
1 −4

0 −6

−1 −8
−10 −5 0 5 10 −10 −5 0 5 10
n n
(a) (b)

8 8
7 6
6 4
5
2
4
x(n)

x(n)

0
3
−2
2
1 −4

0 −6

−1 −8
−10 −5 0 5 10 −10 −5 0 5 10
n n
(c) (d)

1 1

0.8
0.5

0.6
x(n)
x(n)

0
0.4
−0.5
0.2

0 −1

−10 −5 0 5 10 −10 −5 0 5 10
n n

(e) (f)

Fig. 2.28. Esponenziale a TD con A = 1 e per vari valori di a: (a) a > 1 (valore effettivo a = 1.1); (b) a < −1
(valore effettivo a = −1.1); (c) 0 < a < 1 (valore effettivo a = 0.833); (d) −1 < a < 0 (valore effettivo a =
−0.833); (e) a = 1; (f) a = −1.
54 Proprietà dei segnali

x(t)

...
...

Fig. 2.29. Segnale di durata non limitata.

2.3.3 Segnali di durata non limitata e segnali periodici


Esistono segnali che non decadono a zero, come ad esempio il segnale raffigurato in fig. 2.29. Per
segnali di questo tipo, è evidente che non esiste nessun criterio obiettivo per considerare trascurabili
alcuni valori del segnale rispetto ad altri, e per questo motivo si assume che il segnale abbia durata
non limitata o illimitata, ovvero ∆x = +∞. Una definizione pratica, allora, di segnale di durata non
limitata è quella di un segnale che presenta valori non trascurabili durante tutto l’intervallo di tempo
in cui viene osservato o elaborato. I segnali di durata illimitata sono anche detti segnali persistenti. Va
detto che il concetto di segnale di durata non limitata costituisce una astrazione matematica: i segnali
che si incontrano in pratica, infatti, sono sempre di durata limitata, in quanto osservati o elaborati
su un intervallo di tempo finito (anche se eventualmente molto lungo). In molti casi, tuttavia, risulta
più semplice e conveniente utilizzare modelli matematici secondo i quali tali segnali hanno durata
non limitata. Una famiglia importante di segnali di durata illimitata è quella dei segnali periodici.
I segnali periodici sono molto frequenti nella fisica e nelle scienze naturali, in quanto descrivono
fenomeni in cui una stessa proprietà si presenta esattamente dopo un certo intervallo di tempo, detto
periodo. Ad esempio, il pianeta Terra ruota su sé stesso con un periodo circa pari a 24 ore, ed intorno
al Sole con un periodo pari circa a 365 giorni. Tale ripetibilità di un fenomeno si esprime in maniera
matematicamente rigorosa come segue:

Definizione 2.2 (segnale periodico)


(a) Un segnale TC x(t) si dice periodico se esiste un valore reale T0 > 0 tale che

x(t) = x(t + T0 ), ∀t ∈ R . (2.12)

Il più piccolo valore di T0 che verifica la (2.12) è detto periodo (fondamentale) del segnale.
(b) Un segnale TD x(n) si dice periodico se esiste un valore intero N0 ≥ 1 tale che

x(n) = x(n + N0 ), ∀n ∈ Z . (2.13)

Il più piccolo valore di N0 che verifica la (2.13) è detto periodo (fondamentale) del segnale.

Se non esiste alcun valore di T0 e N0 che soddisfa le relazioni (2.12) e (2.13), rispettivamente, i segnali
x(t) e x(n) si dicono aperiodici. È bene enfatizzare il fatto che, mentre nel caso TC il periodo T0 è
in generale un numero reale, nel caso TD il periodo N0 è necessariamente un numero intero. Inoltre
2.3 Estensione e durata temporale di un segnale 55

Im Im
A/2
ω0 >0
ω0 >0
x(t) ω0t + ϕ 0

x(t)

ω0t + ϕ 0 A Re

Re -(ω0t + ϕ 0 )

-ω0 <0

Fig. 2.31. Rappresentazione di una sinusoide a TC


nel piano complesso come somma di due fasori aventi
ampiezza A/2 e ruotanti in verso opposto; la somma
Fig. 2.30. Rappresentazione di un fasore a TC nel dei vettori ruotanti si calcola applicando la regola del
piano complesso come vettore ruotante (la fase ini- parallelogramma
ziale ϕ0 rappresenta la posizione angolare del vettore
per t = 0).

osserviamo che, se un segnale (ad esempio TC) è periodico di periodo T0 , allora esso è periodico di
periodo 2T0 , 3T0 , . . . Per questo motivo nella definizione di periodo si fa riferimento al minimo valore
di T0 o N0 , e talvolta si parla di periodo fondamentale. Come ulteriore osservazione, è interessante
notare che, sulla base delle (2.12) e (2.13), e della definizione di periodo, per un segnale costante
x(·) = a, le (2.12) e (2.13) sono verificate per ogni scelta di T0 e per ogni scelta di N0 . Pertanto, un
segnale costante può essere visto come caso limite di segnale periodico avente periodo arbitrario.
Nel seguito si introdurranno alcuni segnali periodici elementari, quali, ad esempio, gli esponenzia-
li complessi o fasori6 e le sinusoidi. Come vedremo nel cap. 5, sotto condizioni non eccessivamente
restrittive, un segnale periodico arbitrario può essere rappresentato mediante combinazione lineare di
fasori oppure di sinusoidi. Un’altra operazione che consente di rappresentare in modo naturale un
segnale periodico di forma arbitraria è la replicazione, che si basa sul fatto che un segnale periodico
si ripete nel tempo con cadenza pari al periodo fondamentale del segnale.

Fasore a TC

L’espressione matematica di un fasore a TC è la seguente:

x(t) = A e j(ω0t+ϕ0 ) = A e j(2π f0t+ϕ0 ) = A [cos(2π f0t + ϕ0 ) + j sin(2π f0t + ϕ0 )] , (2.14)

dove A > 0 è l’ampiezza, ϕ0 è la fase iniziale, misurata in radianti (rad), ω0 è la pulsazione, misurata
in radianti al secondo (rad/s), f0 = 2ωπ0 è la frequenza, misurata in cicli/s o Hertz (Hz).
Il fasore è un segnale che assume valori complessi, e pertanto non può essere rappresentato in fun-
zione del tempo su un convenzionale diagramma cartesiano (t, x). Una conveniente interpretazione
grafica (fig. 2.30) è invece quella nel piano complesso, secondo la quale il fasore è rappresentato come
un vettore ruotante,7 avente modulo A, che si muove con velocità angolare |ω0 |, in senso antiorario
6 Alcune definizioni e proprietà dei numeri complessi e delle funzioni a valori complessi sono richiamati in app. A.
7 Si noti l’analogia tra la rappresentazione grafica del fasore sul piano complesso ed il moto circolare uniforme della
fisica.
56 Proprietà dei segnali

se ω0 > 0, ed in senso orario se ω0 < 0. Questa rappresentazione consente di dare un significato al


concetto di pulsazione o frequenza negativa, che altrimenti non avrebbe una chiara interpretazione
fisica: in particolare, il segno della pulsazione o della frequenza è legato al verso di rotazione (ora-
rio/antiorario) del fasore. Di contro, il valore assoluto della pulsazione o della frequenza misura la
velocità di rotazione del vettore ruotante, ovvero la rapidità di variazione del fasore: a valori di |ω0 |
maggiori corrispondono fasori che variano più rapidamente, mentre a valori di |ω0 | minori corrispon-
dono fasori che variano più lentamente; il caso ω0 = 0 rappresenta il fasore più lentamente variabile,
in quanto per questo valore di ω0 il fasore degenera nel segnale costante x(t) = A e jϕ0 .
Dall’interpretazione come vettore ruotante, si vede che un fasore occupa nuovamente la stessa
posizione nel piano complesso dopo aver percorso un giro completo, il che accade dopo un tempo
pari a

2π 1
T0 = = , (2.15)
|ω 0 | | f 0 |

pertanto, il fasore è un segnale periodico di periodo T0 . Una dimostrazione più rigorosa della perio-
dicità del fasore a TC si può ottenere utilizzando la (2.12): infatti, imponendo che valga la (2.12),
ovvero che x(t) = x(t + T0 ), si ha:

A e j[2π f0 (t+T0 )+ϕ0 ] = A e j(2π f0t+ϕ0 ) =⇒ e j2π f0 T0 = 1 ,

e quest’ultima relazione risulta verificata se e solo se 2π f0 T0 = 2kπ , con k ∈ Z, da cui il più piccolo
valore positivo per T0 si ottiene ponendo k = 1 (se f0 > 0) o k = −1 (se f0 < 0), e quindi si ha la (2.15),
come preannunciato. Si noti, infine, che il fasore non è un segnale “fisico”, nel senso che esso non è
direttamente riconducibile a nessuna grandezza fisica. Così come l’impulso di Dirac a TC, il fasore
è una pura astrazione matematica che, come sarà chiaro nel seguito, risulta particolarmente utile per
la sintesi e l’analisi dei segnali e sistemi che si incontrano nella realtà fisica. In ogni caso, notiamo
che il fasore a TC rientra a pieno titolo nel modello matematico di segnale (1.1), in cui il dominio T
coincide con R e il codominio X è un sottoinsieme del campo dei numeri complessi C.

Sinusoide a TC

Un segnale sinusoidale8 a TC si può scrivere come:

x(t) = A cos(ω0t + ϕ0 ) = A cos(2π f0t + ϕ0 ) , (2.16)

dove i parametri A, ω0 , f0 e ϕ0 hanno la stessa interpretazione dei corrispondenti parametri per il


fasore a TC. In effetti, utilizzando le formule di Eulero (cfr. § A.4), un segnale sinusoidale si può
esprimere come:

1 j(ω0t+ϕ0 ) 1 − j(ω0t+ϕ0 )
A cos(ω0t + ϕ0 ) = Ae + Ae = Re[A e j(ω0t+ϕ0 ) ]
2 2
ovvero come la somma di due fasori di uguale ampiezza A/2, ruotanti in senso opposto con uguale
velocità angolare |ω0 | (fig. 2.31). Anche la sinusoide, come il fasore, è un segnale periodico di periodo
T0 = |2ωπ0 | = | f10 | : la dimostrazione rigorosa si basa sull’applicazione della (2.13) e ricalca quella già
vista per il fasore.
8 Ricordiamo che con il termine “segnale sinusoidale” intendiamo indifferentemente un segnale espresso in termini della
funzione seno o (preferibilmente) della funzione coseno.
2.3 Estensione e durata temporale di un segnale 57

Fasore a TD

I fasori e le sinusoidi a TD presentano molte affinità, ma anche alcune differenze significative rispetto
al caso TC. Un fasore a TD si scrive come:

x(n) = A e j(θ0 n+ϕ0 ) = A e j(2πν0 n+ϕ0 ) = A[cos(2πν0 n + ϕ0 ) + j sin(2πν0 n + ϕ0 )] , (2.17)

dove A > 0 è l’ampiezza, ϕ0 è la fase iniziale (rad), θ0 è la pulsazione (rad), ν0 = 2θπ0 è la frequenza
(cicli). Notiamo anzitutto le differenti dimensioni fisiche per la pulsazione e la frequenza rispetto
al caso TC, derivanti dal fatto che mentre nel caso TC il tempo t si misura in secondi (s), nel caso
TD il tempo n va considerato adimensionale. Come il fasore a TC, anche il fasore a TD soddisfa la
definizione di segnale (1.1), in cui il dominio T coincide con Z e il codominio X è un sottoinsieme del
campo dei numeri complessi C. L’interpretazione di un fasore a TD come vettore ruotante nel piano
complesso è simile a quella di un fasore a TC (fig. 2.30): la differenza sostanziale, però, è che poiché
il tempo n varia in maniera discreta, il fasore si muove “a scatti” nel piano complesso, ruotando
in senso antiorario se θ0 > 0 e orario se θ0 < 0, e con una differenza angolare tra due posizioni
consecutivamente occupate pari a |θ0 |. Sulla base di questa interpretazione, se il fasore si sposta di θ0
oppure di θ0 + 2kπ , la posizione finale è la stessa. Questa è una delle fondamentali differenze rispetto
ai fasori a TC, ed è nota come proprietà di periodicità in frequenza dei fasori a TD:

Proprietà 2.4 (periodicità in frequenza dei fasori a TD)


Due fasori x1 (n) ed x2 (n) aventi pulsazioni θ1 e θ2 tali che θ2 − θ1 = 2kπ (k ∈ Z) sono coincidenti.
Equivalentemente, due fasori x1 (n) ed x2 (n) aventi frequenze ν1 e ν2 tali che ν2 − ν1 = k (k ∈ Z)
sono coincidenti.

Prova. Si ha:

x2 (n) = A e j(θ2 n+ϕ0 ) = A e j[(θ1 +2π k)n+ϕ0 ] = A e j(θ1 n+ϕ0 ) e j2π kn = x1 (n) , ∀n, k ∈ Z .
=1

Ovviamente, poiché θ1 = 2πν1 e similmente θ2 = 2πν2 , la condizione θ2 − θ1 = 2kπ equivale, in termini di


frequenze, a ν2 − ν1 = k. 

La conseguenza più importante della proprietà di periodicità in frequenza è che un qualunque fasore
a TD può essere ottenuto considerando soltanto valori di pulsazione in un intervallo di ampiezza
2π , come θ0 ∈ [0, 2π [ oppure θ0 ∈ [−π , π [, o equivalentemente valori di frequenza in un intervallo di
ampiezza unitaria, come ν0 ∈ [0, 1[ oppure ν0 ∈ [−1/2, 1/2[. Inoltre la rapidità di variazione del fasore
non aumenta in maniera monotona con la frequenza ν0 (o equivalentemente, con la pulsazione θ0 ),
così come accade nel caso TC; in particolare, passando da ν0 = 0 a ν0 = 1, la rapidità di variazione
del fasore prima aumenta (fino a ν0 = 1/2), poi diminuisce (fino a ν0 = 1). Ne segue che i fasori con
la massima rapidità di variazione sono quelli a frequenza ν0 = 1/2 + k, k ∈ Z, mentre quelli con la
minima rapidità di variazione (costanti) sono quelli a frequenza ν0 = k, k ∈ Z.
Un’altra differenza significativa rispetto al caso TC è che il fasore TD non è sempre un segnale
periodico nel tempo. Infatti, applicando la definizione di periodicità (2.13) per un segnale TD, si ha:

A e j[θ0 (n+N0 )+ϕ0 ] = A e jθ0 n+ϕ0 ) ,

da cui si ottiene dopo alcune semplificazioni:

e jθ0 N0 = 1 ,
58 Proprietà dei segnali

che risulta verificata se e solo se θ0 N0 = 2kπ , k ∈ Z, da cui si ricava che


θ0 k
ν0 = = , k ∈ Z,
2π N0
e quindi ν0 dev’essere necessariamente un numero razionale (rapporto di due numeri interi). Si ricava
allora la seguente proprietà di periodicità nel tempo dei fasori a TD:

Proprietà 2.5 (periodicità nel tempo dei fasori a TD)


Un fasore a TD x(n) = A e j(2πν0 n+ϕ0 ) risulta periodico nel tempo se e solo se la sua frequenza
ν0 è un numero razionale. In tal caso, il suo periodo è il più piccolo valore intero N0 ≥ 1 che
soddisfa la relazione 2πν0 N0 = 2kπ , k ∈ Z.

La proprietà precedente, oltre ad evidenziare il fatto che un fasore a TD non è sempre periodico,
mostra anche che, nel caso in cui è periodico, il periodo non coincide in generale con l’inverso della
frequenza. In pratica, il periodo di un fasore a TD si può determinare con i seguenti passi:

Proprietà 2.6 (periodo di un fasore a TD)


Sia x(n) = A e j(2πν0 n+ϕ0 ) un fasore a TD con frequenza ν0 razionale (non intera). Il periodo N0
del fasore si determina come segue:

(1) si rappresenta il numero razionale ν0 = k/N0 , con k ∈ Z − {0} ed N0 > 1 primi tra loro (si
riduce preliminarmente la frazione ai minimi termini);
(2) il periodo N0 coincide con il denominatore della frazione;
(3) il valore assoluto |k| del numeratore rappresenta il numero di giri che effettua il fasore prima
di riportarsi nella posizione iniziale; il segno di k è legato al verso di rotazione del fasore
(orario se k < 0, antiorario se k > 0).

 Esempio 2.8 (periodicità nel tempo di un fasore a TD) Se ν0 = 1/3, il periodo è N0 = 3 ed il fasore com-
pie k = 1 giri completi in senso orario prima di riportarsi nelle posizione iniziale. Se ν0 = 2/3, il periodo
è ancora N0 = 3, ma il fasore compie k = 2 giri completi in senso orario prima di riportarsi nella posizione
iniziale. Questi due esempi mostrano che, contrariamente a quanto avviene con i segnali periodici a TC, un
aumento della frequenza (da ν0 = 1/3 a ν0 = 2/3) non implica una riduzione del periodo, che può rimanere lo
stesso (come nei due esempi precedenti) o, addirittura, può aumentare. Infatti, se si aumenta la frequenza di un
segnale periodico facendola passare da ν0 = 1/3 a ν0 = 3/4, il periodo aumenta passando da N0 = 3 a N0 = 4.
Questi semplici esempi confermano il fatto che la rapidità di variazione di un fasore non aumenta in maniera
monotona con la frequenza. Infine, se ν0 = √12 (un numero irrazionale), allora il fasore non è periodico nel
tempo. 

Sinusoide a TD

Il segnale sinusoidale a TD si può scrivere come


x(n) = A cos(θ0 n + ϕ0 ) = cos(2πν0 n + ϕ0 ) ,
e si può interpretare, similmente al caso TC, come la somma di due fasori ruotanti in senso opposto:
1 j(θ0 n+ϕ0 ) 1 − j(θ0 n+ϕ0 )
A cos(θ0 n + ϕ0 ) = Ae + Ae .
2 2
Per la sinusoide a TD valgono le stesse proprietà di periodicità esposte per il fasore a TD. In partico-
lare:
2.3 Estensione e durata temporale di un segnale 59

(a) periodicità in frequenza: due sinusoidi con pulsazioni θ2 − θ1 = 2kπ (k ∈ Z) sono coincidenti;
(b) periodicità nel tempo: una sinusoide è periodica se e solo se la sua frequenza è un numero razio-
nale ν0 = k/N0 (k ∈ Z e N0 > 1); il periodo si determina come il denominatore della frazione che
rappresenta ν0 ridotta ai minimi termini.

Replicazione

Un modo del tutto generale per costruire un segnale TC x(t) periodico con periodo T0 è quello di parti-
re da un segnale xg (t), detto generatore, diverso da zero nell’intervallo [−T0 /2, T0 /2], e di effettuarne
la replicazione con periodo T0 :
+∞

x(t) = repT0 [xg (t)] = ∑ xg (t − kT0 ) . (2.18)
k=−∞

In pratica la replicazione consiste nel sommare infinite versioni (cosiddette “repliche”) del segnale
generatore xg (t), traslate di ±T0 , ±2T0 , etc. Applicando graficamente questa procedura si verifica
facilmente che il segnale risultante è periodico di periodo T0 ; d’altra parte, per una dimostrazione
più formale, basta provare che per il segnale x(t) definito come nella (2.18) risulta necessariamente
x(t) = x(t + T0 ), ∀t ∈ R. Si ha, infatti,
+∞ +∞
x(t + T0 ) = ∑ xg (t + T0 − kT0 ) = ∑ xg [t − (k − 1)T0 ] .
k=−∞ k=−∞

Effettuando il cambiamento di variabile k − 1 =  nella sommatoria, si ha:


+∞ +∞
∑ xg [t − (k − 1)T0 ] = ∑ xg (t − T0 ) = x(t) ,
k=−∞ =−∞

per cui x(t + T0 ) = x(t), ∀t ∈ R, come si voleva dimostrare.


 Esempio 2.9 (onda rettangolare a TC) Consideriamo come segnale generatore una finestra rettangolare di
ampiezza A e durata T :
t 
xg (t) = A rect .
T
Replicando xg (t) con passo T0 ≥ T (in caso contrario le repliche si sovrapporrebbero) si ottiene l’onda rettan-
 T
golare di periodo T0 , ampiezza A, e duty-cycle o ciclo di servizio δc = T0 ≤ 1, la cui espressione è:

  t  +∞

t − kT0
x(t) = repT0 A rect = ∑ A rect ,
T k=−∞ T

e la cui rappresentazione grafica per A = 1 e δc = 0.5 è quella di fig. 2.32. Il duty-cycle δc , talvolta espresso
in percentuale, rappresenta la misura del rapporto tra il tempo in cui l’onda rettangolare assume il valore A,
ed il periodo dell’onda stessa. Ad esempio, in fig. 2.33 è mostrata un’onda rettangolare con A = 1 e δc = 0.8
(duty-cycle dell’80%). Come caso limite, notiamo che un’onda rettangolare con δc = 1 (100%) degenera nel
segnale costante x(t) = A. 
Dato un segnale generatore xg (t) e fissato un periodo T0 , è possibile costruire un unico segnale periodi-
co x(t) secondo la (2.18). Viceversa, un qualunque segnale periodico x(t) può sempre essere espresso
come replicazione di un opportuno generatore xg (t). Infatti come generatore è possibile scegliere la
60 Proprietà dei segnali

1 1

0.8 0.8

0.6 0.6
x(t)

x(t)
0.4 0.4

0.2 0.2

0 0

−2 −1 0 1 2 −2 −1 0 1 2
t/T t/T
0 0

Fig. 2.32. Onda rettangolare a TC con A = 1 e δc = Fig. 2.33. Onda rettangolare a TC con A = 1 e δc =
0.5 (duty-cycle del 50%). 0.8 (duty-cycle dell’80%).

restrizione del segnale periodico ad un periodo, ad esempio [−T0 /2, T0 /2], che si ottiene “finestrando”
(ossia moltiplicando per una finestra rettangolare) il segnale:


t x(t), t ∈ [−T0 /2, T0 /2] ;
xg (t) = x(t) rect =
T0 0, altrimenti.

Bisogna tuttavia notare che, per determinare il generatore, è possibile scegliere come intervallo di
finestratura un qualunque intervallo di periodicità del segnale, ad esempio [t0 − T0 /2,t0 + T0 /2], con
t0 ∈ R. In altri termini, la relazione tra segnale periodico e generatore non è biunivoca. Un caso meno
banale che evidenzia la possibilità di scegliere almeno due diversi generatori di uno stesso segnale
periodico è la replicazione con sovrapposizione tra le repliche, descritta dall’esempio che segue.
 Esempio 2.10 (onda triangolare a TC con sovrapposizione) A partire dal segnale generatore xg (t) = Λ(t)
avente durata pari a 2 (Fig. 2.34), costruiamo il segnale periodico x(t) effettuando la replicazione di xg (t) con
periodo T0 = 32 < 2:
+∞

3
x(t) = rep 3 [xg (t)] = ∑ Λ t − k .
2
k=−∞ 2

Poiché il periodo di replicazione è inferiore alla durata del generatore, le repliche del segnale si sovrappongono,
ed il segnale risultante (fig. 2.35) non si ottiene semplicemente affiancando le finestre triangolari, ma bisogna
tener conto della sovrapposizione tra le repliche, sommando queste ultime negli intervalli di sovrapposizione.
In questo caso, finestrando il segnale periodico nell’intervallo [−1, 1], si ottiene il generatore raffigurato in
fig. 2.36, che ovviamente è differente da quello originariamente considerato per costruire l’onda triangolare. 

La definizione di replicazione si può estendere al caso TD con cambiamenti banali di notazione.


In particolare, dato un segnale generatore xg (n) diverso da zero nell’intervallo {0, 1, . . . , N0 − 1}, la
replicazione di xg (n) è definita come:
+∞
x(n) = repN0 [xg (n)] = ∑ xg (n − kN0 ) . (2.19)
k=−∞

Tale espressione restituisce un segnale periodico x(n) di periodo N0 , cioè risulta x(n) = x(n + N0 ),
∀n ∈ Z (la prova è banale ed è simile a quella già vista per il caso TC).
2.3 Estensione e durata temporale di un segnale 61

1 1

0.8 0.8

0.6 0.6
xg(t)

x(t)
0.4 0.4

0.2 0.2

0 0
−2 −1 0 1 2 −2 −1 0 1 2
t t

Fig. 2.34. Segnale generatore dell’onda triangolare a Fig. 2.35. Onda triangolare a TC dell’es. 2.10 (sono
TC dell’es. 2.10. raffigurate a tratteggio le repliche che sommate tra
loro danno luogo al segnale a tratto continuo).

1 1

0.8 0.8

0.6 0.6
xg(t)

x(n)

0.4 0.4

0.2 0.2

0 0

−2 −1 0 1 2 −10 −5 0 5 10
t n

Fig. 2.36. Un differente generatore dell’onda triango- Fig. 2.37. Onda rettangolare a TD con M = 3 ed N0 =
lare a TC dell’es. 2.10, ottenuto finestrando il segnale 5.
periodico nell’intervallo (−0.75, 0.75).

 Esempio 2.11 (onda rettangolare a TD) Consideriamo come segnale generatore una finestra rettangolare
di ampiezza unitaria e durata M:

xg (n) = RM (n) .

Replicando tale generatore con periodo N0 ≥ M (altrimenti le repliche si sovrapporrebbero) si ha:


+∞
x(n) = repN0 [RM (n)] = ∑ RM (n − kN0 ) ,
k=−∞

il cui andamento è rappresentato in Fig. 2.37 per M = 3 e N0 = 5. 

Viceversa, un qualunque segnale periodico x(n) di periodo N0 può sempre essere ottenuto come re-
plicazione di un opportuno generatore xg (n). Infatti come generatore è sempre possibile scegliere
la restrizione del segnale periodico al periodo, che si ottiene finestrando il segnale con una finestra
62 Proprietà dei segnali

rettangolare a TD:

x(n), n ∈ {0, 1, . . . , N0 − 1} ;
xg (n) = x(n) RN0 (n) =
0, altrimenti .

Vale anche nel caso TD la stessa osservazione, già fatta nel caso TC, riguardo la non biunivocità della
relazione tra segnali periodici e generatori; in altri termini, un generatore determina univocamente un
segnale periodico, mentre un segnale periodico può essere ottenuto da diversi generatori.
2.4 Area e media temporale di un segnale 63

;;;
x(t)
<x(t)> Z

;;; -Z
2Z
+Z

Fig. 2.38. Interpretazione della media temporale di


t

un segnale TC nell’intervallo [−Z, Z]. L’area del ret-


tangolo (tratteggiata) di altezza x(t)Z e base 2Z è
uguale all’area sottesa dal segnale.

2.4 Area e media temporale di un segnale


Altri due parametri che concorrono a caratterizzare sinteticamente un segnale sono l’area e la me-
dia temporale. Dato un segnale TD x(n) e fissato un intero K ≥ 0, si definisce area del segnale
nell’intervallo {−K, −K + 1, . . . , K − 1, K} la somma dei valori assunti dal segnale in tale intervallo:

K

Ax (K) = ∑ x(n) , (2.20)
n=−K

mentre si definisce media temporale del segnale nell’intervallo {−K, −K + 1, . . . , K − 1, K} la media


aritmetica dei valori assunti dal segnale in tale intervallo:
K
 1
x(n)K = ∑ x(n) .
2K + 1 n=−K
(2.21)

Si noti che, in dipendenza della natura del codominio X del segnale, l’area e la media temporale di
x(n) sono numeri reali o complessi. Le definizioni di area e media temporale date nel caso TD si
estendono al caso di segnali a TC x(t) sostituendo alla sommatoria l’integrale. Considerato Z > 0,
si definisce infatti area del segnale nell’intervallo (−Z, Z), il numero, reale o complesso, calcolato
effettuando l’integrale del segnale su tale intervallo:
 +Z

Ax (Z) = x(t) dt , (2.22)
−Z

mentre si definisce media temporale del segnale nell’intervallo (−Z, Z), il numero, reale o complesso,
calcolato effettuando la media integrale dei valori del segnale:
 Z
 1
x(t)Z = x(t) dt . (2.23)
2Z −Z
64 Proprietà dei segnali

L’interpretazione di media, sia nel caso TC che nel caso TD, si ottiene notando che le (2.21) e (2.23)
si possono riscrivere come
Ax (K)
x(n)K = ,
2K + 1
Ax (Z)
x(t)Z = ,
2Z
e quindi, la media si può interpretare come l’altezza del rettangolo avente base pari all’intervallo tem-
porale di riferimento e con la stessa area del segnale. Tale interpretazione è raffigurata graficamente
per il caso TC in fig. 2.38. Si suole anche dire che la media temporale rappresenta il valor medio del
segnale nell’intervallo temporale di riferimento.
I valori dell’area e della media temporale calcolati sulla base delle (2.20) e (2.21) oppure (2.22)
e (2.23), salvo che in casi particolari, dipendono dalla scelta di Z oppure di K, ovvero riguardano
solo una porzione del segnale. Per ottenere invece valori di area e media temporale rappresentativi
dell’intero segnale, è sufficiente far tendere Z oppure K all’infinito. Si perviene così alle fondamentali
definizioni di area e media temporale di un segnale (sull’intero asse dei tempi):

Definizione 2.3 (area e media temporale)


(a) L’area di un segnale è:
  Z


Z→+∞
lim x(t) dt, (segnali TC)
 −Z
Ax = K (2.24)


 lim
K→+∞
∑ x(n), (segnali TD)
n=−K

(b) La media temporale di un segnale è:


 
 1 Z
 lim
 x(t) dt, (segnali TC)
 Z→+∞ 2Z −Z
x(·) = K (2.25)
 1

 lim
K→+∞ 2K + 1
∑ x(n), (segnali TD)
n=−K

L’integrale che definisce l’area di un segnale TC può non esistere, il che significa che esistono segnali
per i quali la definizione di area (2.24) perde di significato. Ciò accade, per esempio, nel caso dei
segnali periodici, per i quali l’integrale nella (2.24) non esiste in senso ordinario. A tal proposito, si
noti che, in base alla (2.24), l’area di un segnale TC è definita mediante il valor principale di Cauchy
dell’integrale di x(t) esteso a tutto l’asse reale (cfr. § B.2.2), il cui valore è in generale diverso dal
corrispondente integrale improprio:
 +∞  Z2
x(t) dt = lim x(t) dt , (2.26)
−∞ Z1 ,Z2 →+∞ −Z1

in cui, a differenza del valor principale di Cauchy dove Z1 = Z2 = Z, gli estremi di integrazione
tendono all’infinito indipendentemente l’uno dall’altro. Se il limite nella (2.26) esiste, allora anche
il valor principale di Cauchy dell’integrale di x(t) esteso all’intero asse reale esiste e i due integrali
forniscono lo stesso risultato, cioè
 +∞  Z
x(t) dt = lim x(t) dt . (2.27)
−∞ Z→+∞ −Z
2.4 Area e media temporale di un segnale 65

Tuttavia, il viceversa non è vero: il valor principale di Cauchy dell’integrale di x(t) su R può esistere
anche quando il corrispondente integrale improprio non esiste. Ad esempio, se consideriamo il segnale
x(t) = t, con t ∈ R, l’integrale (2.26) non esiste, mentre il valor principale di Cauchy dell’integrale
di x(t) esteso a tutto l’asse reale risulta esistere ed essere nullo, cioè, il segnale ha area nulla. Più
in generale, tutti i segnali dispari risultano avere area nulla. Un discorso analogo sussiste anche
per i segnali a TD con riferimento alla sommatoria: l’area del segnale x(n) è definita mediante la
somma simmetrica della serie bilatera di x(n) (cfr. § B.1.3), che può esistere anche quando la serie
bilatera di x(n) non converge. Quando invece la serie di x(n) converge, essa è anche simmetricamente
convergente e la sua sua somma coincide con quella simmetrica, cioè
+∞ K
∑ x(n) = lim
K→+∞
∑ x(n) .
n=−∞ n=−K

Per quanto concerne l’interpretazione di x(·), poiché la media temporale definita nella (2.25) si
ottiene come caso limite dalle definizioni (2.21) o (2.23), l’interpretazione della (2.25) si potrebbe
ricavare come caso limite di quella già data con riferimento alla media su un intervallo temporale
di durata limitata, e quindi come valor medio del segnale (con riferimento all’intero asse dei tempi).
Tuttavia, dato che l’area di un segnale può essere infinita, bisogna fare attenzione a generalizzare
l’interpretazione di media come l’altezza di un rettangolo avente la stessa area del segnale. Essa vale
infatti se la media è calcolata su un intervallo temporale finito, e quindi per ogni fissato valore di Z o
di K: in questo caso, se il segnale x(·) assume valori finiti, la sua area è necessariamente finita. Poiché
la definizione di area e valor medio sono intimamente legate, il fatto che Ax sia finito o infinito ha delle
immediate implicazioni sul valor medio del segnale. Infatti, soffermando l’attenzione al caso TC, se
il segnale x(t) ha area finita, cioè, |Ax | < +∞, risulta che:
 Z
 lim x(t) dt
 1 Z Z→+∞ −Z Ax
x(t) = lim x(t) dt = = = 0, (2.28)
Z→+∞ 2Z −Z lim 2Z +∞
Z→+∞

ossia, se il segnale ha area finita, la sua media temporale è nulla. Questo accade per i segnali aventi
durata rigorosamente limitata (come le finestre), ma si verifica anche per molti segnali aventi durata
praticamente limitata. Con ragionamenti analoghi è possibile provare la stessa proprietà anche nel
caso TD. Come conseguenza di questo risultato, si deduce che affinché la media temporale di x(·)
assuma un valore diverso da zero, l’area del segnale deve necessariamente essere infinita. Un’altra
proprietà interessante dei segnali aventi area finita è legata al cambiamento di scala temporale. Con
riferimento al caso TC per semplicità, a partire dal segnale x(t) avente area finita Ax , mediante cambio
di variabile, è immediato calcolare l’area del segnale y(t) = x(at), con a ∈ R − {0}, ottenendo:
 Z  Z  Z
1 Ax
Ay = lim y(t) dt = lim x(at) dt = lim x(τ ) dτ = ,
Z→+∞ −Z Z→+∞ −Z Z→+∞ |a| −Z |a|
da cui si ricava che una compressione (|a| > 1) riduce l’area del segnale, mentre una espansione
(0 < |a| < 1) aumenta l’area del segnale. Come caso particolare, ponendo a = −1, si ottiene che
l’area di un segnale è invariante rispetto alle riflessioni temporali, nel senso che se y(t) = x(−t), si
ha Ay = Ax . Allo stesso modo, è facile verificare che anche l’operazione di traslazione temporale non
altera l’area di un segnale.
 Esempio 2.12 (area e media temporale della finestra rettangolare) Calcoliamo area e media temporale
di una finestra rettangolare a TC x(t) = A rect(t/T ). Si tratta di un segnale di durata rigorosamente limitata, per
cui la sua area è finita:
 Z  T /2
Ax = lim x(t) dt = lim A dt = lim AT = AT .
Z→+∞ −Z Z→+∞ −T /2 Z→+∞
66 Proprietà dei segnali

Conseguentemente, la sua media temporale è nulla:


 Z
1
x(t) = lim x(t) dt = 0 .
Z→+∞ 2Z −Z

Con calcoli analoghi, si verifica che anche la media temporale della finestra a TD x(n) = RN (n) è nulla, in
quanto ha area finita pari a N. 

 Esempio 2.13 (area e media temporale dell’esponenziale monolatero decrescente) Calcoliamo area e me-
dia temporale del segnale esponenziale a TC x(t) = A e−t/T u(t), con T > 0. Pur trattandosi di un segnale di
durata praticamente limitata, l’esponenziale monolatero decrescente ha area finita come la finestra rettangolare:
 Z  Z
Ax = lim x(t) dt = lim A e−t/T dt = lim AT (1 − e−Z/T ) = AT .
Z→+∞ −Z Z→+∞ 0 Z→+∞

L’area dell’esponenziale monolatero decrescente dipende linearmente dalla costante di tempo T : questo risul-
tato è perfettamente in accordo con l’interpretazione geometrica di T data in fig. 2.27. Conseguentemente, la
media temporale di x(t) è nulla:
 Z
1
x(t) = lim x(t) dt = 0 .
Z→+∞ 2Z −Z

Analogamente, anche la media temporale dell’esponenziale a TD x(n) = A an u(n), con 0 < |a| < 1, è nulla, in
quanto la sua area è finita ed è data da:
K K
1 − aK+1 A
Ax = lim ∑
K→+∞ n=−K
x(n) = lim A ∑ an = lim A
K→+∞ K→+∞ 1−a
=
1−a
.
n=0


Per avere esempi significativi di segnali aventi media temporale diversa da zero, dobbiamo considerare
allora segnali aventi area infinita e quindi durata illimitata.
 Esempio 2.14 (media temporale del segnale costante) È semplice calcolare la media temporale di un se-
gnale costante x(·) = a. Nel caso TC si ha:
 Z  Z
1 1 1
x(t) = lim a dt = a lim dt = a lim 2Z = a .
Z→+∞ 2Z −Z Z→+∞ 2Z −Z Z→+∞ 2Z
Calcoli analoghi si possono effettuare anche nel caso TD, e quindi per un segnale costante x(·) = a si ha
x(·) = a; in altri termini, la media temporale di una costante coincide con la costante stessa. 

 Esempio 2.15 (media temporale del gradino) Calcoliamo la media temporale di un gradino a TD. Si ha:

1 K
1 K
K +1 1
u(n) = lim ∑
K→+∞ 2K + 1 n=−K
u(n) = lim
K→+∞ 2K + 1
∑ 1 = lim
K→+∞ 2K + 1
= .
2
n=0

Calcoli analoghi si possono effettuare anche nel caso TC, e quindi si ha in generale u(·) = 12 . 

La media temporale può essere nulla anche se il segnale ha durata infinita, ma presenta particolari
proprietà di simmetria, come evidenziato nel seguente esempio.
 Esempio 2.16 (media temporale del signum) Calcoliamo la media temporale del segnale TC x(t) = sgn(t),
definito come

 1, t ≥ 0;
sgn(t) =
−1, t < 0 ;
2.4 Area e media temporale di un segnale 67

1 1

0.5 0.5

x(n) = sgn(n)
x(t) = sgn(t)

0 0

−0.5 −0.5

−1 −1
−5 0 5 −5 0 5
t n

Fig. 2.39. Segnale signum a TC. Fig. 2.40. Segnale signum a TD.

e rappresentato graficamente in Fig. 2.39. Si ha:

 
 Z  0  Z
1 1 


x(t) = lim sgn(t) dt = lim (−1) dt + 1 dt 
 = 0.
Z→∞ 2Z −Z Z→∞ 2Z  −Z
    0  
=−Z =Z

Questo risultato discende dal fatto che il signum a TC, essendo una funzione dispari9 , ha area nulla (nel senso del
valor principale di Cauchy). Lo stesso risultato si ottiene per il segnale TD x(n) = sgn(n), definito analogamente
a sgn(t), come


1, n ≥ 0;
sgn(n) =
−1, n < 0 ;

e raffigurato graficamente in fig. 2.40. In questo caso, il risultato x(n) = 0 discende dal fatto che il signum a
TD è un segnale avente area finita pari ad 1 [somma simmetrica della serie bilatera di x(n)]. 

Più in generale, osserviamo nuovamente che se un segnale ha simmetria dispari, allora la sua area
è nulla e, conseguentemente, anche la sua media temporale è nulla. Per completare la trattazione,
presentiamo le seguenti proprietà della media temporale, utili nelle applicazioni:

9 Notiamo
che a rigore la funzione sgn(t) non è dispari, in quanto il suo valore nell’origine non è nullo; tuttavia essa
soddisfa la proprietà sgn(−t) = −sgn(t), ∀t = 0, e d’altra parte il valore della funzione in un singolo punto non modifica il
risultato del calcolo dell’area e della media temporale.
68 Proprietà dei segnali

Proprietà 2.7 (proprietà della media temporale)


(a) Linearità:

α1 x1 (·) + α2 x2 (·) = α1 x1 (·) + α2 x2 (·) , ∀α1 , α2 ∈ C .

(b) Invarianza temporale:

x(t − t0 ) = x(t) , ∀t0 ∈ R ;


x(n − n0 ) = x(n) , ∀n0 ∈ Z .

(c) Media temporale di un segnale periodico:


Sia x(·) un segnale periodico, avente periodo T0 nel caso TC, o periodo N0 nel caso TD,
assolutamente integrabile/sommabile su un periodo. La media temporale di x(·) può essere
calcolata su un solo periodo:
  T0
 1

T x(t) dt , (segnali TC)
0 0
x(·) = 1 N0 −1


 ∑ x(n) , (segnali TD)
N0 n=0

Prova. La dimostrazione delle proprietà (a) e (b) è immediata ed è lasciata al lettore come esercizio. Nel
seguito, proviamo la proprietà (c) per il caso a TC (la dimostrazione per il caso TD si effettua in modo simile).
In base alla definizione di media temporale, dobbiamo calcolare
 Z
 1
x(t) = lim x(t) dt .
Z→+∞ 2Z −Z

Osserviamo che è possibile esprimere Z = nZ T0 + εZ , dove nZ ∈ N indica il numero intero di periodi T0 contenuti

in (0, Z), mentre εZ = Z − nZ T0 ∈ [0, T0 [ è la frazione di periodo rimanente. Si ha allora:
 Z  −nZ T0   Z
1 1 1 nZ −1 (k+1)T0 1
2Z −Z
x(t) dt =
2Z −Z
x(t) dt +
2Z ∑ x(t) dt +
2Z
x(t) dt .
    k=−nZ kT 0
  
nZ T0
 
(a) (c)
(b)

I termini (a) e (c) tendono a zero per Z → +∞. Infatti, consideriamo il termine (c) ed effettuiamo il cambio di
variabile u = t − nZ T0 , ottenendo:
 
 Z    Z−n T 
   T0
 1   1 Z 0  1 εZ 1
 x(t) dt = x(u + n T ) du ≤ |x(u)| du ≤ |x(u)| du ,
 2Z n T   2Z 0   
Z 0
 2Z 0 2Z
Z 0
 = x(u) per la periodicità
  0
 
non dipende da Z ed è finito

da cui segue la convergenza a zero per Z → +∞, se il segnale x(t) è assolutamente sommabile in (0, T0 ).
Mediante un analogo ragionamento si prova che anche il termine (a) tende a zero al divergere di Z. Per il
termine (b), invece, effettuando il cambiamento di variabile u = t − kT0 , si trova:
 (k+1)T0  T0
1 nZ −1 1 nZ −1

2Z k=−n kT0
x(t) dt = ∑
2Z k=−n 0
x(u + kT0 )
  
du
Z Z
= x(u) per la periodicità
nZ −1  T0  T0
1 2 nz
= ∑
2Z k=−n 0
x(u) du =
2nZ T0 + 2εZ 0
x(t) dt ,
Z
2.4 Area e media temporale di un segnale 69

per cui facendo divergere Z o equivalentemente nZ , si ha in definitiva:


 T0  T0
2nz 1
x(t) = lim x(t) dt = x(t) dt .
nZ →+∞ 2nz T0 + 2εz 0 T0 0


La proprietà 2.7(c) consente di semplificare il calcolo della media temporale di un segnale periodico,
evitando il passaggio al limite presente nella definizione generale (2.25). Tale proprietà può essere
espressa in forma più generale, osservando che per un segnale periodico a TC risulta:
 T0  t0 +T0
x(t) dt = x(t) dt , ∀t0 ∈ R ,
0 t0

ovvero il risultato dell’integrale su un periodo T0 non dipende dagli estremi di integrazione; questo
consente di utilizzare la notazione simbolica
  t0 +T0

x(t) dt = x(t) dt , ∀t0 ∈ R ,
T0 t0

per indicare l’integrale effettuato su un intervallo arbitrario di durata T0 , pari ad un periodo del
segnale. Allo stesso modo, per un segnale TD, denoteremo con
n0 +N0 −1

∑ x(n) = ∑ x(n) , ∀n0 ∈ Z ,
N0 n=n0

la sommatoria fatta su N0 campioni consecutivi arbitrari, ovvero su un periodo del segnale. Con la
notazione precedente, la media temporale di un segnale periodico si può esprimere come:
 


1
x(t) dt , (segnali a TC)

T0 T0
x(·) = 1 (2.29)


N ∑ x(n) ,
0 N0
(segnali a TD)

 Esempio 2.17 (media temporale del signum) Come applicazione della proprietà di linearità, ricalcoliamo
la media temporale del segnale x(t) = sgn(t), notando che tale segnale può essere espresso semplicemente in
funzione del gradino come sgn(t) = 2 u(t) − 1. Si ha allora:

x(t) = 2 u(t) − 1 = 2 u(t) − 1 = 0 ,


   
= 12 =1

dove abbiamo applicato i risultati degli es. 2.14 e 2.15, riottenendo il risultato dell’es. 2.16. 

 Esempio 2.18 (media temporale di un fasore) Calcoliamo dapprima la media temporale del fasore a TC
x(t) = A e j(ω0 t+ϕ0 ) . Per ω0 = 0, il fasore degenera nel segnale costante x(t) = A e jϕ0 , per cui:
 
x(t) = A e jϕ0 = A e jϕ0 .

Per ω0 = 0, il fasore x(t) è periodico di periodo T0 = | ω0 | , per cui la media temporale si può calcolare su un
periodo, ad esempio in (0, T0 ), utilizzando la (2.29):
  T0  t=T0

1 j(ω0 t+ϕ0 ) A e j ϕ0 j ω0 t A e j ϕ0 e j ω0 t A e jϕ0 e j2π − 1


x(t) = Ae dt = e dt = = = 0.
T0 T0 T0 0 T0 jω0 t=0 T0 jω0
70 Proprietà dei segnali

Nonostante il fasore a TD x(n) = A e j(θ0 n+ϕ0 ) non sia necessariamente un segnale periodico (lo è solo se la
sua frequenza ν0 è un numero razionale), esso gode di proprietà analoghe a quelle del fasore a TC per quanto
riguarda la media temporale. Infatti, si può dimostrare (la verifica è lasciata come esercizio) che

0, se θ0 = 2π k, k ∈ Z ;
x(n) = ϕ
A e , altrimenti ;
j 0

 Esempio 2.19 (media temporale di una sinusoide) Calcoliamo la media temporale della sinusoide a TC
x(t) = A cos(ω0t + ϕ0 ). Nel caso ω0 = 0 la sinusoide si riduce ad un segnale costante x(t) = A cos(ϕ0 ), pertanto
x(t) = A cos(ϕ0 ) = A cos(ϕ0 ) .
Nel caso in cui ω0 = 0, poiché la sinusoide x(t) si esprime come somma di due fasori, possiamo applicare la
proprietà 2.7(a) (linearità della media temporale):
1   1   1   1  
x(t) = A e j(ω0 t+ϕ0 ) + A e− j(ω0 t+ϕ0 ) = A e jϕ0 e jω0 t + A e− jϕ0 e− jω0 t = 0 ,
2 2 2    2   
=0 =0

dove abbiamo sfruttato il risultato (cfr. es. 2.18) che un fasore con ω0 = 0 ha media temporale nulla. Ana-
logamente, per la sinusoide a TD x(n) = A cos(θ0 n + ϕ0 ), si può verificare (la dimostrazione è lasciata come
esercizio) che:

0, se θ0 = 2π k, k ∈ Z ;
x(n) =
A cos (ϕ0 ) , altrimenti ;


2.4.1 Componente continua e alternata di un segnale


Utilizzando una terminologia mutuata dall’elettrotecnica, la media temporale di un segnale si può
interpretare come la componente continua del segnale; a partire dalla componente continua, si può
definire per differenza anche la componente alternata.

Definizione 2.4 (componente continua/alternata)


La componente continua (DC) di un segnale x(·) coincide con la sua media temporale:


xdc = x(·) . (2.30)

La componente alternata (AC) di un segnale x(·) si ottiene sottraendo al segnale la sua


componente continua:

xac (·) = x(·) − xdc . (2.31)

Mentre la componente continua rappresenta il valor medio del segnale, e quindi, in un certo senso,
la parte “costante” del segnale, la componente alternata, essendo ottenuta depurando il segnale della
componente continua, ne rappresenta la parte effettivamente “variabile”. Dalla sua definizione, è
chiaro che la componente alternata di un segnale ha media temporale (e quindi componente continua)
nulla. Infatti, applicando la proprietà di linearità della media temporale, si ha:
xac (·) = x(·) − xdc  = x(·) − xdc  = xdc − xdc = 0 .
2.5 Energia di un segnale 71

Dalla definizione stessa di componente alternata, è chiaro inoltre che un qualunque segnale si può
scrivere sempre come la somma della sua componente continua e della sua componente alternata:

x(·) = xdc + xac (·) . (2.32)

In particolare, un segnale x(·) che presenta xdc = 0 e che, quindi, coincide con la sua componente
alternata, viene detto segnale puramente alternativo. Dagli es. 2.18 e 2.19, segue che il fasore e
la sinusoide a TC, con ω0 = 0, sono segnali TC puramente alternativi; analogamente, il fasore e la
sinusoide a TD, con θ0 = 2π k, k ∈ Z, sono segnali TD puramente alternativi.
 Esempio 2.20 (componente continua ed alternata del gradino) Abbiamo già calcolato (es. 2.15) la media
temporale del gradino, per cui la componente continua vale xdc = 12 , mentre la componente alternata vale:

1 1
xac (t) = x(t) − xdc = u(t) − = sgn(t) .
2 2
Pertanto la decomposizione (2.32) per un gradino assume la forma:
1 1
u(t) = xdc + xac (t) = + sgn(t) .
2 2
Dalla relazione precedente si può ricavare, per verifica, anche la relazione sgn(t) = 2 u(t) − 1 che abbiamo già
utilizzato in precedenza. Risultati analoghi valgono anche per il caso del gradino a TD. 

2.5 Energia di un segnale


Un parametro importante che caratterizza sinteticamente un’ampia famiglia di segnali è l’energia; il
concetto di energia è fondamentale nella fisica, e ricorre in numerose applicazioni. Consideriamo,
ad esempio, un resistore R attraversato dalla corrente x(t): per effetto termico, il resistore dissipa
nell’intervallo di tempo (−Z, Z) un’energia pari a
 Z
Ex (Z) = R x2 (t) dt ,
−Z

che viene misurata in Joule (J). Se si considerano altri esempi in altri campi della fisica, si può verifi-
care che in generale l’energia è proporzionale all’integrale del quadrato del segnale. Per ottenere una
definizione indipendente dalla particolare applicazione fisica, conviene ignorare le eventuali costanti
di proporzionalità (come la resistenza R nell’esempio precedente) e definire l’energia di un arbitrario
segnale TC o TD (sull’intero asse dei tempi) nel modo seguente:

Definizione 2.5 (energia)


L’energia di un segnale è:
  Z

 |x(t)|2 dt, (segnali TC)
Z→+∞
lim
 −Z
Ex = K (2.33)


 lim
K→+∞
∑ |x(n)|2 , (segnali TD)
n=−K

Si noti la presenza del modulo nella definizione (2.33), che rende tale definizione di energia applicabile
anche a segnali complessi; se il segnale è reale, il modulo può evidentemente essere omesso, in quanto
per un segnale reale |x(·)|2 = x2 (·). Avendo ignorato eventuali costanti di proporzionalità, notiamo
72 Proprietà dei segnali

che le dimensioni fisiche di Ex calcolata mediante la (2.33) non sono necessariamente quelle di una
energia. Ad esempio, il quadrato di una corrente non è dimensionalmente una energia, ma richiede
una moltiplicazione per una resistenza. Tali costanti di proporzionalità non saranno considerate nel
seguito, ma evidentemente vanno portate in conto se si intende calcolare l’energia in Joule mediante
la (2.33) in specifiche applicazioni. Essendo legata al quadrato del segnale, l’energia è una quantità
non negativa (Ex ≥ 0). Dal confronto tra le (2.24) e (2.33), è interessante osservare che l’energia del
segnale x(·) può essere interpretata come l’area del segnale |x(·)|2 . Questo osservazione ci consente di
estendere all’energia alcune proprietà dell’area di un segnale. In particolare, se il segnale x(·) presenta
durata rigorosamente limitata (è il caso delle finestre), allora anche |x(·)|2 sarà di durata rigorosamente
limitata e, conseguentemente, la sua energia (ovvero l’area di |x(·)|2 ) sarà finita. Tuttavia, l’energia
può esistere finita anche se il segnale x(·) ha durata non rigorosamente limitata, purché |x(·)|2 decada
a zero per |t| → +∞ o per |n| → +∞ con sufficiente rapidità, in modo da garantire la convergenza
dell’integrale o della serie che compaiono nella definizione (2.33) (cfr. § B.2.3 e B.1.4).
 Esempio 2.21 (energia della finestra rettangolare) Il calcolo dell’energia per una finestra rettangolare a
TC x(t) = A rect(t/T ) è semplice, avendosi:
 Z  T /2
Ex = lim |x(t)|2 dt = A2 dt = A2 T .
Z→+∞ −Z −T /2

Calcoli altrettanto semplici si possono effettuare per una finestra rettangolare a TD x(n) = RN (n). Si ha infatti:

K N−1
Ex = lim
K→+∞ n=−K
∑ |x(n)|2 = ∑ 1=N.
n=0

 Esempio 2.22 (energia dell’esponenziale monolatero a TC) Calcoliamo l’energia per l’esponenziale mo-
nolatero a TC x(t) = A e−t/T u(t), con T > 0. Si ha:

 Z  ∞
!t=∞
−2t/T e−2t/T A2 T
Ex = lim |x(t)| dt = A
2 2
e dt = A2
= .
Z→+∞ −Z 0 −2/T 2
t=0

Notiamo che l’energia è finita poiché x(t) è una funzione che tende a zero per t → +∞ con legge esponen-
ziale (quindi molto rapidamente). Se avessimo viceversa considerato T < 0, avremmo avuto un esponenziale
monolatero crescente, che quindi avrebbe presentato Ex = +∞. 

 Esempio 2.23 (energia dell’esponenziale monolatero a TD) Calcoliamo l’energia per l’esponenziale mo-
nolatero a TD x(n) = A an u(n). Si ha:

K ∞
Ex = lim
K→+∞ n=−K
∑ |x(n)|2 = A2 ∑ a2n .
n=0

Si ottiene allora una serie geometrica di ragione a2 , che converge se e solo se |a|2 < 1, ovvero se e solo se
|a| < 1. In questo caso, allora, l’energia vale:

1
Ex = A2 , |a| < 1 .
1 − a2

Notiamo che la condizione |a| < 1 equivale a dire che l’esponenziale tende a zero per n → +∞ , mentre per
|a| ≥ 1 l’energia non esiste finita, in quanto l’esponenziale non tende a zero. 
2.5 Energia di un segnale 73

2.5.1 Segnali di energia


I segnali aventi energia finita (come quelli degli es. 2.21, 2.22, e 2.23) prendono il nome di segnali di
energia. Più in generale, sussiste la seguente definizione:

Definizione 2.6 (segnale di energia)


Si dice segnale di energia un segnale x(·) avente energia finita e diversa da zero (0 < Ex < +∞).

In pratica, la classe dei segnali di energia si può identificare con la classe dei segnali di durata limitata
o transitori (cfr. § 2.3), che comprende sia i segnali di durata rigorosamente limitata (come ad esempio
la finestra rettangolare dell’es. 2.21), sia i segnali di durata praticamente limitata (ad esempio i segnali
esponenziali monolateri decrescenti degli es. 2.22 e 2.23). Viceversa, i segnali di durata non limitata o
persistenti non sono di energia, in quanto tipicamente presentano Ex = +∞: vedremo che tali segnali
appartengono in genere alla classe dei segnali di potenza (vedi § 2.6). In conclusione, osserviamo che,
dal punto di vista matematico, non esiste alcuna relazione di inclusione tra l’insieme dei segnali di
energia e l’insieme dei segnali aventi area finita (cfr. § B.2.3 e B.1.4): un segnale può essere di energia,
ma non avere area finita; un segnale può avere area finita, ma non essere di energia. Poiché i segnali
aventi area finita hanno componente continua nulla, consegue che, in generale, un segnale di energia
può anche avere componente continua non nulla. Tuttavia, in molti casi di interesse pratico i segnali di
energia hanno anche area finita (vedi ad esempio gli esponenziali monolateri); la conseguenza pratica
è che tipicamente essi hanno componente continua nulla.

2.5.2 Energia mutua


Osserviamo preliminarmente che il prodotto di un segnale di energia per una costante è ancora un
segnale di energia, e la somma di due segnali di energia è ancora un segnale di energia. Questa
circostanza si esprime matematicamente dicendo che l’insieme dei segnali di energia è chiuso rispetto
alle operazioni di somma e prodotto per una costante (cfr. § B.2.3 e B.1.4).
Nel caso del prodotto per una costante α ∈ C, posto y(·) = α x(·), è semplice provare che si ha
Ey = |α |2 Ex ; più articolato è il calcolo dell’energia Ex+y della somma di due segnali. Sviluppiamo
esplicitamente i calcoli nel caso TC, partendo dalla definizione:
 Z
Ex+y = lim |x(t) + y(t)|2 dt . (2.34)
Z→+∞ −Z

Sviluppando il modulo al quadrato all’interno dell’integrale, si ha:

|x(t) + y(t)|2 = [x(t) + y(t)][x(t) + y(t)]∗ = x(t) x∗ (t) + y(t) y∗ (t) + x(t) y∗ (t) + y(t) x∗ (t)
= |x(t)|2 + |y(t)|2 + 2 Re[x(t) y∗ (t)] ,

dalla quale, sostituendo nella (2.34), si ha:


 Z  Z   Z 

Ex+y = lim |x(t)| dt + lim
2
|y(t)| dt + 2 Re
2
lim x(t) y (t) dt . (2.35)
Z→+∞ −Z Z→+∞ −Z Z→+∞ −Z

Se si pone
 Z

Exy = lim x(t) y∗ (t) dt , (2.36)
Z→+∞ −Z
74 Proprietà dei segnali

si ha in definitiva:

Ex+y = Ex + Ey + 2 Re(Exy ) . (2.37)

La relazione (2.37) mostra che nel calcolo dell’energia Ex+y della somma di due segnali compare,
oltre alle energie Ex e Ey dei singoli segnali, il termine Exy che evidentemente porta in gioco rela-
zioni energetiche mutue o reciproche tra i due segnali. Estendendo i precedenti concetti, con ovvie
modifiche, al caso TD, possiamo dare la seguente definizione di energia mutua tra due segnali:

Definizione 2.7 (energia mutua)


L’energia mutua tra due segnali x(·) e y(·) è:
  Z

 x(t) y∗ (t) dt, (segnali TC)
Z→+∞
lim
 −Z
Exy = K (2.38)


 lim
K→+∞
∑ x(n) y (n),

(segnali TD)
−K

A differenza dell’energia, che è una quantità reale e non negativa, l’energia mutua è in generale una
quantità complessa; notiamo peraltro che per x(·) ≡ y(·) l’energia mutua si riduce all’energia del
segnale. Inoltre, poiché il secondo segnale nella (2.38) è coniugato, si ha Eyx = E∗xy : nel caso di
segnali reali, però, l’energia mutua è anch’essa reale (anche se può avere segno qualsiasi), e risulta
simmetrica, in quanto Eyx = Exy . In tal caso, la relazione (2.37) (valida per segnali a TC e a TD) si
semplifica nella:

Ex+y = Ex + Ey + 2 Exy , (2.39)

simile concettualmente alla formula per il calcolo del quadrato di un binomio. Poiché il termine
contenente l’energia mutua nella (2.37) o nella (2.39) può assumere segno qualsiasi, tali relazioni
mostrano che l’energia della somma di due segnali può risultare in generale maggiore, minore o
uguale rispetto alla somma delle energie. Particolarmente interessante è la condizione in cui Exy = 0,
che garantisce l’additività delle energie:10

Ex+y = Ex + Ey . (2.40)

La precedente osservazione porta ad introdurre il concetto di ortogonalità11 tra due segnali di energia:

Definizione 2.8 (ortogonalità tra segnali di energia)


Due segnali di energia x(·) e y(·) si dicono ortogonali se Exy = 0.

Per segnali di energia ortogonali vale l’additività delle energie (2.40). Nei due esempi seguenti, sono
mostrati alcuni casi tipici (certamente non esaustivi) di segnali ortogonali.
 Esempio 2.24 (segnali di energia ortogonali nel tempo) Si considerino due segnali che non si sovrappon-
gono nel tempo, come ad esempio x(t) = rect(t)
"Z
e y(t) = rect(t − 1) (fig. 2.41). In tal caso si ha x(t) y∗ (t) ≡ 0,
e quindi a maggior ragione Exy = limZ→+∞ −Z x(t) y∗ (t) dt = 0. Segnali (TC o TD) che non si sovrappongono
nel tempo sono detti ortogonali nel tempo. 
10 Se i segnali sono complessi, per l’additività delle energie è necessario e sufficiente che sia Re[E ] = 0; in questo caso
xy
la condizione Exy = 0 è sufficiente ma non necessaria, mentre diventa necessaria e sufficiente se i segnali sono reali.
11 Si usa il termine “ortogonalità” in quanto, in base a concetti matematici più avanzati, l’energia mutua può anche essere

interpretata come “prodotto scalare” tra i segnali x(t) ed y(t) (riguardati come vettori).
2.6 Potenza e valore efficace di un segnale 75

1 1

x(t)
x(t)

0.5 0.5

0 0
−1 −0.5 0 0.5 1 1.5 2 −1.5 −1 −0.5 0 0.5 1 1.5
t t

1 0.5

y(t)
0
y(t)

0.5

−0.5
0
−1.5 −1 −0.5 0 0.5 1 1.5
−1 −0.5 0 0.5 1 1.5 2 t
t

Fig. 2.42. I segnali x(t) = rect(t) e y(t) = t rect(t)


Fig. 2.41. I segnali x(t) = rect(t) e y(t) = rect(t − 1)
sono ortogonali per simmetria (es. 2.25).
sono ortogonali nel tempo (es. 2.24).

 Esempio 2.25 (segnali di energia ortogonali per simmetria) Si considerino due segnali di energia anche
sovrapposti nel tempo, ma tali che uno dei due, ad esempio x(t), abbia simmetria pari, mentre l’altro ha simme-
tria dispari. Poiché il prodotto di una funzione pari e di una dispari è una funzione dispari, risulta anche in questo
caso Exy = 0, nonostante x(t) y∗ (t) ≡ 0. Per un esempio concreto, basta considerare i segnali x(t) = rect(t) e
y(t) = t rect(t) (fig. 2.42). Si ha:
 Z  1/2
Exy = lim rect(t)t rect(t)dt = t dt = 0 .
Z→+∞ −Z −1/2

2.6 Potenza e valore efficace di un segnale


Come l’energia, anche la potenza è un parametro sintetico caratterizzante alcuni segnali, che è utilizza-
to in numerosi e diversi ambiti della fisica. Consideriamo ancora l’esempio del resistore R attraversato
dalla corrente x(t): la potenza mediamente dissipata nell’intervallo di tempo (−Z, Z) è
 Z
1
Px (Z) = R x2 (t) dt ,
2Z −Z

ovvero si ottiene dividendo l’energia dissipata nell’intervallo (−Z, Z) per la lunghezza 2Z di tale
intervallo di tempo. La potenza è una quantità misurata in J/s o Watt (W). Per ottenere una definizione
generale della potenza mediamente dissipata su tutto l’intervallo temporale del segnale, conviene
trascurare eventuali costanti di proporzionalità (come la resistenza R) e far tendere Z all’infinito,
ottenendo così:
 Z
 1
Px = lim |x(t)|2 dt . (2.41)
Z→+∞ 2Z −Z

Notiamo che la potenza Px coincide con la media temporale del segnale |x(t)|2 ed essendo legata,
come l’energia, al modulo al quadrato del segnale, è una quantità non negativa (Px ≥ 0).
Pertanto, generalizzando l’interpretazione come media temporale al caso TD, si perviene alla
seguente definizione di potenza:
76 Proprietà dei segnali

Definizione 2.9 (potenza)


La potenza di un segnale è:
  Z
 1

Z→+∞ 2Z
lim |x(t)|2 dt, (segnali TC)

  −Z
Px = |x(·)|2 = K (2.42)
 1

 lim
K→+∞ 2K + 1
∑ |x(n)|2 , (segnali TD)
n=−K

Si noti che il modulo nella definizione (2.42) può essere omesso se il segnale è reale. Avendo trascura-
to eventuali costanti di proporzionalità, le dimensioni fisiche della potenza definita in base alla (2.42)
non sono necessariamente quelle corrette (ovvero W). Il vantaggio è, come per l’energia, di ottenere
una quantità che dipende esclusivamente dal segnale.
 Esempio 2.26 (potenza di un segnale costante) La potenza di un segnale costante x(·) = a è:
   
Px = |x(·)|2 = |a|2 = |a|2 .

Se il segnale è reale (a ∈ R), allora Px = a2 . 

 Esempio 2.27 (potenza del gradino) Il calcolo della potenza di un gradino u(·) è semplice: basta osservare
che, poiché il gradino assume solo i due valori reali 0 ed 1, si ha:
    1
Px = |u(·)|2 = u2 (·) = u(·) = xdc =
2
dove abbiamo utilizzato il risultato dell’es. 2.15 sulla componente continua di un gradino. 

A partire dalla potenza si definisce il valore efficace di un segnale (detto anche valore root mean
square o RMS), molto utilizzato nell’elettrotecnica:

Definizione 2.10 (valore efficace)


Il valore efficace di un segnale x(·) è:
# $

xrms = Px = |x(·)|2  .

Sulla base del risultato dell’es. 2.26, il valore efficace di un segnale x(·) si può interpretare come il
valore che deve assumere un segnale costante per avere la stessa potenza del segnale dato.

2.6.1 Segnali di potenza


Sulla base della definizione di potenza, è possibile individuare la classe dei segnali che hanno potenza
finita; tali segnali prendono il nome di segnali di potenza:

Definizione 2.11 (segnale di potenza)


Si dice segnale di potenza un segnale x(·) avente potenza finita e diversa da zero (0 < Px < +∞).

La classe dei segnali di potenza è costituita dai segnali di durata non limitata o persistenti: tali segnali
comprendono i segnali aperiodici persistenti (es. gradino, signum) e i segnali periodici (es. fasore,
2.6 Potenza e valore efficace di un segnale 77

sinusoide). Per soddisfare la definizione (2.12) oppure (2.13), un segnale periodico deve necessaria-
mente avere durata illimitata; questo comporta che la sua energia è necessariamente infinita. Infatti,
fatta eccezione per casi di scarso interesse pratico, un segnale periodico è necessariamente un segnale
di potenza. Ricordando che la potenza di un segnale x(·) non è altro che il valor medio di |x(·)|2 e
invocando la proprietà 2.7(c) della media temporale, segue che la potenza di un segnale periodico si
può calcolare12 come:
 


1
|x(t)|2 dt , (segnali a TC)
  
T 0 T
Px = |x(·)|2 = 1 0 (2.43)
 N ∑ |x(n)| ,

 2
(segnali a TD)
0 N0

da cui si vede che la potenza esiste necessariamente finita e diversa da zero, salvo per casi particolari
di scarso interesse pratico13 .
 Esempio 2.28 (potenza di un fasore) Calcoliamo la media temporale del fasore a TC x(t) = A e j(ω0 t+ϕ0 ) .
Per ω0 = 0, il fasore degenera nel segnale costante x(t) = A e jϕ0 , per cui:
   
Px = |x(t)|2 = A2 = A2 .
Per ω0 = 0, il fasore x(t) è periodico di periodo T0 = |ω2π | , per cui la potenza si può calcolare applicando la
0
(2.43). In tal modo, si ha:
  
1
Px = |x(t)|2 = A2 dt = A2 ,
T0 T0

da cui si ottiene per il valore efficace xrms = Px = A (si noti che i risultati per la potenza ed il valore efficace
valgono anche per ω0 = 0). Nonostante il fasore a TD x(n) = A e j(θ0 n+ϕ0 ) non sia necessariamente un segnale
periodico (lo è solo se la sua frequenza ν0 è un numero razionale), esso gode di proprietà analoghe a quelle del
fasore a TC per quanto
 riguarda
 la potenza. Infatti, si può dimostrare (la verifica è lasciata come esercizio) che
in ogni caso Px = |x(n)|2 = A2 . 

 Esempio 2.29 (potenza di una sinusoide) Calcoliamo prima la potenza della sinusoide a TC x(t) = A cos(ω0t +
ϕ0 ). Nel caso ω0 = 0 la sinusoide si riduce ad un segnale costante x(t) = A cos(ϕ0 ), pertanto:
   
Px = |x(t)|2 = A2 cos2 (ϕ0 ) = A2 cos2 (ϕ0 ) .
Nel caso in cui ω0 = 0, applicando la formula trigonometrica di bisezione ed ancora la proprietà di linearità
della media temporale, si ha:
 
    A 2 2
A  A2
Px = |x(t)|2 = A2 cos2 (ω0t + ϕ0 ) = 1 + cos(2ω0t + 2ϕ0 ) = 1 + cos(2ω0t + 2ϕ0 ) = ,
2 2     2
=1 =0

dove si è sfruttato il risultato (si veda l’es. 2.19) che una sinusoide con √
pulsazione diversa da zero ha com-
ponente continua nulla. Il valore efficace della sinusoide è allora xrms = Px = √A2 , risultato frequentemente
utilizzato nell’elettrotecnica. Analogamente, per la sinusoide a TD x(n) = A cos(θ0 n + ϕ0 ), si può verificare (la
dimostrazione è lasciata come esercizio) che:
 2
  A
, se θ0 = π k, k ∈ Z ;
Px = |x(n)| = 22
2
A cos2 (ϕ0 ) , altrimenti .

12 Notiamo che se x(·) è periodico di periodo T [N ], allora anche |x(·)|2 ammette lo stesso periodo, anche se il periodo
0 0
fondamentale può essere un sottomultiplo di T0 [N0 ].
13 Ad esempio, la potenza potrebbe divergere solo nel caso di un segnale TC periodico x(t) che non sia a quadrato

sommabile sull’intervallo T0 (un segnale del genere dovrebbe necessariamente essere non limitato su un periodo, per cui è
di scarso interesse pratico).
78 Proprietà dei segnali

2.6.2 Relazioni tra segnali di energia e di potenza

È interessante analizzare più in dettaglio le relazioni esistenti tra segnali di energia e segnali di
potenza. A tal proposito, sussiste il seguente risultato:

Teorema 2.1 (relazioni tra segnali di energia e di potenza)


(a) se x(·) è un segnale di potenza, allora esso ha energia infinita (Ex = +∞);
(b) se x(·) è un segnale di energia, allora esso ha potenza nulla (Px = 0).

Prova. Per provare la (a), basta scrivere (ad esempio nel caso TC):
 Z
   lim |x(t)|2 dt
1 Z Z→+∞ −Z
Px = |x(t)| = lim2
|x(t)| dt =
2
. (2.44)
Z→+∞ 2Z −Z lim 2Z
Z→+∞

È chiaro allora che, se la potenza (2.44) esiste finita, si avrà:


 Z

Ex = lim |x(t)|2 dt = Px lim 2Z = +∞ .
Z→+∞ −Z Z→+∞

Con ragionamenti analoghi è possibile provare la stessa proprietà anche nel caso TD. Viceversa, se l’energia è
finita, dalla (2.44) si ricava:
 Z
lim |x(t)|2 dt
Z→+∞ −Z Ex
Px = = = 0, (2.45)
lim 2Z lim 2Z
Z→+∞ Z→+∞

il che prova la (b) (un analogo ragionamento è possibile per il caso TD). 
La proprietà (a) prova che un segnale di potenza ha necessariamente Ex = +∞, e quindi non può essere
di energia. Viceversa, la (b) prova che un segnale di energia ha necessariamente Px = 0, e quindi non
può essere di potenza. Pertanto, gli insiemi dei segnali di energia e dei segnali di potenza non hanno
elementi in comune, e quindi sono disgiunti. Tuttavia, i due insiemi non costituiscono una partizione
di tutti i possibili segnali, in quanto esistono casi di segnali che non sono nè di energia, nè di potenza.
Un primo esempio banale è il segnale identicamente nullo x(·) = 0, che ha Ex = Px = 0 e quindi non
appartiene a rigore nè ai segnali di energia, nè a quelli di potenza. Esistono casi meno banali di segnali,
aventi durata non limitata, che non sono segnali di potenza, in quanto hanno Px = +∞ (e ovviamente
non sono neppure segnali di energia, in quanto hanno Ex = +∞). Ad esempio il segnale rampa a TC
x(t) = t u(t), raffigurato in fig. 2.43, presenta Ex = Px = +∞, e quindi non si può considerare nè un
segnale di potenza, nè di energia.

2.6.3 Potenza mutua


Con ragionamenti analoghi a quelli effettuati per i segnali di energia, si può verificare che anche
l’insieme dei segnali di potenza è chiuso rispetto alle operazioni di somma e prodotto per una costante.
In altri termini, il prodotto di un segnale di potenza per una costante α ∈ C è ancora un segnale di
potenza, e la somma di due segnali di potenza è ancora un segnale di potenza.
Anche in questo caso, posto y(·) = α x(·), si prova facilmente che Py = |α |2 Px ; per quanto riguarda
la somma di due segnali, invece, seguendo passaggi simili a quelli effettuati per l’energia, e sfruttando
la proprietà di linearità della media temporale, si mostra facilmente che
Px+y = Px + Py + 2 Re(Pxy ) , (2.46)
dove Pxy è la potenza mutua tra i segnali x(·) ed y(·), definita come segue:
2.6 Potenza e valore efficace di un segnale 79

1.5

x(t) = t u(t)
1

0.5

0
−2 −1 0 1 2
t

Fig. 2.43. Segnale rampa a TC.

Definizione 2.12 (potenza mutua)


La potenza mutua tra due segnali x(·) e y(·) è:
  Z
 1

Z→+∞ 2Z
lim x(t) y∗ (t) dt, (segnali TC)
 ∗ −Z
Pxy = x(·) y (·) = K (2.47)
 1

 lim
K→+∞ 2K + 1
∑ x(n) y∗ (n), (segnali TD)
n=−K

Notiamo che, per la presenza dell’operazione di coniugazione sul secondo segnale, si ha Pyx = P∗xy , ed
in generale la potenza mutua è complessa; se invece i segnali sono reali la potenza mutua è simmetrica
(Pyx = Pxy ) e reale (ma di segno qualsiasi), per cui la (2.46) si scrive

Px+y = Px + Py + 2 Pxy . (2.48)

Le relazioni (2.46) e (2.48) e evidenziano che, come per le energia, anche per la potenze non vale
l’additività, a meno che Pxy = 0. Questa osservazione porta alla definizione di ortogonalità anche per
i segnali di potenza:

Definizione 2.13 (ortogonalità per segnali di potenza)


Due segnali di potenza x(·) e y(·) si dicono ortogonali se Pxy = 0.

Per segnali di potenza ortogonali, in particolare, vale la proprietà di additività delle potenze:

Px+y = Px + Py . (2.49)

Gli esempi che seguono presentano alcuni casi significativi (anche qui non esaustivi) di segnali di
potenza ortogonali.
 Esempio 2.30 (ortogonalità tra seno e coseno) Un esempio di due segnali di potenza a TC ortogonali si
ottiene scegliendo x(t) = cos(ω0t) e y(t) = sin(ω0t), con ω0 = 0. Si ha infatti, adoperando le proprietà della
media temporale e note formula trigonometriche:
% &
1 1
Pxy = cos(ω0t) sin(ω0t) = sin(2ω0t) = sin(2ω0t) = 0 ,
2 2
80 Proprietà dei segnali

Parametro Notazione Definizione


Estensione temporale Dx intervallo di tempo in cui |x(·)|
assume valori non trascurabili
Durata temporale ∆x misura dell’estensione temporale Dx
 Z
Area Ax lim x(t) dt (segnali TC)
Z→+∞ −Z
K
lim
K→+∞
∑ x(n) (segnali TD)
n=−K

1 Z
Media temporale xdc = x(·) lim x(t) dt (segnali TC)
Z→+∞ 2Z −Z
K
1
(componente continua) lim
K→+∞ 2K + 1
∑ x(n) (segnali TD)
n=−K
Energia Ex area del modulo al quadrato |x(·)|2 del segnale
Potenza Px media temporale del modulo al quadrato |x(·)|2
del segnale

Tab. 2.1. Riepilogo dei parametri che caratterizzano sinteticamente un segnale x(·).

dove abbiamo sfruttato il fatto che un segnale sinusoidale ha media nulla. Notiamo che l’ortogonalità si perde
se si introduce uno sfasamento tra i due segnali, a meno che lo sfasamento non assuma valori particolari (vedi
esercizio 2.30). 

 Esempio 2.31 (ortogonalità tra componente continua ed alternata) È facile provare che la componente
continua ed alternata di un segnale di potenza sono tra loro ortogonali. Posto infatti x(·) = xdc + xac (·), si ha:

Pxdc xac = xdc xac ∗
(·) = xdc xac (·) = xdc xac (·)∗ = 0 ,
in quanto l’operazione di coniugazione si scambia con la media temporale, e xac (·) = 0 per definizione. Si ha
allora:
Px = Pdc + Pac ,
ovvero la potenza di un segnale si può esprimere come la somma della potenza in continua e della potenza in
alternata. 

In conclusione, nella tab. 2.1 sono riepilogati i parametri introdotti finora che caratterizzano sintetica-
mente un segnale, evidenziando i legami esistenti tra alcuni di essi.

2.7 Misura in dB della potenza e dell’energia


Potenze ed energie possono variare anche di numerosi ordini di grandezza; inoltre nelle applicazioni
esse andrebbero misurate nelle opportune unità di misura, vale a dire, Watt (W) per le potenze, Joule
(J) per le energie. Con riferimento in particolare alla potenza, per risolvere i due problemi prece-
denti e per semplificare alcuni calcoli, nell’ingegneria si utilizza spesso una misura logaritmica ed
adimensionale della potenza Px , detta misura in deciBel (dB):14

 Px
[Px ]dB = 10 log10 , (2.50)
P0
14 Il
termine “deciBel” significa letteralmente la decima parte di un “Bel”, che è una unità di misura originariamente
introdotto da tecnici che lavoravano ai laboratori della Bell Telephone. Il deciBel è utilizzato anche in acustica come unità
di misura dell’intensità di un suono.
2.7 Misura in dB della potenza e dell’energia 81

Px /P0 [Px ]dB


0.001 −30 dB
0.01 −20 dB
0.1 −10 dB
0.5 −3 dB
1 0 dB
2 3 dB
10 10 dB
100 20 dB
1000 30 dB

Tab. 2.2. Valori comuni di potenza espressi in dB.

dove P0 è una potenza di riferimento, opportunamente scelta a seconda delle applicazioni. Le scelte
più comuni per la potenza di riferimento sono P0 = 1W, ed in tal caso si parla di potenze espresse
in dBW, e si scrive più specificamente [Px ]dBW ; se invece P0 = 1mW, si parla di potenze espressa
in dBm, e si scrive [Px ]dBm ; quest’ultima scelta è molto utilizzata ad esempio nelle applicazioni che
riguardano la telefonia ed i sistemi di telecomunicazione.
Nella tab. 2.2 sono riportati alcuni dei valori più comuni di potenze espresse in dB. Ovviamente,
dato il valore di potenza [Px ]dB in dB , il valore Px in unità naturali si ottiene facilmente invertendo la
relazione (2.50):
[P x ]dB
Px = P0 · 10 10 .

Una misura analoga in dB si può introdurre anche per il valore efficace xrms = Px ; tuttavia, per
avere lo stesso valore in dB, tenendo conto della relazione quadratica esistente tra valore efficace e
potenza, conviene introdurre un fattore numerico pari a 20, invece di 10, nella definizione (2.50); si
perviene pertanto alla seguente definizione per la misura in dB del valore efficace xrms :

 xrms
[xrms ]dB = 20 log10 ,
x0

dove x0 = P0 è il valore efficace corrispondente alla potenza di riferimento P0 . Con questa scelta i
valori in dB relativi alla potenza ed al valore efficace coincidono, in quanto, applicando le proprietà
dei logaritmi, si ha:


Px 2
xrms xrms
[Px ]dB = 10 log10 = 10 log10 = 20 log10 = [xrms ]dB .
P0 x02 x0

 Esempio 2.32 (potenze espresse di dBW e dBm) Si consideri la potenza Px = 100 W; scegliendo P0 = 1
W, si ha:

100
[Px ]dBW = 10 log10 = 20 dBW ,
1

mentre se si sceglie P0 = 1 mW, si ha:


100
[Px ]dBm = 10 log10 = 50 dBm .
10−3
82 Proprietà dei segnali

mezzo
PT trasmissivo P R =γc P T
γc

Fig. 2.44. Schema di principio di un collegamen-


to punto-punto in un sistema di telecomunicazioni
(problema del link budget).

Notiamo che la relazione esistente tra dBW e dBm è la seguente:

[Px ]dBm = [Px ]dBW + 30 dB .

Infatti, le potenze di riferimento nei due casi differiscono di un fattore 1000, corrispondente a 30 dB (tab. 2.2)
in unità logaritmiche. 

 Esempio 2.33 (attenuazione in dB e link budget) Un altro esempio dell’utilità di una misura logaritmica
per la potenza è quello in cui si vogliono mettere in relazione la potenza trasmessa e quella ricevuta su un
collegamento punto-punto di un sistema di telecomunicazioni (tale problema prende il nome di link budget).
Si consideri lo schema di fig. 2.44, in cui un segnale viene trasmesso su un mezzo trasmissivo che introduce
una attenuazione della potenza pari ad γc , con 0 < γc < 1 (il valore di γc dipende dalla natura del mezzo e dalla
distanza coperta dal collegamento). Detta PT la potenza trasmessa, la potenza ricevuta sarà pari a PR = γc PT ;
misurando invece la potenza ricevuta in dB, si ha:
     
PR γc PT PT
[PR ]dB = 10 log10 = 10 log10 = 10 log10 [γc ] + 10 log10 ,
P0 P0 P0

ovvero, ponendo:

[γc ]dB = 10 log10 [γc ] (2.51)

si può scrivere, assumendo ad esempio P0 = 1mW,

[PR ]dBm = [γc ]dB + [PT ]dBm .

Il vantaggio è che la relazione moltiplicativa tra potenza trasmessa e ricevuta si è trasformata, per le proprietà
dei logaritmi, in una relazione additiva. La (2.51) definisce l’attenuazione in dB o path loss caratteristica
del collegamento. Notiamo che poiché 0 < γc < 1, allora [γc ]dB < 0, per cui, come è ovvio che sia, risulta
[PR ]dBm < [PT ]dBm . 
2.8 Esercizi proposti 83

2.8 Esercizi proposti


Esercizio 2.1 Si consideri il segnale TC x(t) = rect(t). Individuare quale operazione elementare è effettuata su
x(t) per ottenere il segnale y(t) e rappresentare il grafico del segnale y(t):
(a) y(t) = x(t − 5);
(b) y(t) = x(t + 5);
(c) y(t) = x(−t);
(d) y(t) = x(2t);
t 
(e) y(t) = x .
3
Esercizio 2.2 Dati i segnali TD

|n| , n ∈ {0, ±1, ±2, ±3}
x(n) =
0, altrimenti
y(n) = R4 (n − 1) − R4 (−n − 1) ,

dopo aver rappresentato il grafico di x(n) ed y(n), rappresentare accuratamente il grafico del segnale z(n) nei
seguenti casi:
(a) z(n) = x(2n);
(b) z(n) = x(3n − 1);
(c) z(n) = y(1 − n);
n
(d) z(n) = x ;
2
(e) z(n) = y(2 − 2n);
(f) z(n) = x(n − 2) + y(n + 2);
(g) z(n) = x(2n) + y(n − 4);
(h) z(n) = x(n + 2) y(n − 2);
(i) z(n) = x(3 − n) y(n);
(j) z(n) = x(−n) y(−n);
(k) z(n) = x(n) y(−2 − n);
(l) z(n) = x(n + 2) y(6 − n).

Esercizio 2.3 Si consideri il segnale TC x(t) = Λ(t). Determinare l’espressione analitica del segnale y(t)
ottenuto effettuando le seguenti operazioni su x(t) (nell’ordine specificato) e rappresentare il grafico del segnale
y(t):
(a) riflessione seguita da un ritardo di 5;
(b) ritardo di 5 seguito da una riflessione;
(c) cambiamento di scala con a = 5 seguito da un anticipo di 5;
(d) anticipo di 5 seguito da un cambiamento di scala con a = 5.

Esercizio 2.4 Si consideri il segnale TC y(t) = x(2t − 1). Individuare quali delle seguenti combinazioni di
operazioni elementari consente di ottenere y(t) a partire da x(t) (sono possibili più risposte corrette):
84 Proprietà dei segnali

(a) ritardo di 1 seguito da cambiamento di scala con a = 2;


(b) cambiamento di scala con a = 2 seguito da ritardo di 1;
(c) ritardo di 1/2 seguito da cambiamento di scala con a = 2;
(d) cambiamento di scala con a = 2 seguito da ritardo di 1/2.

Esercizio 2.5 Si consideri il segnale TC x(t) = Λ(t). Individuare le operazioni effettuate (specificandone
l’ordine) per ottenere il segnale y(t) e rappresentare il grafico del segnale y(t):
(a) y(t) = x(−t + 1);
(b) y(t) = x(−t − 1);
(c) y(t) = x(2t − 1);
(d) y(t) = x[2(t − 1)];
t 
(e) y(t) = x −1 ;
3

t −1
(f) y(t) = x .
3

Esercizio 2.6 Rappresentare graficamente il segnale TC



1, 2 ≤ t ≤ 4
y(t) =
0 , altrimenti

e trovarne una espressione analitica in funzione del segnale x(t) = rect(t). Determinare, inoltre, l’estensione
temporale e la durata del segnale.
Esercizio 2.7 Rappresentare graficamente il segnale TC


3(t − 2) , 2 ≤ t ≤ 5
y(t) = 3(8 − t) , 5 ≤ t ≤ 8


0, altrimenti

e trovarne una espressione analitica in funzione del segnale x(t) = Λ(t). Determinare, inoltre, l’estensione
temporale e la durata del segnale.
Esercizio 2.8 Rappresentare graficamente i seguenti segnali TC e determinare la loro estensione temporale e
durata (per i segnali aventi durata praticamente limitata, si scelga una soglia α pari al 10% del valore massimo
assunto dal segnale):
(a) x(t) = rect(t) − rect(t − 1);
(b) x(t) = e at u(−t), con a > 0;
(c) x(t) = e−|t|/T , con T > 0;
(d) x(t) = e−t ;
2

1
(e) x(t) = √ ;
1 + t2
(f) x(t) = u(t) − rect(t − 2).

Esercizio 2.9 Rappresentare graficamente i seguenti segnali TD e determinare la loro estensione temporale e
durata (per i segnali aventi durata praticamente limitata, si scelga una soglia α pari al 10% del valore massimo
assunto dal segnale):
2.8 Esercizi proposti 85

(a) x(n) = δ (n) − 2 δ (n − 1) + 3 δ (n − 2) − δ (n − 4);


(b) x(n) = an u(−n), con |a| > 1;
(c) x(n) = a|n| , con 0 < |a| < 1;
(d) x(n) = (−1)n u(n).

Esercizio 2.10 Stabilire quali dei seguenti segnali TD sono periodici e, in caso affermativo, determinarne il
periodo fondamentale N0 :
(a) x(n) = (−1)n ;
2
(b) x(n) = (−1)n ;
(c) x(n) = cos(2n);
(d) x(n) = cos(2π n);
8π n
(e) x(n) = e j 15 ;
7π n
(f) x(n) = e j 15 ;
πn
j√
(g) x(n) = e 2 ;
jπ n
(h) x(n) = n e ;
(i) x(n) = e . jn


Esercizio 2.11 Rappresentare il grafico della differenza prima y(n) = ∇1 [x(n)] = x(n) − x(n − 1) del segnale
TD x(n) e calcolarne area e valor medio nei seguenti casi:
'
1, n ∈ {0, 1, 4, 5}
(a) x(n) =
0, altrimenti
(b) x(n) = u(n) + u(n − 1).

Esercizio 2.12 Rappresentare il grafico di x(t) e calcolarne area e valor medio nei seguenti casi:
(a) x(t) = u(t);
(b) x(t) = sgn(t);
(c) x(t) = u(t − 5);
(d) x(t) = sgn(−t);
(e) x(t) = 2 u(t);
(f) x(t) = 2 sgn(t) + 1;
(g) x(t) = 2 rect(t);
(h) x(t) = e−t u(t).
[Suggerimento: per il calcolo del valor medio, utilizzare le proprietà della media temporale]
Esercizio 2.13 Stabilire quali dei seguenti segnali TD sono periodici e, in caso affermativo, determinarne il
periodo fondamentale N0 ; calcolarne inoltre area e valor medio:
+∞
(a) x(n) = ∑ (−1)k δ (n − 2k);
k=−∞
+∞ ( )
(b) x(n) = ∑ δ (n − 3k) − δ (n − k2 ) ;
k=−∞
86 Proprietà dei segnali

 πn   πn 
(c) x(n) = cos sin ;
5 3

 πn 
3π n π
(d) x(n) = 2 cos + + 4 sin .
8 3 2

Esercizio 2.14 Calcolare energia e potenza dei seguenti segnali TC e stabilire se sono segnali di energia o di
potenza:
(a) x(t) = u(t);
(b) x(t) = sgn(t);
(c) x(t) = cos(2π 100t) u(t);
(d) x(t) = e−2t u(t);
(e) x(t) = et u(−t);
(f) x(t) = e−|t| ;
(g) x(t) = e−t ;
2

(h) x(t) = e−t


2 /2
u(t);
1
(i) x(t) = √ .
1 + t2
[Suggerimento: per il calcolo dell’area e dell’energia dei segnali ai punti (g) ed (h), utilizzare l’integrale
" +∞ −x2 √
notevole −∞ e dx = π .]
Esercizio 2.15 Calcolare energia e potenza dei seguenti segnali TD e stabilire se sono segnali di energia o di
potenza:
(a) x(n) = u(n);
(b) x(n) = u(n) − u(−n − 1);
(c) x(n) = cos(π n) R5 (n);
(d) x(n) = 5 cos(0.2π n);

n
1
(e) x(n) = u(n);
2
(f) x(n) = (2)n R4 (n − 2);
+∞
(g) x(n) = ∑ (−1)k δ (n − 2k).
k=−∞

Esercizio 2.16 Rappresentare il grafico del segnale TC




2π t
x(t) = sgn a cos (a ∈ R, T0 ∈ R+ )
T0
discutendo separatamente i casi in cui a > 0 e a < 0, e calcolarne valor medio, energia e potenza.
Esercizio 2.17 Rappresentare il grafico del segnale TC


t , 0≤t ≤1
x(t) = 2 − t , 1 ≤ t ≤ 2


0, altrimenti

e calcolarne valor medio, energia e potenza.


2.8 Esercizi proposti 87

Esercizio 2.18 Rappresentare il grafico del segnale TD

x(n) = e−n/N u(n) con N>0

e calcolarne valor medio, energia e potenza.


Esercizio 2.19 Rappresentare il grafico del segnale TC

5 cos(π t) , −a ≤ t ≤ a
x(t) =
0, altrimenti

nel caso in cui a = 1 e a = 0.5, e calcolarne valor medio, energia e potenza in entrambi i casi.
Esercizio 2.20 Rappresentare il grafico del segnale TC
 π π
1
[cos(ω t) + 1] , − ≤t ≤
x(t) = 2 ω ω
0, altrimenti

dove ω è una costante reale positiva, e calcolarne valor medio, energia e potenza.
Esercizio 2.21 Rappresentare il grafico del segnale TD

sin(0.5π n) , n ∈ {−4, −3, . . . , 4}
x(n) =
0, altrimenti

e calcolarne valor medio, energia e potenza.


Esercizio 2.22 Rappresentare il grafico del segnale TC


5−t , 4 ≤ t ≤ 5

1 , −4 ≤ t ≤ 4
x(t) =

5 + t , −5 ≤ t ≤ −4


0, altrimenti

e calcolarne valor medio, energia e potenza.


"t
Esercizio 2.23 Dato il segnale TC x(t) = rect(t), si consideri il segnale y(t) = −∞ x(τ ) d τ .

(a) Calcolare y(t) e rappresentarlo graficamente;


(b) Calcolare la componente continua di y(t);
(c) Stabilire se y(t) è un segnale di energia o di potenza e calcolarne l’energia o la potenza rispettivamente.

Esercizio 2.24 Si consideri il segnale TC periodico


+∞
x(t) = ∑ xg (t − kT0 )
k=−∞

dove

2t
xg (t) = 2 A Λ (A, T0 ∈ R+ )
T0

Rappresentare il grafico del segnale x(t) e calcolarne valor medio, energia e potenza.
88 Proprietà dei segnali

Esercizio 2.25 Si consideri il segnale periodico


+∞
x(n) = ∑ xg (n − 6 k)
k=−∞

dove


 2, n = −1

1, n=0
xg (n) =

 2, n=1

0, altrove

Rappresentare il grafico del segnale x(n) e calcolarne valor medio, energia e potenza.
Esercizio 2.26 Rappresentare il grafico del segnale TD
+∞
y(n) = ∑ x(n − 10k)
k=−∞

dove x[n] = R3 (n + 1) + R2 (n − 4), e calcolarne valor medio, energia e potenza.


Esercizio 2.27 Stabilire se i seguenti segnali TC sono periodici ed in caso affermativo determinarne il periodo;
calcolarne inoltre il valor medio e la potenza:
(a) x(t) = 2 cos2 (2π t);
(b) x(t) = cos(2π t) u(t);
 t
(c) x(t) = cos(2πτ ) d τ ;
0
 πt 
(d) x(t) = cos(π t) + cos 2 ;
(e) x(t) = 2 cos(2π t) + 3 sin(2π t);
 
(f) x(t) = cos(2π t) + 12 cos 2π t − π4 ;
(g) x(t) = cos(2π t) sin(4π t).

Esercizio 2.28 Calcolare valor medio, energia e potenza dei seguenti segnali TC

x1 (t) = A1 e j2π f1 t , x2 (t) = A2 e j2π f2 t

con A1 , A2 ∈ R+ . Inoltre, si calcolino valor medio, energia e potenza del segnale

x(t) = x1 (t) + x2 (t)

discutendo separatamente i casi in cui f1 = f2 e f1 = f2 .


Esercizio 2.29 Calcolare valor medio, energia e potenza dei seguenti segnali TD

x1 (n) = A1 e j(2πν1 n+ψ1 ) , x2 (n) = A2 e j(2πν2 n+ψ2 )

con A1 , A2 ∈ R+ . Inoltre, si calcolino valor medio, energia e potenza del segnale

x(n) = x1 (n) + x2 (n) .

Per quali valori di ν1 − ν2 i due segnali sono ortogonali?


Esercizio 2.30 Stabilire per quali valori di θ i segnali TC x(t) = cos(2π f0 t) e y(t) = cos(2π f0 t + θ ) sono
ortogonali.
2.8 Esercizi proposti 89

Esercizio 2.31 Rappresentare il grafico dei seguenti segnali TC


t 
x1 (t) = A1 [Λ(t − 1) − Λ(t + 1)] , x2 (t) = A2 rect
2
con A1 , A2 ∈ R+ , e calcolare valor medio, energia e potenza dei segnali

y(t) = 5 x1 (t) + 3 x2 (t) , z(t) = 5 x1 (t) + 3 x2 (t − 1)

I segnali x1 (t) e x2 (t) sono ortogonali? Cosa si può dire invece per i segnali x1 (t) e x2 (t − 1)?
Esercizio 2.32 Si considerino i seguenti segnali TC

x1 (t) = e−t
2 /2
u(t) , x2 (t) = et/2 u(at)

Determinare l’insieme A ⊆ R dei valori di a in corrispondenza dei quali il segnale x2 (t) è un segnale di energia.
Successivamente, per a ∈ A, si calcoli l’energia del segnale

x(t) = x1 (t) + 2 x2 (t) .

Esercizio 2.33 Si considerino i seguenti segnali TD

x1 (n) = e−n u(n) , x2 (n) = R5 (n + n0 )

Determinare l’insieme Ω ⊆ Z dei valori di n0 in corrispondenza dei quali i due segnali x1 (n) e x2 (n) sono
ortogonali. Successivamente, per n0 ∈ Ω, si calcoli l’energia del segnale

x(n) = x1 (n) + 2 x2 (n) .

Esercizio 2.34 Rappresentare il grafico dei seguenti segnali TC


+∞ +∞
x(t) = ∑ xg (t − 4nT0 ) , y(t) = ∑ yg (t − 4nT0 )
n=−∞ n=−∞

dove

t t − 2T0
xg (t) = Λ − rect
T0 2T0

t t − 2T0
yg (t) = Λ + rect
T0 2T0
con T0 ∈ R+ , e calcolare valor medio, energia e potenza del segnale

z(t) = x(t) + y(t − 2T0 ) .


90 Proprietà dei segnali
Capitolo 3

Proprietà dei sistemi

U n sistema è un modello matematico di un’entità fisica (un dispositivo elettromeccanico, una rea-
zione chimico-fisica, un circuito elettrico, un processo di trasferimento di informazione) che trasforma
segnali di ingresso (o cause) in segnali di uscita (o effetti). Da un punto di vista matematico, abbiamo
visto nel § 1.2 che un sistema è fondamentalmente descritto da un operatore o una trasformazione S,
che istituisce una relazione tra l’insieme dei segnali di ingresso I e l’insieme dei segnali di uscita U.
La definizione di un modello matematico esplicito per un sistema è il primo passo per poter affrontare
un qualsiasi problema di sintesi ed analisi dei sistemi. Il secondo passo, che è l’oggetto principale
di questo capitolo, consiste, a partire da un modello matematico del sistema, nel definire e studiare
alcune proprietà dei sistemi. Sebbene incompleta, la descrizione di un sistema sulla base delle sue
proprietà è particolarmente importante in pratica per tre motivi. Innanzitutto, sulla base delle proprie-
tà individuate è possibile suddividere i sistemi in classi omogenee. Inoltre, a partire dalle particolari
proprietà di un sistema, il progettista è in grado di capire e sviluppare i metodi di analisi e sintesi più
appropriati, in quanto sistemi con proprietà diverse richiedono generalmente metodologie differenti.
Infine, le proprietà di un sistema consentono di capire più rapidamente quale sistema sia il modello
matematico più adatto a descrivere un determinato fenomeno fisico. Facendo riferimento alla clas-
sificazione elementare introdotta nel § 1.5, considereremo nel seguito esclusivamente sistemi con un
ingresso ed un’uscita (sistemi SISO), e tratteremo sia sistemi TC (ingresso e uscita entrambi TC), sia
sistemi TD (con ingresso e uscita entrambi TD). Il caso di sistemi “ibridi” (con ingresso TC e uscita
TD o viceversa) non è trattato specificamente in questo capitolo: alcuni esempi di sistemi di questo
tipo (campionatori, interpolatori, convertitori A/D e D/A) sono discussi più in dettaglio nel cap. 7.
Inoltre, per evidenziare le forti analogie esistenti tra il caso TC e TD, e poiché il modello matematico
che introdurremo presenta differenze trascurabili nei due casi, la trattazione procederà in maniera il
più possibile unificata.

3.1 Relazione ingresso-uscita


Particolarizzando la definizione di sistema data nel § 1.2 al caso di sistemi con un ingresso ed un’u-
scita, diremo che un sistema SISO è un modello matematico che descrive la relazione tra un segnale
92 Proprietà dei sistemi

t n

x(t) ∫ y(t) x(n) ∑


k=- ∞
y(n)
−∞

(a) (b)

Fig. 3.1. (a) Integratore TC. (b) Integratore TD o accumulatore.

di ingresso ed un segnale di uscita. Tale modello matematico è descritto da una trasformazione

S : I → U, (3.1)

che istituisce una relazione tra l’insieme dei segnali di ingresso I e l’insieme dei segnali di uscita U.
Si osservi che gli insiemi I e U sono parte integrante della definizione di sistema: fissata la legge
di corrispondenza, insiemi di segnali diversi definiscono sistemi diversi, che presentano proprietà
diverse. Il modello matematico (3.1) può essere espresso in maniera sintetica, attraverso la relazione
ingresso uscita (i-u), che nel caso di un sistema TC si definisce come segue:

Definizione 3.1 (relazione i-u di un sistema TC)


Un sistema TC (SISO) con ingresso x(t) ∈ I ed uscita y(t) ∈ U è descritto matematicamente dalla
sua relazione ingresso-uscita (i-u):

y(t) = S [{x(u)}u∈R ;t] . (3.2)

Nella (3.2), come già osservato nel § 1.2, la notazione y(t) = S [{x(u)}u∈R ;t] sottolinea esplicitamente
che l’uscita y(t) all’istante di tempo t dipende in generale dall’intero segnale di ingresso {x(u)}u∈R ,
e non semplicemente dal valore del segnale nello stesso istante t.1 Inoltre abbiamo utilizzato un’ulte-
riore variabile temporale t (separata dal punto e virgola) per specificare che la forma matematica della
legge di corrispondenza tra ingresso ed uscita dipende in generale dal tempo t.
 Esempio 3.1 (integratore TC) L’integratore TC è descritto dalla seguente relazione i-u:
 t
y(t) = x(u) du ,
−∞

ed è rappresentato schematicamente in fig. 3.1(a). L’uscita del sistema all’istante t è calcolata effettuando
l’integrale del segnale di ingresso da −∞ fino all’istante considerato. Pertanto, l’uscita all’istante t dipende da
tutti i valori dell’ingresso x(u) per u ≤ t, valori che possiamo denotare sinteticamente con {x(u)}u≤t . 

In maniera analoga, un sistema SISO TD può essere descritto matematicamente da una relazione i-u
simile alla (3.2):

Definizione 3.2 (relazione i-u di un sistema TD)


Un sistema TD (SISO) con ingresso x(n) ∈ I ed uscita y(n) ∈ U è descritto matematicamente
dalla sua relazione ingresso-uscita (i-u):

y(n) = S [{x(k)}k∈Z ; n] . (3.3)

1 Per semplicità di notazione, abbiamo supposto che l’insieme di definizione del segnale TC di ingresso sia T ≡ R.
3.1 Relazione ingresso-uscita 93

x(n) z -1 y(n) x(n) ↓M y(n)

(a) (a)

x(n) z y(n) x(n) ↑L y(n)

(b) (b)
Fig. 3.2. Sistemi TD elementari. (a) Ritar- Fig. 3.3. Sistemi TD elementari. (a) Decimatore
do elementare: y(n) = x(n − 1). (b) Anticipo
elementare: y(n) = x(n + 1).
per ) y(n) = x(nM). (b) Espansore per L: y(n) =
( M:
x Ln .

Il senso della notazione utilizzata nella (3.3) è lo stesso adottato per il caso TC: in particolare, l’uscita
del sistema all’istante n dipende in generale dall’intero segnale di ingresso {x(k)}k∈Z , con una legge
che può variare con n.2
 Esempio 3.2 (integratore TD o accumulatore) La versione TD dell’integratore TC è l’accumulatore o som-
ma corrente, descritto dalla seguente relazione i-u:
n
y(n) = ∑ x(k) , (3.4)
k=−∞

e rappresentato schematicamente in fig. 3.1(b). Tale sistema calcola l’uscita all’istante n effettuando la somma
di tutti i valori del segnale di ingresso fino all’istante n incluso. Anche in questo caso, l’uscita y(n) dipende dai
valori dell’ingresso x(k) per k ≤ n, valori che denotiamo sinteticamente con {x(k)}k≤n . 

 Esempio 3.3 (ritardo unitario, anticipo unitario, decimatore ed espansore) Molte delle operazioni ele-
mentari sui segnali introdotte nel cap. 2 (cfr. § 2.1) possono essere interpretate come sistemi. Nel caso TD,
particolarmente importanti sono l’operazione di ritardo o anticipo di un campione, date rispettivamente da

y(n) = x(n − 1) , y(n) = x(n + 1) ,

di decimazione:

y(n) = x(nM) ,

e di espansione:
 n
n x , se n è multiplo di L ;
y(n) = x = L
L 0, altrimenti .

Gli schemi a blocchi dei sistemi corrispondenti, denominati ritardo unitario, anticipo unitario, decimatore ed
espansore, sono riportati in fig. 3.2 e fig. 3.3.3 
2 Persemplicità di notazione, abbiamo supposto che l’insieme di definizione del segnale TD di ingresso sia T ≡ Z.
3 Lenotazioni z−1 e z utilizzate negli schemi per il ritardo e per l’anticipo fanno riferimento ad uno strumento mate-
matico (la Z-trasformata) che non approfondiremo in questo testo; per questo motivo, il lettore è invitato a considerarle
semplicemente delle notazioni simbolica (per ulteriori approfondimenti, si veda [14]).
94 Proprietà dei sistemi

R1 R2

x(t) R3 R4 y(t)

Fig. 3.4. Circuito elettrico con resistori connessi in serie ed in parallelo. In


particolare, R1 ed R2 sono connessi in serie, mentre R3 ed R4 sono connessi in
parallelo. Inoltre, la serie di R1 ed R2 è connessa in serie al parallelo tra R3 ed
R4 .

A volte, invece delle notazioni complete (3.2) e (3.3) per le relazioni i-u dei sistemi, si utilizzano le
notazioni semplificate

y(t) = S[x(t)], y(n) = S[x(n)] (3.5)

oppure le notazioni simboliche:

x(t) −→ y(t), x(n) −→ y(n) . (3.6)

Abbiamo già osservato che la notazione (3.5) è fuorviante, in quanto può essere interpretata nel senso
che il valore del segnale di uscita al’istante t oppure n dipende solo dal valore del segnale di ingresso
nello stesso istante.4 Tuttavia, avendo avvertito il lettore, utilizzeremo talvolta le (3.5) e (3.6) in luogo
delle notazioni rigorose (3.2) e (3.3) per snellire alcune derivazioni.
Per concludere, notiamo che la relazione i-u non è l’unica descrizione possibile di un sistema, e
sicuramente non è la più generale. In particolare, essa è una rappresentazione esterna, in cui compa-
iono solo i segnali in ingresso ed in uscita al sistema; il sistema stesso è visto come una “scatola nera”
(black box), di cui non conosciamo il contenuto. Un’altra rappresentazione spesso adoperata nella
teoria dei sistemi e del controllo, è la rappresentazione ingresso-stato-uscita (i-s-u), in cui entrano in
gioco, oltre ai segnali di ingresso e di uscita, anche altri segnali (variabili di stato) che rappresentano
lo stato interno del sistema.5 In ogni caso, nel seguito faremo uso esclusivamente della relazione i-u,
che sebbene sia meno generale, è perfettamente adeguata per i nostri obiettivi.

3.2 Interconnessione di sistemi


Sistemi semplici possono essere connessi tra loro (interconnessi) in varie configurazioni per ottene-
re sistemi più complessi. Questo approccio è estremamente conveniente se si desidera realizzare o
sintetizzare un sistema complesso a partire da componenti semplici (ad esempio, un PC può essere
realizzato assemblando componenti più semplici, quali scheda madre, scheda video, scheda audio,
4 Questa interpretazione vale solo per una classe particolare di sistemi, i sistemi cosiddetti non dispersivi (cfr. § 3.3.1).
5 Per“stato” di un sistema in un certo istante di tempo si intende l’insieme di informazioni necessarie e sufficienti a
descrivere l’evoluzione del sistema fino a quell’istante.
3.2 Interconnessione di sistemi 95

z(.)
x(.) S1 S2 y(.)

Fig. 3.5. Connessione in serie o in cascata dei sistemi S1 ed S2 .

y 1(.)
S1

x(.) y(.)

S2
y 2(.)

Fig. 3.6. Connessione in parallelo dei sistemi S1 e S2 . Il sommatore all’uscita


effettua la somma o la differenza dei segnali y1 (·) e y2 (·).

hard-disk, lettore CD, lettore DVD, lettore floppy-disk, monitor, tastiera, mouse, etc.). Viceversa, il
comportamento di un sistema complesso può essere studiato o analizzato più facilmente se si riesce a
decomporlo in sistemi più semplici e ad individuare le connessioni tra questi ultimi. Questo approc-
cio è frequentemente utilizzato nello studio dei circuiti elettrici, come ad esempio quello riportato in
fig. 3.4.
Per semplificare lo studio delle interconnessioni tra sistemi, possiamo considerare le connessioni
elementari tra due soli sistemi

S1 : I1 → U1 e S2 : I2 → U2 .

Le connessioni più frequentemente considerate sono tre: connessione in serie, connessione in paral-
lelo, e connessione in retroazione; avendo a disposizione più di due sistemi, e collegandoli tra loro
secondo tali schemi, è possibile ottenere sistemi anche molto complessi.

Definizione 3.3 (connessione di sistemi in serie)


Due sistemi S1 e S2 si dicono connessi in serie o in cascata (fig. 3.5) se l’uscita del primo sistema
S1 è collegata all’ingresso del secondo sistema S2 .

Ad esempio, nel circuito di fig. 3.4, i resistori R1 ed R2 sono collegati in serie. Si noti che, affinchè
il sistema serie sia correttamente definito, occorre che l’insieme U1 dei segnali di uscita del primo
sistema sia racchiuso nell’insieme dei segnali di ingresso I2 del secondo sistema, cioè U1 ⊆ I2 .

Definizione 3.4 (connessione di sistemi in parallelo)


Due sistemi S1 e S2 si dicono connessi in parallelo (fig. 3.6) se lo stesso ingresso è applicato ai
due sistemi S1 e S2 , e l’uscita si ottiene sommando algebricamente le uscite dei due sistemi.
96 Proprietà dei sistemi

x(.) S1 y(.)

y 2(.)

S2

Fig. 3.7. Connessione in retroazione dei sistemi S1 e S2 . Il sommatore all’ingresso del


sistema S1 effettua la somma o la differenza dei segnali x(·) e y2 (·).

Ad esempio, nel circuito di fig. 3.4, i resistori R3 ed R4 sono collegati in parallelo.

Definizione 3.5 (connessione di sistemi in retroazione)


Due sistemi S1 e S2 si dicono connessi in retroazione o con feedback (fig. 3.7) se l’uscita del si-
stema S1 , dopo essere stata elaborata dal sistema S2 , viene sommata algebricamente all’ingresso
del sistema S1 .

Quest’ultimo schema è più complicato da interpretare ed analizzare, in quanto il segnale di uscita


viene riportato “all’indietro” (feedback), e viene aggiunto al segnale di ingresso, modificando a sua
volta il segnale di uscita. Esso consente tuttavia di ottenere sistemi con comportamenti assai più
complessi ed interessanti rispetto alle connessioni in serie ed in parallelo, in cui il segnale viaggia
esclusivamente “in avanti” (feedforward). In particolare, mediante tale schema il sistema S2 , sulla
base dell’osservazione dell’uscita del sistema S1 , può modificare l’ingresso al sistema S1 in modo da
forzare un determinato andamento dell’uscita del sistema S1 . Si parla di retroazione negativa se il
segnale y2 (·) riportato all’ingresso tende a contrastare le variazioni del segnale x(·), in caso contrario
si parla di retroazione positiva. Lo schema con retroazione negativa è molto utilizzato nei sistemi di
controllo, dove prende il nome di controllo a ciclo chiuso, e si dice che il sistema S2 funge da “con-
trollore” del sistema S1 . Nell’elettronica analogica, invece, si utilizzano sia schemi con retroazione
negativa (ad esempio, per la stabilizzazione degli amplificatori), sia schemi con retroazione positiva
(ad esempio per il progetto di oscillatori). Infine, si noti che, similmente al collegamento serie, an-
che per lo schema con retroazione occorre che U1 ⊆ I2 e, in aggiunta, è richiesto che se x(·) ∈ I1 e
y2 (·) ∈ U2 allora la loro somma/differenza x(·) ± y2 (·) è un segnale appartenente all’insieme I1 .
 Esempio 3.4 (accumulatore come sistema in retroazione) L’accumulatore dell’es. 3.2 ammette anche una
descrizione di tipo ricorsivo, che porta alla sua interpretazione come sistema in retroazione. Infatti, estraendo il
termine x(n) dalla sommatoria su k presente nella (3.4), si ha:
n n−1
y(n) = ∑ x(k) = ∑ x(k) + x(n) ,
k=−∞ k=−∞
  
=y(n−1)

da cui

y(n) = y(n − 1) + x(n) .


3.3 Proprietà dei sistemi 97

x(n) y(n)
+
+

z-1
y(n-1)

Fig. 3.8. Realizzazione di un accumulatore mediante connessione in retroazione di due


sistemi: il sistema S1 è il sistema identico, mentre il sistema S2 è un ritardo elementare.

Notiamo che la precedente relazione non è una relazione i-u, in quanto l’uscita y(n) non è espressa direttamente
in funzione dell’ingresso, ma in funzione dell’uscita y(n − 1) all’istante precedente. Essa consente tuttavia di
fornire l’interpretazione dell’accumulatore riportata nello schema di fig. 3.8, dove il sistema S2 nel ramo in
retroazione è un semplice ritardo unitario, mentre il sistema S1 nel ramo diretto è il sistema identico. Si noti
che si tratta di una retroazione positiva, infatti l’uscita, essendo riportata in ingresso con il segno positivo, tende
ad amplificare le variazioni del segnale di ingresso, e non ad attenuarle. 

3.3 Proprietà dei sistemi

Sulla base della definizione di relazione i-u, data dalla (3.2) nel caso TC e dalla (3.3) nel caso TD,
è possibile introdurre e discutere alcune proprietà fondamentali dei sistemi, prescindendo completa-
mente dalla loro natura fisica, ma analizzando esclusivamente la forma matematica della relazione i-u.
Tali proprietà, discusse di seguito, sono la non dispersività, la causalità, l’invertibilità, l’invarianza
temporale, la stabilità, la linearità.

3.3.1 Non dispersività

Riprendiamo la relazione i-u (3.2) di un sistema TC:

y(t) = S [{x(u)}u∈R ;t] .

Abbiamo già precisato che la notazione {x(u)}u∈R evidenzia che l’uscita all’istante t dipende in gene-
rale dall’intero segnale di ingresso. Esistono tuttavia sistemi per i quali l’uscita all’istante t è funzione
solo dell’ingresso nello stesso istante t, e quindi la relazione i-u si può particolarizzare come segue:

y(t) = S [x(t);t] .

Estendendo i concetti precedenti in maniera ovvia al caso TD, possiamo dare la seguente definizione
di sistema non dispersivo:
98 Proprietà dei sistemi

R1
x(t) α y(t)

R2 y(t)
x(t)
(a)

x(n) α y(n)

Fig. 3.9. Schema elettrico di un partitore resistivo.


(b)

Fig. 3.10. Schema a blocchi di un amplificatore.


(a) Caso TC. (b) Caso TD.

Definizione 3.6 (sistema non dispersivo)


(a) Un sistema TC si dice non dispersivo se la sua relazione i-u (3.2) assume la forma

y(t) = S [x(t);t] . (3.7)

(b) Un sistema TD si dice non dispersivo se la sua relazione i-u (3.3) assume la forma

y(n) = S [x(n); n] . (3.8)

In sintesi, in un sistema non dispersivo, l’uscita all’istante t oppure n dipende solo dal valore assunto
dal segnale di ingresso nello stesso istante (con una legge che può variare, eventualmente, con t
oppure con n). Sottolineamo che, di norma, i sistemi sono dispersivi, in quanto la forma più generale
della relazione i-u è la (3.2) oppure la (3.3), e quindi i sistemi non dispersivi rappresentano un caso
particolare. Inoltre, come sinonimo di sistema non dispersivo, si parla anche di sistema istantaneo o
senza memoria.
 Esempio 3.5 (non dispersività del partitore resistivo) Si consideri il partitore resistivo, il cui schema elet-
trico è riportato in fig. 3.9, dove x(t) è la tensione d’ingresso e y(t) è la tensione di uscita. Applicando la legge
del partitore, si ottiene la semplice relazione i-u:

R2
y(t) = x(t) ,
R1 + R2

nella quale y(t) dipende solo da x(t), ovvero la tensione di uscita dipende dalla tensione di ingresso nello stesso
istante. Pertanto il partitore resistivo è un sistema non dispersivo. 

 Esempio 3.6 (amplificatore/attenuatore TC) Un partitore resistivo ha una relazione i-u del tipo

 R2
y(t) = α x(t) , con α = < 1. (3.9)
R1 + R2
3.3 Proprietà dei sistemi 99

Più in generale, un sistema TC descritto da una relazione i-u del tipo (3.9), con 0 < α < 1, prende il nome
di attenuatore. Se, viceversa, α > 1, il sistema funziona da amplificatore.6 Il parametro α prende il nome di
guadagno dell’amplificatore/attenuatore. Un amplificatore/attenuatore TC si rappresenta come in fig. 3.10(a).


 Esempio 3.7 (amplificatore/attenuatore TD) I concetti dell’es. 3.6 si possono estendere al caso TD, defi-
nendo attenuatore/amplificatore a TD (con guadagno α ∈ R) un sistema avente la seguente relazione i-u non
dispersiva:
y(n) = α x(n) .
Un amplificatore/attenuatore a TD si rappresenta come in fig. 3.10(b). 

Un sistema che non soddisfa la prop. 3.6 si dice evidentemente dispersivo, o anche dinamico, o an-
cora con memoria: ad esempio, l’integratore dell’es. 3.1 e l’accumulatore dell’es. 3.2 sono sistemi
dispersivi. Si parla di “memoria” del sistema, nel senso chiarito meglio dai due esempi seguenti.
 Esempio 3.8 (integratore con memoria finita) Si consideri il sistema avente relazione i-u:
 t
y(t) = x(u) du ,
t−T
con T > 0. Si tratta evidentemente di un sistema dispersivo, in quanto l’uscita all’istante t dipende dai valori
dell’ingresso x(u) per t − T ≤ u ≤ t. L’uscita all’istante t, tuttavia, non dipende dall’intero segnale d’ingresso,
in quanto i valori di x(u) con u < t − T oppure u > t non contribuiscono all’integrale. Per questo motivo, il
sistema prende il nome di integratore con memoria finita, dove per memoria del sistema si intende la durata
temporale della porzione di x(t) in ingresso che contribuisce all’uscita y(t) in un dato istante di tempo t: in
questo caso, la memoria del sistema è proprio pari a T per ogni t. Il termine “memoria” per T viene utilizzato
proprio perché, dopo un tempo T , il sistema “dimentica” l’ingresso. 

 Esempio 3.9 (sistema MA) Si consideri il sistema TD descritto dalla seguente relazione i-u:
M
y(n) = ∑ bk x(n − k) .
k=0
Tale sistema viene denominato filtro a media mobile o moving average (MA): il nome deriva dal fatto che il
sistema calcola l’uscita y(n) effettuando la combinazione lineare, con pesi b0 , b1 , . . . , bM , degli M + 1 campioni
x(n), x(n − 1), . . . , x(n − M) del segnale di ingresso. Nel caso in cui i pesi siano tutti uguali a 1/(M + 1), la
relazione i-u diventa
M
1
y(n) = ∑
M + 1 k=0
x(n − k) ,

e quindi l’uscita y(n) è calcolata in ogni istante n come la media aritmetica dei campioni dell’ingresso negli
istanti n, n − 1, . . . , n − M; si parla di media mobile in quanto al variare di n cambiano i campioni del segnale di
ingresso interessati dall’operazione di media. Poiché l’uscita all’istante n dipende, oltre che da x(n), anche da
M campioni precedenti dell’ingresso, tale sistema ha memoria finita e pari ad M. 
In definitiva, la memoria di un sistema può essere definita come la durata temporale del segmento del
segnale di ingresso che contribuisce, oltre al campione attuale,7 all’uscita in un determinato istante
di tempo. In linea di principio tale memoria potrebbe variare col tempo, anche se negli es. 3.8 e 3.9 ciò
non accade. Inoltre, non sempre la memoria di un sistema è finita; ad esempio l’integratore dell’es. 3.1
e l’accumulatore dell’es. 3.2 sono entrambi sistemi con memoria infinita.8
6 Il caso α < 0 si può vedere come la cascata di un invertitore, z(t) = −x(t), e di un amplificatore/attenuatore y(t) =
|α |z(t).
7 Escludere il campione attuale nella determinazione della memoria di un sistema è significativo solo nel caso TD.
8 In stretta analogia con la classificazione dei segnali effettuata sulla base della durata nel § 2.3, i sistemi con memoria

si possono ulteriormente classificare in sistemi a memoria rigorosamente finita, sistemi a memoria praticamente finita, e
sistemi a memoria infinita.
100 Proprietà dei sistemi

3.3.2 Causalità
Partiamo ancora dalla relazione i-u (3.2) valida per un sistema TC:

y(t) = S [{x(u)}u∈R ;t] .

Per un fissato t, possiamo suddividere il segnale {x(u)}u∈R in tre contributi: {x(u)}u<t rappresenta
l’ingresso passato, {x(u)}u=t ≡ x(t) rappresenta l’ingresso presente, {x(u)}u>t rappresenta l’ingresso
futuro: in generale, quindi, l’uscita y(t) all’istante t dipende dall’ingresso passato, presente e futuro.
Interpretando l’ingresso come causa e l’uscita come effetto, la dipendenza dell’uscita da valori futuri
dell’ingresso viola il principio di causalità, secondo il quale l’effetto non può precedere la causa. Si
giunge allora alla fondamentale definizione di sistema causale, ovvero di un sistema per il quale la
(3.2) assume la forma

y(t) = S[{x(u)}u≤t ;t] ,

dove con {x(u)}u≤t si intendono i valori dell’ingresso x(u) per u ≤ t, ovvero i valori passati ed il
valore presente dell’ingresso. In altri termini, in un sistema causale l’uscita all’istante t dipende dagli
ingressi passati e dall’ingresso presente, ma non dipende dagli ingressi futuri. Con ovvie modifiche,
il concetto di sistema causale si estende al caso TD, giungendo alla seguente definizione:

Definizione 3.7 (sistema causale)


(a) Un sistema TC si dice causale se la sua relazione i-u (3.2) assume la forma

y(t) = S [{x(u)}u≤t ;t] . (3.10)

(b) Un sistema TD si dice causale se la sua relazione i-u (3.3) assume la forma

y(n) = S [{x(k)}k≤n ; n] . (3.11)

 Esempio 3.10 (integratore causale e non causale) L’integratore dell’es. 3.1, descritto dalla relazione i-u
 t
y(t) = x(u) du ,
−∞

è chiaramente un sistema causale, in quanto l’uscita all’istante t dipende dall’ingresso x(u) per u ≤ t. Allo
stesso modo, l’integratore dell’es. 3.8, descritto dalla relazione i-u
 t
y(t) = x(u) du ,
t−T

è un sistema causale, a patto che T > 0. Modificando gli estremi di integrazione, ovvero considerando un
integratore descritto dalla relazione i-u
 t+T
y(t) = x(u) du ,
t

con T > 0, otteniamo un sistema non causale, in quanto l’uscita all’istante t dipende da x(u) per t ≤ u ≤ t + T ,
e quindi da valori futuri dell’ingresso. 
3.3 Proprietà dei sistemi 101

 Esempio 3.11 (sistema MA causale e non causale) Il sistema MA dell’es. 3.9, descritto dalla relazione i-u
M
y(n) = ∑ bk x(n − k) ,
k=0

è chiaramente un sistema causale, in quanto l’uscita all’istante n dipende dai valori dell’ingresso x(n − k), con
k ≥ 0, che rappresentano il presente (k = 0) ed il passato (k > 0). Se però modifichiamo leggermente la relazione
i-u, considerando un sistema MA descritto dalla
M
y(n) = ∑ bk x(n + k) ,
k=0

in tale sistema l’uscita all’istante n dipende dai valori dell’ingresso x(n + k), con k ≥ 0, che rappresentano il
presente (k = 0) ed il futuro (k > 0), per cui tale sistema MA è non causale. 

Un sistema causale è fondamentalmente un sistema la cui uscita in un dato istante non dipende dai
valori futuri del segnale di ingresso. Ciò può essere espresso mediante la seguente proprietà:9

Proprietà 3.1 (proprietà di un sistema causale)


(a) Siano y1 (t) e y2 (t) le uscite di un sistema TC in risposta ai segnali x1 (t) e x2 (t), rispettiva-
mente. Il sistema è causale se e solo se, per ogni t0 ∈ R e per ogni x1 (t), x2 (t) ∈ I tali che
x1 (t) = x2 (t), ∀t ≤ t0 , risulta che y1 (t) = y2 (t), ∀t ≤ t0 .
(b) Siano y1 (n) e y2 (n) le uscite di un sistema TD in risposta ai segnali x1 (n) e x2 (n), rispettiva-
mente. Il sistema è causale se e solo se, per ogni n0 ∈ Z e per ogni x1 (n), x2 (n) ∈ I tali che
x1 (n) = x2 (n), ∀n ≤ n0 , risulta che y1 (n) = y2 (n), ∀n ≤ n0 .

È bene osservare che la causalità (così come tutte le proprietà dei sistemi) è una proprietà dei sistemi
e non dei segnali. Pertanto, con riferimento al caso TC, per dimostrare che un dato sistema è causale
a partire dalla prop. 3.1, occorre verificare che tale proprietà sia soddisfatta per ogni coppia di segnali
x1 (t), x2 (t) ∈ I tali che x1 (t) = x2 (t), ∀t ≤ t0 , con t0 ∈ R arbitrariamente scelto. La verifica della
prop. 3.1 solo per alcuni segnali di ingresso appartenenti a I e/o solo per alcuni valori di t0 non è
sufficiente per affermare che il sistema è causale. Viceversa, per dimostrare che un dato sistema è non
causale e, quindi, non verifica la prop. 3.1, è sufficiente fornire uno ed un solo esempio di segnali di
ingresso x1 (t) = x2 (t), ∀t ≤ t0 , per un dato valore t0 ∈ R, in corrispondenza dei quali y1 (t) = y2 (t), per
uno o più valori di t ≤ t0 . Le stesse considerazioni valgono con ovvie modifiche anche per i sistemi
TD. Gli esempi che seguono servono a chiarire ulteriormente questo aspetto.
 Esempio 3.12 (integratore non causale) Riconsideriamo l’integratore descritto dalla relazione i-u
 t+T
y(t) = x(u) du ,
t

con T > 0 e, utilizzando la prop. 3.1(a), verifichiamo che si tratta di un sistema non causale. A tal fine è
sufficiente individuare due ingressi x1 (t) ed x2 (t) che non soddisfano la prop. 3.1(a). Scegliamo x1 (t) = 0,
∀t ∈ R, la cui corrispondente uscita è y1 (t) = 0, ∀t ∈ R, ed x2 (t) = u(t), la cui corrispondente uscita è

 t+T 
0 , se t < −T ;
y2 (t) = x(u) du = t + T , se −T ≤ t < 0 ;
t 

T, se t ≥ 0 .
9 In alcuni testi, la prop. 3.1 è data direttamente come definizione di sistema causale.
102 Proprietà dei sistemi

x(n) ∇1 y(n)

Fig. 3.11. Differenza prima.

Sebbene x1 (t) = x2 (t) = 0, per ogni t ≤ 0, per le corrispondenti uscite si ha invece che y1 (t) = y2 (t), per alcuni
valori di t ≤ 0; infatti, mentre y2 (t) = 0, per ogni t < 0, y2 (t) = 0, per t ∈] − T, 0[. Quindi la prop. 3.1(a) è
violata da questa particolare scelta dei segnali di ingresso ed il sistema non può essere causale. 

 Esempio 3.13 (differenza prima causale e non causale) Similmente all’operazione di derivazione per se-
gnali a TC, anche l’operazione di differenza prima per segnali a TD (cfr. § 2.1.4) ammette una interpretazione
sistemistica. Il sistema che opera la differenza prima causale è definito dal legame i-u:

y(n) = ∇1 [x(n)] = x(n) − x(n − 1)

ed è rappresentato schematicamente in fig. 3.11. Può essere visto come un sistema MA causale (cfr. es. 3.9, con
M = 1, b0 = 1 e b1 = −1). Si tratta evidentemente di un sistema causale in quanto l’uscita all’istante n dipende
solo dal valore presente x(n) del segnale di ingresso e da quello passato x(n − 1). È possibile definire anche un
sistema che opera la differenza prima non causale nel seguente modo:

y(n) = x(n + 1) − x(n) ,

che può essere visto come la cascata di un anticipo unitario e del sistema che opera la differenza prima causale.
Equivalentemente, esso può anche essere visto come un sistema MA non causale (cfr. es. 3.9, con M = 1,
b0 = −1 e b1 = 1). Si tratta chiaramente di un sistema non causale in quanto l’uscita all’istante n dipende dal
valore futuro x(n + 1) del segnale di ingresso. Per provare ciò formalmente, usiamo la prop. 3.1(b) e scegliamo
x1 (n) = 0, ∀n ∈ Z, la cui corrispondente uscita è y1 (n) = 0, ∀n ∈ Z, ed x2 (n) = δ (n − 1), la cui corrispondente
uscita è y2 (n) = δ (n) − δ (n − 1). Sebbene x1 (n) = x2 (n) = 0, per ogni n ≤ 0, per le corrispondenti uscite si
ha invece che y1 (n) = y2 (n), per alcuni valori di n ≤ 0; infatti, y1 (0) = 0 e y2 (0) = 1. Quindi la prop. 3.1(b) è
violata da questa particolare scelta dei segnali di ingresso ed il sistema non può essere causale. 

Si è visto che un sistema in cui l’uscita non soddisfa la (3.10) oppure la (3.11) si dice non causale. Un
caso particolare di sistema non causale è quello in cui l’uscita dipende solo dal futuro, ossia:

y(t) = S[{x(u)}u>t ;t] ,


y(n) = S[{x(k)}k>n ; n] .

Un sistema siffatto si dice anticausale. Ad esempio, l’anticipo unitario y(n) = x(n + 1) è un sistema
anticausale.
Osserviamo in conclusione che non esistono (o almeno, non sono stati ancora scoperti...) sistemi
fisici capaci di prevedere il futuro (ad esempio, la macchina del tempo che consente di viaggiare nel
futuro è un esempio “fantascientifico” di sistema non causale), e quindi i sistemi del mondo fisico sono
tutti causali. Questa osservazione si applica, in particolare, ai sistemi fisici che elaborano i segnali “in
tempo reale”, cioè senza introdurre ritardi significativi tra il segnale d’ingresso ed il segnale di uscita.
Tuttavia, in molti casi, anziché elaborare un segnale in tempo reale, è possibile memorizzarlo (su un
supporto magnetico o ottico, ad esempio) ed elaborarlo “in tempo differito”: si pensi, ad esempio,
all’elaborazione di un segnale che è stato prima acquisito e memorizzato sull’hard-disk di un personal
computer. In quest’ultimo caso, è possibile assumere che il sistema di elaborazione conosca l’intero
segnale di ingresso, ed è quindi utile considerare anche il caso di sistemi non causali. Un altro esempio
3.3 Proprietà dei sistemi 103

in cui ha senso considerare sistemi non causali è quello in cui la variabile indipendente del segnale
non rappresenta effettivamente un tempo (ad esempio, nell’elaborazione di immagini, la variabile
indipendente è di tipo spaziale). Si noti che, quando si progetta un sistema, la causalità rappresenta un
vincolo a cui il sistema deve obbedire; pertanto, rimuovere il vincolo di causalità – compatibilmente
con i requisiti applicativi – consente di progettare sistemi non causali aventi migliori prestazioni,
anche se non operanti in tempo reale.

3.3.3 Invertibilità
In molti casi pratici, nota l’uscita y(·) di un sistema, siamo interessati a risalire all’ingresso x(·) che
l’ha generata. Sfortunatamente questo non è sempre possibile, basti pensare ad esempio al sistema
TC y(t) = x2 (t): è chiaro che, osservato y(t), non potremo risalire#univocamente a x(t), a causa
dell’ambiguità sul segno nella determinazione della radice x(t) = ± y(t). Si intuisce allora come
una condizione necessaria per risalire univocamente dall’uscita all’ingresso è quella che, comunque
si prendano due ingressi distinti x1 (·) e x2 (·) appartenenti all’insieme I, le corrispondenti uscite y1 (·)
e y1 (·) siano distinte, cioè:
x1 (·) = x2 (·) =⇒ y1 (·) = y2 (·) , (3.12)
ossia, ingressi distinti devono generare uscite distinte. Più precisamente, sussiste la seguente defini-
zione di sistema invertibile:10

Definizione 3.8 (sistema invertibile)


Un sistema S : I → U si dice invertibile se, comunque si fissi un segnale di uscita y(·) ∈ U, esiste
un unico segnale di ingresso x(·) ∈ I tale che S [x(·)] = y(·).

Se il sistema è invertibile, allora dall’osservazione dell’uscita del sistema è possibile determinare


(almeno in linea di principio) univocamente l’ingresso. In altri termini, è possibile costruire un sistema
S−1 : U → I ,
detto sistema inverso, tale che la cascata di S e S−1 (nell’ordine) realizza la trasformazione identica
riportata in fig. 3.12, matematicamente ciò significa che:
S−1 {S[x(·)]} = x(·) , per ogni segnale di ingresso x(·) ∈ I .
Si può verificare che, se S−1 è il sistema inverso di S, allora anche il sistema S−1 è invertibile e risulta
che S{S−1 [y(·)]} = y(·), per ogni segnale y(·) ∈ U; in altre parole, il sistema S è il sistema inverso
di S−1 . Da un punto di vista sistemistico, questo significa che, se il sistema S è invertibile, l’ordine
dei due sistemi nella cascata in fig. 3.12 è inessenziale: sia la cascata S − S−1 che quella S−1 − S
realizzano il sistema identico.
 Esempio 3.14 (invertibilità dell’amplificatore) Consideriamo l’amplificatore di guadagno α > 1, descritto
dalla relazione i-u:
y(·) = α x(·) .
In questo caso, non vi è alcuna restrizione sui segnali di ingresso e uscita. L’amplificatore è un sistema
invertibile, ed il sistema inverso si ottiene facilmente invertendo la precedente relazione:
1
x(·) = y(·) ,
α
e quindi il sistema inverso è un attenuatore, avente guadagno 1/α < 1 reciproco di quello dell’amplificatore. 
10 Nel seguito di questa sezione, faremo uso della notazione semplificata (3.5) per esprimere i legami i-u dei sistemi.
104 Proprietà dei sistemi

y(.)
x(.) S S -1 x(.)

Fig. 3.12. Il sistema S−1 è il sistema inverso di S se e solo se la cascata dei due
sistemi coincide con il sistema identico.

 Esempio 3.15 (non invertibilità del raddrizzatore) Studiamo l’invertibilità del sistema non lineare (“rad-
drizzatore”) descritto dalla relazione i-u:

y(·) = |x(·)| .

In questo caso, non vi è alcuna restrizione sui segnali di ingresso, mentre U è costituito da tutti i segnali non
negativi a valori reali. È facile provare che il sistema raddrizzatore non è invertibile, a tale scopo possiamo far
riferimento alla condizione necessaria (3.12). Basta infatti osservare che due ingressi distinti x1 (·) e x2 (·) aventi
segno opposto [tali cioè che x2 (·) = −x1 (·)] generano gli stessi segnali di uscita y1 (·) ≡ y2 (·) = |x1 (·)| ≡ |x2 (·)|.
Pertanto, poiché la (3.12) è violata, il raddrizzatore non è dotato di sistema inverso, e quindi i suoi effetti sono
irreversibili. 

Va notato in conclusione che, salvo per casi particolari, lo studio dell’invertibilità di un sistema,
nonché la determinazione del sistema inverso, è in generale un problema abbastanza complesso.

3.3.4 Invarianza temporale


Consideriamo ancora una volta la relazione i-u di un sistema TC, nella sua forma più generale:

y(t) = S [{x(u)}u∈R ;t] .

La dipendenza da t nella relazione precedente evidenzia che il comportamento del sistema può variare
nel tempo. Se tale dipendenza dal tempo non c’è, ovvero se è possibile scrivere:

y(t) = S [{x(u)}u∈R ] ,

allora il sistema si dice invariante temporalmente [si usano anche le denominazioni di sistema tempo-
invariante (TI) o stazionario]. Estendendo tale concetto in modo ovvio al caso TD, possiamo dare la
seguente definizione:

Definizione 3.9 (sistema invariante temporalmente)


(a) Un sistema TC si dice invariante temporalmente (TI) se la sua relazione i-u (3.2) assume la
forma

y(t) = S [{x(u)}u∈R ] . (3.13)

(b) Un sistema TD si dice invariante temporalmente (TI) se la sua relazione i-u (3.3) assume la
forma

y(n) = S [{x(k)}k∈Z ] . (3.14)


3.3 Proprietà dei sistemi 105

x(t) y(t)

t1 t2 t t1 t2 t2 + T s t

x (t) y (t)
t0 t0

t1 t1 + t0 t2 t2 + t0 t t1 t1 + t0 t2 t2 + Ts t2 +Ts + t0 t

Fig. 3.13. Il comportamento di un sistema TC invariante temporalmente non dipende dall’istante di


applicazione dell’ingresso: se xt0 (t) = x(t − t0 ), allora yt0 (t) = y(t − t0 ).

Viceversa, un sistema che non soddisfa la (3.13) o la (3.14) si dice tempo-variante (TV) o non sta-
zionario. Una possibile interpretazione fisica della proprietà di invarianza temporale è quella che le
proprietà del sistema non cambiano nel tempo, ovvero il sistema non “invecchia” e – caso limite –
non “si rompe”. Una conseguenza dell’invarianza temporale è che il comportamento del sistema non
dipende dall’istante in cui viene applicato l’ingresso, e quindi l’origine dei tempi può essere fissata
arbitrariamente. Questa proprietà dei sistemi invarianti temporalmente è chiarita in fig. 3.13, con rife-
rimento ad un sistema TC. Specificatamente, in questo esempio, il segnale x(t) è applicato in ingresso
al sistema all’istante t1 , producendo in uscita il segnale y(t) a partire dall’istante di tempo t1 , la cui
durata è maggiore di quella del segnale di ingresso (Ts > 0 è un parametro caratteristico del sistema).
Si supponga ora di applicare in ingresso al sistema lo stesso segnale in un istante di tempo successivo
t1 +t0 (con t0 > 0 arbitrario), cioè, a partire dal segnale x(t), si consideri ora il segnale xt0 (t) = x(t −t0 ),
ottenuto da x(t) introducendo il ritardo temporale t0 . Se il sistema è TI, il suo comportamento non
cambia nel tempo, pertanto la risposta yt0 (t) del sistema al segnale xt0 (t) è la stessa di quella corri-
spondente al segnale x(t), nel senso che il segnale di uscita yt0 (t) avrà lo stesso andamento temporale
del segnale y(t) (la forma del segnale di uscita non cambia), l’unica differenza consiste nel fatto che
yt0 (t) evolve a partire dall’istante di tempo t1 +t0 ; in altre parole, il segnale yt0 (t) differisce da y(t) so-
lo per una traslazione temporale di t0 , ovvero yt0 (t) = y(t −t0 ) (questa interpretazione dell’invarianza
temporale è ulteriormente approfondita dalla prop. 3.2). Se invece il sistema è TV, l’andamento dei
segnali y(t) e yt0 (t) è in generale differente e la loro forma può essere anche profondamente diversa.
 Esempio 3.16 (amplificatore a guadagno costante e variabile) Il partitore resistivo, avente relazione i-u
R2
y(t) = x(t) ,
R1 + R2

è un sistema TI, in quanto il rapporto R1R+R2


2
non dipende dal tempo. Se tuttavia si tiene conto degli effetti
termici, allora i valori delle resistenze R1 ed R2 possono variare nel tempo per effetto dei cambiamenti di
temperatura. In questo caso la relazione i-u va modificata come segue:
R2 (t)
y(t) = x(t) , (3.15)
R1 (t) + R2 (t)
106 Proprietà dei sistemi

ed è quella di un sistema TV. Notiamo che un partitore del tipo (3.15) è un esempio di sistema avente relazione
i-u

y(t) = α (t) x(t) . (3.16)

Un sistema del tipo (3.16) è denominato amplificatore a guadagno variabile. Si noti che un sistema siffatto si
comporta da amplificatore in corrispondenza dei valori di t per i quali |α (t)| > 1, e da attenuatore per i valori
di t per i quali |α (t)| < 1. Una definizione analoga di amplificatore a guadagno variabile vale anche per il caso
TD, e si scrive y(n) = α (n) x(n). 

Poiché spesso non si conosce con sufficiente dettaglio la struttura del sistema, è utile fornire una
caratterizzazione della proprietà di invarianza temporale che, differentemente dalla def. 3.9 in cui
compare il funzionale S, coinvolga esclusivamente operazioni sui segnali di ingresso e di uscita (in
linea con l’interpretazione data in fig. 3.13). Con riferimento al caso TC, ad esempio, si può dimostrare
che una formulazione equivalente della proprietà di invarianza temporale è la seguente: se all’ingresso
x(t) corrisponde l’uscita y(t), all’ingresso traslato x(t −t0 ) corrisponde l’uscita traslata y(t −t0 ), per
ogni t0 ∈ R e per ogni segnale x(t) ∈ I ed y(t) ∈ U. Si faccia attenzione che, a stretto rigore, la
proprietà precedente non deve valere solo “per ogni t0 ∈ R” ma, più precisamente, essa deve essere
soddisfatta “per ogni t0 ∈ R tale che se x(t) ∈ I e y(t) ∈ U allora anche x(t − t0 ) ∈ I e y(t − t0 ) ∈ U”.
Poiché tale distinzione ha un valenza esclusivamente matematica ed è inessenziale per molti sistemi di
interesse pratico, nel seguito imporremo per semplicità che la proprietà di invarianza temporale debba
valere per ogni t0 ∈ R. La stessa caratterizzazione vale anche nel caso TD, per cui si ha la seguente
proprietà:

Proprietà 3.2 (caratterizzazione i-u dell’invarianza temporale)


(a) Un sistema TC con ingresso x(t) ed uscita y(t) è invariante temporalmente se e solo se

x(t − t0 ) −→ y(t − t0 ) , (3.17)

per ogni t0 ∈ R, e per ogni coppia di segnali di ingresso x(t) ∈ I e di uscita y(t) ∈ U.
(b) Un sistema TD con ingresso x(n) ed uscita y(n) è invariante temporalmente se e solo se

x(n − n0 ) −→ y(n − n0 ) , (3.18)

per ogni n0 ∈ Z, e per ogni coppia di segnali di ingresso x(n) ∈ I e di uscita y(n) ∈ U.

La prop. 3.2 ha un’interessante interpretazione in termini sistemistici, che è illustrata in fig. 3.14 con
riferimento ad un sistema TD. La risposta yn0 (n) del sistema S al segnale traslato x(n − n0 ) può essere
riguardata come la risposta della cascata riportata in fig. 3.14(a) al segnale di ingresso x(n): il primo
sistema è così definito:

Sz−n0 : x(n) → xn0 (n) = x(n − n0 ) ,

ed effettua semplicemente il ritardo/anticipo del segnale x(n) di n0 campioni, il segnale ottenuto xn0 (n)
è poi posto in ingresso al sistema S in esame, ottenendo il segnale yn0 (n) in uscita dalla cascata.
Viceversa, il segnale traslato y(n − n0 ) può essere visto come la risposta della cascata riportata in
fig. 3.14(b) al segnale di ingresso x(n), in cui, rispetto allo schema di fig. 3.14(a), l’ordine tra i due
sistemi è scambiato. In base alla prop. 3.2(b), il sistema S è TI se e solo se yn0 (n) = y(n − n0 ), ovvero
se e solo se le due configurazioni in cascata riportate in fig. 3.14 sono equivalenti, nel senso che
3.3 Proprietà dei sistemi 107

x n (n)=x(n-n0)
z - n0
0
x(n) S y n (n)
0

(a)

y(n)
-n y(n-n0)
x(n) S z 0

(b)

Fig. 3.14. Se il sistema TD S è TI, i due schemi in figura sono equivalenti.

forniscono la stessa uscita in risposta allo stesso segnale; quindi, se si deve calcolare la risposta del
sistema S al segnale di ingresso x(n − n0 ), si può calcolare prima la risposta del sistema al segnale
x(n) e poi far passare il segnale ottenuto attraverso il sistema Sz−n0 . In altre parole, se il sistema è TI,
le trasformazioni S e Sz−n0 commutano,11 cioè:

S{Sz−n0 [x(n)]} = Sz−n0 {S[x(n)]} , per ogni segnale di ingresso x(n) ∈ I ,

e la loro posizione nella cascata è ininfluente; ovviamente tale risultato non sussiste se il sistema è TV.
In pratica, per dimostrare che un dato sistema è invariante temporalmente oppure no, è conveniente
in generale utilizzare la prop. 3.2 piuttosto che la def. 3.9, come mostrato dagli esempi che seguono.
 Esempio 3.17 (tempo-varianza dell’amplificatore con guadagno variabile) Applicando la prop. 3.2 del-
l’invarianza temporale, verifichiamo che in generale il sistema y(t) = α (t) x(t), introdotto nell’es. 3.16, è
TV. Per non sbagliare, conviene procedere per sostituzioni formali. All’ingresso x(t) corrisponde l’uscita
y(t) = α (t) x(t); denotando con

xt0 (t) = x(t − t0 )

l’ingresso traslato di t0 , si ha che l’uscita yt0 (t) corrispondente a xt0 (t) è

yt0 (t) = α (t) xt0 (t) = α (t) x(t − t0 ) .

D’altra parte, traslando l’uscita y(t) si ha:

y(t − t0 ) = α (t − t0 ) x(t − t0 ) .

È chiaro che yt0 (t) = y(t − t0 ), in quanto si ha:

yt0 (t) = α (t) x(t − t0 ) = α (t − t0 ) x(t − t0 ) = y(t − t0 ) ,

per cui, evidentemente, l’amplificatore a guadagno variabile è un sistema TV. In effetti, nella relazione pre-
cedente può valere l’uguaglianza per ogni ingresso x(t) se e solo se α (t − t0 ) = α (t) per ogni t0 ∈ R, ovvero
se α (t) = α (costante). Quindi l’amplificatore risulta TI se e solo se il guadagno è costante, ovvero se la sua
relazione i-u è y(t) = α x(t). Analogamente, si dimostra che l’amplificatore a guadagno variabile a TD, per il
quale si ha y(n) = α (n) x(n), è un sistema TV in generale (è TI se e solo se α (n) = α ). 
11 Per semplicità, facciamo uso ancora una volta della notazione semplificata (3.5) per esprimere i legami i-u dei sistemi.
108 Proprietà dei sistemi

 Esempio 3.18 (invarianza temporale dell’integratore) Proviamo invece che l’integratore dell’es. 3.1 è un
sistema TI. Poiché all’ingresso x(t) corrisponde l’uscita
 t
y(t) = x(u) du ,
−∞


all’ingresso xt0 (t) = x(t − t0 ) corrisponde l’uscita
 t  t
yt0 (t) = xt0 (u) du = x(u − t0 ) du .
−∞ −∞

Effettuando il cambio di variabile v = u − t0 , si ha:


 t−t0
yt0 (t) = x(v) dv = y(t − t0 ) ,
−∞

per cui resta provato che l’integratore è un sistema TI. Allo stesso modo, si può provare che l’integratore con me-
moria dell’es. 3.8, e l’integratore non causale dell’es. 3.10, sono anch’essi sistemi TI. Si dimostra analogamente
che anche l’accumulatore o integratore a TD dell’es. 3.2 è un sistema TI. 

 Esempio 3.19 (invarianza temporale del sistema MA) È facile provare che il sistema MA dell’es. 3.9 è
TI. Infatti, poiché all’ingresso x(n) corrisponde l’uscita
M
y(n) = ∑ bk x(n − k) ,
k=0


all’ingresso xn0 (n) = x(n − n0 ) corrisponderà l’uscita:
M M
yn0 (n) = ∑ bk xn0 (n − k) = ∑ bk x(n − n0 − k) = y(n − n0 ) ,
k=0 k=0

per cui il sistema è effettivamente TI. Nella dimostrazione precedente gioca un ruolo fondamentale il fatto che
i coefficienti bk non variano con n; se tale proprietà non fosse verificata, il sistema risulterebbe TV. 

 Esempio 3.20 (tempo-varianza della riflessione) Consideriamo il sistema TD che effettua la riflessione
temporale di un segnale (si tratta di una delle operazioni elementari introdotte nel § 2.1):

y(n) = x(−n) .

Applicando al sistema l’ingresso traslato xn0 (n) = x(n − n0 ), si ottiene l’uscita

yn0 (n) = xn0 (−n) = x(−n − n0 ) = y(n + n0 ) = y(n − n0 ) ,

e pertanto il sistema risulta essere TV. Alla stessa conclusione si arriva anche se si considera la riflessione
y(t) = x(−t) di un segnale TC. 

In conclusione, si osservi che l’invarianza temporale è una pura astrazione matematica: nessun siste-
ma del mondo fisico è tempo-invariante in senso stretto. Tuttavia, tale astrazione è utile per descrivere
molti sistemi di interesse il cui comportamento nel tempo è approssimativamente costante su un pe-
riodo di tempo sufficientemente lungo (rispetto all’intervallo di tempo in cui ci interessa studiare il
sistema). Ad esempio, un amplificatore audio non è un sistema TI in senso stretto, in quanto il suo
comportamento cambia drasticamente quando lo si accende o lo si spegne, e cambia meno drastica-
mente quando si alza o si abbassa il volume. Tuttavia, per l’intervallo di durata di un compact disc, se
il volume è tenuto fisso, il sistema può ritenersi ragionevolmente TI.
3.3 Proprietà dei sistemi 109

3.3.5 Stabilità
Un sistema si dice stabile in senso BIBO (bounded-input bounded-output) se l’uscita corrispondente
ad un qualunque ingresso di ampiezza limitata è a sua volta di ampiezza limitata.12 Matematicamente,
questa proprietà si può formulare per il caso TC e TD come segue:

Definizione 3.10 (sistema stabile in senso BIBO)


(a) Un sistema TC con ingresso x(t) ed uscita y(t) si dice stabile in senso BIBO se

|x(t)| ≤ Kx per ogni t ∈ R =⇒ |y(t)| ≤ Ky per ogni t ∈ R , (3.19)

per ogni x(t) ∈ I limitato, con Kx , Ky ∈ R+ .


(b) Un sistema TD con ingresso x(n) ed uscita y(n) si dice stabile in senso BIBO se

|x(n)| ≤ Kx per ogni n ∈ Z =⇒ |y(n)| ≤ Ky per ogni n ∈ Z , (3.20)

per ogni x(n) ∈ I limitato, con Kx , Ky ∈ R+ .

In pratica, per provare che un sistema è stabile, bisogna supporre che l’ingresso sia arbitrario ma
limitato, cioè che valga la condizione |x(·)| ≤ Kx , per ogni valore di tempo, e trovare un’opportuna
maggiorazione per l’uscita, ovvero trovare un valore Ky ∈ R+ tale che |y(·)| ≤ Ky , per ogni valore di
tempo.
 Esempio 3.21 (stabilità dell’amplificatore a guadagno costante) Proviamo che l’amplificatore a TC y(t) =
α x(t) è stabile. Infatti, se |x(t)| ≤ Kx per ogni t ∈ R (ingresso limitato), è possibile scrivere la seguente catena
di uguaglianze e disuguaglianze:

|y(t)| = |α | |x(t)| ≤ |α | Kx = Ky , ∀t ∈ R ,

da cui si ricava che anche y(t) è limitato. Con analoghi passaggi è possibile provare che anche l’amplificatore
a TD y(n) = α x(n) è un sistema stabile. 

 Esempio 3.22 (stabilità dell’amplificatore a guadagno variabile) Consideriamo l’amplificatore a guada-


gno variabile a TC y(t) = α (t) x(t). Se |x(t)| ≤ Kx per ogni t ∈ R (ingresso limitato), e se anche |α (t)| ≤ Kα
per ogni t ∈ R (guadagno limitato) è possibile scrivere:

|y(t)| = |α (t)| |x(t)| ≤ Kα Kx = Ky , ∀t ∈ R ,

per cui anche y(t) è limitato. Notiamo che il sistema è stabile solo se facciamo l’ipotesi aggiuntiva (fisicamente
ragionevole) che il guadagno α (t) sia limitato. Con analoghi passaggi, e supponendo anche in questo caso che
il guadagno sia limitato, ovvero che |α (n)| ≤ Kα per ogni n ∈ Z, è possibile provare che anche l’amplificatore
a guadagno variabile a TD y(n) = α (n) x(n) è un sistema stabile. 

 Esempio 3.23 (sistema MA) Proviamo che il sistema MA dell’es. 3.9, descritto dalla relazione i-u
M
y(n) = ∑ bk x(n − k) ,
k=0

12 La stabilità BIBO è anche detta stabilità esterna in quanto coinvolge solo le grandezze esterne al sistema (ingresso ed
uscita) e non le grandezze interne al sistema (stato): questa definizione di stabilità è quindi in perfetto accordo con la scelta
di descrivere i sistemi mediante la rappresentazione i-u, e non attraverso la rappresentazione i-s-u. Per la rappresentazione
i-s-u, invece, si possono dare definizioni diverse di stabilità, che coinvolgono anche la limitatezza delle variabili di stato.
Nel seguito, quando parleremo di stabilità intenderemo sempre la stabilità BIBO.
110 Proprietà dei sistemi

(a) (b)

(c)
Fig. 3.15. Un esempio di sistema instabile: il Tacoma Narrows Bridge. (a) Il Tacoma Narrows Bridge in
oscillazione per le forti raffiche di vento poco prima della rottura. (b) Le oscillazioni viste da una estremità del
ponte. Il dislivello tra i due lati del ponte dovuto alla torsione raggiunge l’altezza di 8.5 metri. (c) Alle 11:00
circa del 7 novembre 1940 il ponte crolla.

è stabile. Infatti, se |x(n)| ≤ Kx per ogni n ∈ Z, è possibile scrivere:


 
M  M M
  
|y(n)| =  ∑ bk x(n − k) ≤ ∑ |bk | |x(n − k)| ≤ Kx ∑ |bk | = Ky , ∀n ∈ Z ,
k=0  k=0 k=0

per cui anche y(n) è limitato. Notiamo che un sistema MA è sempre stabile, qualunque sia l’ordine M e
per qualsiasi valore dei coefficienti bk ; la sua stabilità dipende dal fatto che è descritto da una relazione i-u
consistente nella somma finita di valori ritardati dell’ingresso (moltiplicati per dei coefficienti costanti). 

Come si vede, per provare che un sistema è stabile, bisogna provare che l’uscita y(·) è limitata in ogni
istante di tempo e per un qualunque ingresso limitato, quindi bisogna procedere tentando di trovare un
maggiorante Ky per l’uscita, con la sola ipotesi che |x(·)| ≤ Kx , in ogni istante di tempo. Viceversa, per
provare che un sistema è instabile, è sufficiente trovare almeno un segnale limitato in corrispondenza
del quale l’uscita non è limitata, assume cioè valore infinito in almeno un istante di tempo. Un segnale
che si presta bene per dimostrare che un sistema è instabile è il gradino x(·) = u(·), che è un segnale
limitato in quanto assume solo i valori 0 ed 1.
 Esempio 3.24 (instabilità dell’integratore con memoria infinita e dell’accumulatore) L’integratore a TC
con memoria infinita dell’es. 3.1, descritto dalla relazione i-u
 t
y(t) = x(u) du ,
−∞
3.3 Proprietà dei sistemi 111

non è un sistema stabile. Infatti, se si suppone che |x(t)| ≤ Kx per ogni t ∈ R (ingresso limitato) e si prova a
trovare una maggiorazione per l’uscita, si ha:
 t  t  t
 
|y(t)| =  x(u) du ≤ |x(u)| du ≤ Kx du ,
−∞ −∞ −∞
"t
ma non è possibile trovare un’ulteriore maggiorazione per l’uscita, in quanto l’integrale −∞ du non è limitato.
Tale difficoltà lascia intuire che il sistema è instabile; per provarlo, poniamo in ingresso x(t) = u(t) (ingresso
limitato), e calcoliamo l’uscita:

 t 0 , t < 0;
y(t) = u(u) du =  t
−∞  du = t , t ≥ 0 ;
0

ovvero l’uscita si può scrivere nella forma y(t) = t u(t), che rappresenta una rampa a TC (fig. 2.43), ed è un
segnale non limitato in ampiezza. Avendo trovato anche un solo ingresso limitato in corrispondenza del quale
l’uscita non è limitata, abbiamo provato che il sistema è instabile.
In maniera simile, si prova che la versione a TD dell’integratore con memoria infinita, cioè l’accumulatore
dell’es. 3.2, avente relazione i-u
n
y(n) = ∑ x(k) ,
k=−∞

è instabile. Infatti, se si pone in ingresso x(n) = u(n), si ottiene in uscita il segnale



n

0 , n < 0;
y(n) = ∑ u(k) = n
k=−∞ ∑ 1 = n+1, n ≥ 0;

k=0

ovvero un segnale esprimibile come y(n) = (n + 1) u(n) (rampa a TD), che è non limitato. 

La stabilità è una proprietà fondamentale nel progetto dei sistemi, in quanto assicura che, applican-
do al sistema segnali di ingresso limitati, l’uscita non assumerà mai valori arbitrariamente grandi.
Viceversa, in un sistema fisico instabile, l’uscita può assumere, per determinati segnali di ingresso,
valori arbitrariamente grandi, il che può portare al malfunzionamento del sistema o addirittura alla sua
rottura. Un esempio fisico particolarmente impressionante di sistema instabile è quello del Tacoma
Narrows Bridge (costruito presso Washington D.C., USA) che crollò nel 1940, pochi mesi dopo essere
stato aperto al traffico, a causa delle raffiche di vento che indussero oscillazioni tali da provocare la
rottura dei cavi metallici e il conseguente crollo del ponte (fig. 3.15). Proprio per evitare l’innesco di
pericolose oscillazioni, che possono portare alla rottura, ai soldati che attraversano i ponti a passo di
marcia si comanda abitualmente di “rompere il passo”.

3.3.6 Linearità
La proprietà di linearità è estremamente importante, in quanto porta a notevoli semplificazioni nel-
l’analisi e nella sintesi dei sistemi. Nel seguito supporremo che, più in generale, i segnali in gioco
siano a valori complessi e il loro codominio coincida con il campo dei numeri complessi, cioè, X ≡ C,
mentre il dominio T sarà uguale a R oppure Z nel caso TC oppure TD, rispettivamente. Questa scelta
ci consente di trattare anche segnali, quali ad esempio il fasore, che, pur non essendo direttamente
riconducibili ad alcuna grandezza fisica, rappresentano una comoda astrazione matematica per la de-
scrizione di alcuni fenomeni naturali. D’altra parte, i segnali a valori reali sono un sottoinsieme dei
segnali a valori complessi.
La proprietà di linearità può essere vista come composta da due proprietà più semplici: la proprietà
di omogeneità e di additività, secondo la definizione seguente:
112 Proprietà dei sistemi

x(.) α S y a(.)

(a)

x(.) S α y b(.)

(b)

Fig. 3.16. Se il sistema S verifica la proprietà di omogeneità, le configurazioni (a) e (b) sono equivalenti.

Definizione 3.11 (sistema lineare)


Un sistema si dice lineare se soddisfa le seguenti due proprietà:

(a) Omogeneità: per ogni coppia di segnali di ingresso x(·) ∈ I ed uscita y(·) ∈ U, si ha:

α x(·) −→ α y(·) , ∀α ∈ C .

(b) Additività: per ogni coppia di segnali di ingresso x1 (·) ∈ I ed uscita y1 (·) ∈ U, e per ogni
coppia di segnali di ingresso x2 (·) ∈ I ed uscita y2 (·) ∈ U, si ha:

x1 (·) + x2 (·) −→ y1 (·) + y2 (·) .

Da un punto di vista matematico, la proprietà di omogeneità impone implicitamente che, se x(·) ∈ I,


allora anche α x(·) ∈ I, ovvero l’insieme dei segnali di ingresso deve essere chiuso rispetto all’o-
perazione di moltiplicazione per una costante. Allo stesso modo, la proprietà di additività impone
implicitamente che, se x1 (·) ∈ I e x2 (·) ∈ I, allora anche x1 (·) + x2 (·) ∈ I, ovvero l’insieme dei se-
gnali di ingresso deve essere chiuso rispetto all’operazione di somma. Pertanto, affinchè il sistema S
possa essere lineare, occorre che l’insieme dei segnali di ingresso I sia uno spazio lineare, ossia uno
spazio funzionale chiuso rispetto all’operazione di moltiplicazione per una costante e somma. Stessa
proprietà deve valere anche per l’insieme dei segnali di uscita U.
Da un punto di vista sistemistico, la proprietà di omogeneità può essere interpretata come in
fig. 3.16. Precisamente, se il sistema S verifica la proprietà di omogeneità, allora la configurazione
serie in fig. 3.16(a) è equivalente alla configurazione serie in fig. 3.16(b), nel senso che ya (·) ≡ yb (·);
quindi, se si deve calcolare la risposta del sistema S al segnale di ingresso α x(·), si può equivalente-
mente calcolare prima la risposta del sistema S al segnale di ingresso x(·) e poi far passare il segnale
ottenuto attraverso un amplificatore di guadagno α . In altre parole, se il sistema è omogeneo, esso
commuta con il sistema amplificatore e la sua posizione nella cascata è inessenziale. Anche la proprie-
tà di additività ammette una interessante interpretazione in termini di sistemi. Infatti, con riferimento
alla fig. 3.17, se il sistema S verifica la proprietà di additività, allora la cascata del sommatore e del
sistema S in fig. 3.17(a) è equivalente al sistema raffigurato in fig. 3.16(b) (si faccia attenzione: non è
una configurazione parallelo), nel senso che ya (·) ≡ yb (·); quindi, se si deve calcolare la risposta del
3.3 Proprietà dei sistemi 113

x1(.) S y a(.)

x2(.)
(a)

x1(.) S

y b(.)

x2(.) S

(b)

Fig. 3.17. Se il sistema S verifica la proprietà di additività, le configurazioni (a) e (b) sono equivalenti.

sistema S al segnale di ingresso x1 (·) + x2 (·) si può calcolare prima la risposta del sistema S ai segnali
di ingresso x1 (·) e x2 (·) separatamente, e poi sommare i segnali di uscita ottenuti.
Le due proprietà precedenti, che caratterizzano la linearità di un sistema, si possono riassumere
nel cosiddetto principio di sovrapposizione:

Proprietà 3.3 (principio di sovrapposizione)


Un sistema è lineare se, per ogni coppia di segnali di ingresso x1 (·) ∈ I ed uscita y1 (·) ∈ U, e per
ogni coppia di segnali di ingresso x2 (·) ∈ I ed uscita y2 (·) ∈ U, si ha:

α1 x1 (·) + α2 x2 (·) −→ α1 y1 (·) + α2 y2 (·) , ∀α1 , α2 ∈ C . (3.21)

Notiamo che il principio di sovrapposizione si può esprimere, adoperando la notazione semplificata


(3.5) per il sistema S, anche nella forma:

S[α1 x1 (·) + α2 x2 (·)] = α1 S[x1 (·)] + α2 S[x2 (·)] , ∀α1 , α2 ∈ C , (3.22)

che ammette l’interpretazione sistemistica riportata in fig. 3.18: se il sistema S è lineare, allora i due
sistemi riportati in fig. 3.18(a) e fig. 3.18(b) sono equivalenti, cioè, ya (·) ≡ yb (·); pertanto, se si deve
114 Proprietà dei sistemi

x1(.) α1

S y a(.)

x2(.) α2

(a)

x1(.) S α1

y b(.)

x2(.) S α2

(b)

Fig. 3.18. Se il sistema S è lineare, le configurazioni (a) e (b) sono equivalenti (principio di sovrapposizione).

calcolare la risposta del sistema S al segnale di ingresso α1 x1 (·) + α2 x2 (·), si può calcolare prima
la risposta del sistema S ai segnali di ingresso x1 (·) e x2 (·) separatamente, e poi combinare linear-
mente, utilizzando i coefficienti α1 e α2 , i segnali di uscita ottenuti. Il principio di sovrapposizione
si può estendere anche a più di due ingressi e con qualche cautela matematica anche ad una infinità
numerabile di ingressi: se all’ingresso xk (·) ∈ I corrisponde l’uscita yk (·) ∈ U, si ha:

∑ αk xk (·) −→ ∑ αk yk (·) , ∀α1 , α2 , . . . , αk , . . . ∈ C . (3.23)


k k

È bene evidenziare che se il numero di segnali che si sovrappone è finito la (3.23) discende sempli-
cemente dalla (3.22); se, invece, il numero di segnali xk (·) è infinito, la (3.22) da sola non basta per
assicurare la (3.23): in questo caso, occorre imporre alcune condizioni matematiche aggiuntive. Onde
evitare di dilungarci in discussioni di carattere prettamente matematico che non hanno rilevanza in
molti casi di interesse pratico, nel seguito assumeremo la (3.23) come definizione di principio di so-
vrapposizione, che ovviamente racchiude la (3.22) come caso particolare. Ciò conduce alla seguente
definizione più generale di sistema lineare: un sistema è lineare se, comunque si consideri una succes-
sione numerabile di segnali di ingresso xk (·) ∈ I, con k ∈ Z, l’uscita corrispondente ad una arbitraria
combinazione lineare di {xk (·)}k∈Z è costituita dalla combinazione lineare, con gli stessi coefficienti,
delle uscite yk (·) ∈ U corrispondenti agli ingressi presi separatamente.
La proprietà di linearità comporta notevoli semplificazioni nell’analisi e nella sintesi dei sistemi,
ed il principio di sovrapposizione è molto utilizzato ad esempio nello studio dei circuiti elettrici.
A tale proposito, si noti che, come l’invarianza temporale, anche la linearità è una idealizzazione
3.3 Proprietà dei sistemi 115

matematica: nessun sistema nella realtà fisica è lineare in senso stretto. Infatti, in pratica, un sistema
è progettato per poter funzionare con una certa famiglia di segnali di ingresso, e la moltiplicazione
del segnale di ingresso per una costante di ampiezza arbitraria non si traduce semplicemente nella
moltiplicazione dell’uscita per la stessa costante. Ad esempio, se si considera un amplificatore audio
e lo si forza in ingresso con un segnale di tensione la cui ampiezza è maggiore di quella per cui il
sistema è stato progettato, si ottiene in uscita un suono poco gradevole che nulla ha a che fare con il
segnale di ingresso che si vuole amplificare. In pratica, quando si parla di sistema lineare, si intende
un sistema che soddisfa il principio di sovrapposizione, quando l’ampiezza dei segnali di ingresso non
eccede (in valore assoluto) una determinata soglia, variabile da sistema a sistema; se l’ampiezza del
segnale di ingresso eccede tale soglia, il sistema non può più considerarsi lineare.13
 Esempio 3.25 (linearità dell’amplificatore a guadagno variabile) L’amplificatore a guadagno variabile a
TC y(t) = α (t) x(t) è un sistema lineare, in quanto soddisfa al principio di sovrapposizione. Adoperando la
formulazione (3.22), infatti, si ha, con semplici calcoli algebrici:

S[α1 x1 (t) + α2 x2 (t)] = α (t)[α1 x1 (t) + α2 x2 (t)] = α1 [α (t) x1 (t)] + α2 [α (t) x2 (t)] (3.24)
= α1 S[x1 (t)] + α2 S[x2 (t)] .

Con analogo ragionamento si può provare che anche l’amplificatore a TD y(n) = α (n) x(n) è un sistema lineare.
Sia nel caso TC che TD, notiamo che la linearità dell’amplificatore vale anche nel caso particolare in cui il
guadagno α (·) = α è costante (amplificatore a guadagno costante). 

Una conseguenza importante della proprietà di linearità, e più precisamente dell’omogeneità, è che se
un sistema omogeneo è sollecitato con un ingresso nullo (ovvero è “a riposo”), l’uscita corrispondente
è necessariamente nulla.

Proprietà 3.4 (comportamento a riposo di un sistema omogeneo)


In un sistema omogeneo, l’uscita corrispondente all’ingresso nullo è necessariamente nulla.

Prova. Sia x0 (·) ≡ 0 l’ingresso nullo, e sia y0 (·) l’uscita corrispondente a tale ingresso. Poiché x0 (·) −→ y0 (·),
si ha, per l’omogeneità,

α x0 (·) −→ α y0 (·) , ∀α ∈ C ,

ma poiché x0 (·) = α x0 (·) ≡ 0 ∀α ∈ C, allora deve aversi necessariamente y0 (·) = α y0 (·), ∀α ∈ C, e quest’ultima
uguaglianza può essere verificata se e solo se y0 (·) ≡ 0. 
 Esempio 3.26 (sistema non omogeneo) Il sistema avente relazione i-u

y(t) = b1 x(t) + b0 ,

con b0 = 0, non è omogeneo (e quindi non è lineare) per la presenza del termine b0 . Infatti ponendo x(t) ≡ 0,
si trova y0 (t) = b0 = 0, e pertanto l’uscita corrispondente all’ingresso nullo non è nulla. 

Sebbene sia non lineare secondo la definizione data, il sistema dell’es. 3.26 appartiene ad una classe
di sistemi in cui l’uscita y(t) si può vedere (fig. 3.19) come la somma dell’uscita di un sistema lineare
yL (t) e di un termine y0 (t) non dipendente dall’ingresso, che rappresenta l’uscita corrispondente al-
l’ingresso nullo. Nell’es. 3.26, in particolare, si ha yL (t) = b1 x(t) e y0 (t) = b0 . Tali sistemi sono una
generalizzazione dei sistemi lineari, e si dicono lineari per le differenze, in quanto, dati due ingressi
13 Tipicamente, quasi tutti i sistemi tendono a comportarsi in maniera lineare se l’ampiezza del segnale di ingresso è
sufficientemente piccola; in elettronica, questa osservazione è alla base dei cosiddetti “modelli lineari approssimati per
piccoli segnali”.
116 Proprietà dei sistemi

y L(.)
sistema y(.)
x(.) x(.) g(x) y(.)
lineare

y 0(.)

Fig. 3.19. Un sistema lineare per le differenze si


Fig. 3.20. Schema a blocchi di un sistema non
può vedere come composto da un sistema lineare
lineare (non linearità) senza memoria.
e da un segnale indipendente dall’ingresso.

arbitrari x1 (·) e x2 (·), la differenza y2 (·) − y1 (·) tra le due uscite è una funzione lineare della differenza
x2 (·) − x1 (·) tra i due ingressi. Esempi di sistemi lineari per le differenze compaiono nell’analisi di
sistemi descritti da equazioni differenziali (nel caso TC, cfr. § 4.6.1) o alle differenze (nel caso TD,
cfr. § 4.6.2) lineari e a coefficienti costanti.
Un caso più caratteristico di sistema non lineare, che non risulta neppure lineare per le differenze,
è descritto nell’esempio seguente.
 Esempio 3.27 (sistema quadratico) Il sistema descritto dalla relazione i-u

y(t) = x2 (t)

è non lineare, e prende il nome di sistema quadratico o non-linearità quadratica. Infatti, si verifica facilmente
che il sistema non soddisfa né la proprietà di omogeneità, né quella di additività. Per l’omogeneità, si ha:

S[α x(t)] = α 2 x2 (t) = α 2 S[x(t)] = α S[x(t)] ,

e quindi non è omogeneo; inoltre

S[x1 (t) + x2 (t)] = [x1 (t) + x2 (t)]2 = x12 (t) + x22 (t) + 2 x1 (t) x2 (t) = x12 (t) + x22 (t) = S[x1 (t)] + S[x2 (t)] ,

e quindi non è additivo. 

Il sistema quadratico dell’es. 3.27 è anche TI e non dispersivo o senza memoria (cfr. § 3.3.1), in quanto
l’uscita y(t) è funzione dell’ingresso x(t) nello stesso istante. Esso appartiene pertanto ad una classe
più generale di sistemi, detti anche non-linearità senza memoria:

Definizione 3.12 (non linearità senza memoria)


Sia g(·) una funzione non lineare, un sistema TI senza memoria, descritto dalla relazione i-
u y(t) = g[x(t)] (nel caso TC) oppure da y(n) = g[x(n)] (nel caso TD) prende il nome di non
linearità senza memoria.

Tali sistemi possono essere descritti semplicemente assegnando la funzione y = g(x), che prende
il nome di caratteristica i-u, e sono rappresentati graficamente come in fig. 3.20. Altri esempi di
non linearità senza memoria sono i sistemi descritti dalle relazioni i-u y(t) = |x(t)| (“raddrizzatore”,
cfr. es. 3.15), y(t) = sgn[x(t)] (“hard limiter”), e y(t) = x3 (t) (sistema cubico). Un esempio “fisico”
tratto dall’elettronica è il diodo.
 Esempio 3.28 (caratteristica i-u di un diodo) Il diodo è un componente elettronico rappresentato schema-
ticamente in fig. 3.21, che può essere descritto con buona approssimazione da una relazione i-u non lineare
senza memoria. Infatti, se si indica (fig. 3.21) con x(t) la tensione ai capi del diodo e con y(t) la corrente
3.3 Proprietà dei sistemi 117

y(t) y=g(x)

x(t)
tg(θ)=R

Fig. 3.21. Schema elettrico di un diodo, model- Fig. 3.22. Caratteristica ingresso-uscita di un dio-
lato come un sistema non lineare senza memo- do. Il parametro R rappresenta la resistenza del
ria, avente come ingresso la tensione x(t) e come diodo in conduzione.
uscita la corrente y(t).

che scorre nel diodo, si può porre, con buona14 approssimazione, y(t) = g[x(t)], dove la caratteristica i-u g(x)
(fig. 3.22) è

x , x ≥ 0;
g(x) = R
0 , altrimenti;

dove R è la resistenza del diodo in conduzione, che assume in genere valori molto piccoli (dell’ordine di pochi
decimi di ohm). Notiamo che la funzione g(x) di fig. 3.22 è lineare a tratti; in ogni caso, poiché essa non è
lineare per tutti i valori di x, il sistema non può essere considerato lineare. 

Altri esempi di sistemi elettronici descritti approssimativamente15 da modelli non lineari senza me-
moria sono i transistori bipolari (bipolar junction transistor, BJT) ed i transistori ad effetto di campo
(field-effect transistor, FET).

14 Un modello più accurato mostra che la relazione tra tensione e corrente in un diodo in conduzione segue una legge di

tipo esponenziale.
15 Bisogna notare che per i componenti elettronici menzionati (diodi e transistori) il modello di sistema senza memoria è

accurato solo se si trascurano gli effetti capacitivi, il che è ragionevole per segnali costanti o lentamente variabili.
118 Proprietà dei sistemi

3.4 Esercizi proposti


Esercizio 3.1 Si consideri la seguente interconnessione di sistemi:

x(n) S1 S2 S3 y(n)

dove i legami i-u dei tre sistemi sono i seguenti:


n
S1 : y(n) = x ;
2
1 1
S2 : y(n) = x(n) + x(n − 1) + x(n − 2) ;
2 4
S3 : y(n) = x(2n) .
Determinare il legame i-u del sistema (complessivo) riportato in figura.

Risultato: y(n) = x(n) + 14 x(n − 1).

Esercizio 3.2 Si consideri l’interconnessione di sistemi riportata in fig. 3.23, dove i legami i-u dei quattro
sistemi sono i seguenti:

S1

x(t) S2 y(t)

S3 S4

Fig. 3.23. Sistema dell’esercizio 3.2.

S1 : y(t) = 2 x(t) + 1 ;
S2 : y(t) = sgn[x(t)];
S3 : y(t) = ex(t) ;
S4 : y(t) = 2 ln(|x(t)|).
Determinare il legame i-u del sistema (complessivo) riportato in fig. 3.23.

Risultato: y(t) = 2 u[x(t)].

Esercizio 3.3 Si consideri il sistema caratterizzato dal seguente legame i-u:


+∞

N −1
y(n) = ∑ x(k) RN n − k + , con N ≥ 1 numero intero dispari .
k=−∞ 2

Calcolare la memoria del sistema.

Risultato: La memoria è pari a N − 1.


3.4 Esercizi proposti 119

S1

x(t) y(t)

S2

Esercizio 3.4 Si consideri la seguente interconnessione di sistemi:


dove i legami i-u dei due sistemi sono i seguenti:
 t
S1 : y(t) = x(τ ) dτ , con T1 > 0;
t−T1
 t+T2
S2 : y(t) = x(τ ) dτ , con T2 > 0.
t−T2

Calcolare la memoria del sistema (complessivo) riportato in figura.

Risultato: Se T1 ≥ T2 , la memoria è pari a T1 ; se T1 < T2 , la memoria è pari a 2 T2 − T1 .

Esercizio 3.5 Un sistema S con ingresso x(t) ed uscita y(t) presenta le seguenti coppie i-u:

x(t) = u(t + 3) −→ y(t) = e−5t u(t) ,


x(t) = rect(t − 1) −→ y(t) = e−3t .

Stabilire se il sistema può essere causale


[Suggerimento: disegnare i due segnali ed applicare la prop. 3.1 del libro di testo.]

Risultato: Il sistema è non causale.

Esercizio 3.6 Un sistema S con ingresso x(n) ed uscita y(n) presenta le seguenti coppie i-u:

x(n) = u(n + 2) −→ y(n) = 2−n u(n + 1) ,


x(n) = R3 (n) −→ y(n) = 3n u(n) .

Stabilire se il sistema può essere causale


[Suggerimento: disegnare i due segnali ed applicare la prop. 3.1 del libro di testo.]

Risultato: Il sistema può essere causale (non è detto che lo sia).

Esercizio 3.7 Si consideri il sistema caratterizzato dal seguente legame i-u:

y(n) = x(n) x(n − 2) .

(a) Calcolare l’uscita y(n) corrispondente al segnale di ingresso x(n) = A δ (n), con A ∈ R.
(b) Il sistema è invertibile? Giustificare la risposta.

Risultato: (a) y(n) ≡ 0; (b) non invertibile: in virtù del risultato del punto (a), l’uscita corrispondente al segnale
x(n) = A δ (n) è sempre nulla, indipendentemente dalla costante A.
120 Proprietà dei sistemi

Esercizio 3.8 Si consideri il sistema caratterizzato dal seguente legame i-u:


S : x(t) ∈ I −→ ex(t) ∈ U .
(a) Caratterizzare gli insiemi di ingresso ed uscita.
(b) Stabilire se tale sistema è invertibile. In caso affermativo, determinare il sistema inverso.

Risultato: (a) nessuna restrizione su I, l’insieme U è costituito da tutti i segnali positivi; (b) S è invertibile e il
suo sistema inverso è caratterizzato dal seguente legame i-u: x(t) ∈ U −→ y(t) = ln[x(t)] ∈ I.

Esercizio 3.9 Il sistema S in fig. 3.24 è lineare. Nella stessa figura sono riportate le uscite del sistema y1 (n),
y2 (n) e y3 (n) corrispondenti ai segnali di ingresso x1 (n), x2 (n) e x3 (n), rispettivamente.

y1(n)

x1(n) 3 3

1 1
-1 1 -1
S
0 n 0 1 2 3 n
-1
-2 -2

x2(n) y2(n)

1 1
-1 -1 1 3
S
0 n 0 2 n
-1 -1
-2
-3

y3(n)
x3(n)
2 2
1 1 1
1
S
0 1 n -2 -1 0 2 n

-3

Fig. 3.24. Segnali dell’esercizio 3.9.

(a) Calcolare l’uscita ya (n) del sistema corrispondente al segnale di ingresso xa (n) = δ (n).
(b) Calcolare l’uscita yb (n) del sistema corrispondente al segnale di ingresso xb (n) = δ (n − 1).
(c) Sulla base dei risultati ottenuti ai punti (a) e (b), stabilire se il sistema può essere tempo-invariante.

Risultato: (a) ya (n) = 2 δ (n + 2) + δ (n + 1) − 2 δ (n) + 3 δ (n − 1) + 2 δ (n − 2) + δ (n − 3); (b) yb (n) = −δ (n) −


3 δ (n − 1) − δ (n − 3); (c) non può essere tempo-invariante, è necessariamente tempo-variante.

Esercizio 3.10 Si consideri il sistema caratterizzato dal seguente legame i-u:


 t

y(t) = cos 2π fct + 2π x(τ ) dτ .


−∞
3.4 Esercizi proposti 121

(a) Calcolare l’uscita ya (t) corrispondente al segnale di ingresso xa (t) = δ (t).


(b) Calcolare l’uscita yb (t) corrispondente al segnale di ingresso xb (t) = δ (t − t0 ), con t0 ∈ R.
(c) Sulla base dei risultati ottenuti ai punti (a) e (b), dire se il sistema può essere tempo-invariante.

Risultato: (a) ya (t) = cos(2π fct); (b) yb (t) = ya (t) = cos(2π fct); (c) non può essere tempo-invariante, è
necessariamente tempo-variante.

x(n) y(n)

(-1) n

Fig. 3.25. Sistema dell’esercizio 3.11.

Esercizio 3.11 Si consideri il sistema riportato in fig. 3.25.

(a) Determinare il legame i-u del sistema.


(b) Dire se il sistema è stabile.

Risultato: (a) y(n) = x(n) + (−1)n x(n) = [1 + (−1)n ] x(n), dove 1 + (−1)n = 0 se n è dispari e 1 + (−1)n = 2
se n è pari; (b) stabile.

Esercizio 3.12 Un sistema S lineare con ingresso x(t) ed uscita y(t) presenta le seguenti coppie i-u:

x(t) = e j2t −→ y(t) = e j3t ,


x(t) = e− j2t −→ y(t) = e− j3t .

(a) Calcolare l’uscita ya (t) corrispondente al segnale di ingresso xa (t) = cos(2t).


(b) Calcolare l’uscita yb (t) corrispondente al segnale di ingresso xb (t) = cos(2t − 1).
(c) Stabilire se il sistema può essere tempo-invariante.

Risultato: (a) ya (t) = cos(3t); (b) yb (t) = cos(3t − 1). (c) il sistema non può essere tempo-invariante, è
necessariamente tempo-variante.

Esercizio 3.13 Il sistema S in fig. 3.26 è tempo-invariante. Nella stessa figura sono riportate le uscite del
sistema y1 (n), y2 (n) e y3 (n) corrispondenti ai segnali di ingresso x1 (n), x2 (n) e x3 (n), rispettivamente.

(a) Stabilire se il sistema può essere lineare.


(b) Calcolare l’uscita y(n) del sistema corrispondente al segnale di ingresso x(n) = δ (n).

Risultato: (a) non può essere lineare, è necessariamente non lineare; (b) y(n) = 3 δ (n + 6) + 2 δ (n + 5).
Esercizio 3.14 Si considerino i due sistemi caratterizzati dai seguenti legami i-u:
122 Proprietà dei sistemi

y1(n)
3
x1(n)
2
1 2

S
0 1 n 0 1 2 n

y2(n) 4

x2(n)
2
2

S
0 1 n 0 1 2 3 n

y3(n)

x3(n) 3
2
1
S
0 1 2 3 4 n -2 -1 0 1 n

Fig. 3.26. Segnali dell’esercizio 3.13.

S1 : y(n) = x(−n) ;
S2 : y(n) = x(n + 2).

Inoltre, sia S1,2 il sistema ottenuto dalla cascata S1 -S2 (nell’ordine), mentre S2,1 rappresenta il sistema ottenuto
dalla cascata S2 -S1 (nell’ordine). Stabilire, motivando la risposta e fornendo almeno un esempio a suo supporto,
se la seguente affermazione è vera oppure falsa: “se x1 (n) = x2 (n), le uscite dei due sistemi S1,2 e S2,1 sono
necessariamente uguali”.

Risultato: I due sistemi sono diversi: il legame i-u del sistema S1,2 è y(n) = x(−n − 2); il legame i-u del sistema
S2,1 è y(n) = x(−n + 2). Esempio: quando x1 [n] = x2 [n] = δ [n], l’uscita del sistema S1,2 è y(n) = δ (n + 2),
mentre l’uscita del sistema S2,1 è y(n) = δ (n − 2).

Esercizio 3.15 Classificare, motivando brevemente le risposte, ciascuno dei sistemi TC sotto riportati sulla
base delle loro proprietà (linearità, non dispersività, causalità, invarianza temporale, stabilità):

(a) y(t) = 2 exp[x(t)];


(b) y(t) = x(t − 2) − x(1 − t);
(c) y(t) = x(t) cos(2π t);
(d) y(t) = [x(t) + x(t − T )] u(t);
(e) y(t) = [x(t) − x(t − T )] u[x(t)], con T ∈ R − {0}.

Risultato: (a) non lineare, non dispersivo, causale, tempo-invariante e stabile; (b) lineare, dispersivo, non
causale, tempo-variante e stabile; (c) lineare, non dispersivo, causale, tempo-variante e stabile; (d) lineare,
dispersivo se T = 0, causale se T ≥ 0 e non causale se T < 0, tempo-variante e stabile. (e) non lineare,
dispersivo, causale se T > 0 e non causale se T < 0, tempo-invariante e stabile.
3.4 Esercizi proposti 123

Esercizio 3.16 Classificare, motivando brevemente le risposte, ciascuno dei sistemi TD sotto riportati sulla
base delle loro proprietà (linearità, non dispersività, causalità, invarianza temporale, stabilità):

(a) y(n) = a x(n) + b, con a, b ∈ R − {0};

(b) y(n) = x(−n);

(c) y(n) = ex(n) ;


 n

 ∑ x(k) , per n ≥ m0 , con m0 ∈ Z ;
(d) y(n) = k=m0

0 , altrimenti ;
n+m0
(e) y(n) = ∑ x(k), con m0 ∈ N.
k=n−m0

Risultato: (a) non lineare (lineare per le differenze), non dispersivo, causale, tempo-invariante e stabile; (b)
lineare, dispersivo, non causale, tempo-variante e stabile; (c) non lineare, non dispersivo, causale, tempo-
invariante e stabile; (d) lineare, dispersivo, causale, tempo-variante e instabile. (e) lineare, dispersivo, non
causale, tempo-invariante e stabile.
Esercizio 3.17 Classificare in base alle loro proprietà (linearità, non dispersività, causalità, invarianza tempo-
rale, stabilità) i sistemi TC individuati dalle seguenti relazioni i-u:
 +∞
(a) y(t) = h(τ ) x(t − τ ) dτ ;
0
 T
(b) y(t) = h(τ ) x2 (t − τ ) dτ ;
0

 1 , se x(t) = 0 ;
(c) y(t) = x(t)

0, altrimenti ;
 T
1
(d) y(t) = x(t − τ )dτ , con T ∈ R − {0}.
2T −T

Risultato: (a) lineare, dispersivo, causale, tempo-invariante, stabile se h(τ ) è sommabile; (b) non lineare,
dispersivo, causale se T ≥ 0, non causale se T < 0, tempo-invariante, stabile se h(τ ) è sommabile; (c) non li-
neare, non dispersivo, causale, tempo-invariante, instabile; (d) lineare, dispersivo, non causale, tempo-invariante
e stabile.

Esercizio 3.18 Classificare, motivando brevemente le risposte, ciascuno dei sistemi TD sotto riportati sulla
base delle loro proprietà (linearità, non dispersività, causalità, invarianza temporale, stabilità):

(a) y(n) = x(n) + u(n + 1);

(b) y(n) = cos(π n) x(n);

(c) y(n) = x(n2 );


+∞
(d) y(n) = x(n) ∑ δ (n − k);
k=0

(e) y(n) = an u(n) x(n), con a ∈ R − {0}.


124 Proprietà dei sistemi

Risultato: (a) non lineare (lineare per le differenze), non dispersivo, causale, tempo-variante e stabile; (b)
lineare, non dispersivo, causale, tempo-variante e stabile; (c) lineare, dispersivo, non causale, tempo-variante
e stabile; (d) lineare, non dispersivo, causale, tempo-variante e stabile. (e) lineare, non dispersivo, causale,
tempo-variante, stabile per |a| ≤ 1 ed instabile per |a| > 1.
Esercizio 3.19 Classificare, motivando brevemente le risposte, sulla base delle proprietà (linearità, non disper-
sività, causalità, invarianza temporale e stabilità), i sistemi TC caratterizzati dalle seguenti relazioni i-u:

ln(|x(t)|) , se x(t) = 0 ;
(a) y(t) =
0, altrimenti ;

(b) y(t) = x(t) + x(−t);


(c) y(t) = x(t) sgn(t);
(d) y(t) = sgn[x(t)].

Risultato: (a) non lineare, non dispersivo, causale, tempo-invariante, instabile; (b) lineare, dispersivo, non
causale, tempo-variante, stabile; (c) lineare, non dispersivo, causale, tempo-variante, stabile; (d) non lineare,
non dispersivo, causale, tempo-invariante, stabile.
Esercizio 3.20 Classificare, motivando brevemente le risposte, sulla base delle proprietà di linearità, non
dispersività, causalità, invarianza temporale e stabilità, i sistemi TC caratterizzati dalle seguenti relazioni i-u:

t ln(|x(t)|) , se x(t) = 0 ;
(a) y(t) =
0, altrimenti ;

(b) y(t) = a(t) x(−t), con a(t) segnale reale limitato;


(c) y(t) = x(−t) + 5;
(d) y(t) = sgn[x(−t)].

Risultato: (a) non lineare, non dispersivo, causale, tempo-variante, instabile; (b) lineare, dispersivo, non causa-
le, tempo-variante, stabile; (c) non lineare (lineare per le differenze), dispersivo, non causale, tempo-variante,
stabile; (d) non lineare, dispersivo, non causale, tempo-variante, stabile.
Esercizio 3.21 Classificare, motivando brevemente le risposte, ciascuno dei sistemi sotto riportati sulla base
delle loro proprietà (linearità, non dispersività, causalità, invarianza temporale, stabilità):

 x(n)
, se n = 0 ;
(a) y(n) = n
0 , altrimenti ;
(b) y(n) = x(2 n) + x(10 − n);
n+2
(c) y(n) = ∑ x2 (k);
k=n−2
+∞
(d) y(n) = ∑ sgn(k) x(n − k).
k=−∞

Risultato: (a) lineare, non dispersivo, causale, tempo-variante, stabile; (b) lineare, dispersivo, non causa-
le, tempo-variante, stabile; (c) non lineare, dispersivo, non causale, tempo-invariante, stabile; (d) lineare,
dispersivo, non causale, tempo-invariante, instabile.
3.4 Esercizi proposti 125

Esercizio 3.22 Classificare, motivando brevemente le risposte, sulla base delle proprietà di linearità, non di-
spersività, causalità, invarianza temporale e stabilità, i sistemi caratterizzati dalle seguenti relazioni ingres-
so/uscita:
M2
1
(a) y(n) =
M1 + M2 + 1 ∑ x(n − k), con M1 , M2 ∈ N.
k=−M1

(b) y(n) = max{x(n), x(n − 1)}.


 π
n tan[x(n)] , se x(n) = + k π , con k ∈ Z ;
(c) y(n) = 2
0, altrimenti ;

Risultato: (a) lineare, dispersivo, non causale, tempo-invariante, stabile; (b) non lineare, dispersivo, causale,
tempo-invariante, stabile; (c) non lineare, non dispersivo, causale, tempo-variante, instabile.
126 Proprietà dei sistemi
Capitolo 4

Sistemi lineari tempo-invarianti (LTI)

In questo capitolo approfondiremo lo studio dei sistemi lineari tempo-invarianti (LTI), ovvero dei
sistemi che possiedono sia la proprietà di linearità, sia quella di invarianza temporale. In particolare,
mostreremo che tali sistemi ammettono una relazione i-u semplice e generale, che può essere espressa
mediante una particolare operazione matematica, denominata convoluzione, tra il segnale di ingresso
e una funzione che descrive completamente il sistema nel dominio del tempo, la sua risposta impul-
siva. Introdurremo poi una classe importante di sistemi LTI, che si incontrano frequentemente nelle
applicazioni, ovvero i sistemi LTI descritti nel caso TC da equazioni differenziali, e nel caso TD da
equazioni alle differenze. Infine, calcolando la risposta di un sistema LTI ad un fasore applicato al
suo ingresso, introdurremo il fondamentale concetto di risposta in frequenza di un sistema LTI, che
rappresenta la base per lo studio dei sistemi nel dominio della frequenza e che sarà approfondito nei
capitoli seguenti.

4.1 Introduzione

Le proprietà di invarianza temporale e linearità viste nel cap. 3 non devono necessariamente essere
possedute contemporaneamente da un dato sistema. Ad esempio, l’amplificatore con guadagno varia-
bile y(t) = α (t) x(t) (cfr. es. 3.16) è un sistema lineare ma tempo-variante (sistema LTV), mentre il
sistema quadratico y(t) = x2 (t) (cfr. es. 3.27) è un sistema non lineare ma tempo-invariante. Tuttavia,
numerosi sistemi, di grande interesse per le applicazioni, possiedono sia la proprietà di linearità, sia
quella di invarianza temporale. Tali sistemi sono denominati sistemi lineari tempo-invarianti (LTI), e
per essi esistono tecniche di analisi e di sintesi semplici, potenti e generali. In questo capitolo, ed in
gran parte del seguito della trattazione, il nostro studio si concentrerà su tale classe di sistemi.
La proprietà fondamentale che semplifica lo studio dei sistemi LTI (più in generale, dei sistemi
lineari) è il principio di sovrapposizione (prop. 3.3). A tale proposito, consideriamo il sistema lineare
descritto dalla trasformazione S : I → U, il cui legame i-u, per semplicità di notazione, sarà descritto
nel seguito mediante la notazione semplificata y(·) = S[x(·)]. In particolare, supponiamo che un ge-
nerico ingresso TC o TD x(·) ∈ I possa essere espresso come sovrapposizione di segnali semplici o
128 Sistemi lineari tempo-invarianti (LTI)

“elementari” xk (·) ∈ I come segue:

x(·) = ∑ αk xk (·) , (4.1)


k

dove i coefficienti αk sono in generale dei numeri complessi, in quanto come vedremo i segnali ele-
mentari possono assumere valori complessi. Il numero dei segnali elementari necessari per descrivere
esattamente il segnale x(·) nella (4.1) può essere finito oppure infinito numerabile. Applicando il
principio di sovrapposizione (3.23), si ha:
!
y(·) = S[x(·)] = S ∑ αk xk (·) = ∑ αk S [xk (·)] = ∑ αk yk (·) , (4.2)
k k k


dove yk (·) = S[xk (·)], ovvero yk (·) è l’uscita corrispondente all’ingresso elementare xk (·). La (4.2)
mostra che l’uscita y(·) si può esprimere come sovrapposizione, con gli stessi coefficienti αk , dei
segnali yk (·), ciascuno dei quali rappresenta la risposta del sistema all’ingresso xk (·). Questa proprietà
consente, in linea di principio, di semplificare notevolmente lo studio dei sistemi lineari, in quanto è
sufficiente calcolare la risposta del sistema agli ingressi elementari xk (·). Affinché tale tecnica sia
applicabile in pratica, tuttavia, i segnali elementari xk (·) da utilizzare nella (4.1) devono essere scelti
in modo opportuno; in particolare, essi devono soddisfare tre proprietà fondamentali:
(1) devono essere in grado di rappresentare un’ampia classe di segnali x(·); idealmente, devono essere
in grado di rappresentare tutti i segnali di interesse pratico;
(2) per un dato segnale di interesse x(·), deve essere semplice calcolare i coefficienti αk della sua
rappresentazione (4.1);
(3) deve essere semplice calcolare la risposta yk (·) del sistema a ciascuno dei segnali xk (·).
Tenendo conto delle proprietà precedenti, le scelte più comuni per i segnali elementari xk (·) sono due:
• i segnali xk (·) sono impulsi: la descrizione risultante del sistema prende il nome di rappresenta-
zione nel dominio del tempo, e la funzione che caratterizza il sistema LTI nel dominio del tempo
prende il nome di risposta impulsiva;
• i segnali xk (·) sono fasori: la descrizione risultante del sistema prende il nome di rappresen-
tazione nel dominio della frequenza, e la funzione che caratterizza il sistema LTI nel dominio
della frequenza prende il nome di risposta in frequenza o risposta armonica.
Nel seguito di questo capitolo studieremo approfonditamente la rappresentazione dei sistemi LTI nel
dominio del tempo, e introdurremo anche i primi elementi della loro rappresentazione nel dominio
della frequenza;uno studio più approfondito della rappresentazione nel dominio della frequenza sarà
effettuato nei prossimi capitoli.

4.2 Relazione i-u di un sistema LTI e risposta impulsiva


Un concetto fondamentale nella caratterizzazione dei sistemi LTI nel dominio del tempo è quello di
risposta impulsiva:1 esso nasce dalla possibilità di rappresentare un arbitrario segnale x(·) come so-
vrapposizione di impulsi traslati nel tempo. Per approfondire tale rappresentazione, è conveniente
1 Il
concetto di risposta impulsiva, e quello di risposta in frequenza ad esso strettamente legato, possono essere dati
anche con riferimento a sistemi che siano solo lineari (ma tempo-varianti); in tal caso, però, tali funzioni dipendono da due
variabili.
4.2 Relazione i-u di un sistema LTI e risposta impulsiva 129

considerare prima il caso TD. Scegliendo come segnali elementari xk (n) nella (4.1) l’insieme numera-
bile degli impulsi discreti traslati nel tempo, ovvero xk (n) = δ (n − k), con k ∈ Z, la rappresentazione
(4.1) si scrive:
+∞ +∞
x(n) = ∑ αk xk (n) = ∑ αk δ (n − k) . (4.3)
k=−∞ k=−∞

Determinare i coefficienti αk della rappresentazione è semplice, se si osserva che gli impulsi δ (n − k)


nella (4.3) non si sovrappongono nel tempo, e quindi l’ampiezza di ciascuno di essi deve coincidere
necessariamente con il campione x(k) della sequenza: in altri termini, si ha semplicemente αk = x(k).
Pertanto la rappresentazione di un arbitrario segnale TD x(n) come sovrapposizione di impulsi è:
+∞
x(n) = ∑ x(k) δ (n − k) , (4.4)
k=−∞

che si può interpretare equivalentemente dicendo che x(k) δ (n−k) rappresenta il campione del segnale
x(n) all’istante n = k. Notiamo peraltro che la (4.4) si può giustificare in maniera più formale anche
applicando le prop. 2.3 dell’impulso discreto, ed in particolare la proprietà di campionamento (la
banale verifica è lasciata al lettore).
Supponiamo allora che un segnale x(n), rappresentato mediante la (4.4), sia posto in ingresso ad un
sistema TD LTI, e calcoliamo l’uscita sfruttando il principio di sovrapposizione, nonché l’invarianza
temporale del sistema. Possiamo scrivere simbolicamente:
!
+∞ +∞
y(n) = S[x(n)] = S ∑ x(k) δ (n − k) = ∑ x(k) S[δ (n − k)] , (4.5)
k=−∞ k=−∞

dove abbiamo applicato il principio di sovrapposizione, esteso al caso di una infinità (numerabile) di
segnali, ed abbiamo sfruttato il fatto che le quantità x(k), non essendo dipendenti dal tempo n, vanno
riguardate come delle costanti (corrispondono in effetti alle costanti αk ). Definiamo allora il segnale

h(n) = S[δ (n)], che rappresenta la risposta del sistema LTI all’impulso δ (n) applicato al suo ingresso:
per la proprietà di invarianza temporale (si veda in particolare la caratterizzazione i-u dell’invarianza
temporale espressa dalla prop. 3.2) risulta conseguentemente che:
S[δ (n − k)] = h(n − k) , ∀k ∈ Z , (4.6)
cioè traslando l’impulso in ingresso di k campioni, il segnale di uscita h(n) trasla anch’esso di k
campioni. Pertanto, sostituendo la (4.6) nella (4.5), la relazione i-u del sistema LTI assume la forma
+∞ +∞
y(n) = ∑ x(k) h(n − k) = ∑ h(k) x(n − k) , (4.7)
k=−∞ k=−∞

dove la seconda espressione si può ottenere dalla prima con il semplice cambiamento di variabile
n − k = k e ponendo poi nuovamente k in luogo di k . Ribadiamo che per ricavare la (4.7) abbiamo
utilizzato sia la proprietà di linearità [nella (4.5)], sia la proprietà di invarianza temporale [nella (4.6)].
La funzione h(n) che compare nella (4.7) prende il nome di risposta all’impulso o di risposta im-
pulsiva del sistema LTI: essa rappresenta, come già detto, l’uscita del sistema quando viene applicato
l’impulso δ (n) in ingresso. Si noti che, utilizzando la conoscenza della sola risposta impulsiva del
sistema, la (4.7) consente di calcolare l’uscita di un sistema LTI in corrispondenza di un qualsiasi
ingresso x(n). In questo senso, si dice che la risposta impulsiva è una risposta canonica, poiché essa
caratterizza (cioè descrive) completamente il sistema LTI. L’operazione matematica effettuata tra x(n)
ed h(n) nella (4.7) prende il nome di convoluzione a TD, e sarà studiata più approfonditamente nel
§ 4.3.
130 Sistemi lineari tempo-invarianti (LTI)

h(n) h(n)

b1 bM
b2 1/6
bM-1
b0
b3
....

0 1 2 3 M -1 M n 0 1 2 3 4 5 n
(a) (b)
Fig. 4.1. (a) Risposta impulsiva di un generico sistema MA. (b) Risposta impulsiva del sistema MA con M = 5
e con pesi bk = 16 , ∀k ∈ {0, 1, . . . , 5}.

 Esempio 4.1 (risposta impulsiva di un sistema MA) Si consideri il sistema MA già introdotto nell’es. 3.9,
descritto dalla relazione i-u
M
y(n) = ∑ bk x(n − k) . (4.8)
k=0

Seguendo i procedimenti delineati negli esempi del capitolo precedente, è semplice provare che tale sistema
è sia lineare che tempo-invariante, e pertanto esso rappresenta un esempio di sistema LTI: per questo motivo,
deve essere possibile esprimere la sua relazione i-u come una convoluzione (4.7). Infatti, dal confronto tra la
(4.8) e la (4.7), si ha una perfetta corrispondenza se si definisce la risposta impulsiva del sistema come segue:

bk , k ∈ {0, 1, . . . , M} ;
h(k) = (4.9)
0 , altrimenti ,
rappresentata graficamente in fig. 4.1(a) nel caso generale, e particolarizzata in fig. 4.1(b) al caso M = 5 e
bk = M+1
1
= 16 , ∀k ∈ {0, 1, . . . , 5}. D’altra parte, osserviamo che utilizzando la definizione di risposta impulsiva
come h(n) = S[δ (n)], si ha, ponendo x(n) = δ (n) nella (4.8):
M
h(n) = ∑ bk δ (n − k) , (4.10)
k=0

espressione che fornisce gli stessi valori della (4.9). È interessante notare che la risposta impulsiva del sistema
MA è di durata finita, pari ad M + 1 campioni. 

Prima di passare al caso TC, è utile mettere in luce una particolare interpretazione della (4.7). In
sostanza, la (4.7) mostra che, per un dato k ∈ Z, il campione x(k) δ (n − k) del segnale di ingresso
all’istante n = k è “trasformato” dal sistema nel segnale x(k) h(n − k), con n ∈ Z; il segnale di uscita
y(n) si ottiene sommando i singoli segnali x(k) h(n − k), per ogni k ∈ Z. Questa interpretazione è
chiarita in fig. 4.2, dove è calcolata graficamente la risposta del sistema MA dell’es. 4.1, avente la
risposta impulsiva di fig. 4.1(b), al segnale di ingresso x(n) = 13 R3 (n). In questo caso il segnale di
ingresso è rappresentato dai suoi tre campioni x(0) δ (n), x(1) δ (n − 1) e x(2) δ (n − 2) a cui il sistema
fa corrispondere in uscita i tre segnali x(0) h(n), x(1) h(n − 1) e x(2) h(n − 2); il segnale di uscita si
ottiene sommando tali segnali, cioè y(n) = x(0) h(n) + x(1) h(n − 1) + x(2) h(n − 2).
Per estendere al caso TC il ragionamento sulla relazione i-u visto in precedenza, partiamo dalla
rappresentazione di un segnale a TC come sovrapposizione di impulsi di Dirac:
 +∞
x(t) = x(τ ) δ (t − τ ) dτ . (4.11)
−∞
4.2 Relazione i-u di un sistema LTI e risposta impulsiva 131

x(n) h(n)

1/3

1/6

0 1 2 3 4 5 n 0 1 2 3 4 5 6 7 8 n

x(0) δ(n) x(0) h(n)

1/18

0 1 2 3 4 5 n 0 1 2 3 4 5 6 7 8 n

x(1) δ(n-1) x(1) h(n-1)

1/18

0 1 2 3 4 5 n 0 1 2 3 4 5 6 7 8 n

x(2) δ(n-2) x(2) h(n-2)

1/18

0 1 2 3 4 5 n 0 1 2 3 4 5 6 7 8 n

y(n) = x(0) h( n) + x(1) h( n-1) + x(2) h( n-2)

1/6

1/9

1/18

0 1 2 3 4 5 6 7 8 n

Fig. 4.2. Calcolo dell’uscita y(n) di un sistema LTI come sovrapposizione delle risposte del sistema ai singoli
campioni del segnale di ingresso x(n).
132 Sistemi lineari tempo-invarianti (LTI)

Tale rappresentazione si può vedere come l’estensione della (4.4) al caso TC, dove la delta di Dirac
sostituisce quella discreta, e l’integrale prende il posto della sommatoria. In pratica mediante la (4.11)
il segnale x(t) è rappresentato come sovrapposizione nel continuo (cioè, un integrale) di segnali ele-
mentari x(τ ) δ (t − τ ) dτ , ovvero mediante degli impulsi di Dirac di area infinitesima x(τ ) dτ , centrati
in tutti i possibili istanti di tempo τ ∈ R. A differenza del caso TD, tuttavia, non è possibile dare una
giustificazione immediata della (4.11), ma la sua validità si può provare formalmente utilizzando la
proprietà di campionamento dell’impulso di Dirac (cfr. prop. 2.2). Tuttavia, data l’analogia formale
tra la (4.11) e la (4.4), seguendo passaggi matematici simili a quelli già visti per il caso TD, è possibile
provare che l’uscita y(t) del sistema LTI può essere espressa come:
 +∞  +∞
y(t) = x(τ ) h(t − τ ) dτ = h(τ ) x(t − τ ) dτ , (4.12)
−∞ −∞

dove la seconda uguaglianza si ottiene dalla prima ricorrendo al cambio di variabile t − τ = τ e



utilizzando poi nuovamente τ al posto di τ . Il segnale h(t) = S[δ (t)] prende il nome di risposta
impulsiva del sistema LTI, e rappresenta, come già visto nel caso TD, l’uscita del sistema quando viene
applicato un impulso δ (t) all’ingresso. L’operazione matematica tra x(t) ed h(t) che compare nella
(4.7) è simile a quella vista nel caso TD, e prende il nome di convoluzione a TC; la sua interpretazione
e le sue proprietà saranno approfondite nel § 4.3.
Una giustificazione immediata ed intuitiva della (4.12) si può fornire utilizzando l’interpretazione
della convoluzione per il caso TD data in precedenza (si veda anche la fig. 4.2). Precisamente, facendo
un ragionamento concettualmente simile a quello fatto per il caso TD, possiamo pensare che x(τ ) δ (t −
τ ) dτ rappresenti la componente del segnale di ingresso x(t) nell’istante di tempo t = τ ; se il sistema
è LTI, tale componente è “trasformata” dal sistema nel segnale x(τ ) h(t − τ ) dτ , con t ∈ R; il segnale
di uscita y(t) si ottiene sovrapponendo nel continuo (cioè, integrando) i segnali x(τ ) h(t − τ ) dτ , per
ogni τ ∈ R.
Notiamo inoltre che, formalmente, la (4.12) si basa su una definizione più generale di linearità
di un sistema. Precisamente, supponiamo che un generico segnale x(t) si possa esprimere come
sovrapposizione di una infinità continua di segnali elementari x(t; τ ), con τ ∈ R, ossia:
 +∞
x(t) = α (τ ) x(t; τ )dτ , (4.13)
−∞

dove α (τ ) dτ rappresentano i coefficienti (infinitesimi) della sovrapposizione. Tale rappresentazione


si può vedere come l’estensione della (4.1), in cui i segnali elementari sono una infinità numerabi-
le (la variabile k che parametrizza i segnali è discreta), al caso di una infinità continua di segnali
elementari (la variabile τ che parametrizza i segnali è continua). La (4.13) racchiude come caso parti-
colare la proprietà di campionamento dell’impulso di Dirac: infatti, dal confronto con la (4.11), segue
che α (τ ) = x(τ ) e x(t; τ ) = δ (t − τ ). La derivazione della (4.12) richiede la validità della seguente
uguaglianza:
 +∞
y(t) = S[x(t)] = α (τ ) S[x(t; τ )]dτ , (4.14)
−∞

secondo cui la risposta y(t) del sistema al segnale di ingresso x(t) si può ottenere sovrapponendo nel
continuo, con gli stessi coefficienti α (τ ) dτ , le risposte S[x(t; τ )] del sistema ai segnali elementari
x(t; τ ), per τ ∈ R. Così come il principio di sovrapposizione (3.23) per una infinità numerabile di
segnali, anche la (4.14) non discende direttamente dalla prop. 3.3 e richiede delle condizioni matema-
tiche aggiuntive per la sua validità. Nel seguito, senza perderci in complicate discussioni matematiche,
assumeremo direttamente la (4.14) come definizione di principio di sovrapposizione per una infinità
continua di segnali.
4.2 Relazione i-u di un sistema LTI e risposta impulsiva 133

 Esempio 4.2 (risposta impulsiva di un integratore con memoria finita) Si consideri l’integratore con me-
moria finita (cfr. es. 4.2), avente relazione i-u:
 t
y(t) = x(u) du , (4.15)
t−T

con T > 0. Si può facilmente verificare che tale sistema è sia lineare, sia invariante temporalmente, per cui è
un sistema LTI. In maniera equivalente, si può mostrare che la (4.15) si può scrivere come una convoluzione:
infatti, notiamo preliminarmente che, con il cambio di variabile τ = t − u → u = t − τ , la (4.15) si può scrivere
come:
 T
y(t) = x(t − τ ) dτ .
0

Successivamente, possiamo far comparire l’integrale tra −∞ e +∞ tipico della convoluzione a patto di mol-
tiplicare la funzione integranda per una finestra rettangolare che assume il valore 1 nell’intervallo (0, T ), e
cioè:
 +∞

τ − 0.5T
y(t) = rect x(t − τ ) dτ ,
−∞ T

da cui, per confronto con la (4.12), si conclude che la risposta impulsiva del sistema è:

t − 0.5T
h(t) = rect .
T

Come nell’es. 4.1, anche tale risposta impulsiva è di durata finita, pari a T e coincidente con la memoria del
sistema. 

Negli es. 4.1 e 4.2, abbiamo implicitamente mostrato una strada alternativa per dimostrare che un
determinato sistema è LTI: se infatti siamo in grado di provare che la relazione i-u del sistema si
può esprimere nella forma (4.7) oppure (4.12), allora il sistema è necessariamente LTI, ed inoltre è
automaticamente determinata la sua risposta impulsiva h(·). In altri termini, in maniera più formale, si
può provare che condizione necessaria e sufficiente affinché un sistema sia LTI è che la sua relazione
i-u sia una convoluzione:

Proprietà 4.1 (relazione i-u e risposta impulsiva di un sistema LTI)


(a) Dato un sistema TC S con ingresso x(t) ed uscita y(t), esso è un sistema LTI se e solo se è
descritto da una relazione i-u di convoluzione:
 +∞  +∞
y(t) = x(τ ) h(t − τ ) dτ = h(τ ) x(t − τ ) dτ , (4.16)
−∞ −∞

dove h(t) = S[δ (t)] è la risposta impulsiva del sistema.


(b) Dato un sistema TD S con ingresso x(n) ed uscita y(n), esso è un sistema LTI se e solo se è
descritto da una relazione i-u di convoluzione:
+∞ +∞
y(n) = ∑ x(k) h(n − k) = ∑ h(k) x(n − k) , (4.17)
k=−∞ k=−∞

dove h(n) = S[δ (n)] è la risposta impulsiva del sistema.


134 Sistemi lineari tempo-invarianti (LTI)

4.3 Convoluzione
Come abbiamo visto nel paragrafo precedente, la relazione i-u di un sistema LTI può sempre essere
espressa in termini di convoluzione, descritta dalla (4.7) nel caso TD, oppure dalla (4.12) nel caso
TC. La difficoltà maggiore è che, fatta eccezione per casi particolari, la convoluzione tra due segnali è
un’operazione più complessa da interpretare (e da calcolare) rispetto alle operazioni elementari viste
ad esempio nel § 2.1. Cerchiamo allora di interpretare il meccanismo che sta alla base della convo-
luzione, partendo dal caso TD per semplicità. Nel caso TD, la convoluzione si scrive esplicitamente
come:
+∞ +∞
y(n) = ∑ x(k) h(n − k) = ∑ h(k) x(n − k) . (4.18)
k=−∞ k=−∞

Le due espressioni riportate nella (4.18) sono del tutto equivalenti, e quindi l’ordine dei segnali è
ininfluente nel calcolo della convoluzione (proprietà commutativa della convoluzione, vedi anche il
§ 4.3.1 seguente). Prendendo come riferimento la seconda delle (4.18), le operazioni da effettuare sui
segnali x(n) e h(n) per calcolare la convoluzione sono schematicamente indicate di seguito:

Algoritmo per il calcolo della convoluzione a TD:

(1) Rappresentare h(k) e x(k) in funzione di k ∈ Z.


(2) Effettuare prima la riflessione del segnale x(k), costruendo il segnale z(k) = x(−k) e, suc-
cessivamente, effettuare la traslazione del segnale z(k) verso destra se n > 0, e verso sinistra
se n < 0, ottenendo così il segnale wn (k) = z(k − n) = x[−(k − n)] = x(n − k).
(3) Per ogni fissato valore di n ∈ Z, il valore della convoluzione y(n) all’istante n si ottiene
moltiplicando i campioni corrispondenti dei due segnali h(k) e wn (k) per tutti i valori di
k ∈ Z, e sommando i risultati dei prodotti ottenuti.

Ovviamente, per la proprietà commutativa della convoluzione, è possibile scambiare nei passi (1)–(3)
i ruoli di h(k) e x(k) senza modificare il risultato finale. Per capire meglio il meccanismo precedente-
mente descritto, consideriamo il seguente esempio.
 Esempio 4.3 (calcolo della convoluzione a TD) Consideriamo un sistema TD avente risposta impulsiva

h(n) = an u(n) ,

con a = 0, e calcoliamo la sua uscita quando esso è sollecitato in ingresso da un gradino x(n) = u(n). Seguendo
la procedura delineata precedentemente, rappresentiamo h(k) in funzione di k [fig. 4.3(a)], insieme con x(k)
[fig. 4.3(b)] ed il segnale riflesso z(k) = x(−k) [fig. 4.3(c)]. Se non effettuiamo nessuna traslazione su z(k),
possiamo ottenere direttamente il risultato della convoluzione per n = 0, effettuando i prodotti dei campioni
corrispondenti di h(k) e z(k) e sommando i risultati; in particolare, si vede che solo i campioni di x(k) e z(k)
per k = 0 danno contributo in questo caso, ed il risultato vale:
+∞
y(0) = ∑ h(k) z(k) = h(0) z(0) = 1 .
k=−∞

Per calcolare gli altri valori della convoluzione, dobbiamo costruire il segnale wn (k) = z(k − n), che si ottiene
da z(k) mediante traslazione di n campioni. In particolare, si vede che per n < 0 [traslazione verso sinistra, si
veda la fig. 4.3(d)], il segnale wn (k) non si sovrappone con h(k), per cui il risultato della convoluzione è nullo.
Viceversa, se n > 0 [traslazione verso destra, si veda la fig. 4.3(e)], si nota che si ha sovrapposizione tra h(k) e
4.3 Convoluzione 135

wn (k) su un numero finito di campioni, più precisamente, tale numero di campioni è pari ad n+1. In particolare,
è semplice considerare i casi per n = 1, 2, 3 e poi generalizzare il risultato ottenuto al caso di n qualsiasi. Si ha:
+∞
y(1) = ∑ h(k) w1 (k) = 1 + a ;
k=−∞
+∞
y(2) = ∑ h(k) w2 (k) = 1 + a + a2 ;
k=−∞
+∞
y(3) = ∑ h(k) w3 (k) = 1 + a + a2 + a3 .
k=−∞

Per un generico valore n > 0, h(k) e wn (k) si sovrappongono per k ∈ {0, 1, . . . , n}, per cui:
+∞ n
1 − an+1
y(n) = ∑ h(k) wn (k) = 1 + a + a2 + a3 + . . . + an = ∑ ak = 1−a
,
k=−∞ k=0

dove per ottenere l’ultima espressione si è utilizzata la formula seguente, valida per ogni a ∈ C e per N2 ≥ N1 :
N2
aN1 − aN2 +1
∑ ak =
1−a
.
k=N1

In definitiva, il calcolo della convoluzione tra h(n) = an u(n) e x(n) = u(n) restituisce il seguente segnale:

0 , se n < 0 ;
y(n) = 1 − an+1
 , altrimenti .
1−a
Esso può essere espresso evidentemente come

1 − an+1
y(n) = u(n) ,
1−a
ed è rappresentato graficamente in fig. 4.3(f) nel caso in cui 0 < a < 1. Si noti che, se |a| < 1, per n → +∞ si
ha:
+∞
1
lim y(n) =
n→+∞
∑ ak = 1 − a ,
k=0

dove si è utilizzato il noto risultato sulla convergenza della serie geometrica. 

L’esempio precedente evidenzia che l’interpretazione grafica è fondamentale per individuare corretta-
mente gli estremi effettivi della sommatoria su k ∈ Z che compare nella (4.7). In particolare, l’esempio
mostra chiaramente che, sebbene la somma in (4.7) vada effettuata in principio su infiniti valori di k,
in pratica essa può ridursi ad una somma finita di valori per ogni n. Ovviamente esistono casi in cui
il numero di termini della somma è infinito, per alcuni valori di n, oppure anche per tutti i valori di n;
in tal caso il calcolo della convoluzione richiede la determinazione della somma di una serie, che in
generale potrebbe non convergere. Le condizioni per l’esistenza e la convergenza della convoluzione
tra due segnali TD sono discusse in app. C.
Nel caso TC la convoluzione è definita mediante uno dei due integrali:
 +∞  +∞
y(t) = x(τ ) h(t − τ ) dτ = h(τ ) x(t − τ ) dτ . (4.19)
−∞ −∞

Anche in questo caso, per effettuare correttamente il calcolo della convoluzione, un comodo aiuto è
fornito dalla rappresentazione grafica dei segnali coinvolti. Facendo riferimento per convenienza alla
seconda delle (4.19), la sequenza di operazioni che bisogna effettuare sui segnali è analoga a quella
per il caso TD, vale a dire:
136 Sistemi lineari tempo-invarianti (LTI)

1 1

0.8 0.8

0.6 0.6
h(k)

x(k)
0.4 0.4

0.2 0.2

0 0

−10 −5 0 5 10 −10 −5 0 5 10
k k

(a) (b)

1 1

0.8 0.8
w−5(k)=x(−5−k)
z(k)=x(−k)

0.6 0.6

0.4 0.4

0.2 0.2

0 0

−10 −5 0 5 10 −10 −5 0 5 10
k k

(c) (d)

1 6

5
0.8
y(n) = h(n) ∗ x(n)
w5(k)=x(5−k)

4
0.6
3
0.4
2
0.2
1

0 0
−10 −5 0 5 10 −10 −5 0 5 10
k n
(e) (f)
Fig. 4.3. Calcolo della convoluzione tra h(n) = an u(n) (a = 0.8333) e x(n) = u(n) (es. 4.4): (a) rappresentazione
di h(k); (b) rappresentazione di x(k); (c) riflessione del segnale x(k); (d) traslazione verso sinistra di z(k)
(n = −5); (e) traslazione verso destra di z(k) (n = 5); (f) risultato della convoluzione.
4.3 Convoluzione 137

Algoritmo per il calcolo della convoluzione a TC:

(1) Rappresentare h(τ ) e x(τ ) in funzione di τ ∈ R.


(2) Effettuare prima la riflessione del segnale x(τ ), costruendo il segnale z(τ ) = x(−τ ) e, suc-
cessivamente, effettuare la traslazione del segnale z(τ ) verso destra se t > 0, e verso sinistra
se t < 0, ottenendo così il segnale wt (τ ) = z(τ − t) = x[−(τ − t)] = x(t − τ ).
(3) Per ogni fissato valore di t ∈ R, il valore della convoluzione y(t) all’istante t si ottiene mol-
tiplicando tra loro i segnali h(τ ) e wt (τ ) per tutti i valori di τ ∈ R, ed effettuando l’integrale
del prodotto.

L’esempio che segue chiarisce meglio i passi da seguire per il calcolo della convoluzione a TC.
 Esempio 4.4 (calcolo della convoluzione tra due finestre rettangolari a TC) Consideriamo il segnale:

t − 0.5T1
x(t) = rect ,
T1
di durata ∆x = T1 , posto in ingresso al sistema LTI (cfr. es. 4.2) avente risposta impulsiva

t − 0.5T2
h(t) = rect ,
T2
di durata ∆h = T2 . Facciamo per comodità riferimento alla seconda delle (4.19), ed assumiamo T2 > T1 . Per
prima cosa, rappresentiamo x(τ ) [fig. 4.4(a)] e h(τ ) [fig. 4.4(b)] in funzione di τ ∈ R; successivamente, effet-
tuiamo la riflessione del segnale x(τ ) in modo da ottenere il segnale z(τ ) = x(−τ ) [fig. 4.4(c)]. Osserviamo poi
che il prodotto tra h(τ ) e z(τ ) ha area nulla, in quanto le due finestre rettangolari si sovrappongono solo su un
punto, per cui
 +∞
y(0) = h(τ ) z(τ ) dτ = 0 .
−∞

Traslando il segnale z(τ ) verso sinistra [fig. 4.4(d)], ovvero costruendo il segnale wt (τ ) = z(τ − t) = x(t − τ )
per t < 0, le finestre non si sovrappongono affatto, per cui risulta y(t) ≡ 0 per t ≤ 0. Considerando invece valori
positivi di t, notiamo che per t > 0 le due finestre h(τ ) e wt (τ ) iniziano a sovrapporsi [fig. 4.4(e)]: in particolare,
per 0 < t < T1 le due finestre h(τ ) e wt (τ ) si sovrappongono sull’intervallo (0,t), per cui si ha:
 t
y(t) = dτ = t , 0 < t < T1 .
0

Per T1 ≤ t < T2 , invece, le due finestre h(τ ) e wt (τ ) si sovrappongono sull’intervallo (t − T1 ,t), per cui si ha:
 t
y(t) = dτ = T1 , T1 ≤ t < T2 .
t−T1

Per T2 ≤ t < T2 + T1 , le due finestre h(τ ) e wt (τ ) si sovrappongono sull’intervallo (t − T1 , T2 ), per cui si ha:
 T2
y(t) = dτ = T2 + T1 − t, T2 ≤ t < T2 + T1 .
t−T1

Infine, per t ≥ T2 + T1 , le due finestre h(τ ) e wt (τ ) non si sovrappongono affatto, per cui si ha nuovamente
y(t) ≡ 0. Riassumendo, l’espressione del segnale y(t) è la seguente:


 0, t ≤ 0 oppure t ≥ T2 + T1 ;

t, per 0 < t < T1 ;
y(t) = (4.20)

 T , per T1 ≤ t < T2 ;


1
T2 + T1 − t, per T2 ≤ t < T2 + T1 .
138 Sistemi lineari tempo-invarianti (LTI)

Il segnale y(t) è una finestra trapezoidale di durata rigorosamente limitata ∆y = T1 + T2 = ∆x + ∆h , ed è rap-


presentato graficamente in fig. 4.4(f). Si noti che se T1 > T2 si può procedere allo stesso modo, scambiando
il ruolo dei due segnali, data la proprietà commutativa della convoluzione: l’espressione del segnale y(t) per
T1 > T2 si può ottenere allora scambiando T1 con T2 nella (4.20). Nel caso particolare T1 = T2 = T , notiamo che
l’intervallo di tempo (T1 , T2 ) in cui il segnale y(t) è costante si riduce ad un punto, per cui si ottiene una finestra
triangolare (traslata) di durata ∆y = 2T :


0, t < 0 oppure t ≥ 2T ;
y(t) = t, per 0 < t < T ;


2T − t, per T ≤ t < 2T ;
tale finestra si può esprimere in funzione della finestra triangolare elementare come

t −T
y(t) = T Λ ,
T
ed è rappresentata in fig. 4.5. 

Quest’ultimo esempio mostra una proprietà generale della convoluzione tra segnali TC aventi dura-
ta rigorosamente limitata; in particolare, se uno dei segnali ha durata ∆1 e l’altro ha durata ∆2 , la
convoluzione dei due sarà di durata pari (al più) a ∆1 + ∆2 . Tale proprietà può essere estesa con qual-
che modifica anche al caso di segnali TD, e prende il nome di proprietà di durata della convoluzione
(cfr. § 4.3.1). In conclusione, notiamo che, similmente alla somma di convoluzione, l’integrale di con-
voluzione può non esistere finito. Le condizioni per l’esistenza e la convergenza della convoluzione
tra due segnali TC sono discusse in app. C.

4.3.1 Proprietà della convoluzione


La principale differenza tra la convoluzione a TD (4.7) e quella a TC (4.12) è che la prima è definita
mediante una sommatoria, mentre la seconda è definita mediante un integrale; tuttavia gli esempi
del paragrafo precedente mostrano che le operazioni da effettuare sui segnali (riflessione, traslazione,
prodotto, calcolo dell’area) sono molto simili nei due casi. Per questo motivo, nello studio delle
proprietà della convoluzione, è conveniente (per quanto possibile) seguire una trattazione unificata per
i casi TD e TC. A tale scopo, si introduce il simbolo ∗ per denotare indifferentemente la convoluzione
nel caso TC e TD; pertanto, nel seguito, la convoluzione tra i segnali x(·) ed h(·) sarà indicata come
y(·) = x(·) ∗ h(·) .
Il simbolo utilizzato ricorda il prodotto: tale scelta non è casuale, in quanto si può verificare che la
convoluzione possiede, oltre a proprietà specifiche, tutte le proprietà algebriche del prodotto conven-
zionale, come discusso di seguito. Per questo motivo, la convoluzione viene chiamata anche prodotto
di convoluzione.

Proprietà commutativa

Abbiamo già osservato che la convoluzione tra due segnali gode della proprietà commutativa:
x(·) ∗ h(·) = h(·) ∗ x(·) .
Come mostrato in fig. 4.6, l’interpretazione di questa proprietà con riferimento ai sistemi LTI è che nel
calcolo dell’uscita di un sistema si può scambiare il segnale di ingresso con la risposta impulsiva, cioè
i due schemi in fig. 4.6 sono equivalenti, nel senso che ya (·) ≡ yb (·). In altri termini, un sistema LTI
con risposta impulsiva h(·) sollecitato dall’ingresso x(·) presenta la stessa uscita di un sistema LTI
con risposta impulsiva x(·) sollecitato dall’ingresso h(·). Ovviamente questo scambio, se è possibile
dal punto di vista matematico, non ha nessun senso dal punto di vista sistemistico.
4.3 Convoluzione 139

1 1

h(τ)
x(τ)

0 T 0 T
1 2
τ τ
(a) (b)

wt(τ)=x(t−τ)
z(τ)=x(−τ)

−T 0 t−T t 0
1 1

τ τ

(c) (d)

T1
y(t) = h(t) ∗ x(t)
wt(τ)=x(t−τ)

0 T T2 T1+T2
t−T 1
1 0 t
τ t

(e) (f)

Fig. 4.4. Calcolo della convoluzione tra due finestre rettangolari TC x(t) e h(t) di durata T1 e T2 (es. 4.4): (a)
rappresentazione di x(τ ); (b) rappresentazione di h(τ ); (c) riflessione del segnale x(τ ); (d) traslazione verso
sinistra di z(τ ) (t < 0); (e) traslazione verso destra di z(τ ) (t > 0); (f) risultato y(t) della convoluzione.
140 Sistemi lineari tempo-invarianti (LTI)

T x(.) y a(.)
h(.)
y(t) = h(t) ∗ x(t)

(a)

h(.) x(.) y b(.)

0 T 2T
t (b)

Fig. 4.5. Risultato della convoluzione tra due finestre Fig. 4.6. In virtù della proprietà commutativa del-
rettangolari TC di uguale durata T . Il
 segnale y(t) si la convoluzione, i due sistemi LTI in figura sono
può esprimere come y(t) = T Λ t−T T . equivalenti.

Proprietà associativa

Con semplici passaggi si dimostra che la convoluzione gode anche della proprietà associativa:

x(·) ∗ [h1 (·) ∗ h2 (·)] = [x(·) ∗ h1 (·)] ∗ h2 (·) .

Va osservato che la proprietà associativa vale nell’ipotesi che abbiano senso tutte le convoluzioni in
gioco. In tale ipotesi, la proprietà associativa ci consente di evidenziare alcune interessanti proprie-
tà dei sistemi LTI. A tal fine, osserviamo innanzitutto che, come mostrato in fig. 4.7(a), l’espres-
sione ya (·) = x(·) ∗ [h1 (·) ∗ h2 (·)] si può interpretare come l’uscita di un unico sistema LTI aven-
te risposta impulsiva h1 (·) ∗ h2 (·). Inoltre, come evidenziato in fig. 4.7(b), notiamo che calcolare
l’espressione yb (·) = [x(·) ∗ h1 (·)] ∗ h2 (·) seguendo l’ordine indicato dalle parentesi equivale a cal-
colare prima l’uscita del sistema avente risposta impulsiva h1 (·), e successivamente considerare il
risultato ottenuto come l’ingresso del sistema avente risposta impulsiva h2 (·) per calcolare yb (·): in
altri termini, yb (·) si può interpretare come l’uscita della serie o cascata dei due sistemi aventi ri-
sposte impulsive h1 (·) e h2 (·). In base a queste due interpretazioni, la proprietà associativa della
convoluzione consente di affermare che la serie di due sistemi LTI equivale ad un unico sistema
LTI avente risposta impulsiva hser (·) = h1 (·) ∗ h2 (·), cioè i due schemi in fig. 4.7(a) e fig. 4.7(b)
sono equivalenti, nel senso che ya (·) ≡ yb (·). Per la proprietà commutativa, notiamo anche che
hser (·) = h1 (·) ∗ h2 (·) = h2 (·) ∗ h1 (·), per cui il sistema LTI in fig. 4.7(a) è equivalente al sistema
LTI riportato in fig. 4.7(c), cioè ya (·) ≡ yc (·). A sua volta, per la proprietà associativa, il sistema LTI
in fig. 4.7(c) è equivalente allo schema serie riportato in fig. 4.7(d), ossia yc (·) ≡ yd (·). Conseguente-
mente, i due schemi riportati in fig. 4.7(b) e fig. 4.7(d) sono equivalenti, nel senso che yb (·) ≡ yd (·).
In altre parole, il comportamento della serie di due sistemi LTI è indipendente dall’ordine di connes-
sione: questa è una caratteristica molto importante dei sistemi LTI, in generale non posseduta da altre
categorie di sistemi (tale proprietà si può generalizzare alla serie di più di due sistemi LTI).

Proprietà distributiva

È semplice provare che la convoluzione gode della proprietà distributiva rispetto alla somma:

x(·) ∗ [h1 (·) + h2 (·)] = x(·) ∗ h1 (·) + x(·) ∗ h2 (·) .


4.3 Convoluzione 141

y 1(.)
x(.) h1(.)∗h2(.) y a(.) h1(.)

(a)
x(.) y a(.)

h2(.)
x(.) h1(.) h2(.) y b(.) y 2(.)

(b) (a)

x(.) h2(.)∗h1(.) y c (.) x(.) h1(.)+h 2(.) y b(.)

(c) (b)

x(.) h2(.) h1(.) y d(.) Fig. 4.8. In virtù della proprietà distributiva della
convoluzione, i due schemi in figura sono equivalenti.
(d)

Fig. 4.7. In virtù della proprietà commutativa e asso-


ciativa della convoluzione, i quattro schemi in figura
sono equivalenti.

Anche qui per la validità della relazione devono avere senso tutte le convoluzioni in gioco. Simil-
mente alla proprietà associativa, anche la proprietà distributiva consente di evidenziare una interes-
sante proprietà dei sistemi LTI. A tale scopo, come mostrato in fig. 4.8(a), notiamo che l’espressione
ya (·) = x(·)∗h1 (·)+x(·)∗h2 (·) rappresenta l’uscita del parallelo dei due sistemi aventi risposte impul-
sive h1 (·) e h2 (·). D’altra parte, come mostrato in fig. 4.8(b), l’espressione yb (·) = x(·) ∗ [h1 (·) + h2 (·)]
si può interpretare come l’uscita di un unico sistema LTI avente risposta impulsiva h1 (·) + h2 (·). In
base a queste due interpretazioni, la proprietà distributiva della convoluzione consente di afferma-
re che il parallelo2 di due sistemi LTI equivale ad un unico sistema LTI avente risposta impulsiva
hpar (·) = h1 (·) + h2 (·), cioè i due schemi in fig. 4.8(a) e fig. 4.8(b) sono equivalenti, nel senso che
ya (·) ≡ yb (·).

Proprietà di esistenza dell’unità

Si può facilmente provare, utilizzando la definizione di convoluzione e la proprietà di campionamento


della δ (·), valida formalmente sia nel caso TC sia in quello TD, che effettuare la convoluzione di un
segnale x(·) con δ (·) non ha nessun effetto sul segnale: in altri termini, vale la relazione:

x(·) = δ (·) ∗ x(·) = x(·) ∗ δ (·) , (4.21)


2 Con riferimento alle interconnessioni elementari tra sistemi introdotte nel capitolo precedente, resta non esplorata per il

momento la connessione in retroazione tra sistemi LTI; in effetti, tale connessione non può essere studiata elementarmente
nel dominio del tempo, mentre vedremo che lo studio è assai più agevole ragionando nel dominio della frequenza.
142 Sistemi lineari tempo-invarianti (LTI)

x(n-n2)
x(.) δ(.) x(.) x(n) z - n2 h(n-n1) y a(n)

(a)

y(n) -(n1+n2)
Fig. 4.9. In un sistema identico, il segna- x(n) h(n) z y b(n)
le di uscita coincide con il segnale di in-
gresso: si tratta di un sistema LTI avente
(b)
risposta impulsiva h(·) = δ (·).

Fig. 4.10. In virtù della proprietà di invarianza temporale (4.25)


della convoluzione, i due schemi in figura sono equivalenti.

dove l’uguaglianza tra le due espressioni deriva ovviamente dalla proprietà commutativa della convo-
luzione. Dal punto di vista matematico, abbiamo già osservato che la convoluzione possiede proprietà
formali analoghe a quelle del prodotto algebrico: per questo motivo, la (4.21) ammette l’interpretazio-
ne secondo la quale la δ (·) è l’elemento unitario per la convoluzione, ovvero gioca un ruolo analogo
a quello dell’unità nel prodotto (moltiplicare un numero per 1 non altera il numero stesso).3 Dal pun-
to di vista dell’interpretazione sistemistica, notiamo che la (4.21) rappresenta la relazione i-u di un
sistema LTI per il quale l’uscita è sempre coincidente con l’ingresso. Tale sistema prende il nome di
sistema identico, e per la (4.21) è caratterizzato dalla risposta impulsiva h(·) = δ (·) (fig. 4.9).

Proprietà di invarianza temporale

Ricordiamo la formulazione i-u della proprietà di invarianza temporale (prop. 3.2), secondo la quale,
per sistemi a TC e a TD, per ogni x(·) ∈ I e y(·) ∈ U, si ha, rispettivamente,

x(t − t0 ) −→ y(t − t0 ) , ∀t0 ∈ R ,


x(n − n0 ) −→ y(n − n0 ) , ∀n0 ∈ Z .

Nel caso di un sistema LTI, esprimendo la relazione i-u del sistema mediante una convoluzione, le
relazioni precedenti si scrivono esplicitamente come

x(t − t0 ) ∗ h(t) = y(t − t0 ) , ∀t0 ∈ R , (4.22)


x(n − n0 ) ∗ h(n) = y(n − n0 ) , ∀n0 ∈ Z , (4.23)

che vanno sotto il nome di proprietà di invarianza temporale della convoluzione. Le (4.22) e (4.23)
dovrebbero indurre il lettore a prestare molta attenzione al significato formale della notazione sintetica
y(·) = x(·) ∗ h(·); infatti, se per calcolare y(t − t0 ), ad esempio, si procedesse con una semplice sosti-
tuzione formale t − t0 → t nell’espressione y(t) = x(t) ∗ h(t), si giungerebbe, invece che alla (4.22), al
risultato scorretto y(t − t0 ) = x(t − t0 ) ∗ h(t − t0 ). Per giustificare invece la correttezza della (4.22) [un
discorso analogo vale per la (4.23)] è sufficiente partire dalla definizione di convoluzione a TC:
 +∞
y(t) = h(τ ) x(t − τ ) dτ ,
−∞
3 Si
noti inoltre che, esplicitando la convoluzione (4.21), è possibile riottenere la (4.4) nel caso TD e la (4.11) nel caso
TC, rispettivamente.
4.3 Convoluzione 143

ed effettuare in quest’ultima la sostituzione formale t − t0 → t, scrivendo


 +∞
y(t − t0 ) = h(τ ) x(t − t0 − τ ) dτ = h(t) ∗ x(t − t0 ) .
−∞

Notiamo che per la proprietà commutativa della convoluzione, si può anche scrivere:

h(t − t0 ) ∗ x(t) = y(t − t0 ) , ∀t0 ∈ R , (4.24)


h(n − n0 ) ∗ x(n) = y(n − n0 ) , ∀n0 ∈ Z , (4.25)

secondo le quali una traslazione di t0 o n0 del segnale di uscita si può ottenere equivalentemente tra-
slando della stessa quantità il segnale di ingresso oppure la risposta impulsiva. Le (4.22)–(4.25) pos-
sono essere applicate anche contemporaneamente, con ritardi diversi, ed in questo caso evidentemente
gli effetti delle traslazioni temporali si sommano:

h(t − t1 ) ∗ x(t − t2 ) = y[t − (t1 + t2 )] , ∀t1 ,t2 ∈ R , (4.26)


h(n − n1 ) ∗ x(n − n2 ) = y[n − (n1 + n2 )] , ∀n1 , n2 ∈ Z . (4.27)

Notiamo che le (4.26) e (4.27) rappresentano una forma più generale della proprietà di invarianza
temporale, in quanto includono come casi particolari le (4.22)–(4.25). Tali relazioni hanno una chiara
interpretazione sistemistica che è riportata in fig. 4.10 con riferimento al caso TD: l’uscita del sistema
LTI avente risposta impulsiva h(n − n1 ), quando al suo ingresso è posto il segnale x(n − n2 ), si può
ottenere, equivalentemente, applicando prima il segnale x(n) in ingresso al sistema LTI avente risposta
impulsiva h(n) e, poi, traslando nel tempo il segnale ottenuto di n1 + n2 . In altre parole, i due schemi
in fig. 4.10(a) e fig. 4.10(b) sono equivalenti, nel senso che ya (·) ≡ yb (·).
 Esempio 4.5 (convoluzione tra due finestre rettangolari a TC, caso simmetrico) Nell’es. 4.4 abbiamo ri-
cavato (nel caso T1 = T2 = T ) la seguente relazione notevole, che lega finestre rettangolari e triangolari mediante
la convoluzione:


t − 0.5T t − 0.5T t −T
rect ∗ rect = TΛ .
T T T
Se si vuole ricavare la convoluzione tra due finestre rettangolari elementari (di durata unitaria) centrate nell’o-
rigine, basta prima particolarizzare la relazione precedente al caso T = 1:

rect(t − 0.5) ∗ rect(t − 0.5) = Λ(t − 1) ,

e successivamente applicare la proprietà di invarianza temporale nella forma generalizzata (4.26). Posto h(t) =
x(t) = rect(t − 0.5) si avrà evidentemente che rect(t) = h(t + 0.5) = x(t + 0.5), per cui per ottenere il risultato
corretto della convoluzione rect(t) ∗ rect(t) basterà applicare un anticipo di 0.5 + 0.5 = 1 a Λ(t − 1), il che
ovviamente restituisce Λ(t). Si ha allora, in definitiva, la seguente relazione notevole:

rect(t) ∗ rect(t) = Λ(t) , (4.28)

che troverà applicazione nel seguito. 

Proprietà di convoluzione con l’impulso

Applicando le proprietà (4.22)–(4.25) alla (4.21), possiamo ottenere una interessante generalizzazione
della proprietà di esistenza dell’unità:

x(t − t0 ) = x(t) ∗ δ (t − t0 ) = δ (t − t0 ) ∗ x(t) , ∀t0 ∈ R , (4.29)


x(n − n0 ) = x(n) ∗ δ (n − n0 ) = δ (n − n0 ) ∗ x(n) , ∀n0 ∈ Z . (4.30)
144 Sistemi lineari tempo-invarianti (LTI)

Queste relazioni mostrano che la convoluzione di un segnale con un impulso centrato in t0 oppure
n0 equivale ad una traslazione temporale della stessa quantità del segnale. Questo risultato conferma
che, nel caso TC, il sistema y(t) = x(t − t0 ), che effettua la traslazione temporale di un segnale, è un
sistema LTI avente risposta impulsiva h(t) = δ (t − t0 ); una interpretazione equivalente vale nel caso
TD, dove la risposta impulsiva di un sistema che effettua la traslazione temporale è h(n) = δ (n − n0 ).

Proprietà di durata della convoluzione

Con riferimento alle due finestre rettangolari, dall’es. 4.4 si ricava che la convoluzione di due segnali
TC di durata rigorosamente limitata è ancora un segnale di durata rigorosamente limitata. Questo
risultato è valido in generale. Infatti, supponiamo che il segnale x(t) abbia estensione temporale
limitata Dx = (t1 ,t2 ), con t2 > t1 ; la misura dell’intervallo Dx definisce la durata del segnale x(t),
che in questo caso è data da ∆x = t2 − t1 . Similmente, supponiamo che anche la risposta impulsiva
del sistema abbia estensione temporale limitata Dh = (t3 ,t4 ), con t4 > t3 ; la misura dell’intervallo Dh
definisce la durata della risposta impulsiva h(t), che in questo caso è data da ∆h = t4 − t3 .
Con riferimento all’algoritmo di calcolo della convoluzione a TC, a seguito della riflessione, l’e-
stensione temporale del segnale z(τ ) = x(−τ ) sarà data dall’intervallo Dz = (−t2 , −t1 ) e, come con-
seguenza della traslazione temporale di t, l’estensione temporale del segnale wt (τ ) = z(τ − t) sarà
Dwt = (t − t2 ,t − t1 ). Questo significa che il prodotto h(τ ) wt (τ ) sarà identicamente nullo per ogni
τ ∈ R non appartenente all’intersezione Dh ∩ Dwt dei due intervalli Dh ed Dwt . Pertanto, l’integrale di
convoluzione tra x(t) e h(t) si riduce al seguente integrale:

y(t) = h(τ ) wt (τ )dτ ,
Dh ∩Dwt

in cui la variabile di integrazione τ varia nell’intervallo Dh ∩ Dwt . A questo punto il risultato di tale
integrale è nullo per tutti i valori di t ∈ R per i quali l’intersezione tra i due intervalli Dh ed Dwt è
vuota, cioè Dh ∩ Dwt = ∅. Ricordando che Dh = (t3 ,t4 ) e Dwt = (t −t2 ,t −t1 ), ciò accade sicuramente
in due casi: quando t − t1 < t3 , ovvero t < t1 + t3 , oppure quando t − t2 > t4 , ovvero t > t2 + t4 . In
definitiva, risulta che

y(t) ≡ 0, ∀t ∈ (t1 + t3 ,t2 + t4 ) , (4.31)

per cui Dy ⊆ (t1 + t3 ,t2 + t4 ), e quindi y(t) ha durata rigorosamente limitata. Inoltre, la sua durata è
pari alla misura di Dy , per la quale vale la disuguaglianza

∆y ≤ (t2 + t4 ) − (t1 + t3 ) = (t2 − t1 ) + (t4 − t3 ) = ∆x + ∆h .

In altre parole, se i due segnali x(t) e h(t) hanno estensioni temporali limitate, ovvero durate finite
∆x ∈ R+ e ∆h ∈ R+ , rispettivamente, allora la loro convoluzione y(t) è ancora un segnale avente
estensione limitata, la cui durata ∆y è al più4 pari alla somma delle durate dei due segnali sottoposti
alla convoluzione, cioè ∆y ≤ ∆x +∆h . È interessante osservare dalla (4.31) che, se il segnale di ingresso
x(t) e la risposta impulsiva del sistema h(t) si annullano identicamente per t < 0, ossia, t1 = t3 = 0,
allora anche il segnale di uscita è identicamente nullo per t < 0. Si osservi inoltre che la (4.31) è valida
anche quando il segnale di ingresso (o la risposta impulsiva) ha estensione non limitata. Ad esempio,
se l’estensione del segnale di ingresso è non limitata superiormente, cioè, t2 = +∞, dalla (4.31) segue
che l’estensione del segnale di uscita risulterà anch’essa non limitata superiormente.

segnale y(t) potrebbe annullarsi identicamente anche in un sottoinsieme dell’intervallo (t1 + t3 ,t2 + t4 ) (si noti che
4 Il

questo non è il caso dell’es. 4.4); per cui, possiamo dire in generale che ∆x + ∆h è la massima durata del segnale y(t).
4.3 Convoluzione 145

Si può dimostrare che una proprietà analoga vale per il caso TD: se i due segnali x(n) e h(n)
hanno estensioni temporali limitate, ovvero durate finite ∆x ∈ N e ∆h ∈ N, rispettivamente, allora la
loro convoluzione y(n) è ancora un segnale avente estensione limitata, la cui durata ∆y è al più pari
a ∆x + ∆h − 1, cioè ∆y ≤ ∆x + ∆h − 1 (si noti la piccola differenza tra il caso TC ed il caso TD, legata
alla sottrazione di 1). Questa proprietà è meglio evidenziata dal seguente esempio.
 Esempio 4.6 (calcolo della convoluzione tra due finestre rettangolari a TD) Consideriamo il segnale

x(n) = RN1 (n) ,

di durata ∆x = N1 , in ingresso al sistema di risposta impulsiva

h(n) = RN2 (n) ,

avente durata ∆h = N2 , ed assumiamo che N2 ≥ N1 . Per prima cosa, rappresentiamo x(k) [fig. 4.11(a)] e h(k)
[fig. 4.11(b)] in funzione di k ∈ Z; successivamente, effettuiamo la riflessione del segnale x(k) in modo da
ottenere il segnale z(k) = x(−k) [fig. 4.11(c)]. Se non effettuiamo nessuna traslazione su z(k), possiamo ottenere
direttamente il risultato della convoluzione per n = 0, effettuando i prodotti dei campioni corrispondenti di h(k)
e z(k) e sommando i risultati; in particolare, si vede che solo i campioni per k = 0 danno contributo in questo
caso, ed il risultato vale:
+∞
y(0) = ∑ h(k) z(k) = h(0) z(0) = 1 .
k=−∞

Per calcolare gli altri valori della convoluzione, dobbiamo costruire il segnale wn (k) = z(k − n), che si ottiene
da z(k) mediante traslazione di n campioni. In particolare, si vede che per n < 0 [traslazione verso sinistra,
si veda la fig. 4.11(d)], il segnale wn (k) non si sovrappone con h(k), per cui il risultato della convoluzione è
nullo. Viceversa, per taluni valori di n > 0 [traslazione verso destra, si veda la fig. 4.11(e)], si nota che si ha
sovrapposizione tra h(k) e wn (k) su un numero finito di campioni. In particolare, per 0 ≤ n < N1 − 1 le due
finestre h(k) e wn (k) si sovrappongono per k ∈ {0, 1, . . . , n}, per cui si ha:
n
y(n) = ∑ 1 = n+1, 0 ≤ n < N1 − 1 .
k=0

Per N1 − 1 ≤ n < N2 − 1, invece, le due finestre h(k) e wn (k) si sovrappongono per k ∈ {n − N1 + 1, n − N1 +


2, . . . , n} , per cui si ha:
n
y(n) = ∑ 1 = N1 , N1 − 1 ≤ n < N2 − 1 .
k=n−N1 +1

Per N2 − 1 ≤ n ≤ N2 + N1 − 2, le due finestre h(k) e wn (k) si sovrappongono per k ∈ {n − N1 + 1, n − N1 +


2, . . . , N2 − 1} per cui si ha:
N2 −1
y(n) = ∑ 1 = N2 + N1 − n − 1, N2 − 1 ≤ n ≤ N2 + N1 − 2 .
k=n−N1 +1

Infine, per n > N2 + N1 − 2, le due finestre h(k) e wn (k) non si sovrappongono, per cui si ha y(n) ≡ 0.
Riassumendo, l’espressione del segnale y(n) è la seguente:


0, n < 0 oppure n > N2 + N1 − 2 ;

n + 1, per 0 ≤ n < N1 − 1 ;
y(n) = (4.32)

N1 , per N1 − 1 ≤ n < N2 − 1 ;


N2 + N1 − n − 1, per N2 − 1 ≤ n ≤ N2 + N1 − 2 .
146 Sistemi lineari tempo-invarianti (LTI)

Il segnale y(n) è una finestra trapezoidale di durata ∆y = N1 + N2 − 1 = ∆x + ∆h − 1, ed è rappresentato grafica-


mente in fig. 4.11(f). Nel caso particolare N1 = N2 = N, notiamo che l’intervallo di valori in cui il segnale y(n)
è costante si riduce ad un punto, per cui si ottiene una finestra triangolare [fig. 4.12]:


0, n < 0 oppure n > 2N − 2 ;
y(n) = n + 1, per 0 ≤ n < N − 1 ;


2N − n − 1, per N − 1 ≤ n ≤ 2N − 2 ;

la cui durata è pari ad ∆y = 2N − 1. Tale finestra si può esprimere in funzione della finestra triangolare
elementare a TD o finestra di Bartlett (la verifica è lasciata al lettore) introducendo un anticipo di un campione:

y(n) = NB2N (n + 1) .

Si ha allora la seguente relazione notevole tra finestre elementari a TD (rettangolari e triangolari), controparte a
TD della (4.28):

RN (n) ∗ RN (n) = NB2N (n + 1) . (4.33)

Anche questa relazione, come la (4.28), troverà applicazione nel seguito. 


4.3 Convoluzione 147

1 1

0.8 0.8

0.6 0.6

h(k)
x(k)

0.4 0.4

0.2 0.2

0 0

−10 −5 0 5 10 −10 −5 0 5 10
k k

(a) (b)

1 1

0.8 0.8
w−2(k)=x(−2−k)
z(k)=x(−k)

0.6 0.6

0.4 0.4

0.2 0.2

0 0

−10 −5 0 5 10 −10 −5 0 5 10
k k

(c) (d)

1 4

0.8
3
y(n) = h(n) ∗ x(n)
w2(k)=x(2−k)

0.6
2
0.4
1
0.2

0 0

−10 −5 0 5 10 −10 −5 0 5 10
k n

(e) (f)

Fig. 4.11. Calcolo della convoluzione tra due finestre rettangolari TD di durata N1 = 4 ed N2 = 6 (es. 4.6): (a)
rappresentazione di h(k); (b) rappresentazione di x(k); (c) riflessione del segnale x(k); (d) traslazione verso
sinistra di z(k) (n = −2); (e) traslazione verso destra di z(k) (n = 2); (f) risultato della convoluzione.
148 Sistemi lineari tempo-invarianti (LTI)

Riepilogo delle proprietà della convoluzione

Per comodità del lettore, le proprietà della convoluzione precedentemente introdotte e discusse sono
sinteticamente riassunte di seguito:

Proprietà 4.2 (proprietà della convoluzione)


(a) Proprietà commutativa:

x(·) ∗ h(·) = h(·) ∗ x(·) .

(b) Proprietà associativa:

x(·) ∗ [h1 (·) ∗ h2 (·)] = [x(·) ∗ h1 (·)] ∗ h2 (·) .

(c) Proprietà distributiva:

x(·) ∗ [h1 (·) + h2 (·)] = x(·) ∗ h1 (·) + x(·) ∗ h2 (·) .

(d) Proprietà di esistenza dell’unità:

x(·) = x(·) ∗ δ (·) = δ (·) ∗ x(·) .

(e) Proprietà di invarianza temporale:



h(t − t1 ) ∗ x(t − t2 ) = y[t − (t1 + t2 )] , ∀t1 ∈ R, ∀t2 ∈ R ;
h(·) ∗ x(·) = y(·) =⇒
h(n − n1 ) ∗ x(n − n2 ) = y[n − (n1 + n2 )] , ∀n1 ∈ Z, ∀n2 ∈ Z .

(f) Proprietà di convoluzione con l’impulso:

x(t − t0 ) = x(t) ∗ δ (t − t0 ) = δ (t − t0 ) ∗ x(t) , ∀t0 ∈ R ;


x(n − n0 ) = x(n) ∗ δ (n − n0 ) = δ (n − n0 ) ∗ x(n) , ∀n0 ∈ Z .

(g) Proprietà di durata della convoluzione:


Siano x(t) e h(t) di durata rigorosamente limitata, con durate ∆x , ∆h ∈ R+ =⇒ y(t) = x(t) ∗
h(t) è di durata rigorosamente limitata, con durata ∆y ≤ ∆x + ∆h .
Siano x(n) e h(n) di durata rigorosamente limitata, con durate ∆x , ∆h ∈ N =⇒ y(n) = x(n) ∗
h(n) è di durata rigorosamente limitata, con durata ∆y ≤ ∆x + ∆h − 1.

4.4 Risposta al gradino


L’impulso di Dirac è un segnale ideale, non realizzabile in pratica, per cui è impossibile determinare
sperimentalmente la risposta impulsiva di un sistema TC, come suggerito dalla definizione, applican-
do un impulso al suo ingresso. D’altra parte, anche il gradino è un segnale ideale, in quanto presenta
una discontinuità brusca; tuttavia in laboratorio è più semplice da approssimare mediante un segnale
4.4 Risposta al gradino 149

y(n) = h(n) ∗ x(n)


2

−10 −5 0 5 10
n

Fig. 4.12. Risultato della convoluzione tra due fine-


stre rettangolari TD di durata N = 4. Il segnale y(n)
si può esprimere come y(n) = 4B8 (n + 1).

con un tempo di salita molto stretto, come ad esempio il segnale uε (t) di fig. 2.11(a). Questa conside-
razione spinge ad introdurre la risposta al gradino o risposta indiciale di un sistema LTI (TC oppure
TD), definita come l’uscita s(·) del sistema LTI corrispondente ad un gradino u(·) in ingresso. Nel
caso TD, in particolare, sfruttando la relazione i-u (4.7) di un sistema TD LTI, la risposta al gradino
si può scrivere esplicitamente come:
+∞ n
s(n) = h(n) ∗ u(n) = ∑ h(k) u(n − k) = ∑ h(k) , (4.34)
k=−∞ k=−∞

dove nell’ultimo passaggio abbiamo sfruttato il fatto che u(n − k) ≡ 0 per n − k < 0 e quindi per
n < k. Un’interpretazione alternativa della precedente relazione si basa sulla proprietà commutativa
della convoluzione, secondo la quale s(n) si può interpretare come l’uscita di un sistema accumulatore
(cfr. es. 3.2) avente risposta impulsiva u(n) sollecitato in ingresso da h(n). In altri termini, per ottenere
la risposta al gradino a partire dalla risposta impulsiva, è sufficiente far passare quest’ultima in un
sistema accumulatore. Notando che la (4.34) si può anche scrivere in forma ricorsiva come

s(n) = s(n − 1) + h(n) ,

allora si ha:

h(n) = s(n) − s(n − 1) = ∇1 [s(n)] , (4.35)

e quindi la risposta impulsiva si può ottenere effettuando la differenza prima della risposta al gradino.
In definitiva, le relazioni (4.34) e (4.35) mostrano che risposta impulsiva e risposta al gradino sono
legate da una relazione biunivoca: per questo motivo, non solo la risposta impulsiva, ma anche la
risposta al gradino caratterizza completamente un sistema LTI, ovvero è anch’essa una risposta cano-
nica. In particolare, la risposta al gradino consente di calcolare immediatamente la risposta rN (n) del
sistema ad una finestra rettangolare di durata N. Infatti, basta ricordare che una finestra rettangolare
si può esprimere mediante differenza di due gradini:

RN (n) = u(n) − u(n − N) ,


150 Sistemi lineari tempo-invarianti (LTI)

da cui sfruttando le proprietà di linearità e di invarianza temporale del sistema, si ottiene:



rN (n) = S[RN (n)] = s(n) − s(n − N) ,

ossia la risposta di un sistema LTI alla finestra rettangolare RN (n) si ottiene semplicemente calcolando
la differenza tra la risposta al gradino e la sua versione ritardata nel tempo di N.
Nel caso TC valgono considerazioni analoghe. Infatti la risposta al gradino s(t), utilizzando la
(4.12), si può scrivere esplicitamente come
 +∞  t
s(t) = h(t) ∗ u(t) = h(τ ) u(t − τ ) dτ = h(τ ) dτ , (4.36)
−∞ −∞

dove nell’ultimo passaggio abbiamo sfruttato il fatto che u(t − τ ) ≡ 0 per t − τ < 0 e quindi per t < τ .
Dalla (4.36), derivando ambo i membri ed applicando il teorema fondamentale del calcolo integrale,
si ottiene
d
h(t) = s(t) (4.37)
dt
Le (4.36) ed (4.37) legano biunivocamente risposta al gradino e risposta impulsiva nel caso TC, e
mostrano che anche nel caso TC la risposta al gradino è una risposta canonica, in quanto caratterizza
completamente il sistema. In particolare, mediante la risposta al gradino è semplice calcolare la
risposta rT (t) alla finestra rettangolare centrata nell’origine di durata T , in quanto quest’ultima si può
esprimere come
t 
rect = u(t + T /2) − u(t − T /2) .
T
Pertanto, adoperando le proprietà di linearità e di invarianza temporale del sistema, si ha

  t 
rT (t) = S rect = s(t + T /2) − s(t − T /2) .
T
Nel caso TC, la risposta alla finestra rettangolare consente di ricavare approssimativamente per via
sperimentale la risposta impulsiva di un sistema LTI. Infatti, come già detto in precedenza, il calcolo
sperimentale della risposta impulsiva richiede la realizzazione in laboratorio di un impulso di Dirac
da applicare in ingresso al sistema: l’impulso di Dirac è un segnale non riproducibile esattamente in
pratica, trattandosi di una pura astrazione matematica (cfr. § 2.1.4). Tuttavia, abbiamo visto [si veda la
(2.6) in particolare] che l’impulso di Dirac si può ottenere come il limite (nel senso delle distribuzioni)
per ε → 0 della successione di segnali (ordinari) δε (t), raffigurati in fig. 2.11(b), aventi area unitaria.
Ciò suggerisce che una buona approssimazione della risposta impulsiva di un sistema TC LTI si può
ottenere osservando la sua uscita hε (t) quando in ingresso è posto il segnale
1  t 
δε (t) = rect ,
2ε 2ε
con ε sufficientemente piccolo. Per la linearità del sistema, tale uscita è data da:
 1 1
hε (t) = S[δε (t)] = r2ε (t) = [s(t + ε ) − s(t − ε )] . (4.38)
2ε 2ε
Se ε è sufficientemente piccolo5 il segnale hε (t) rappresenta una buona approssimazione della risposta
impulsiva del sistema, cioè hε (t) ≈ h(t) (notiamo che per ε → 0 il secondo membro della (4.38) tende
5 Non esiste una regola generale per stabilire quanto ε
debba essere piccolo affinchè hε (t) sia una buona approssimazione
di h(t); un valore appropriato di ε dipende dalla struttura interna del sistema e, dunque, varia da sistema a sistema.
4.4 Risposta al gradino 151

alla derivata della risposta al gradino, che per la (4.37) è esattamente la risposta impulsiva, per cui
l’approssimazione vista corrisponde a confondere la derivata con il rapporto incrementale).
I legami tra risposta impulsiva e risposta al gradino nel caso TC e TD sono schematicamente
riassunti di seguito:

Proprietà 4.3 (legami tra risposta al gradino e risposta impulsiva)


(a) Nel caso TC, la risposta al gradino s(t) e la risposta impulsiva h(t) di un sistema LTI sono
legate dalla relazione biunivoca:
 t
d
s(t) = h(τ ) dτ ←→ h(t) = s(t) .
−∞ dt

(b) Nel caso TD, la risposta al gradino s(n) e la risposta impulsiva h(n) di un sistema LTI sono
legate dalla relazione biunivoca:
n
s(n) = ∑ h(k) ←→ h(n) = ∇1 [s(n)] = s(n) − s(n − 1) .
k=−∞

Di seguito sono riportati alcuni esempi di calcolo della risposta impulsiva e della risposta al gradino
sia nel caso di sistemi TC che nel caso di sistemi TD.
 Esempio 4.7 (risposta impulsiva e risposta al gradino di un integratore) Si consideri l’integratore aven-
te memoria infinita (cfr. es. 3.1), descritto dalla relazione i-u:
 t
y(t) = x(u) du . (4.39)
−∞

Abbiamo già mostrato che tale sistema è TI (cfr. es. 3.18) e si può facilmente verificare che tale sistema è anche
lineare, per cui l’integratore (4.39) è un sistema LTI. In maniera equivalente, si può mostrare che la (4.39) si
può scrivere come una convoluzione:
 t  +∞
y(t) = x(u) du = x(τ ) u(t − τ ) dτ , (4.40)
−∞ −∞

dove nell’ultimo passaggio abbiamo sfruttato il fatto che u(t − τ ) ≡ 0 per t − τ < 0 e quindi per τ > t.
Confrontando la (4.40) con la (4.12), si conclude che la risposta impulsiva del sistema è:

h(t) = u(t) ,

ossia la risposta impulsiva del sistema integratore è proprio il gradino unitario [fig. 4.13(a)]. Conseguentemente,
in virtù della (4.36), la risposta al gradino del sistema integratore è data dal seguente integrale:
 t
s(t) = u(τ ) dτ ,
−∞

il cui valore è (cfr. es. 3.24):

s(t) = t u(t) ,

si tratta cioè di una rampa, identicamente nulla per t < 0, che cresce linearmente per t > 0 [fig. 4.13(b)].
Utilizzando la (4.38), in fig. 4.13(c) è riportata la risposta hε (t) del sistema alla finestra rettangolare δε (t). Si
può notare che, per ε → 0, il segnale hε (t) tende proprio alla risposta impulsiva del sistema. In pratica, possiamo
dire che, se ε  1, il segnale in fig. 4.13(c) rappresenta una buona approssimazione della risposta impulsiva del
sistema. 
152 Sistemi lineari tempo-invarianti (LTI)

3
1

s(t)
h(t)

0
−1 0 1 2 3
t t
(a) (b)

1
h (t)
ε

0
−ε ε
−1 0 1 2 3
t
(c)

Fig. 4.13. Integratore con memoria infinita (es. 4.7):  (a)


 risposta impulsiva; (b) risposta al gradino; (c) la ri-
sposta hε (t) alla finestra rettangolare δε (t) = 21ε rect 2tε è una buona approssimazione della risposta impulsiva
per ε  1.

 Esempio 4.8 (risposta impulsiva e risposta dell’integratore TD o accumulatore) Si consideri l’integrato-


re TD o accumulatore (cfr. es. 3.2), avente relazione i-u:
n
y(n) = ∑ x(k) . (4.41)
k=−∞

Si può facilmente verificare che l’integratore TD è un sistema LTI. In maniera equivalente, si può mostrare che
la (4.41) si può scrivere come una convoluzione:
n +∞
y(n) = ∑ x(k) = ∑ x(k) u(n − k) , (4.42)
k=−∞ k=−∞

dove nell’ultimo passaggio abbiamo sfruttato il fatto che u(n − k) ≡ 0 per n − k < 0 ovvero per k > n. Confron-
tando la (4.42) con la (4.7), si conclude che la risposta impulsiva del sistema è:

h(n) = u(n) ,
4.4 Risposta al gradino 153

10

1
8

0.8
6
0.6
h(n)

s(n)
4
0.4

2
0.2

0 0

−4 −2 0 2 4 6 8 −4 −2 0 2 4 6 8
n n
(a) (b)

Fig. 4.14. Integratore a TD o accumulatore (es. 4.8): (a) risposta impulsiva; (b) risposta al gradino.

ossia la risposta impulsiva del sistema integratore TD è proprio il gradino unitario [fig. 4.14(a)]. Conseguente-
mente, in virtù della (4.34). la risposta al gradino del sistema integratore TD è data da:

n
0, se n < 0 ;
s(n) = ∑ u(k) =
k=−∞ n + 1 , se n ≥ 0 ;

che possiamo scrivere in maniera più compatta come segue:


s(n) = (n + 1) u(n) ,
si tratta cioè di una rampa a TD [fig. 4.14(b)]. 

 Esempio 4.9 (risposta al gradino di un integratore con memoria finita) Si consideri l’integratore con me-
moria finita (cfr. es. 4.2), avente relazione i-u:
 t
y(t) = x(u) du , (4.43)
t−T

la cui risposta impulsiva è una finestra rettangolare di durata T centrata in t = T /2, ossia:

t − 0.5T
h(t) = rect ,
T
che è riportata in fig. 4.15(a). In virtù della (4.36), la risposta al gradino di tale sistema è il risultato del seguente
integrale:
 t

τ − 0.5T
s(t) = rect dτ ,
−∞ T
in cui l’estremo superiore di integrazione t varia in R. Risolvendo l’integrale si ottiene:


0, se t < 0 ;

 t

 dτ = t ,
 se 0 ≤ t < T ;
s(t) = 0

 T



 dτ = T , se t ≥ T .
 0
154 Sistemi lineari tempo-invarianti (LTI)

1 T
h(t)

s(t)
T T
t t
(a) (b)

1
h (t)
ε

−ε ε T−ε T+ε
t
(c)

Fig. 4.15. Integratore con memoria finita (es. 4.9):


 (a) risposta impulsiva; (b) risposta al gradino; (c) la risposta
hε (t) alla finestra rettangolare δε (t) = 21ε rect 2tε è una buona approssimazione della risposta impulsiva per
ε  T.

che possiamo esprimere in maniera più compatta nel seguente modo:


t − 0.5T
s(t) = t rect + T u(t − T ) ,
T

si tratta di una funzione identicamente nulla per t < 0, che cresce linearmente nell’intervallo (0, T ) fino a
raggiungere per t = T il valore T che mantiene costantemente fino all’infinito [fig. 4.15(b)]. Utilizzando la
(4.38), in fig. 4.15(c) è riportata la risposta hε (t) del sistema alla finestra rettangolare δε (t) di durata 2ε < T .
Si può notare che, per ε → 0, il segnale hε (t) tende ancora alla risposta impulsiva h(t) del sistema. In pratica,
possiamo dire che, se ε  T , il segnale in fig. 4.13(c) rappresenta una buona approssimazione della risposta
impulsiva del sistema. In altre parole, se la durata della finestra rettangolare di ingresso è molto piccola rispetto
alla memoria T del sistema, il sistema si comporta approssimativamente come se vi fosse un impulso di Dirac
in ingresso. 

 Esempio 4.10 (risposta al gradino di un sistema MA) Si consideri il sistema MA già studiato nell’es. 4.1,
4.4 Risposta al gradino 155

0.3

1
0.2
1/6 0.8
h(n)

0.6

s(n)
0.1

0.4

0
0.2

0
−0.1
−2 0 2 4 6 8 10 −2 0 2 4 6 8 10
n n
(a) (b)

Fig. 4.16. Sistema MA con M = 5 e bk = 16 , ∀k ∈ {0, 1, . . . , 5}: (a) risposta impulsiva; (b) risposta al gradino.

descritto dalla relazione i-u


M
y(n) = ∑ bk x(n − k) , (4.44)
k=0

la cui risposta impulsiva ha la seguente espressione:


M
h(n) = ∑ bk δ (n − k) , (4.45)
k=0

rappresentata in fig. 4.1(a) nel caso generale, ed in fig. 4.1(b) nel caso in cui M = 5 e i pesi bk sono tutti uguali
1
a M+1 . In virtù della (4.34), la risposta al gradino di tale sistema è il risultato della seguente sommatoria:
n M
s(n) = ∑ ∑ bm δ (k − m) ,
k=−∞ m=0

in cui l’estremo superiore della sommatoria n varia in Z. La somma di tale serie si ottiene distinguendo i
seguenti casi:


0, se n < 0 ;
 n



 ∑ bk , se 0 ≤ n < M ;


k=0
s(n) =




M



 ∑ bk , se n ≥ M .
k=0

1
Nel caso in cui i pesi bk siano tutti uguali a M+1 , la risposta al gradino diventa:


 0, se n < 0 ;

n+1
s(n) = , se 0 ≤ n < M ;

 M+1

1, se n ≥ M .
che possiamo esprimere in maniera più compatta nel seguente modo:
n+1
s(n) = RM (n) + u(n − M) ,
M+1
156 Sistemi lineari tempo-invarianti (LTI)

e che è rappresentata graficamente nel caso M = 5, insieme alla risposta impulsiva, in fig. 4.16. 

Nel seguito faremo quasi sempre riferimento alla risposta impulsiva; dato il legame biunivoco con la
risposta al gradino, il lettore non dovrebbe incontrare difficoltà ad estendere alla risposta al gradino
molti dei risultati ottenuti per la risposta impulsiva.
4.5 Proprietà della risposta impulsiva 157

4.5 Proprietà della risposta impulsiva


Poiché la risposta impulsiva è una risposta canonica, cioè caratterizza completamente un sistema
LTI, è possibile legare le proprietà del sistema (non dispersività, causalità, stabilità, invertibilità) alle
proprietà matematiche della risposta impulsiva: questo aspetto è approfondito nei paragrafi seguenti.

4.5.1 Non dispersività


Ricordiamo che un generico sistema si dice non dispersivo (cfr. § 3.3.1) se l’uscita all’istante t oppure
n dipende solo dall’ingresso nello stesso istante. Consideriamo un sistema TD LTI, descritto dalla
convoluzione a TD espressa dalla seconda delle (4.7):
+∞
y(n) = ∑ h(k) x(n − k) .
k=−∞

Affinché y(n) dipenda solo da x(n), occorre che i termini x(n − k) per k = 0 non diano contributo alla
somma su k. Una condizione necessaria e sufficiente affinché ciò accada, per ogni segnale di ingresso
{x(k)}k∈Z , è che risulti h(k) = 0, ∀k = 0; in questo caso, infatti, si ha:

y(n) = h(0) x(n) .



Notiamo che, ponendo α = h(0), la relazione precedente si può riscrivere come

y(n) = α x(n) , (4.46)

e quindi si può interpretare come la relazione i-u di un amplificatore/attenuatore ideale: pertanto,


un sistema TD LTI non dispersivo è necessariamente un amplificatore/attenuatore ideale. Ponendo
x(n) = δ (n) nella (4.46), si ricava che la risposta impulsiva di tale sistema vale

h(n) = α δ (n) . (4.47)

Pertanto, possiamo concludere che un sistema TD LTI è non dispersivo se e solo se la sua risposta
impulsiva assume la forma (4.47).
Passiamo ora a considerare i sistemi TC LTI, il cui legame i-u è descritto dalla convoluzione a TC
espressa dalla prima delle (4.12):
 +∞
y(t) = x(τ ) h(t − τ ) dτ . (4.48)
−∞

Per ricavare la proprietà cui deve soddisfare la risposta impulsiva affinchè il sistema sia non dispersivo,
seguiamo una strada diversa da quella seguita nel caso TD. Il sistema è non dispersivo se e solo se, per
ogni segnale di ingresso, l’uscita all’istante t dipende solo dal valore {x(τ )}τ =t del segnale di ingresso
nello stesso istante; equivalentemente, questo vuol dire che la risposta del sistema non cambia se, nella
(4.48), al posto di {x(τ )}τ ∈R , poniamo un segnale {x1 (τ )}τ ∈R che dipende solo dal valore “attuale”
{x(τ )}τ =t . Per costruire un segnale siffatto, possiamo ricorrere alla proprietà del prodotto dell’impulso
di Dirac [cfr. prop. 2.2(c)], ponendo

x1 (τ ) = x(τ ) δ (t − τ ) = x(t) δ (t − τ ) .

Sostituendo nella (4.48), si ha che l’uscita corrispondente a x1 (τ ) vale


 +∞  +∞
y1 (t) = x1 (τ ) h(t − τ ) dτ = x(τ ) δ (t − τ ) h(t − τ ) dτ . (4.49)
−∞ −∞
158 Sistemi lineari tempo-invarianti (LTI)

Per quanto precedentemente detto, il sistema è non dispersivo se e solo se y(t) = y1 (t), per ogni
segnale di ingresso e per ogni t ∈ R; dal confronto tra la (4.48) e (4.49), ciò accade se e solo se

h(t) = h(t) δ (t) = h(0) δ (t) ,

dove ancora una volta nell’ultimo passaggio si è sfruttata la proprietà del prodotto dell’impulso di

Dirac. Se poniamo α = h(0), otteniamo che un sistema TC LTI è non dispersivo se e solo se la sua
risposta impulsiva è l’analogo a TC della (4.47), ovvero se

h(t) = α δ (t) .

Sostituendo nella (4.48) la risposta impulsiva precedente, si ha:


 +∞  +∞
y(t) = x(τ ) h(t − τ ) dτ = α x(τ )δ (t − τ ) dτ = α x(t) ,
−∞ −∞

dove nell’ultimo passaggio si è applicata la proprietà di campionamento dell’impulso di Dirac. Quindi,


un sistema TC LTI non dispersivo ha necessariamente una relazione i-u del tipo:

y(t) = α x(t) ,

ovvero anche in questo caso coincide con un amplificatore/attenuatore ideale.


In definitiva, la caratterizzazione di un sistema LTI non dispersivo in termini di risposta impulsiva
è riassunta dalla seguente proprietà (valida per il caso TC e TD):

Proprietà 4.4 (risposta impulsiva di un sistema LTI non dispersivo)


(a) Un sistema LTI è non dispersivo se e solo se la sua risposta impulsiva assume la forma
h(·) = α δ (·).
(b) Equivalentemente, un sistema LTI è non dispersivo se e solo se la sua relazione i-u è y(·) =
α x(·), ovvero se e solo se è un amplificatore/attenuatore ideale.

I sistemi non dispersivi sono denominati anche sistemi senza memoria, dove la memoria di un sistema
è stata definita (cfr. § 3.3.1) come la durata temporale del segmento del segnale di ingresso che contri-
buisce, oltre al campione attuale, all’uscita in un determinato istante di tempo. Se allora osserviamo
la relazione i-u di un sistema LTI [cfr. (4.7) oppure (4.12)], possiamo notare che tale durata è deter-
minata dalla estensione temporale Dh della risposta impulsiva; pertanto, la memoria di un sistema
coincide con la durata temporale ∆h della risposta impulsiva h(·) (escluso il campione per n = 0 nel
caso TD). In stretta analogia con la classificazione dei segnali effettuata sulla base della durata nel
§ 2.3, i sistemi LTI con memoria si possono ulteriormente classificare come segue:

• sistemi LTI aventi memoria rigorosamente finita: la risposta impulsiva h(·) ha durata rigorosa-
mente limitata;
• sistemi LTI aventi memoria praticamente finita: la risposta impulsiva h(·) decade asintotica-
mente a zero per t, n → ±∞, senza mai annullarsi; l’estensione temporale Dh e, quindi, la durata
∆h , si definisce introducendo una soglia opportuna e considerando trascurabili le ampiezze della
risposta impulsiva inferiori alla soglia fissata;
• sistemi LTI aventi memoria infinita: la risposta impulsiva h(·) non decade a zero, per cui
presenta valori non trascurabili su un intervallo temporale non limitato.
4.5 Proprietà della risposta impulsiva 159

1 1

0.8 0.8

0.6 0.6
T h(t)

s(t)
0.4 0.4

0.2 0.2

0 0

−2 −1 0 1 2 3 4 5 −2 −1 0 1 2 3 4 5
t/T t/T
(a) (b)

Fig. 4.17. Sistema TC IIR con memoria praticamente finita (es. 4.11): (a) risposta impulsiva; (b) risposta al
gradino.

Un sistema LTI con memoria rigorosamente finita prende anche il nome di sistema finite impulse re-
sponse (FIR). Esempi di sistemi FIR sono l’integratore con memoria finita (cfr. es. 4.9) e il sistema MA
(cfr. es. 4.10). Un sistema LTI con memoria non rigorosamente finita (praticamente finita o infinita) è
spesso detto anche sistema infinite impulse response (IIR). L’integratore (cfr. es. 4.7) e l’accumulatore
(cfr. es. 4.8), aventi come risposta impulsiva il gradino unitario, sono sistemi IIR con memoria infinita.
Nell’esempio che segue è trattato il caso di un sistema IIR con memoria praticamente finita.
 Esempio 4.11 (sistema IIR con memoria praticamente finita) Si consideri il sistema TC descritto dal se-
guente legame i-u:
 +∞
1 −τ /T
y(t) = e x(t − τ ) dτ , (4.50)
0 T
dove T > 0. Sfruttando il fatto che u(τ ) = 0 per τ < 0, la relazione di sopra si può esprimere equivalentemente
come segue:
 +∞
1 −τ /T
y(t) = e u(τ ) x(t − τ ) dτ . (4.51)
−∞ T
Confrontando la (4.51) con la seconda delle (4.12), si ricava che il legame i-u del sistema è espresso mediante
l’integrale di convoluzione tra il segnale di ingresso x(t) e la funzione del tempo
1 −t/T
h(t) = e u(t) . (4.52)
T
Pertanto, il sistema in esame è un sistema LTI con risposta impulsiva data dalla (4.52), che è rappresentata in
fig. 4.17(a). In virtù della (4.36), la risposta al gradino di tale sistema si ottiene come:

 t
1 −τ /T 0 ,
 se t < 0 ;
t 1
s(t) = e u(τ ) dτ = e−τ /T
dτ = 1 − e−t/T
, se t ≥ 0 ,
−∞ T 
 0 T

che possiamo esprimere in maniera più compatta come:

s(t) = (1 − e−t/T ) u(t) ,


160 Sistemi lineari tempo-invarianti (LTI)

e che è rappresentata in fig. 4.17(b). Poichè la risposta impulsiva del sistema è un esponenziale monolatero
decrescente, con costante di tempo T > 0, ovvero è un segnale di durata praticamente limitata, il sistema LTI
ha memoria praticamente finita. Per calcolare la memoria analiticamente, scegliamo come valore di soglia
α h(0+ ) = α /T , con 0 < α < 1. Così facendo, risolvendo l’equazione h(∆h ) = α /T (cfr. § 2.3.2), la durata
della risposta impulsiva risulta

1
∆h = T ln ,
α
da cui si ricava che la memoria del sistema cresce con legge direttamente proporzionale a T .
Con ragionamenti analoghi si può verificare che il sistema TD LTI avente risposta impulsiva:

h(n) = an u(n) , con 0 < |a| < 1 ,

è un sistema dispersivo IIR con memoria praticamente finita data da:


ln(α )
∆h = ,
ln(|a|)
memoria che tende a diventare infinitamente grande, per |a| → 1, mentre tende a zero per |a| → 0. 

In conclusione, ricordando la proprietà di durata della convoluzione (cfr. § 4.3.1), notiamo che ap-
plicando al sistema un ingresso di durata finita, esso sarà “allungato”, per effetto della convoluzione,
proprio di una quantità pari alla memoria del sistema. Infatti, se per semplicità facciamo riferimento ai
sistemi TC, in virtù della (4.31), la durata ∆y del segnale di uscita dal sistema è al più pari alla somma
della durata ∆x del segnale di ingresso e della durata ∆h della risposta impulsiva. Lo stesso si può dire
anche per i sistemi TD. In altri termini, applicando un ingresso di durata finita e misurando la durata
dell’uscita è possibile ricavare per differenza la durata della risposta impulsiva, e quindi misurare la
memoria del sistema LTI.

4.5.2 Causalità
Ricordiamo che un generico sistema è causale se l’uscita all’istante t oppure n dipende dal valore
dell’ingresso nello stesso istante e in istanti precedenti, ma non dipende dai valori dell’ingresso negli
istanti successivi. Consideriamo allora la relazione i-u di un sistema TD LTI:
+∞
y(n) = ∑ h(k) x(n − k) .
k=−∞

La somma su k porta in conto valori futuri dell’ingresso per k < 0, in quanto per tali valori di k risulta
n − k > n. Affinché allora l’uscita non dipenda dai valori futuri, per ogni segnale di ingresso, deve
accadere che

h(k) = 0 , ∀k < 0 . (4.53)

Pertanto un sistema TD LTI risulta causale se e solo se è verificata la condizione (4.53). In questo
caso la relazione i-u assume la forma:
+∞ n
y(n) = ∑ h(k) x(n − k) = ∑ x(k) h(n − k) .
k=0 k=−∞

Passiamo ora a considerare i sistemi TC LTI, il cui legame i-u è descritto dalla convoluzione:
 +∞
y(t) = x(τ ) h(t − τ ) dτ . (4.54)
−∞
4.5 Proprietà della risposta impulsiva 161

h(t)

T
t

Fig. 4.18. Risposta impulsiva dell’integratore non causale (es. 4.12).

Ragionando in modo analogo a quanto fatto nel caso TD, si può verificare che un sistema TC è causale
se e solo se

h(t) = 0 , ∀t < 0 .

In questo caso, la relazione i-u (4.54) assume la forma:


 +∞  t
y(t) = h(τ ) x(t − τ ) dτ = x(τ ) h(t − τ ) dτ .
0 −∞

In sintesi, la caratterizzazione di un sistema LTI causale in termini della sua risposta impulsiva è
descritta dalla seguente proprietà:

Proprietà 4.5 (risposta impulsiva di un sistema LTI causale)


Un sistema LTI è causale se e solo se

h(n) = 0, ∀n < 0 (sistema TD)


h(t) = 0, ∀t < 0 (sistema TC)

Se la risposta impulsiva del sistema LTI non è identicamente nulla per t < 0 (caso TC) oppure per n < 0
(caso TD), il sistema è non causale. Abbiamo visto nel capitolo precedente (cfr. § 3.3.2) che un caso
particolare di sistema non causale è il sistema anticausale, per il quale l’uscita dipende solo dai valori
futuri del segnale di ingresso. Ripercorrendo gli stessi ragionamenti fatti per un sistema causale, si può
mostrare che un sistema LTI è anticausale se e solo se la sua risposta impulsiva soddisfa la seguente
condizione:

h(n) = 0, ∀n ≥ 0 (sistema TD)


h(t) = 0, ∀t ≥ 0 (sistema TC)

Tutti i sistemi LTI precedentemente presentati negli esempi di questo capitolo sono causali. Di seguito
sono riportati alcuni esempi di sistemi non causali.
162 Sistemi lineari tempo-invarianti (LTI)

 Esempio 4.12 (integratore non causale) Si consideri l’integratore con memoria finita (cfr. es. 3.10 e 3.12),
avente relazione i-u:
 t+T
y(t) = x(u) du , (4.55)
t

con T > 0, Si può facilmente verificare che tale sistema è sia lineare, sia invariante temporalmente, per cui è
un sistema LTI. In maniera equivalente, si può mostrare che la (4.55) si può scrivere come una convoluzione.
Infatti, con il cambio di variabile τ = t − u → u = t − τ , la (4.55) si può scrivere come:
 0
y(t) = x(t − τ ) dτ .
−T

A questo punto, moltiplicando la funzione integranda per una finestra rettangolare che assume il valore 1
nell’intervallo (−T, 0), possiamo estendere l’integrale tra −∞ e +∞ ottenendo:
 +∞

τ + 0.5T
y(t) = rect x(t − τ ) dτ ,
−∞ T
da cui, per confronto con la (4.12), si conclude che la risposta impulsiva del sistema è:

t + 0.5T
h(t) = rect ,
T
che è rappresentata in fig. 4.18: si tratta di un segnale che assume valori non nulli per t < 0 e, conseguentemente,
il sistema non è causale. 

 Esempio 4.13 (sistema MA non causale) Si consideri il sistema MA già introdotto nell’es. 3.11, descritto
dalla relazione i-u
M
y(n) = ∑ bk x(n + k) .
k=0

Si tratta di un sistema sia lineare che tempo-invariante, e pertanto esso rappresenta un esempio di sistema LTI.
Per questo motivo, deve essere possibile esprimere la sua relazione i-u come una convoluzione (4.7). Infatti,
effettuando il cambiamento di variabile h = −k si ha
0 0
y(n) = ∑ b−h x(n − h) = ∑ b−k x(n − k) , (4.56)
h=−M k=−M

da cui, per confronto diretto con la (4.7), si ha una perfetta corrispondenza se si definisce la risposta impulsiva
del sistema come segue:

b−k , k ∈ {−M, −M + 1, . . . , 0} ;
h(k) = (4.57)
0, altrimenti ,

rappresentata graficamente in fig. 4.19(a) nel caso generale. e particolarizzata in fig. 4.19(b) al caso M = 5 e
bk = M+1
1
= 16 , ∀k ∈ {0, 1, . . . , 5}. D’altra parte, osserviamo che utilizzando la definizione di risposta impulsiva
come h(n) = S[δ (n)], si ha, ponendo x(n) = δ (n) nella (4.56):
0
h(n) = ∑ b−h δ (n − h) , (4.58)
h=−M

espressione che è perfettamente equivalente alla (4.57). Si tratta di una risposta impulsiva che assume valori
non nulli per n < 0, pertanto tale sistema è non causale. 
4.5 Proprietà della risposta impulsiva 163

h(n) h(n)

bM-1 b0
b3 1/6
b1
bM
b2
....

-M -M +1 -3 -2 -1 0 n -5 -4 -3 -2 -1 0 n

(a) (b)
Fig. 4.19. (a) Risposta impulsiva di un generico sistema MA non causale. (b) Risposta impulsiva del sistema
MA non causale con M = 5 e con pesi bk = 16 , ∀k ∈ {0, 1, . . . , 5} (es. 4.13).

 Esempio 4.14 (anticipo unitario) Consideriamo il sistema TD descritto dalla relazione i-u:

y(n) = x(n + 1) ,

che realizza un anticipo unitario del segnale di ingresso. Si tratta chiaramente di un sistema LTI, la cui risposta
impulsiva si ottiene ponendo in ingresso il segnale x(n) = δ (n):

h(n) = δ (n + 1) ,

si tratta di un impulso TD di ampiezza unitaria centrato in n = −1. Il sistema è pertanto non causale; in
particolare, poiché h(n) è identicamente nulla per n ≥ 0, l’anticipo unitario TD è un sistema anticausale. Allo
stesso modo il sistema TC che effettua un anticipo temporale, descritto dalla relazione i-u y(t) = x(t + T ) con
T > 0, è un sistema LTI anticausale. 

I sistemi causali godono di una proprietà importante. Per evidenziare tale proprietà, consideriamo il
caso dei sistemi TC. Se il sistema è causale, allora la risposta impulsiva del sistema avrà estensione
temporale Dh = (0, ∆h ), con ∆h ∈ R+ . Supponiamo ora che anche il segnale di ingresso sia identi-
camente nullo per t < 0, cioè, abbia estensione temporale Dx = (0, ∆x ), con ∆x ∈ R+ . Un segnale
identicamente nullo per t < 0 è anche detto6 causale. In tal caso, seguendo gli stessi ragionamenti che
hanno portato alla (4.31), si ottiene che:

y(t) = 0, ∀t ∈ (0, ∆x + ∆h ) ,

ossia anche il segnale di uscita risulta essere identicamente nullo per t < 0. Tale risultato, che sussiste
con ovvie modifiche anche nel caso TD, è riassunto dalla seguente proprietà:

Proprietà 4.6 (risposta di un sistema LTI causale ad un segnale causale)


(a) Se il segnale in ingresso ad un sistema TC LTI causale è identicamente nullo per t < 0, allora
la corrispondente uscita è anch’essa identicamente nulla per t < 0.
(b) Se il segnale in ingresso ad un sistema TD LTI causale è identicamente nullo per n < 0, allora
la corrispondente uscita è anch’essa identicamente nulla per n < 0.

6 Questa terminologia discende dal fatto che la risposta impulsiva è essa stessa un segnale – è il segnale di uscita di un
sistema LTI quando in ingresso è applicato un impulso – per cui dire che il sistema è casuale equivale a dire che la sua
risposta impulsiva è causale.
164 Sistemi lineari tempo-invarianti (LTI)

y(.)
x(.) h(.) hinv(.) x(.)

Fig. 4.20. Il sistema LTI hinv (·) è il sistema inverso di h(·) se e solo se la cascata
dei due sistemi coincide con il sistema identico.

In verità, la prop. 4.6 si poteva già dedurre dalle prop. 3.1 e 3.4, sfruttando in aggiunta la proprietà
di linearità. Soffermiamo l’attenzione sui sistemi TC. Ricordiamo che, in base alla prop. 3.1, dette
y1 (t) e y2 (t) le uscite di un sistema TC in risposta ai segnali x1 (t) e x2 (t), rispettivamente, un sistema è
causale se e solo se, per ogni t0 ∈ R e per ogni x1 (t), x2 (t) ∈ I tali che x1 (t) = x2 (t), ∀t ≤ t0 , risulta che
y1 (t) = y2 (t), ∀t ≤ t0 . Dato un ingresso x1 (t) = 0, ∀t < 0, supponiamo di scegliere un secondo ingresso
x2 (t) = 0, ∀t ∈ R, ed applichiamo la proprietà vista per t0 = −ε < 0, con ε ∈ R+ piccolo a piacere.
Poiché risulta x1 (t) = x2 (t) = 0, ∀t ≤ −ε , allora risulterà per la prop. 3.1 y1 (t) = y2 (t), ∀t ≤ −ε .
Ma se il sistema è lineare, in virtù della prop. 3.4, l’uscita corrispondente al segnale nullo x2 (t) è
necessariamente nulla, cioè y2 (t) = 0, ∀t ∈ R. Pertanto, si ha che y1 (t) = 0, ∀t ≤ −ε , cioè, così come
il segnale di ingresso, anche il segnale di uscita è identicamente nullo per t < 0. Le considerazioni
che seguono si estendono senza alcuna difficoltà anche ai sistemi TD.7 È interessante osservare che
nel derivare questo risultato abbiamo sfruttato solo la linearità (più precisamente, l’omogeneità) e la
causalità del sistema: questo dimostra che la prop. 4.6 vale più in generale per sistemi lineari causali
(non necessariamente TI).

4.5.3 Invertibilità
Ricordiamo che se un dato sistema è invertibile, il sistema inverso è quel sistema che posto in cascata
al sistema dato realizza il sistema identico. In app. D è mostrato che se un sistema LTI è invertibile,
allora il corrispondente sistema inverso è anch’esso LTI. In base a tale risultato, se indichiamo con
h(·) la risposta impulsiva del sistema LTI invertibile e con hinv (·) la risposta impulsiva del sistema
inverso, come mostrato in fig. 4.20, la cascata (nell’ordine) del sistema con risposta impulsiva h(·) e
del sistema con risposta impulsiva hinv (·) deve realizzare il sistema identico. Poiché la risposta impul-
siva del sistema identico è δ (·), e tenendo presente che alla cascata di due sistemi LTI corrisponde la
convoluzione delle rispettive risposte impulsive, si ottiene la seguente condizione:

h(·) ∗ hinv (·) = δ (·) . (4.59)

Poiché la convoluzione è commutativa, possiamo scrivere anche:

hinv (·) ∗ h(·) = δ (·) , (4.60)

per cui se hinv (·) è l’inverso di h(·), allora h(·) è l’inverso di hinv (·). Per cui ritroviamo il risultato,
valido più in generale per l’inverso di un generico sistema (non necessariamente LTI, cfr. §3.3.3),
secondo cui il sistema diretto commuta con il sistema inverso nella cascata di fig. 4.20 (notiamo che
per i sistemi LTI vale una proprietà più generale, secondo la quale qualunque sistema LTI commuta
con qualunque altro sistema LTI nella cascata). La seguente proprietà riassume le considerazioni fatte
precedentemente:
7 Nel caso TD, l’applicazione della prop. 3.1 è più immediata: infatti, a differenza del caso TC in cui si è dovuto introdurre
un ε arbitrariamente piccolo per la scelta di t0 , in questo caso, le stesse considerazioni si possono fare scegliendo n0 = −1.
4.5 Proprietà della risposta impulsiva 165

Proprietà 4.7 (risposta impulsiva del sistema inverso di un sistema LTI)


Si consideri un sistema LTI invertibile con risposta impulsiva h(·), il suo sistema inverso è an-
ch’esso LTI e, detta hinv (·) la sua risposta impulsiva, sussiste la seguente relazione tra le due
risposte impulsive:

h(·) ∗ hinv (·) = hinv (·) ∗ h(·) = δ (·) .

Lo studio dell’invertibilità di un sistema non è sempre agevole e richiede qualche cautela dal punto
di vista matematico. Alcuni approfondimenti ed esempi sono riportati in app. D, a cui si rimanda
direttamente il lettore.
In molti casi pratici, un problema di interesse è determinare il sistema inverso di un dato siste-
ma. Ad esempio, nelle telecomunicazioni, il segnale x(·) viene modificato o distorto dal supporto
fisico su cui si propaga (il cosiddetto canale) e giunge alla destinazione con modifiche tali da rendere
difficoltoso il recupero dell’informazione ad esso associata. In alcuni casi, il canale può essere ben
modellato mediante un sistema LTI con risposta impulsiva h(·). Se fossimo grado di individuare il
sistema inverso potremmo alla destinazione utilizzare il sistema hinv (·) per compensare perfettamente
la distorsione introdotta dal sistema h(·). Questa compensazione prende il nome di equalizzazione.
Purtroppo determinare hinv (·) dalla (4.59) o (4.60) è un problema matematicamente complicato, che
va sotto il nome di deconvoluzione (di fatto, significa determinare uno dei fattori della convoluzio-
ne, noto l’altro fattore ed il risultato finale). Vedremo che una soluzione semplice si potrà ottenere
operando nel dominio della frequenza.

4.5.4 Stabilità
Ricordiamo che un sistema si dice stabile (in senso BIBO, cfr. §3.3.5) se l’uscita corrispondente ad
un qualunque ingresso limitato in ampiezza è a sua volta limitata in ampiezza. Per individuare quale
sia la proprietà della risposta impulsiva che caratterizza la stabilità, consideriamo un sistema TD LTI,
descritto dalla (4.7):
+∞
y(n) = ∑ h(k) x(n − k) .
k=−∞

Supponiamo allora che l’ingresso sia limitato, ovvero |x(n)| < Kx , ∀n ∈ Z, e proviamo a trovare una
maggiorazione simile per l’uscita y(n). Si ha, con passaggi banali, che:
 
 +∞  +∞ +∞
 
|y(n)| =  ∑ h(k) x(n − k) ≤ ∑ |h(k)||x(n − k)| ≤ Kx ∑ |h(k)| .
k=−∞  k=−∞ k=−∞

Pertanto, se h(k) è una successione sommabile, ovvero se


+∞
∑ |h(k)| ≤ Kh , (4.61)
k=−∞


allora si ha |y(n)| ≤ Kx Kh = Ky e quindi l’uscita y(n) è limitata. Abbiamo cioè provato che la som-
mabilità (4.61) della risposta impulsiva è condizione sufficiente per la stabilità di un sistema LTI.
Possiamo però provare che la sommabilità della risposta impulsiva è anche condizione necessaria per
la stabilità: in altri termini, se un sistema è stabile, allora la risposta impulsiva dev’essere sommabile.
166 Sistemi lineari tempo-invarianti (LTI)

Per provarlo, procediamo per assurdo, supponendo che un sistema stabile abbia una risposta impulsiva
non sommabile. Definiamo allora un opportuno segnale di ingresso:

 |h(−n)| , se h(−n) = 0 ;
x(n) = h(−n)

0, altrimenti .

Tale segnale assume solo i valori 0, 1, −1, e quindi è sicuramente limitato. L’uscita corrispondente a
tale segnale limitato è:
+∞
|h(k − n)|
y(n) = ∑ h(k)x(n − k) = ∑ h(k)
h(k − n)
,
k=−∞ k

dove la seconda sommatoria va effettuata, per ciascun n ∈ Z, su tutti i valori della variabile k per i
quali h(k − n) = 0. Calcoliamo in particolare l’uscita per n = 0:
+∞
|h(k)|
y(0) = ∑ h(k) = ∑ |h(k)| = ∑ |h(k)| ,
k h(k) k k=−∞

dove abbiamo incluso nella somma, senza alterarla, anche i valori di k per i quali h(k) = 0. Poiché
abbiamo supposto per assurdo che la risposta impulsiva non sia sommabile, risulta che l’uscita all’i-
stante n = 0 non è limitata, il che contraddice l’ipotesi che il sistema sia stabile. Pertanto, la risposta
impulsiva deve essere necessariamente sommabile. In definitiva, per un sistema TD vale l’equivalenza
seguente:
+∞
sistema TD stabile ⇐⇒ ∑ |h(k)| ≤ Kh , ovvero h(n) sommabile .
k=−∞

Per un sistema LTI a TC è possibile ragionare in maniera analoga, sostituendo alla sommabilità della
successione h(n) quella della funzione h(t):
 +∞
|h(τ )| dτ ≤ Kh . (4.62)
−∞

In definitiva, la sommabilità della risposta impulsiva è condizione necessaria e sufficiente per la


stabilità di un sistema LTI, come riassunto dalla seguente proprietà:

Proprietà 4.8 (risposta impulsiva di un sistema LTI stabile)


Un sistema LTI è stabile se e solo se la sua risposta impulsiva è sommabile, ovvero se e solo se
+∞
∑ |h(k)| ≤ Kh (sistema TD) ,
k=−∞
 +∞
|h(τ )| dτ ≤ Kh (sistema TC) .
−∞

Nel caso dei sistemi FIR, che presentano memoria rigorosamente finita, la risposta impulsiva h(·) ha
durata rigorosamente limitata, pertanto essa risulterà sicuramente sommabile (supposto che assuma
valori finiti). Possiamo quindi dire che tutti i sistemi LTI con memoria rigorosamente finita (FIR)
sono stabili. Ad esempio, l’integratore con memoria finita (§ es. 4.9) e il sistema MA (§ es. 4.10),
4.5 Proprietà della risposta impulsiva 167

essendo sistemi FIR, sono stabili. Un sistema LTI instabile deve necessariamente avere memoria non
rigorosamente finita (IIR). Più precisamente, i sistemi IIR aventi memoria infinita sono sicuramente
instabili, in quanto la loro risposta impulsiva h(·) non è infinitesima all’infinito e quindi non può
essere sommabile. Ad esempio, l’integratore (§ es. 4.7) e l’accumulatore (§ es. 4.8), aventi come
risposta impulsiva il gradino unitario, sono esempi di sistemi IIR con memoria infinita e, pertanto,
instabili. D’altra parte, se il sistema IIR ha memoria praticamente finita, la sua risposta impulsiva può
essere ancora sommabile purché |h(·)| decada a zero per |t| → +∞ o per |n| → +∞ con sufficiente
rapidità, in modo da garantire la convergenza dell’integrale o della serie che compaiono nella (4.61)
e (4.62) (cfr. § B.1.4 e B.2.3). Un esempio di sistema LTI stabile con memoria praticamente finita è il
seguente.
 Esempio 4.15 (stabilità di un sistema IIR con memoria praticamente finita) Riconsideriamo nuovamen-
te il sistema IIR dell’es. 4.11, la cui risposta impulsiva [fig. 4.17(a)] è data da:
1 −τ /T
h(τ ) = e u(τ ) .
T
Si tratta di un sistema con memoria praticamente finita. Verifichiamo che tale sistema è stabile. A tal fine
osserviamo che:
 +∞  +∞ 
1 −τ /T 1 +∞ −τ /T
|h(τ )| dτ = e u(τ ) dτ = e dτ = 1 ,
−∞ −∞ T T 0
pertanto la risposta impulsiva del sistema è sommabile e, conseguentemente, il sistema è stabile.
Analogamente, il sistema TD IIR avente risposta impulsiva:
h(n) = an u(n) , con 0 < |a| < 1 ,
è stabile pur non avendo memoria rigorosamente finita (ma memoria praticamente finita). Infatti, poichè risulta:
+∞ +∞
1
∑ |h(k)| = ∑ |a|n = 1 − |a| ,
k=−∞ k=0

la risposta impulsiva è sommabile. 

In conclusione, notiamo che per taluni sistemi TC la risposta impulsiva h(t) può non essere una
funzione ordinaria, nel senso che può contenere degli impulsi di Dirac. Ad esempio, il sistema che
effettua la traslazione temporale del segnale di ingresso, caratterizzato dal legame i-u:
y(t) = x(t − t0 ) , con t0 ∈ R , (4.63)
ha una risposta impulsiva contenente un impulso di area unitaria centrato in t0 , ossia h(t) = δ (t − t0 ).
Poiché il concetto di sommabilità di una distribuzione non è definito, si pone pertanto il problema di
come studiare la stabilità di un sistema LTI qualora la sua risposta impulsiva sia una funzione gene-
ralizzata. In verità, dal punto di vista pratico, questo problema può essere tranquillamente aggirato.
Ad esempio, nel caso del sistema (4.63), è assolutamente inutile studiare la stabilità a partire dalla
risposta impulsiva, in quanto, in questo caso, la stabilità può essere studiata direttamente dal legame
i-u senza alcun problema di carattere matematico: infatti, se il segnale di ingresso è limitato, l’uscita
del sistema (4.63) è sicuramente limitata. Pertanto, possiamo concludere che il sistema TC (4.63),
che anticipa/ritarda il segnale di ingresso, è un sistema stabile, per ogni t0 ∈ R. Più in generale, se la
risposta impulsiva h(t) è una funzione generalizzata, è (quasi) sempre possibile decomporla nella som-
ma di una funzione ordinaria hord (t), che non contiene impulsi, e di una funzione himp (t) puramente
impulsiva, che contiene solo impulsi, cioè:
N
h(t) = hord (t) + ∑ αn δ (t − tn ) = hord (t) + himp (t) , (4.64)
n=1
  
himp (t)
168 Sistemi lineari tempo-invarianti (LTI)

hord (t)

x(t) α1 t1 y(t)

. .
. .
. .

αN tN

Fig. 4.21. Decomposizione in parallelo di un sistema avente risposta impulsiva generalizzata.

dove N ∈ N. In questo caso, come mostrato in fig. 4.21, il sistema avente risposta impulsiva h(t)
può essere decomposto nel parallelo del sistema avente risposta impulsiva hord (t) e del sistema avente
risposta impulsiva himp (t), e quest’ultimo a sua volta può essere visto come il parallelo di N sistemi,
ciascuno dei quali composto da un attenuatore/amplificatore connesso in serie con un sistema che
effettua la traslazione temporale. Osservando che il parallelo di più sistemi LTI equivale ad un unico
sistema LTI la cui risposta impulsiva è data dalla somma delle risposte impulsive dei sistemi coinvolti
nel parallelo, in virtù della prop. 4.8, possiamo affermare che, se i sistemi componenti il parallelo
sono singolarmente stabili, allora il sistema complessivo è sicuramente stabile. Poichè la moltiplica-
zione per una costante e la traslazione temporale sono operazioni stabili, nel senso che conservano la
limitatezza (in ampiezza) del segnale su cui operano, il sistema in fig. 4.21 è stabile se e solo se la
risposta impulsiva hord (t) è sommabile. In altre parole, quando occorre studiare la sommabilità di una
funzione generalizzata del tipo (4.64) è sufficiente limitarsi a studiare la sommabilità della sola parte
ordinaria hord (t).

4.6 Esempi di sistemi LTI

In questa sezione introduciamo due classi particolarmente importanti di sistemi LTI, descritti da equa-
zioni differenziali lineari (nel caso TC) oppure da equazioni alla differenze (nel caso TD). Tali si-
stemi presentano numerose analogie, tuttavia per una presentazione efficace è opportuno studiarli
separatamente.

4.6.1 Sistemi descritti da equazioni differenziali

Numerosi sistemi TC, in svariati campi delle scienze fisiche e dell’ingegneria, sono descritti da
equazioni differenziali lineari a coefficienti costanti, del tipo

N M
dk dm
∑ ak dt k
y(t) = ∑ dt m x(t) ,
bm (4.65)
k=0 m=0
4.6 Esempi di sistemi LTI 169

dove x(t) rappresenta l’ingresso e y(t) l’uscita del sistema, a0 , a1 , . . . , aN e b0 , b1 , . . . , bM sono i coeffi-
cienti (in genere reali) dell’equazione, e N ≥ 0 è l’ordine dell’equazione, coincidente con il massimo
ordine di derivazione rispetto al segnale di uscita y(t) (si suppone che aN = 0). La (4.65) è detta linea-
re perché al primo membro compare una combinazione lineare del segnale y(t) e delle sue N derivate
e al secondo membro compare una combinazione lineare del segnale x(t) e delle sue M derivate; la
(4.65) si dice a coefficienti costanti perché i coefficienti moltiplicativi a0 , a1 , . . . , aN e b0 , b1 , . . . , bM
sono costanti e quindi indipendenti dal tempo t. Per sgombrare subito il campo da qualsiasi tipo di
equivoco, occorre preliminarmente osservare che il fatto che la (4.65) sia lineare e i coefficienti che
in essa compaiono siano tempo-invarianti non implica che il sistema da essa descritto sia in generale
lineare e tempo-invariante; vedremo che ciò è vero solo in alcuni casi particolari. Una seconda os-
servazione importante riguarda il fatto che la (4.65) coinvolge, oltre all’uscita y(t) anche le prime N
derivate di y(t): pertanto, essa non rappresenta un legame i-u come espresso dalla def. 3.1. Ciò è vero
solo nel caso particolare in cui N = 0; in tal caso, infatti, la (4.65) si può scrivere direttamente come
segue:
M
1 dm
y(t) =
a0 ∑ bm dt m x(t) ,
m=0

che rappresenta una relazione i-u tra y(t) ed x(t), nel senso specificato dalla def. 3.1.
Nel caso più generale in cui N = 0, la (4.65) descrive in maniera solo implicita il comportamento
del sistema. In questo caso, determinare la relazione i-u del sistema equivale a risolvere, per ogni
fissato ingresso x(t), l’equazione differenziale (4.65) rispetto al segnale di uscita y(t). È noto8 che
tale problema non è completamente definito, in quanto, supposto che, a partire da un istante prefissato
tin ∈ R, sia applicato in ingresso al sistema un dato segnale x(t), per trovare la corrispondente uscita
y(t) per t ≥ tin , è sufficiente conoscere il valore del segnale di uscita e delle sue prime N − 1 derivate in
tin ; in altre parole, è necessario conoscere lo stato iniziale del sistema. Ponendo per semplicità tin = 0,
lo stato iniziale del sistema è pertanto descritto dalle N condizioni iniziali:
 dN−1 
d  
y(0) = y0 , y(t) = y1 , . . . , N−1 y(t) = yN−1 , (4.66)
dt t=0 dt t=0

dove y0 , y1 , . . . , yN−1 sono valori (in genere reali) assegnati. I valori assegnati y0 , y1 , . . . , yN−1 dipen-
dono dalla evoluzione passata del sistema e, dal punto di vista fisico, portano in conto la presenza
eventuale di energia immagazzinata nel sistema fisico. Assegnato l’ingresso x(t) per t ≥ 0, la soluzio-
ne generale della (4.65), che tiene conto di tutte le possibili condizioni iniziali, è data dalla somma di
una soluzione particolare y p (t) della (4.65), per la quale si ha:
N M
dk dm
∑ ak dt k y p (t) = ∑ bm dt m x(t) , (4.67)
k=0 m=0

e della soluzione generale dell’equazione differenziale omogenea associata alla (4.65), cioè dell’equa-
zione
N
dk
∑ ak dt k y(t) = 0 , (4.68)
k=0

ottenuta ponendo x(t) ≡ 0 nella (4.65). La soluzione generale y0 (t) della (4.68) è detta soluzione
omogenea della (4.65). Come verifica di quanto sopra affermato, osserviamo che, se y0 (t) è soluzione
8 Nel seguito si richiameranno alcuni risultati riguardanti la soluzione di equazioni differenziali senza fornire
dimostrazioni, per le quali si rimanda il lettore direttamente ai testi di analisi matematica.
170 Sistemi lineari tempo-invarianti (LTI)

della (4.68), allora


N
dk
∑ ak dt k y0 (t) = 0 , (4.69)
k=0

da cui sommando membro a membro la (4.67) e (4.69), è immediato constatare che

y(t) = y0 (t) + y p (t) (4.70)

è una soluzione della (4.65). D’altra parte, si può provare che la (4.70) fornisce tutte le soluzioni
dell’equazione differenziale (4.65).
In linea di principio, il calcolo della soluzione generale y0 (t) dell’equazione omogenea (4.68) non
offre particolari difficoltà. Considerazioni di carattere fisico inducono nelle applicazioni pratiche a
trovare soluzioni del tipo eλ t , con λ ∈ C, cioè del tipo esponenziale complesso. Se si pone allora
y(t) = eλ t nella (4.68), si ottiene:
* +
N N
∑ ak λ k eλ t = ∑ ak λ k eλ t = q(λ ) eλ t = 0 ⇐⇒ q(λ ) = 0 ,
k=0 k=0
  
q(λ )

dove l’equivalenza sussiste grazie al fatto che l’esponenziale complesso non si annulla mai, e quindi
deve annullarsi q(λ ). Pertanto, l’esponenziale eλ t è soluzione della (4.68) se e solo se il parametro
λ ∈ C è una radice del polinomio q(λ ), ossia:

q(λ ) = a0 + a1 λ + · · · + aN λ N = 0 . (4.71)

Il polinomio q(λ ) è detto polinomio caratteristico dell’equazione omogenea (4.68). Le radici del
polinomio caratteristico possono essere reali, immaginarie oppure complesse.9 Se supponiamo in
prima istanza che le N radici del polinomio q(λ ) siano distinte, siano esse λ1 , λ2 , . . . , λN , allora gli
esponenziali complessi eλ1t , eλ2t , . . . , eλN t sono singolarmente soluzioni della (4.68). Più in generale,
poiché una arbitraria combinazione lineare di soluzioni della (4.68) è ancora una soluzione della stessa
equazione, la soluzione generale della (4.68) è data da:

y0 (t) = c1 eλ1t + c2 eλ2t + · · · + cN eλN t , (4.72)

dove c1 , c2 , . . . , cN sono costanti arbitrarie. Si noti che l’arbitrarietà di queste costanti rende la solu-
zione omogenea della (4.65) non univocamente determinata.
Le complicazioni introdotte dalla presenza di eventuali radici multiple del polinomio caratteri-
stico q(λ ) sono minime e possono essere portate in conto come segue. Supposto che λi sia una
radice con molteplicità Ni del polinomio caratteristico q(λ ), allora si prova facilmente che t h eλit , per
h ∈ {0, 1, . . . , Ni − 1}, è soluzione della (4.68). Quindi, combinando linearmente tutte le N possibili
soluzioni, si ottiene:
R Ni −1
y0 (t) = ∑ ∑ ci,h t h eλ t ,i
(4.73)
i=1 h=0

dove λ1 , λ2 , . . . , λR sono le R radici distinte del polinomio caratteristico q(λ ) aventi molteplicità
N1 , N2 , . . . , NR , rispettivamente, con N1 + N2 + · · · + NR = N [nel caso in cui R = N, la (4.73) degenera
9 Nel caso in cui i coefficienti del polinomio a , a , . . . , a
0 1 N siano reali, le radici di q(λ ) sono o reali o complesse coniugate.
4.6 Esempi di sistemi LTI 171

nella (4.72)]. Anche in questo caso, la soluzione omogenea y0 (t) non è univocamente specificata in
quanto dipende dalle N costanti arbitrarie ci,h . A differenza della soluzione y0 (t), la soluzione par-
ticolare y p (t) dipende dal tipo di ingresso assegnato, e per essa non è possibile dare un’espressione
generale, né una tecnica generale di soluzione.
Notiamo che, senza portare in conto le condizioni iniziali, per la presenza delle costanti ci,h nella
soluzione omogenea, la soluzione generale y(t) = y0 (t) + y p (t) non consente di determinare univoca-
mente l’uscita del sistema. In altri termini, l’equazione differenziale (4.65) non definisce univocamente
un sistema, in quanto l’uscita è definita a meno di N costanti arbitrarie.
Riassumendo quanto detto finora, possiamo dire che la soluzione generale della equazione diffe-
renziale (4.65) si può ottenere seguendo i seguenti passi:

1. Si determina la soluzione omogenea y0 (t) data dalla (4.73), calcolando le radici del polinomio
caratteristico q(λ ) (tale soluzione dipende dalle N costanti arbitrarie ci,h ).
2. Assegnato l’ingresso x(t), si determina una soluzione particolare y p (t) della (4.65); se l’ingresso
è applicato all’istante tin = 0, allora la soluzione particolare ottenuta è valida solo per t > 0.
3. Si determinano gli N coefficienti ci,h della soluzione omogenea y0 (t) in modo che la soluzione
generale della (4.65), data da y(t) = y0 (t) + y p (t) per t > 0, soddisfi le condizioni iniziali (4.66)
assegnate.

In molti casi è conveniente esprimere la soluzione generale della (4.65) come somma di due com-
ponenti: la prima dipendente solo dalle condizioni iniziali (4.66) e la seconda dipendente solo dal
segnale di ingresso x(t). La componente dipendente solo dalle condizioni iniziale si può ottenere a
partire dalla soluzione omogenea (4.73), imponendo che y0 (t) soddisfi da sola le condizioni iniziali
assegnate, cioè
 dN−1 
d  
y0 (0) = y0 , y0 (t) = y1 , . . . , N−1 y0 (t) = yN−1 . (4.74)
dt t=0 dt t=0

Così facendo si ottiene una particolare soluzione omogenea ylib (t) che prende il nome di evoluzione
libera del sistema, in quanto dipende solo dalle condizioni iniziali ed è completamente indipendente
dal segnale di ingresso x(t). La (4.74) determina un sistema di N equazioni lineari nelle N incognite
ci,h , con i ∈ {1, 2, . . . , R} e h ∈ {0, 1, . . . , Ni − 1}. Risolvendo tale sistema si trova che le costanti ci,h
sono combinazioni lineari dei valori y0 , y1 , . . . , yN−1 assunti da y0 (t) e dalle sue prime N − 1 derivate
per t = 0. Conseguentemente, l’evoluzione libera ylib (t) del sistema è essa stessa una funzione lineare
di y0 , y1 , . . . , yN−1 ; questo vuol dire che se si impone che il sistema sia inizialmente in quiete, cioè
y0 = y1 = · · · = yN−1 = 0, l’evoluzione libera del sistema è nulla, ossia, ylib (t) = 0, ∀t ∈ R. Questo è
un risultato del tutto intuibile in quanto, se all’istante tin = 0 il sistema non possiede alcuna energia
immagazzinata al suo interno, l’uscita per t ≥ 0 non può che essere nulla in assenza di alcuna solle-
citazione esterna (segnale di ingresso). D’altra parte, la componente dipendente solo dal segnale di
ingresso assegnato si può ottenere cercando una soluzione particolare y p (t) della (4.65) che soddisfi
le condizioni:
 dN−1 
d  
y p (0) = y p (t) = · · · = N−1 y p (t) = 0 . (4.75)
dt t=0 dt t=0

La soluzione particolare yfor (t) della (4.65) che si ottiene in questo modo prende il nome di risposta
forzata del sistema, in quanto tiene conto del solo segnale di ingresso x(t), assumendo che siano nulle
le condizioni iniziali.
Si può mostrare che la risposta forzata del sistema gode di due proprietà importanti. Innanzitutto,
(1) (2)
la risposta forzata è funzione lineare del segnale di ingresso: se yfor (t) e yfor (t) sono le risposte forzate
172 Sistemi lineari tempo-invarianti (LTI)

x(t) y(t)
R
d
dt
x(t) C y(t)
-1/RC
d y(t)
dt

Fig. 4.23. Schema a blocchi del sistema RC


Fig. 4.22. Schema elettrico del sistema RC (es. 4.16). (es. 4.16).

(1) (2)
del sistema agli ingressi x1 (t) e x2 (t), rispettivamente, allora α1 yfor (t) + α2 yfor (t) è la risposta forzata
del sistema al segnale di ingresso α1 x1 (t) + α2 x2 (t), ∀α1 , α2 ∈ C. In particolare, ciò significa che
se x(t) ≡ 0, allora yfor (t) ≡ 0. Inoltre, la relazione che lega yfor (t) al segnale di ingresso è tempo-
invariante: se yfor (t) è la risposta forzata del sistema al segnale di ingresso x(t), allora yfor (t − t0 ) è la
risposta forzata del sistema al segnale di ingresso x(t − t0 ), ∀t0 ∈ R.
In definitiva, la risposta del sistema può essere espressa anche come la somma dell’evoluzione
libera e della risposta forzata:

y(t) = ylib (t) + yfor (t) . (4.76)

La prima osservazione interessante suggerita dalla (4.76) è che in generale il sistema descritto dalle
(4.65) e (4.66) non è lineare. Il carattere non lineare del sistema è esclusivamente dovuto alla presenza
dell’evoluzione libera ylib (t), indipendente dal segnale di ingresso, per effetto della quale l’uscita y(t)
è non nulla anche quando l’ingresso è identicamente nullo; ciò viola la prop. 3.4 dal momento che,
se si impone x(t) ≡ 0, segue dalla (4.76) che y(t) = ylib (t) = 0. Tuttavia, è interessante osservare
che il sistema definito dalla (4.76) è lineare per le differenze, cioè, può essere rappresentato mediante
lo schema a blocchi in fig. 3.19 [dove y0 (·) corrisponde in questo caso all’evoluzione libera ylib (·)],
in quanto la differenza delle risposte ad una arbitraria coppia di ingressi è funzione lineare della
differenza dei corrispondenti ingressi. La seconda osservazione legata alla (4.76) è che in generale il
sistema descritto dalle (4.65) e (4.66) non è tempo-invariante. La tempo-varianza del sistema è ancora
una volta dovuta alla presenza dell’evoluzione libera ylib (t), indipendente dal segnale di ingresso, per
effetto della quale ad una traslazione del segnale di ingresso non corrisponde la medesima traslazione
del segnale di uscita. Possiamo quindi dire che, affinchè il sistema descritto dalle (4.65) e (4.66) sia
LTI, occorre che la sua evoluzione libera sia nulla, il che si ottiene imponendo che il sistema sia
inizialmente in quiete, assegnando cioè y0 = y1 = · · · = yN−1 = 0.
Nell’esempio che segue si considererà un caso semplice per chiarire ulteriormente gli aspetti
precedentemente discussi.
 Esempio 4.16 (sistema RC) Un esempio particolarmente semplice nell’ambito dei circuiti elettrici è il si-
stema RC raffigurato in fig. 4.22, nel quale l’ingresso x(t) è la tensione ai capi della serie RC, mentre l’uscita
y(t) è la tensione ai capi della capacità. Applicando il secondo principio di Kirchoff (equilibrio tra le tensioni)
e le relazioni tra tensione e corrente ai capi di resistenza e capacità, si ottiene l’equazione differenziale che
descrive il comportamento del circuito:
d
RC y(t) + y(t) = x(t) . (4.77)
dt
Il comportamento di questo sistema è pertanto descritto da una equazione differenziale del primo ordine (N = 1).
Notiamo che tale equazione può essere rappresentata dallo schema a blocchi in retroazione di fig. 4.23. La
4.6 Esempi di sistemi LTI 173

soluzione generale y(t) della (4.77) si può scrivere come:

y(t) = y0 (t) + y p (t) ,

dove y0 (t) è una qualunque soluzione dell’equazione omogenea associata alla (4.77), cioè dell’equazione che
si ottiene ponendo in ingresso x(t) ≡ 0:

d
y(t) + RC y(t) = 0 , (4.78)
dt
mentre y p (t) è una soluzione particolare dell’equazione completa (4.77). Determiniamo prima la soluzione
dell’equazione omogenea: dobbiamo cercare le radici del polinomio caratteristico q(λ ), risolvendo l’equazione
(4.71), che nel nostro caso si riduce alla:

q(λ ) = 1 + RC λ = 0 ,

da cui si ricava l’unica radice λ1 = −1/(RC). In questo caso (R = N = 1), la (4.73) degenera nella (4.72) ed è
composta da un solo termine:

y0 (t) = c1 e−t/RC , c1 ∈ R . (4.79)

Notiamo che, per la presenza della costante moltiplicativa c1 arbitraria, la (4.79) non consente di determinare
univocamente l’uscita del sistema. Per determinare l’evoluzione libera del sistema dobbiamo imporre che la
soluzione omogenea y0 (t) trovata soddisfi le condizioni iniziali (4.66); nel nostro caso (equazione del primo
ordine), dobbiamo imporre la sola condizione y0 (0) = y0 . Dalla (4.79) otteniamo allora che

y0 (0) = c1 = y0 ,

per cui l’evoluzione libera del sistema RC è descritta dal seguente segnale:

ylib (t) = y0 e−t/RC .

Si noti che l’evoluzione libera dipende linearmente dal valore iniziale y0 . La soluzione particolare y p (t) dipende
dal tipo di ingresso, e deve soddisfare l’equazione differenziale completa (4.77). Risolvendo tale equazione
differenziale con la condizione iniziale y p (0) = 0, otteniamo la risposta forzata del sistema. Supponiamo ad
esempio che l’ingresso sia un gradino x(t) = u(t). In questo caso, l’equazione differenziale completa assume la
forma
d d 1 1
y p (t) + RC y p (t) = u(t) ⇐⇒ y p (t) + y p (t) = u(t) .
dt dt RC RC

Se si moltiplicano ambo i membri dell’equazione di destra per l’esponenziale et/RC e si osserva che
 
d 1 d 
et/RC y p (t) + y p (t) = y p (t)et/RC ,
dt RC dt

si ottiene:

d  1 0 , se t < 0 ;
y p (t)et/RC = et/RC u(t) = 1 t/RC
dt RC  e , se t ≥ 0 ;
RC
da cui, per integrazione indefinita,


c2 , se t < 0 ;
y p (t)et/RC = 1 t/RC
 e dt + c3 = et/RC
+ c3 , se t ≥ 0 .
 RC
174 Sistemi lineari tempo-invarianti (LTI)

Imponendo che y p (0) = 0, segue che c3 = −1; inoltre, trattandosi di una equazione differenziale del primo
ordine, la discontinuità di prima specie del segnale x(t) all’istante t = 0 implica una discontinuità della stessa
specie all’istante t = 0 nella derivata prima di y p (t), ma non comporta discontinuità in t = 0 del segnale y p (t),
per cui risulta che c2 = 0.10 Pertanto, la risposta forzata del sistema assume la forma:

yfor (t) = (1 − e−t/RC ) u(t) .

Si osservi che yfor (t) è funzione lineare del segnale di ingresso x(t) = u(t). Inoltre, si può verificare (la verifica è
lasciata al lettore) che la soluzione yt0 (t) dell’equazione differenziale (4.77), ottenuta ponendo x(t) = u(t − t0 ),
con t0 ∈ R − {0} e con la condizione iniziale yt0 (t0 ) = 0, è pari a yt0 (t) = yfor (t −t0 ); in altri termini il legame tra
yfor (t) e x(t) = u(t) è tempo-invariante. La soluzione completa y(t) dell’equazione differenziale corrispondente
all’ingresso x(t) = u(t) si scrive:

y(t) = ylib (t) + yfor (t) = y0 e−t/RC + (1 − e−t/RC ) u(t) . (4.80)

Osserviamo che, per la presenza dell’evoluzione libera, il sistema risultante non è omogeneo (e quindi non è
lineare). Inoltre la presenza di y0 (t) indipendente dall’ingresso rende il sistema non invariante temporalmen-
te. Se allora siamo interessati ad un sistema LTI bisogna fissare come condizione iniziale quella di sistema
inizialmente in quiete, ponendo y0 = 0, e la (4.80) si riduce a

y(t) = yfor (t) = (1 − e−t/RC ) u(t) .

Notiamo a questo punto che, essendo il sistema LTI nelle ipotesi fatte, y(t) = yfor (t) ne rappresenta la sua
risposta al gradino, ovvero

s(t) = (1 − e−t/RC ) u(t) .

Tenendo presente la relazione (4.37) esistente tra risposta al gradino e risposta impulsiva, ricaviamo che la
risposta impulsiva del sistema RC è:
d 1 −t/RC
h(t) = s(t) = e u(t) ,
dt RC
che, ponendo T = RC, corrisponde alla risposta impulsiva (4.50) assegnata nell’es. 4.11. La risposta impulsiva
e la risposta al gradino del sistema RC sono raffigurate in fig. 4.24. Oltre ad essere chiaramente dispersivo, il
sistema LTI ottenuto è causale [h(t) = 0, ∀t < 0] e stabile [h(t) è sommabile]. 

Nel cap. 6 vedremo come sia possibile ottenere la caratterizzazione di un generico sistema descritto
dalla (4.65) in maniera più semplice di quanto visto finora. Nel paragrafo successivo introduciamo
invece una classe di sistemi a TD con proprietà molto simili a quelli a TC descritti da equazioni
differenziali del tipo (4.65).

4.6.2 Sistemi descritti da equazioni alle differenze (sistemi ARMA)


Nel caso TD, una relazione analoga alla (4.65) è la seguente:
N M
∑ ak y(n − k) = ∑ bm x(n − m) , (4.81)
k=0 m=0

nota come equazione alla differenze a coefficienti costanti di ordine N, con N ≥ 0 e aN = 0. Per tale
equazione alle differenze si applicano tutte le considerazioni iniziali fatte per l’equazione differenziale
10 Più in generale, per un’equazione differenziale di ordine N, si dimostra che una discontinuità di prima specie del segnale

x(t) nel punto t0 implica una discontinuità di prima specie nel punto t0 della derivata N-esima del segnale y p (t), ma non
comporta discontinuità nel medesimo punto di y p (t) e di tutte le sue derivate successive fino a quella di ordine N − 1.
4.6 Esempi di sistemi LTI 175

1 1

0.8 0.8

0.6 0.6
RC h(t)

s(t)
0.4 0.4

0.2 0.2

0 0

−2 −1 0 1 2 3 4 5 −2 −1 0 1 2 3 4 5
t/RC t/RC
(a) (b)

Fig. 4.24. Sistema RC (es. 4.16): (a) risposta impulsiva; (b) risposta al gradino.

(4.65). In particolare, i sistemi definiti implicitamente dalla (4.81), sotto opportune ipotesi, sono
sistemi LTI, e sono denominati sistemi auto-regressivi a media mobile (ARMA).
Solo nel caso N = 0, la (4.81) rappresenta una relazione i-u semplice da studiare, in quanto è
possibile ricavare direttamente y(n) in funzione di x(n):
1 M
y(n) = ∑ bm x(n − m) .
a0 m=0
(4.82)

Dal confronto con l’es. 3.9, notiamo che la (4.82) definisce in effetti un sistema a media mobile (MA)
(e quindi LTI e FIR), avente la seguente risposta impulsiva:

 bn , n ∈ {0, 1, . . . , M} ;
h(n) = a0

0, altrimenti .
Per N ≥ 1, analogamente al caso TC, la (4.81) descrive solo implicitamente un sistema; assegnato
il segnale di ingresso x(n), per determinarne la relazione i-u, è necessario risolvere rispetto a y(n)
l’equazione alle differenze. A tale proposito, va detto che la teoria e la pratica delle equazioni alle
differenze, sebbene in principio siano più semplici rispetto alle equazioni differenziali, sono general-
mente meno note ai lettori, ma presentano interessanti analogie con le corrispondenti nozioni valide
per le equazioni differenziali. In particolare, supposto che, a partire da un istante prefissato nin ∈ Z,
sia applicato in ingresso al sistema un dato segnale x(n), per trovare la corrispondente uscita y(n) per
n ≥ nin , è sufficiente conoscere i valori del segnale di uscita negli N istanti di tempo precedenti nin ;
questi valori racchiudono tutte le informazioni circa il passato del sistema necessarie per determinare
il suo comportamento per n ≥ nin . Ponendo per semplicità nin = 0, lo stato iniziale del sistema è
pertanto descritto dalle N condizioni iniziali:
y(−1) = y1 , y(−2) = y2 , . . . , y(−N) = yN , (4.83)
dove y1 , y2 , . . . , yN sono valori (in genere reali) assegnati. Assegnato l’ingresso x(n) per n ≥ nin , si può
provare che la soluzione generale di una equazione del tipo (4.81) si può esprimere, analogamente alle
soluzioni di una equazione differenziale (4.65), come:
y(n) = y0 (n) + y p (n) ,
176 Sistemi lineari tempo-invarianti (LTI)

dove y0 (n) è la soluzione omogenea, ovvero la soluzione generale dell’equazione omogenea associata
alla (4.81):
N
∑ ak y(n − k) = 0 , (4.84)
k=0

mentre y p (n) è una soluzione particolare dell’equazione “completa” (4.81), per la quale si ha:

N M
∑ ak y p (n − k) = ∑ bm x(n − m) . (4.85)
k=0 m=0

Il calcolo della soluzione generale y0 (n) dell’equazione omogenea (4.84) si effettua ragionando simil-
mente al caso TC. Se ci si limita a trovare soluzioni del tipo zn , con z ∈ C e si pone y(n) = zn nella
(4.84), si ottiene:
* +
N
∑ ak z−k zn = q(z) zn = 0 ⇐⇒ q(z) = 0 .
k=0
  
q(z)

Pertanto, l’esponenziale zn è soluzione della (4.84) se e solo se il parametro z è una radice del
polinomio caratteristico q(z), ossia:

q(z) = a0 + a1 z−1 + · · · + aN z−N = 0 , (4.86)

le cui radici possono essere reali, immaginarie oppure complesse.11 Se le N radici del polinomio q(z)
sono distinte, siano esse z1 , z2 , . . . , zN , la soluzione generale della (4.84) è data da:

y0 (n) = c1 zn1 + c2 zn2 + · · · + cN znN , (4.87)

dove c1 , c2 , . . . , cN sono costanti arbitrarie. Se invece il polinomio q(z) presenta R radici distin-
te z1 , z2 , . . . , zR aventi molteplicità N1 , N2 , . . . , NR , rispettivamente, con N1 + N2 + · · · + NR = N, la
soluzione generale della (4.84) assume la forma:
R Ni −1
y0 (n) = ∑ ∑ ci,h nh zni . (4.88)
i=1 h=0

Quindi, come nel caso TC, la soluzione omogenea y0 (n) non è univocamente specificata in quanto
dipende dagli N coefficienti arbitrari ci,h . L’evoluzione libera del sistema ylib (n) corrisponde alla
particolare soluzione omogenea (4.88) che soddisfa le condizioni iniziali (4.83), ossia

y0 (−1) = y1 , y0 (−2) = y2 , . . . , yN (−N) = yN , (4.89)

dipendente solo dalle condizioni iniziali e completamente indipendente dal segnale di ingresso x(n).
Risolvendo il sistema lineare (4.89) si trova che le costanti ci,h sono combinazioni lineari dei valori
y0 , y1 , . . . , yN−1 assunti da y0 (n) per n ∈ {−N, −N + 1, . . . , −1}. Conseguentemente, l’evoluzione
libera ylib (n) del sistema è essa stessa una funzione lineare di y1 , y2 , . . . , yN ; questo vuol dire che
se si impone che il sistema sia inizialmente in quiete, cioè y1 = y2 = · · · = yN = 0, l’evoluzione libera
11 Nel caso in cui i coefficienti del polinomio a , a , . . . , a siano reali, le radici di q(z) sono o reali o complesse coniugate.
0 1 N
4.6 Esempi di sistemi LTI 177

del sistema è nulla, ossia, ylib (n) = 0, ∀n ∈ Z. D’altra parte, la risposta forzata del sistema yfor (n) si
può ottenere cercando una soluzione particolare y p (n) della (4.81) che soddisfa le condizioni:
y p (−1) = y p (−2) = · · · = y p (−N) = 0 ;
essa tiene conto del solo segnale di ingresso x(n) assumendo che siano nulle le condizioni iniziali.
Similmente al caso TC, il legame tra la risposta forzata yfor (n) e il segnale di ingresso x(n) è lineare
e tempo-invariante, e quindi anche in questo caso se x(n) ≡ 0 si ha yfor (n) ≡ 0. In conclusione, la
risposta del sistema può essere scritta come la somma dell’evoluzione libera e della risposta forzata:
y(n) = ylib (n) + yfor (n) . (4.90)
A causa della presenza dell’evoluzione libera, il sistema descritto dalle (4.81) e (4.83) è in generale
lineare per le differenze e tempo-variante. Tale sistema diventa LTI se si impone che il sistema sia
inizialmente in quiete, assegnando y1 = y2 = · · · = yN = 0. I sistemi LTI caratterizzati dalle equazioni
alle differenze del tipo (4.81), con condizioni iniziali nulle, sono detti sistemi ARMA e sono quelli a
cui faremo riferimento nel seguito.
A differenza del caso TC, l’equazione alle differenze (4.81) può essere risolta seguendo un me-
todo alternativo a quello delineato sopra. Tale metodo si basa sull’osservazione che la (4.81) si può
riscrivere lasciando solo y(n) al primo membro:

1 N 1 M
y(n) = − ∑ k
a0 k=1
a y(n − k) + ∑ bm x(n − m) .
a0 m=0
(4.91)

Tale relazione evidenzia che l’uscita y(n) all’istante n può essere calcolata a partire dal valore corrente
del segnale di ingresso x(n), dai valori y(n − 1), y(n − 2), . . . , y(n − N) assunti dal segnale di uscita nei
precedenti N istanti di tempo e dai valori x(n − 1), x(n − 2), . . . , x(n − M) assunti dal segnale di ingres-
so nei precedenti M istanti di tempo. Pertanto, se il segnale di ingresso è applicato al sistema a partire
dall’istante nin = 0, il valore y(0) del segnale di uscita all’istante n = 0 si può calcolare utilizzando
la (4.91), a partire dalla conoscenza del valore corrente del segnale di ingresso x(0) e degli N valori
precedenti dell’uscita y(−1), y(−2), . . . , y(−N) (ovvero le condizioni iniziali assegnate). Successi-
vamente, il valore y(1) del segnale di uscita all’istante n = 1 si può calcolare utilizzando la (4.91),
a partire dalla conoscenza del valore corrente del segnale di ingresso x(1), di quello passato x(0) e
degli N valori precedenti dell’uscita y(0), y(1), . . . , y(−N + 1). Iterando questa procedura è possibile
calcolare ricorsivamente il segnale di uscita y(n) per n ≥ 0, a partire dalla conoscenza del segnale di
ingresso e delle condizioni iniziali assegnate. Tale procedura, che è applicabile solo a TD, prende il
nome di metodo ricorsivo per il calcolo dell’uscita di un sistema il cui funzionamento è determinato
dalla equazione alle differenze (4.81) e dalle condizioni iniziali (4.83).
Nell’esempio che segue, il metodo ricorsivo è applicato allo studio di una semplice equazione alle
differenze del primo ordine.
 Esempio 4.17 (sistema AR del primo ordine) Consideriamo la seguente equazione alle differenze di ordi-
ne N = 1:
a0 y(n) + a1 y(n − 1) = b1 x(n) .
 
Dividendo primo e secondo membro per a0 = 0, e ponendo a = −a1 /a0 e b = b1 /a0 , possiamo riscriverla nella
forma seguente, più semplice,
y(n) − a y(n − 1) = b x(n) , (4.92)
che possiamo esprimere equivalentemente come segue:
y(n) = a y(n − 1) + b x(n) ,
178 Sistemi lineari tempo-invarianti (LTI)

da cui si ricava che l’uscita y(n) all’istante n può essere calcolata a partire dal valore corrente del segnale di
ingresso x(n) e dal valore precedente y(n − 1) del segnale di uscita. Questa interpretazione porta allo schema a
blocchi riportato in fig. 4.25, la cui somiglianza con lo schema di fig. 4.23 sottolinea che l’equazione (4.92) si
può interpretare come la controparte a TD dell’equazione differenziale del sistema RC (cfr. es. 4.16). Imponia-
mo che il sistema sia LTI, assumendo che il sistema sia inizialmente in quiete, ovvero y(−1) = 0. In tale ipotesi,
cerchiamo di determinarne la risposta impulsiva ponendo x(n) = δ (n), in tal caso la corrispondente uscita del
sistema è per definizione proprio la risposta impulsiva, ossia y(n) = h(n). A differenza del caso TC, possiamo
trovare la soluzione h(n) in maniera ricorsiva, scrivendo:

h(n) = a h(n − 1) + b δ (n) .

Così facendo, troviamo iterando in avanti:

h(0) = a h(−1) + b δ (0) = b ,


h(1) = a h(0) + b δ (1) = ab ,
h(2) = a h(1) + b δ (2) = a(ab) = a2 b ,

ed in generale, per n ≥ 0,

h(n) = an b .

Analogamente, iterando all’indietro si ha:

1
h(−2) = [h(−1) − b δ (−2)] = 0 ,
a
1
h(−3) = [h(−2) − b δ (−3)] = 0 ,
a
ed in generale, per n < 0,

h(n) = 0 .

In definitiva, h(n) può essere sinteticamente espressa come

h(n) = b an u(n) .

che è rappresentata graficamente in fig. 4.26 per a = 0.8333 e b = 1. Dalle proprietà della risposta impulsiva,
si vede che il sistema è dispersivo, causale, e stabile per 0 < |a| < 1. È interessante osservare che, ponendo
b = 1, la risposta impulsiva di tale sistema coincide con quella assegnata nell’es. 4.11. Pertanto, il sistema
in esame è un sistema IIR avente memoria praticamente finita, supposto 0 < |a| < 1. La natura IIR di questo
sistema dipende dalla presenza nel sistema di un anello ricorsivo (fig. 4.25), il che giustifica anche il termine
auto-regressivo (AR) utilizzato per tali sistemi. 

Purtroppo il calcolo della risposta impulsiva di un sistema ARMA arbitrario utilizzando il metodo
ricorsivo non è sempre agevole come nell’es. 4.17; nel cap. 6 vedremo che esistono tecniche alternative
per studiare tali sistemi nel dominio della frequenza. Va detto che, in generale, per N ≥ 1, i sistemi
ARMA presentano risposte impulsive di durata infinita, e sono pertanto sistemi IIR.
A conclusione di questo paragrafo, data la notevole importanza dei sistema ARMA nelle appli-
cazioni, ed in particolare nell’elaborazione digitale dei segnali,12 è utile fare qualche considerazione
sulla loro implementazione. A tale proposito, osserviamo che la forma ricorsiva (4.91) dell’equazione
alle differenze (4.81), oltre a fornire un metodo alternativo di risoluzione dell’equazione, suggerisce
anche un modo per realizzare il sistema. Per semplicità, con un leggero abuso di notazione, denotiamo
12 Ad esempio, in Matlab, il comando filter implementa proprio la relazione i-u di un sistema ARMA.
4.6 Esempi di sistemi LTI 179

1
x(n) b y(n)

0.8
z -1
0.6

h(n)
a y(n-1)
0.4

0.2

Fig. 4.25. Schema a blocchi del sistema descritto dal- 0


l’equazione alle differenze y(n) = a y(n − 1) + b x(n)
(es. 4.17). 0 5 10 15 20
n

Fig. 4.26. Risposta impulsiva del sistema LTI


(es. 4.17) descritto dall’equazione alle differenze
y(n) − a y(n − 1) = b x(n) (a = 0.8333 e b = 1).

con ak i rapporti −ak /a0 , per k ∈ {1, 2, . . . , N}, e con bm i rapporti bm /a0 , per m ∈ {0, 1, . . . , M}; così
facendo la (4.91) si riscrive come segue:
N N
y(n) = ∑ ak y(n − k) + ∑ bm x(n − m) , (4.93)
k=1 m=0

in cui abbiamo inoltre assunto senza perdita di generalità che13 N = M. Questa relazione mette in luce
che un sistema ARMA può essere realizzato mediante opportuna interconnessione di tre componenti
elementari: amplificatore/attenuatore ideale, ritardo elementare e sommatore. Precisamente, lo sche-
ma a blocchi corrispondente alla (4.93) è riportato in fig. 4.27. Tale schema evidenzia che un sistema
ARMA può essere decomposto nella serie di due sistemi LTI. Il primo sistema (quello di sinistra)
effettua una semplice elaborazione (consistente in ritardi e moltiplicazioni per costanti) del segnale di
ingresso x(n) producendo in uscita il segnale:
N
z(n) = ∑ bm x(n − m) . (4.94)
m=0

Tale sistema è in effetti un sistema MA di ordine N ed è pertanto un sistema FIR. Il secondo sistema
(quello di destra) ha come ingresso il segnale z(n) e produce in uscita il segnale y(n) secondo la
seguente relazione ricorsiva:
N
y(n) = ∑ ak y(n − k) + z(n) , (4.95)
k=1

in cui l’uscita all’istante n si ricava in funzione del valore attuale del segnale di ingresso z(n) e dei
valori del segnale di uscita negli N istanti precedenti. Questa ricorsione, che giustifica anche il termine
auto-regressivo (AR) utilizzato per tali sistemi, si traduce dal punto di vista grafico nella “reazione
del segnale di uscita” che, opportunamente ritardato e scalato, è riportato indietro verso il segnale di
ingresso z(n). Per effetto della ricorsione, i sistemi AR presentano risposte impulsive di durata infinita,
13 A partire da un sistema ARMA con N = M, è possibile ottenere un sistema con N > M, ponendo a zero i coefficienti
bm , per m ∈ {M + 1, M + 2, . . . , N}; analogamente, è possibile ottenere un sistema con N < M, ponendo a zero i coefficienti
bk , per k ∈ {N + 1, N + 2, . . . , M}.
180 Sistemi lineari tempo-invarianti (LTI)

z(n)
x(n) b0 y(n)

z -1 z -1

x(n-1) b1 a1 y(n-1)

z -1 z -1

x(n-2) b2 a2 y(n-2)
. .
. .
. .
. .
. .
. .
z -1 z -1

x(n-N) bN aN y(n-N)

parte MA parte AR

Fig. 4.27. Realizzazione in forma diretta I di un sistema ARMA (N = M). Lo schema si può vedere come la
cascata della parte MA e della parte AR.

e sono pertanto sistemi IIR. Possiamo quindi dire che la (4.94) rappresenta la parte MA (o FIR) del
sistema, mentre la (4.95) rappresenta la parte AR (o IIR) del sistema. La realizzazione di fig. 4.27 è
comunemente denominata forma diretta I del sistema ARMA. Osserviamo che per tale realizzazione
sono richiesti due banchi costituiti da N ritardi elementari,14 per un totale di 2 N ritardi elementari,
nonchè amplificatori e sommatori. Lo schema di fig. 4.27 può essere riorganizzato allo scopo di
ridurre il numero di ritardi elementari richiesti, senza alterare la natura del sistema. Un modo per
fare ciò consiste nello scambiare l’ordine della parte MA e AR nella cascata; ciò non altera il legame
i-u del sistema, in quanto sia la parte MA che quella AR sono sistemi LTI, ed abbiamo visto che per
i sistemi LTI l’ordine di connessione in serie è inessenziale. Così facendo si giunge alla struttura
modificata rappresentata in fig. 4.28, che è generalmente denominata forma diretta II del sistema
ARMA.15 Si nota che in questa nuova configurazione i due banchi di N ritardi hanno in ingresso il
medesimo segnale u(n) e, pertanto, essi possono essere sostituiti da un unico banco costituito solo da
N elementi di ritardo. In tal modo, si ottiene la struttura cosiddetta canonica riportata in fig. 4.29, che
minimizza il numero di ritardi necessari (e quindi l’ingombro di memoria) per l’implementazione del
sistema ARMA.

14 Un banco di N ritardi è equivalente ad un registro a scorrimento di lunghezza N.


15 Il comando filter di Matlab, precedentemente menzionato, calcola l’uscita di un sistema ARMA utilizzando proprio

la forma diretta II.


4.6 Esempi di sistemi LTI 181

u(n)
x(n) b0 y(n)

z -1 z -1
a1 u(n-1) b1

z -1 z -1
a2 u(n-2) b2
. .
. .
. .
. .
. .
. .
z -1 z -1

aN u(n-N) bN

parte AR parte MA

Fig. 4.28. Realizzazione in forma diretta II di un sistema ARMA (N = M). Lo schema si ottiene facilmente da
quello di fig. 4.27 scambiando l’ordine della parte MA e della parte AR.

u(n)
x(n) b0 y(n)

z -1
a1 b1

z -1
a2 b2
.
.
.
. .
. .
. .
z -1

aN bN
u(n-N)

Fig. 4.29. Realizzazione in forma canonica di un sistema ARMA (N = M). Lo schema si ottiene facilmente da
quello di fig. 4.28 notando che i due banchi di ritardi paralleli possono essere sostituiti da un unico banco.
182 Sistemi lineari tempo-invarianti (LTI)

4.7 Risposta in frequenza di un sistema LTI

Abbiamo visto in questo capitolo che rappresentando un arbitrario segnale di ingresso x(·) come
sovrapposizione (discreta o continua) di impulsi δ (·), è possibile caratterizzare in generale il com-
portamento di un sistema LTI attraverso la sua risposta impulsiva h(·), e scrivere la relazione i-u in
termini di convoluzione discreta (4.7) oppure continua (4.12).
Vedremo nei prossimi capitoli che un’ampia famiglia di segnali di interesse pratico possono es-
sere rappresentati, oltre che come sovrapposizione di impulsi, anche come sovrapposizione di fasori
(esponenziali complessi) a diverse frequenze o, se reali, di sinusoidi (rappresentazioni di Fourier).
Per la proprietà di sovrapposizione degli effetti caratteristica dei sistemi lineari, e dei sistemi LTI in
particolare, e tenendo anche conto del fatto che le sinusoidi stesse si possono esprimere come sovrap-
posizione di una coppia di fasori (formule di Eulero), è allora sufficiente analizzare il comportamento
di un sistema LTI quando esso in ingresso viene sollecitato da un singolo fasore avente frequenza
arbitraria. La caratterizzazione risultante del sistema prende il nome di relazione i-u nel dominio della
frequenza, e la funzione che descrive il sistema in tale rappresentazione è la risposta in frequenza del
sistema LTI. Nei paragrafi seguenti, per comodità di presentazione, studieremo tale rappresentazione
separatamente nel caso TC e nel caso TD.

4.7.1 Risposta ad un fasore di un sistema TC LTI


Un sistema TC LTI è descritto dalla relazione i-u (4.12), che riportiamo di seguito per comodità:
 +∞
y(t) = h(τ ) x(t − τ ) dτ .
−∞

Supponiamo che il segnale di ingresso sia un fasore a frequenza f , avente ampiezza unitaria e fase
iniziale nulla, ovvero poniamo x(t) = e j2π f t . Sostituendo nella relazione i-u del sistema, si ottiene:
 +∞  +∞

j2π f (t−τ ) − j2π f τ


y(t) = h(τ ) e dτ = h(τ ) e dτ e j2π f t .
−∞ −∞

Assumendo che la quantità tra parentesi tonde esista finita, e ponendo:


 +∞

H( f ) = h(τ ) e− j2π f τ dτ , (4.96)
−∞

si ha:

y(t) = H( f ) e j2π f t .

Questa relazione mostra che l’uscita y(t) corrispondente al fasore x(t) = e j2π f t è a sua volta un fasore
avente la stessa frequenza f dell’ingresso, moltiplicato per H( f ). Questa importante proprietà dei
sistemi TC LTI si può riassumere sinteticamente come segue:

Proprietà 4.9 (risposta ad un fasore di un sistema TC LTI)


Si consideri un fasore a frequenza f ∈ R, in ingresso ad un sistema TC LTI con risposta impulsiva
h(t), per il quale la H( f ) definita dalla (4.96) esiste finita. Vale la seguente relazione i-u:

x(t) = e j2π f t −→ y(t) = H( f ) e j2π f t (4.97)


4.7 Risposta in frequenza di un sistema LTI 183

x(t) H(f) y(t) = H( f) e j2πft x(n) H(ν) y(n) = H( ν) e j2πνn

Fig. 4.30. Rappresentazione schematica della Fig. 4.31. Rappresentazione schematica della
risposta ad un fasore di un sistema TC LTI. risposta ad un fasore di un sistema TD LTI.

La prop. 4.9 può anche essere rappresentata dallo schema a blocchi di fig. 4.30. Si noti che tale
proprietà vale anche per f = 0, ed in tal caso il fasore di ingresso degenera nel segnale costante
x(t) = 1, cui corrisponde in uscita ancora un segnale costante y(t) = H(0). La quantità H(0) prende
il nome di guadagno in continua del sistema LTI.
Dalla sua definizione (4.96), osserviamo che H( f ), per ogni fissato valore di f , è in generale una
grandezza complessa, che si può scrivere in termini di ampiezza e fase come segue:

H( f ) = |H( f )| e jH( f ) .

Sostituendo tale espressione nella (4.97), si ha:

y(t) = |H( f )| e jH( f ) e j2π f t = |H( f )| e j[2π f t+H( f )] . (4.98)

La (4.98) mostra in maniera più esplicita l’effetto del sistema sul fasore in ingresso, in particolare
l’ampiezza del fasore viene modificata da |H( f )|, mentre la fase del fasore viene modificata da H( f ).
Notiamo che la frequenza del fasore resta invariata nel passaggio attraverso il sistema LTI.16
Riguardando H( f ) come una funzione complessa della frequenza f ∈ R, essa prende il nome di
risposta in frequenza o risposta armonica del sistema LTI; inoltre il suo modulo |H( f )|, che modifica
l’ampiezza del fasore di ingresso, prende il nome di risposta in ampiezza, mentre la sua fase H( f ),
che modifica la fase del fasore di ingresso, prende il nome di risposta in fase. Vedremo nel cap. 6 che
la relazione (4.96), che definisce H( f ) in funzione di h(τ ), si può interpretare come la trasformata
di Fourier del segnale h(τ ). Sotto opportune ipotesi, generalmente soddisfatte dai segnali di interesse
pratico, tale relazione di trasformata di Fourier è invertibile, e la sua inversa, detta antitrasformata di
Fourier, consente di calcolare la risposta impulsiva h(τ ) a partire dalla risposta armonica H( f ).
È interessante osservare che la risposta in frequenza è sicuramente limitata se la risposta impulsiva
è sommabile, ovvero se il sistema è stabile. La prova di questo risultato si ottiene osservando che:
 +∞   +∞  +∞
 

|H( f )| =  h(τ ) e− j2π f τ 
dτ  ≤ |h(τ )| |e− j2π f τ
| dτ = |h(τ )|dτ , ∀f ∈ R,
−∞ −∞    −∞
=1

da cui segue che, se h(τ ) è sommabile, allora l’integrale all’ultimo membro dell’equazione precedente
esiste finito e, conseguentemente, |H( f )| < +∞, ∀ f ∈ R. Quindi, la prop. 4.9 si applica sicuramente
a tutti i sistemi stabili.
16 Il fatto che ad un fasore in ingresso corrisponda un fasore in uscita alla stessa frequenza, evidenzia che i fasori sono

segnali particolari per i sistemi LTI, in quanto restano sostanzialmente inalterati nel passaggio attraverso il sistema stesso.
Tale proprietà si esprime, per analogia con la corrispondente proprietà dell’algebra lineare, dicendo che i fasori sono le
autofunzioni dei sistemi LTI. Infatti, poiché nell’algebra lineare una trasformazione lineare è descritta da una matrice A,
ovvero si ha y = A x, la relazione A e = λ e che definisce gli autovettori e gli autovalori si può interpretare come il fatto
che il vettore e viene trasformato da A nel vettore λ e, proporzionale a e. Per completare l’analogia, si noti allora che la
funzione H( f ) gioca il ruolo del coefficiente di proporzionalità λ , cioè dell’autovalore. Questa analogia può essere resa
rigorosa utilizzando concetti matematici più avanzati, in particolare concetti di analisi funzionale.
184 Sistemi lineari tempo-invarianti (LTI)

Supposto H( f ) finita, la prop. 4.9 consente anche di fornire una definizione della risposta in
frequenza alternativa alla (4.96), ovvero

 y(t) 
H( f ) =  , (4.99)
x(t) x(t)=e j2π f t

secondo la quale H( f ) si esprime come il rapporto tra l’uscita e l’ingresso quando l’ingresso è un fa-
sore a frequenza f , avente ampiezza unitaria e fase iniziale nulla. Questa definizione è di grande utilità
per ricavare direttamente la risposta armonica dei sistemi TC LTI descritti da equazioni differenziali
lineari a coefficienti costanti (cfr. § 4.6.1), come dimostrato dall’esempio seguente.
 Esempio 4.18 (risposta in frequenza di un sistema RC) Consideriamo il sistema RC dell’es. 4.16, raffi-
gurato in fig. 4.22. Applicando i principi di Kirchoff e le relazioni tensione-corrente per i componenti R e C, si
perviene alla seguente equazione differenziale, che descrive il comportamento del sistema:

dy(t)
RC + y(t) = x(t) . (4.100)
dt
Abbiamo visto nell’es. 4.16 (si veda anche il § 4.6.1) che, nell’ipotesi in cui il sistema sia inizialmente in
quiete [y(0) = 0] tale equazione differenziale definisce univocamente un sistema LTI causale e stabile, avente
1 −t/RC
risposta impulsiva h(t) = RC e u(t). Sfruttando la conoscenza di h(t), è possibile allora calcolare la risposta
in frequenza H( f ) mediante la (4.96): questo approccio equivale ad effettuare la trasformata di Fourier di
h(t), e sarà ulteriormente approfondito nel cap. 6. È più semplice invece – e non richiede la conoscenza
di h(t) – calcolare la risposta in frequenza del sistema utilizzando la (4.99), ossia ponendo x(t) = e j2π f t e
y(t) = H( f ) e j2π f t , e sostituendo tali espressioni nell’equazione differenziale (4.100) che descrive il sistema.
Notando infatti che
dy(t) d( )
= H( f ) e j2π f t = j2π f H( f ) e j2π f t ,
dt dt
sostituendo nella (4.100) si ha:

RC j2π f H( f ) e j2π f t + H( f ) e j2π f t = e j2π f t ,

da cui mettendo in evidenza e j2π f t si ottiene:

(RC j2π f + 1) H( f ) e j2π f t = e j2π f t .

Affinché l’uguaglianza precedente possa valere per ogni t ∈ R, deve risultare necessariamente:

(RC j2π f + 1) H( f ) = 1 ,

da cui si ottiene infine la risposta in frequenza di un sistema RC:


1
H( f ) = .
1 + j2π f RC
La precedente relazione mostra effettivamente che H( f ) è una funzione complessa di f , della quale è facile
ricavare modulo e fase, che definiscono rispettivamente la risposta in ampiezza e la risposta in fase del sistema
RC:
1
|H( f )| = # (risposta in ampiezza)
1 + (2π f RC)2
H( f ) = − arctan(2π f RC) (risposta in fase)

che sono rappresentate graficamente in fig. 4.32 in funzione di 2π f RC. Particolarmente interessante è notare
che la risposta in ampiezza è uguale ad 1 solo per f = 0, mentre assume valori minori di 1 per f = 0 e decrescenti
4.7 Risposta in frequenza di un sistema LTI 185

|H(f)|
0.5

0
−10 −5 0 5 10
2πfRC

1
∠ H(f)

−1

−10 −5 0 5 10
2πfRC

Fig. 4.32. Risposta in frequenza di un sistema RC


(es. 4.18): risposta in ampiezza (in alto); risposta in
fase (in basso).

al crescere di | f |. In virtù di questo comportamento, solo il fasore a frequenza f = 0 (coincidente con il segnale
costante x(t) = 1) non viene attenuato in ampiezza passando attraverso il sistema, mentre i fasori a frequenza
f = 0 subiscono attenuazioni di ampiezza, crescenti al crescere di | f |. Un sistema di questo tipo, che introduce
un’attenuazione di ampiezza crescente con la frequenza, viene chiamato filtro passabasso.
Come osservazione conclusiva, notiamo che, a prima vista, si potrebbe pensare che nella strada seguita per
determinare H( f ) si sia sfruttata solo l’equazione differenziale (4.100) e non la condizione iniziale y(0) = 0;
il che potrebbe far pensare che il risultato ottenuto è valido anche se il sistema non è inizialmente in quiete.
Tale conclusione non è corretta. Infatti, nell’imporre che l’uscita corrispondente al segnale x(t) = e j2π f t avesse
l’espressione y(t) = H( f ) e j2π f t , si è implicitamente imposto che il sistema sia LTI, il che è vero se e solo se
y(0) = 0. Quindi, supposto H( f ) finita, cercare la soluzione y(t) = H( f ) e j2π f t dell’equazione differenziale
assegnata è equivalente ad imporre la condizione iniziale y(0) = 0. 

La prop. 4.9 e l’es. 4.18 mostrano che un sistema LTI tratta i fasori presenti al suo ingresso diversamen-
te a seconda della loro frequenza, modificandone sia l’ampiezza che la fase con una legge dipendente
da f : tale comportamento, che assume una importanza rilevante nello studio dei sistemi LTI, va sotto
il nome di proprietà di selettività in frequenza dei sistemi LTI, e sarà ulteriormente approfondito nei
prossimi capitoli. In particolare, è importante osservare che la risposta in frequenza di un sistema può
anche annullarsi ad una data frequenza f0 , cioè H( f0 ) = 0; questo significa che se si mette in ingresso
a tale sistema un fasore avente frequenza f0 , la corrispondente uscita è nulla. Pertanto, dato un sistema
LTI, se l’ingresso è nullo, la corrispondente uscita è necessariamente nulla (cfr. prop. 3.4); tuttavia,
l’uscita di un sistema LTI può essere nulla anche quando in ingresso al sistema è posto un segnale non
nullo. In altri termini, il sistema può “sopprimere” completamente il segnale di ingresso.
L’es. 4.18 conferma che la funzione H( f ) data dalla (4.96) o dalla (4.99) è in generale una funzio-
ne complessa. Se il sistema LTI è reale, ovvero la sua risposta impulsiva h(t) è una funzione reale, è
possibile provare che tale funzione complessa gode di una particolare proprietà di simmetria. Infatti,
coniugando la (4.96), si ottiene:
 +∞  +∞
H ∗( f ) = h∗ (τ ) e j2π f τ dτ = h(τ ) e− j2π (− f )τ dτ = H(− f ) ,
−∞ −∞

dove si è sfruttato il fatto che, se h(τ ) è reale, risulta h∗ (τ ) = h(τ ). In definitiva, per un sistema reale,
si ha:
H ∗ ( f ) = H(− f ) . (4.101)
186 Sistemi lineari tempo-invarianti (LTI)

Tale proprietà di simmetria della risposta in frequenza H( f ) prende il nome di simmetria hermitiana,
ed è conseguenza del fatto che h(t) è una funzione reale. Utilizzando la formula di antitrasformazione
di Fourier (cfr. cap. 6) si può anche provare che, se vale la (4.101), allora la h(t) è necessariamente
reale. In termini matematici, quindi, la simmetria hermitiana della H( f ) è una condizione necessa-
ria e sufficiente affinché la risposta impulsiva h(t) sia reale (e quindi affinché il sistema sia reale).
Notiamo che, ponendo f = 0 nella (4.101), si ottiene H ∗ (0) = H(0), e quindi si ricava che H(0) è
necessariamente reale, ovvero il guadagno in continua di un sistema reale è reale.
Nel caso particolare in cui H( f ) assume solo valori reali, la simmetria hermitiana (4.101) si riduce
alla convenzionale proprietà di simmetria pari. Più in generale, è possibile interpretare la simmetria
hermitiana di H( f ) come simmetria pari/dispari della risposta in ampiezza ed in fase. Infatti se si
esprime H( f ) in termini di modulo e fase:

H( f ) = |H( f )| e jH( f ) ,
dalla (4.101) si ha:
|H( f )| e− jH( f ) = |H(− f )| e jH(− f ) ,
da cui, uguagliando modulo e fase del primo e del secondo membro, si ha necessariamente:
|H( f )| = |H(− f )| , (4.102)
H( f ) = −H(− f ) . (4.103)
La (4.102) mostra in particolare che la risposta in ampiezza di un sistema reale è una funzione pari di
f , mentre la (4.102) mostra che la risposta in fase di un sistema reale è una funzione dispari di f (a
meno di multipli di 2π ).
 Esempio 4.19 (simmetria hermitiana della risposta in frequenza di un sistema RC) La risposta impul-
1 −t/RC
siva di un sistema RC è la funzione reale h(t) = RC e u(t), per cui esso è un sistema reale, e quindi la
sua risposta in frequenza H( f ) presenta la proprietà di simmetria hermitiana. Tale proprietà si può provare
analiticamente, notando che
1 1
H ∗( f ) = = = H(− f ) ,
1 − j2π f RC 1 + j2π (− f )RC
oppure anche graficamente, notando (fig. 4.32) che la risposta in ampiezza è una funzione pari, e la risposta in
fase è una funzione dispari. 

4.7.2 Risposta ad un fasore di un sistema TD LTI


Le considerazioni sviluppate nel precedente paragrafo nel caso TC si possono ripetere per il caso TD,
con poche modifiche. Partiamo dalla relazione i-u (4.7) per un sistema TD LTI, che riportiamo di
seguito per comodità:
+∞
y(n) = ∑ h(k) x(n − k) .
k=−∞

Supponiamo che l’ingresso x(n) sia un fasore a frequenza ν ∈ R, avente ampiezza unitaria e fase
iniziale nulla, ovvero poniamo x(n) = e j2πν n . Sostituendo l’espressione di x(n) nella relazione i-u del
sistema, si ottiene:
* +
+∞ +∞
y(n) = ∑ h(k) e j2πν (n−k) = ∑ h(k) e− j2πν k e j2πν n
k=−∞ k=−∞
4.7 Risposta in frequenza di un sistema LTI 187

Nell’ipotesi che la serie bilatera tra parentesi tonde converga, poniamo:


+∞

H(ν ) = ∑ h(k) e− j2πν k , (4.104)
k=−∞

per cui si può scrivere:

y(n) = H(ν ) e j2πν n ,

e quindi l’uscita y(n) corrispondente al fasore x(n) = e j2πν n è un fasore avente la stessa frequenza
ν dell’ingresso, moltiplicato per la quantità H(ν ). Tale importante proprietà è riassunta schematica-
mente di seguito:

Proprietà 4.10 (risposta ad un fasore di un sistema TD LTI)


Si consideri un fasore a frequenza ν ∈ R, in ingresso ad un sistema TD LTI con risposta impulsiva
h(n), per il quale la H(ν ) definita dalla (4.104) esiste finita. Vale la seguente relazione i-u:

x(n) = e j2πν n −→ y(n) = H(ν ) e j2πν n (4.105)

La prop. 4.10, analogamente al caso TC, può essere rappresentata schematicamente come in fig. 4.31.
Tale proprietà vale anche per ν = 0, ed in tal caso il fasore di ingresso degenera nel segnale costante
x(n) = 1, cui corrisponde in uscita ancora un segnale costante y(n) = H(0). La quantità H(0) prende
anche in questo caso il nome di guadagno in continua del sistema LTI.
Riguardata come funzione complessa della variabile ν ∈ R, la funzione H(ν ) prende il nome di
risposta in frequenza o risposta armonica del sistema TD LTI. Il modulo e la fase di H(ν ), come nel
caso TC, prendono il nome di risposta in ampiezza e in fase, rispettivamente, in quanto agiscono sul-
l’ampiezza e sulla fase del fasore di ingresso. Anche in questo caso la relazione matematica (4.104)
che definisce H(ν ) in funzione di h(k) è una trasformata di Fourier, e sotto opportune ipotesi mostre-
remo che tale relazione è invertibile, per cui è possibile ricavare h(k) a partire da H(ν ) mediante una
antitrasformata di Fourier.
Notiamo che, come nel caso TC, la risposta in frequenza esiste finita per ogni ν ∈ R se il sistema
è stabile, ovvero h(k) è sommabile. Quest’ultimo risultato discende dal fatto che
 
 +∞  +∞ +∞
 
|H(ν )| =  ∑ h(k) e− j2πν k  ≤ ∑ |h(k)| |e− j2πν k | = ∑ |h(k)| , ∀ν ∈ R ,
k=−∞  k=−∞    k=−∞
k=1

da cui segue che, se h(k) è sommabile, allora la serie all’ultimo membro dell’equazione di cui sopra è
convergente e, conseguentemente, |H(ν )| < +∞, ∀ν ∈ R. Quindi, la prop. 4.10 si applica sicuramente
a tutti i sistemi stabili.
Una differenza importante tra la risposta in frequenza nel caso TC e quella nel caso TD è legata
alla proprietà di periodicità in frequenza dei fasori TD (cfr. § 2.3.3). Infatti, poiché nel caso TD
due fasori aventi frequenze ν e ν + 1 coincidono, ci aspettiamo che il sistema LTI li tratti allo stesso
modo, e quindi che la risposta in frequenza assuma gli stessi valori in corrispondenza di tali frequenze,
ovvero

H(ν ) = H(ν + 1) , ∀ν ∈ R .

Questa relazione si può provare facilmente (vedi dopo), ed esprime il fatto che la funzione H(ν ) è
periodica in frequenza di periodo 1. Vale pertanto la seguente proprietà:
188 Sistemi lineari tempo-invarianti (LTI)

Proprietà 4.11 (periodicità della risposta in frequenza di un sistema TD LTI)


La risposta in frequenza H(ν ) di un sistema LTI a TD, definita dalla (4.104), è periodica di
periodo unitario, ossia:

H(ν ) = H(ν + 1) , ∀ν ∈ R .

Prova. La prova è banale, e discende direttamente dalla definizione (4.104) e dalla periodicità in frequenza
dei fasori TD. Calcolando direttamente H(ν + 1), si ha:

+∞ +∞ +∞
H(ν + 1) = ∑ h(k) e− j2π (ν +1)k = ∑ h(k) e− j2πν k e−
j2π k
= ∑ h(k) e− j2πν k = H(ν ) ,
k=−∞ k=−∞ =1 k=−∞

come si voleva dimostrare. 

Anche nel caso TD, supposto H(ν ) finita, la prop. 4.10 consente di fornire una definizione della
risposta in frequenza alternativa alla (4.104), e precisamente:

 y(n) 
H(ν ) =  (4.106)
x(n) x(n)=e j2πν n

ovvero come rapporto tra l’uscita e l’ingresso quando l’ingresso è un fasore a frequenza ν , avente
ampiezza unitaria e fase iniziale nulla. Questa definizione è di grande utilità per ricavare direttamente
la risposta armonica di un sistema LTI descritto da una equazione alle differenze lineare a coefficienti
costanti (cfr § 4.6.2), come dimostrato dall’esempio seguente.
 Esempio 4.20 (risposta in frequenza di un sistema AR del primo ordine) Consideriamo il sistema AR del-
l’es. 4.17, descritto dalla seguente equazione alle differenze:

y(n) = a y(n − 1) + b x(n) . (4.107)

Abbiamo visto nell’es. 4.17 che, nell’ipotesi di condizioni iniziali nulle, ossia y(−1) = 0, tale equazione alle
differenze definisce univocamente un sistema LTI causale, avente risposta impulsiva h(n) = b an u(n), che risulta
stabile se |a| < 1. Invece di sostituire l’espressione di h(n) nella (4.104), utilizziamo la (4.99), ossia sostituiamo
x(n) = e j2πν n e y(n) = H(ν ) e j2πν n nella (4.107). Si ha:

H(ν ) e j2πν n = a H(ν ) e j2πν (n−1) + b e j2πν n ,

da cui raggruppando i termini si ottiene:


 
H(ν ) 1 − a e− j2πν e j2πν n = b e j2πν n .

Affinché l’uguaglianza precedente sia verificata per ogni n ∈ Z, deve risultare:


 
H(ν ) 1 − a e− j2πν = b ,

da cui si ottiene infine la risposta in frequenza di un sistema AR del primo ordine:

b
H(ν ) = .
1 − a e− j2πν

Bisogna osservare che il procedimento seguito è corretto solo nell’ipotesi che la funzione H(ν ) definita dalla
(4.104) esiste finita; abbiamo visto che una condizione sufficiente affinché ciò accada è che h(n) sia sommabile
4.7 Risposta in frequenza di un sistema LTI 189

2 2
|H(ν)|

|H(ν)|
1 1

0 0
−2 −1 0 1 2 −2 −1 0 1 2
ν ν

1 1
∠ H(ν)

∠ H(ν)
0 0

−1 −1

−2 −1 0 1 2 −2 −1 0 1 2
ν ν

Fig. 4.33. Risposta in frequenza di un sistema AR del Fig. 4.34. Risposta in frequenza di un sistema AR del
primo ordine (es. 4.20) per a = 0.5: risposta in am- primo ordine (es. 4.20) per a = −0.5: risposta in am-
piezza (in alto); risposta in fase (in basso). Si noti che piezza (in alto); risposta in fase (in basso). Si noti che
le risposte sono periodiche di periodo 1. le risposte sono periodiche di periodo 1.

(sistema stabile), il che accade se e solo se |a| < 1. La risposta in ampiezza e la risposta in fase del sistema AR
si ottengono applicando semplici risultati di algebra dei numeri complessi, e si possono esprimere come

|b| |b|
|H(ν )| = $ =# ,
[1 − a cos(2πν )]2 + a2 sin2 (2πν ) 1 + a2 − 2 a cos(2πν )
 
a sin(2πν )
H(ν ) = b − arctan ,
1 − a cos(2πν )

che sono rappresentate graficamente in fig. 4.33 per a = 0.5 e b = 1, ed in fig. 4.34 per a = −0.5 e b = 1.
Abbiamo rappresentato modulo e fase nell’intervallo ν ∈ (−2, 2), per evidenziare la periodicità di H(ν ) con
periodo unitario; in pratica tenendo conto di questa osservazione sarebbe stato sufficiente rappresentare modulo
e fase in un qualunque intervallo di ampiezza unitaria, come ν ∈ (0, 1) oppure ν ∈ (−1/2, 1/2). Una differenza
importante che emerge dal confronto tra gli spettri di ampiezza per a = 0.5 e a = −0.5 è il fatto che nel primo
caso si ha un massimo per ν = 0 (e, per la periodicità, per tutti i punti ν = k, k ∈ Z), mentre nel secondo caso
si ha un massimo per ν = 12 (e, per la periodicità, per tutti i punti ν = 12 + k, k ∈ Z). Ricordando (cfr. § 2.3.3)
che nel caso TD le frequenze ν = 12 + k, k ∈ Z, rappresentano quelle dei fasori più rapidamente variabili (e
quindi vanno considerate come le alte frequenze nel caso TD), possiamo concludere che per a = −0.5 (ma più
in generale, per −1 < a < 0) il sistema LTI si comporta come un filtro passaalto, mentre per a = 0.5 (più in
generale, per 0 < a < 1) il sistema si comporta come un filtro passabasso. 

La proprietà 4.10 e l’es. 4.20 mostrano che un sistema LTI, anche nel caso TD, tratta selettivamente i
fasori in ingresso a secondo della frequenza ν (selettività in frequenza dei sistemi LTI). In particolare,
se la risposta in frequenza si annulla alla frequenza ν , un fasore a frequenza ν è completamente
soppresso dal sistema, nel senso che la corrispondente uscita è nulla. Anche nel caso TD, inoltre, se
h(n) è una funzione reale (sistema reale), la H(ν ) gode della proprietà di simmetria hermitiana:

H ∗ (ν ) = H(−ν ) , (4.108)

che si può esprimere equivalentemente, come nel caso TC, dicendo che il modulo è una funzione pari
di ν , e la fase una funzione dispari di ν (a meno di multipli di 2π ). Ad esempio, si può verificare
analiticamente che la risposta in frequenza H(ν ) dell’es. 4.20 soddisfa la (4.108), e d’altra parte
190 Sistemi lineari tempo-invarianti (LTI)

dalle fig. 4.33 e 4.34 appare chiaro che lo spettro di ampiezza ha simmetria pari, e quello di fase ha
simmetria dispari.
Concludiamo sottolineando che le relazioni i-u per i fasori viste in questa sezione (prop. 4.9 per
il caso TC e 4.10 per il caso TD) sono di grande importanza teorica per il seguito della trattazione, e
saranno frequentemente utilizzate nei capitoli seguenti.

4.7.3 Risposta ad una sinusoide di un sistema LTI reale


Data la relazione lineare esistente tra fasori e sinusoidi (formule di Eulero), è semplice ricavare le
relazioni i-u per le sinusoidi in ingresso a sistemi LTI applicando il principio di sovrapposizione. Si
consideri, ad esempio, il segnale sinusoidale TC a frequenza f0 ∈ R:

x(t) = A cos(2π f0t + ϕ0 ) .

Applicando la formula di Eulero, esso può essere espresso come sovrapposizione di due fasori:

A j(2π f0t+ϕ0 ) A − j(2π f0t+ϕ0 ) A jϕ0 j2π f0t A − jϕ0 − j2π f0t
x(t) = e + e = e e + e e .
2 2 2 2

Notando che le quantità A2 e jϕ0 e A2 e− jϕ0 sono delle semplici costanti moltiplicative complesse (non
dipendenti cioè dal tempo t), è possibile applicare il principio di sovrapposizione (3.23) e successiva-
mente la (4.97), ottenendo:

A jϕ0 A
y(t) = e H( f0 ) e j2π f0t + e− jϕ0 H(− f0 ) e− j2π f0t .
2 2
In generale, la precedente relazione non fornisce un segnale y(t) reale. Se però il sistema LTI è
reale, la H( f ) gode della proprietà di simmetria hermitiana (4.101), per cui la relazione precedente si
semplifica notevolmente, evidenziando che il segnale y(t) è reale.17 Infatti, poiché H ∗ ( f0 ) = H(− f0 ),
i due addendi della precedente relazione sono uno il coniugato dell’altro, per cui si ha:
 
A j(2π f0 t+ϕ0 )
y(t) = 2 Re H( f0 ) e = A |H( f0 )| cos[2π f0t + ϕ0 + H( f0 )] .
2

La relazione trovata mostra che l’uscita y(t) corrispondente ad una sinusoide a frequenza f0 è ancora
una sinusoide alla stessa frequenza, con ampiezza modificata da |H( f0 )| e fase modificata da H( f0 ).
Un ragionamento analogo si può effettuare per la funzione seno, e quindi sinteticamente è possibile
enunciare la proprietà seguente:

Proprietà 4.12 (risposta ad una sinusoide di un sistema TC LTI)


Si consideri una sinusoide (coseno o seno) a frequenza f0 ∈ R, in ingresso ad un sistema TC LTI
con risposta impulsiva reale h(t), per il quale H( f ) definita dalla (4.96) esiste finita per f = f0 .
Valgono le seguenti relazioni i-u:

x(t) = A cos(2π f0t + ϕ0 ) −→ y(t) = A |H( f0 )| cos[2π f0t + ϕ0 + H( f0 )] ; (4.109)


x(t) = A sin(2π f0t + ϕ0 ) −→ y(t) = A |H( f0 )| sin[2π f0t + ϕ0 + H( f0 )] . (4.110)

17 D’altraparte, un sistema reale sollecitato da un segnale di ingresso reale deve necessariamente restituire in uscita un
segnale reale.
4.7 Risposta in frequenza di un sistema LTI 191

generatore in1
sinusoidale

x(t) circuito y(t) in2


elettrico
f 0 (variabile )
oscilloscopio a
doppia traccia

Fig. 4.35. Schema di principio per la misura della risposta in frequenza di un circuito elettronico (es. 4.21).

Si può immediatamente osservare che, se H( f0 ) = 0, allora l’uscita corrispondente ad un segnale di


ingresso sinusoidale/cosinusoidale a frequenza f0 è identicamente nulla. Notiamo in effetti che la
(4.110) si può ottenere come caso particolare della (4.109) introducendo un opportuno sfasamento di
π /2. Inoltre, la prop. 4.12 vale con ovvi cambi di notazione anche per il caso tempo-discreto, ed è
riportata di seguito per completezza, lasciando al lettore gli ovvi passaggi per la sua dimostrazione:

Proprietà 4.13 (risposta ad una sinusoide di un sistema TD LTI)


Si consideri una sinusoide (coseno o seno) a frequenza ν0 ∈ R, in ingresso ad un sistema TD LTI
con risposta impulsiva reale h(n), per il quale H(ν ) definita dalla (4.104) esiste finita per ν = ν0 .
Valgono le seguenti relazioni i-u:

x(n) = A cos(2πν0 n + ϕ0 ) −→ y(n) = A |H(ν0 )| cos[2πν0t + ϕ0 + H(ν0 )] ; (4.111)


x(n) = A sin(2πν0t + ϕ0 ) −→ y(n) = A |H(ν0 )| sin[2πν0t + ϕ0 + H(ν0 )] . (4.112)

Analogamente al caso TC, se H(ν0 ) = 0, allora l’uscita corrispondente ad un segnale di ingresso


sinusoidale/cosinusoidale a frequenza ν0 è identicamente nulla.
 Esempio 4.21 (misura sperimentale della risposta in frequenza di un circuito elettrico) La prop. 4.12 è
alla base di una semplice tecnica sperimentale utilizzata per la determinazione della risposta in frequenza di un
circuito elettrico. Si consideri lo schema di misura di fig. 4.35, nel quale si collega un generatore sinusoidale
(con frequenza f0 variabile) all’ingresso del circuito elettrico da analizzare; un oscilloscopio a doppia traccia,
capace cioè di rappresentare due segnali su uno stesso visore, viene collegato all’ingresso e all’uscita del circui-
to, in modo che da rappresentare i segnali x(t) e y(t) sovrapposti (fig. 4.35). Posto x(t) = Ax cos(2π f0t + ϕx ) e
y(t) = Ay cos(2π f0t + ϕy ), notiamo che per la proprietà 4.12 si ha Ay = |H( f0 )|Ax e ϕy = ϕx + H( f0 ). Pertanto
confrontando le ampiezze dei segnali si può calcolare il valore di |H( f0 )| come
Ay
|H( f0 )| = ,
Ax
mentre calcolando la differenza temporale ∆t = ty − tx esistente tra le due sinusoidi (ad esempio, considerando
due attraversamenti dell’origine con pendenza positiva), è semplice risalire allo sfasamento H( f0 ) = ϕy − ϕx
introdotto dal sistema risolvendo una semplice proporzione:
ϕy − ϕx ty − tx ∆t ∆t
= = =⇒ H( f0 ) = ϕy − ϕx = 2π = 2π ∆t f0 .
2π T0 T0 T0
In definitiva, sollecitando il circuito con una sinusoide a frequenza f0 possiamo ricavare la risposta in ampiezza
ed in fase del sistema alla frequenza f0 . Variando la frequenza f0 del generatore (a scatti oppure in maniera
192 Sistemi lineari tempo-invarianti (LTI)

continua), è possibile ripetere la procedura vista in corrispondenza di più valori di frequenza, in modo da otte-
nere un campionamento sufficientemente fitto della funzione H( f ), e ricavare la H( f ) mediante interpolazione
numerica o grafica. La tecnica vista si può estendere anche a sistemi di natura diversa da quella elettrica (ad
esempio, a sistemi meccanici), a patto di disporre di opportuni trasduttori ed attuatori. 
4.8 Esercizi proposti 193

4.8 Esercizi proposti


Esercizio 4.1 Determinare e diagrammare la risposta impulsiva dei seguenti sistemi LTI. Successivamente,
dall’esame della risposta impulsiva, stabilire se il sistema è non dispersivo, causale, stabile.
 t
(a) y(t) = x(τ ) dτ .
−∞
(b) y(t) = 3 x(t) + 5 x(t − 2).
 +∞

τ − 0.5T
(c) y(t) = rect x(t − τ ) dτ (T ∈ R+ ).
−∞ T
 T
(d) y(t) = x(t − τ ) dτ (T ∈ R+ ).
0
 t
(e) y(t) = x(τ ) dτ (T ∈ R+ ).
t−T
 t+T
(f) y(t) = x(τ ) dτ (T ∈ R+ ).
t
 +∞
1 x(τ )
(g) y(t) = dτ (trasformata di Hilbert).
π −∞ t −τ
[Suggerimento: per determinare h(t) applicare x(t) = δ (t) e semplificare utilizzando le proprietà dell’im-
pulso; in alternativa cercare di esprimere direttamente la relazione tra y(t) ed x(t) come una convoluzione.]

Risultato: (a) h(t) =u(t), dispersivo,


 causale, instabile; (b) h(t) = 3 δ (t) + 5 δ (t − 2), dispersivo,causale,

stabile; (c) h(t) = rect t−0.5T
T , dispersivo, causale, stabile; (d) come (c); (e) come (c); (f) h(t) = rect t+0.5T
T ,
dispersivo, non causale, stabile; (g) h(t) = 1/(π t), dispersivo, non causale, instabile.

Esercizio 4.2 Determinare e diagrammare la risposta impulsiva dei seguenti sistemi LTI. Successivamente,
dall’esame della risposta impulsiva, stabilire se il sistema è non dispersivo, causale, stabile.

(a) y(n) = x(n) + 2 x(n − 1) − 3x(n − 2).


n
(b) y(n) = ∑ x(k).
k=−∞
M2
(c) y(n) = ∑ (−1)k x(n − k) (M1 , M2 ∈ N).
k=−M1

(d) y(n) = ∑ x(n − k).


|k|≤3
+∞
(e) y(n) = ∑ x(n − k).
k=0
+∞
1
(f) y(n) = ∑|k|
x(n − k).
k = −∞
k = 0
+∞

1
(g) y(n) = ∑ 1 + |k|
x(n − k).
k=−∞

[Suggerimento: vedi esercizio precedente.]

Risultato: (a) h(n) = δ (n) + 2δ (n − 1) − 3δ (n − 2), dispersivo, causale, stabile; (b) h(n) = u(n), dispersivo,
M2
causale, instabile; (c) h(n) = ∑ (−1)k δ (n − k), dispersivo, non causale, stabile; (d) h(n) = ∑ δ (n − k),
k=−M1 |k|≤3
194 Sistemi lineari tempo-invarianti (LTI)


0, n=0
dispersivo, non causale, stabile; (e) come (b); (f) h(n) = , dispersivo, non causale, instabile; (g)
1
|n| , n = 0
1
h(n) = , dispersivo, non causale, instabile.
1 + |n|

Esercizio 4.3 Utilizzando le proprietà degli impulsi e quelle della convoluzione, semplificare il più possibile
le seguenti espressioni:
(a) δ (t) ∗ δ (t).
(b) δ (t − 5) ∗ x(t + 5).
(c) δ (n) ∗ δ (n − 2).
!
+∞
(d) ∑ δ (t − kT0 ) ∗ x(t).
k=−∞
!
+∞
(e) ∑ δ (n − kN0 ) ∗ x(n).
k=−∞

(f) δ (2t) ∗ x(t).


(g) δ (2n) ∗ x(n).

+∞ +∞
Risultato: (a) δ (t); (b) x(t); (c) δ (n − 2); (d) ∑ x(t − kT0 ) = repT0 [x(t)]; (e) ∑ x(n − kN0 ) = repN0 [x(n)];
k=−∞ k=−∞
(f) 12 x(t); (g) x(n).

Esercizio 4.4 Siano x(n) = δ (n) + 2δ (n − 1) − δ (n − 3) e h(n) = 2δ (n + 1) + 2δ (n − 1). Adoperando le


proprietà della convoluzione, calcolare e diagrammare le seguenti convoluzioni:
(a) y1 (n) = x(n) ∗ h(n).
(b) y2 (n) = x(n + 2) ∗ h(n).
(c) y3 (n) = x(n) ∗ h(n + 2).
(d) y4 (n) = x(n − 2) ∗ h(n + 2).

Risultato: (a) y1 (n) = 2δ (n + 1) + 4δ (n) + 2δ (n − 1) + 2δ (n − 2) − 2δ (n − 4); (b) y2 (n) = y1 (n + 2); (c)


y3 (n) = y2 (n); (d) y4 (n) = y1 (n).

Esercizio 4.5 Il segnale di ingresso x(n) e la risposta impulsiva h(n) di un sistema LTI sono dati da:

n−2
1
x(n) = u(n − 2) e h(n) = u(n + 2) .
2

Determinare analiticamente e rappresentare graficamente il segnale di uscita y(n).


[Suggerimento: applicare la proprietà di invarianza temporale della convoluzione.]
  n+1 
Risultato: y(n) = 2 1 − 12 u(n).

Esercizio 4.6 Un sistema LTI avente risposta impulsiva h(t) = eat u(t) con a ∈ R − {0} è sollecitato dall’in-
gresso x(t) = ebt u(t) con b ∈ R − {0}. Calcolare l’uscita y(t) del sistema.
 at 
Risultato: y(t) = t eat u(t) per a = b; y(t) = a−b
1
e − ebt u(t) per a = b.
4.8 Esercizi proposti 195

Esercizio 4.7 Un sistema LTI avente risposta impulsiva h(n) = an u(n) con a ∈ R − {0} è sollecitato dall’in-
gresso x(n) = bn u(n) con b ∈ R − {0}. Calcolare l’uscita y(n) del sistema.
 n+1 
Risultato: y(n) = (n + 1) bn u(n) per a = b; y(n) = a−b
1
a − bn+1 u(n) per a = b.

Esercizio 4.8 Il segnale di ingresso x(t) e la risposta impulsiva h(t) di un sistema LTI sono dati da:

−t/T t − T /2
(a) x(t) = e u(t) ed h(t) = rect , con T ∈ R+ .
T
(b) x(t) = 2 u(t − 1) + 2 u(t − 3) ed h(t) = u(t + 1) − 2 u(t − 1) + u(t − 3).

Determinare analiticamente e rappresentare graficamente il segnale di uscita y(t).




0 , per t < 0 ,
Risultato: (a) y(t) = T (1 − e −t/T ), per 0 ≤ t ≤ T ,

 −t/T
Te (e − 1) , per t > T .


 0, per t < 0 ,




2t , per 0 ≤ t < 2 ,
(b) y(t) = 4 , per 2 ≤ t < 4 ,



 12 − 2t , per 4 ≤ t < 6 ,


0 , per t ≥ 6 .

Esercizio 4.9 Il segnale di ingresso x(t) e la risposta impulsiva h(t) di un sistema LTI sono dati da:
(a) x(t) = e−|t| ed h(t) = e−2 (t+1) u(t + 1).
(b) x(t) = 2(1 − t) [u(t) − u(t − 1)] ed h(t) = u(t) − u(t − 2).
Determinare analiticamente e rappresentare graficamente il segnale di uscita y(t).

 13 e(t+1) , per t ≤ −1 ,
Risultato: (a) y(t) =
 −(t+1) 2 −2 (t+1)
e −3e , per t > −1 .


 0, per t ≤ 0 ,



2t − t , 2 per 0 < t ≤ 1 ,

(b) y(t) = 1 , per 1 < t ≤ 2 ,



 9 − 6t + t , per 2 < t < 3 ,
2


0 , per t ≥ 3 .

Esercizio 4.10 Il segnale di ingresso x(n) e la risposta impulsiva h(n) di un sistema LTI sono dati da:

(a) x(n) = u(n) ed h(n) = an u(−n − 1), con a > 1.


(b) x(n) = e j 2πν0 n R10 (n) ed h(n) = bn u(n), con |b| < 1.
(c) x(n) = bn e j 2πν0 n u(n) ed h(n) = R5 (n), con |b| < 1.

Determinare analiticamente e rappresentare graficamente il segnale di uscita y(n).


 n
 a
 1−1/a , per n ≤ −1 ,
Risultato: (a) y(n) =

 1/a , per n > −1 .
1−1/a
196 Sistemi lineari tempo-invarianti (LTI)


0 ,


per n < 0 ,

 e j2πν0 (n+1)
 n 1−
b bn+1
j2πν , per 0 ≤ n < 9 ,
(b) y(n) = 1− e b 0

 j2πν 10

 1− e 100

bn b
, per n ≥ 9 .
e j2πν0
1− b

0 ,
 per n < 0 ,

(c) y(n) = 1−an+1
1−a , per 0 ≤ n < 4 , dove a = b e j2πν0 .

 n 1−(1/a)5
a 1−(1/a) , per n ≥ 4 .

Esercizio 4.11 Senza calcolare la convoluzione, utilizzando il risultato ottenuto al punto (a) dell’esercizio pre-
cedente e sfruttando la proprietà di linearità e invarianza temporale, determinare l’uscita del sistema LTI quando
la risposta impulsiva h(n) e il segnale di ingresso x(n) sono dati da:

(a) x(n) = u(n − 4) ed h(n) = 2n u(−n − 1).


(b) x(n) = R10 (n) ed h(n) = 2n u(−n − 1).


2(n−3) , per n ≤ 3 ,
Risultato: (a) y(n) =

1, per n > 3 .

 (n+1) − 2(n−9) , per n ≤ −1 ,


2


(b) y(n) = 1 − 2(n−9) , per −1 < n ≤ 9 ,




0 , per n > 9 .

Esercizio 4.12 Questo esercizio introduce ulteriori proprietà della convoluzione. Mostrare che le seguenti
proprietà sono vere:

d d
(a) Detta y(t) la risposta di un sistema LTI all’ingresso x(t), la risposta all’ingresso x(t) è y(t).
dt dt
(b) Detta y(n) la risposta di un sistema LTI all’ingresso x(n), la risposta all’ingresso ∇1 [x(n)] è ∇1 [y(n)].

Le relazioni precedenti vanno sotto il nome di proprietà di derivazione della convoluzione:


   
d d d
[x(t) ∗ h(t)] = x(t) ∗ h(t) = x(t) ∗ h(t)
dt dt dt

∇1 [x(n) ∗ h(n)] = [∇1 x(n)] ∗ h(n) = x(n) ∗ [∇1 h(n)]


La seconda espressione si ottiene facilmente sfruttando la proprietà commutativa.
Osservazione. La verifica della proprietà nel caso TC richiede qualche cautela dal punto di vista matematico.
Infatti, se −∞ < a < b < +∞ ed f (t, τ ) è una arbitraria funzione di due variabili derivabile rispetto a t, come
conseguenza del criterio di Leibnitz, si ha:
 b  b
d d
f (t, τ )dτ = [ f (t, τ )] dτ ,
dt a a dt
ovvero è possibile scambiare l’ordine tra le operazioni di derivazione ed integrazione senza alcun problema.
Se gli estremi di integrazioni sono infiniti, cioè a = −∞ e b = +∞, tale scambio non è sempre possibile. Lo
studio dettagliato di tale problema richiede la conoscenza della teoria della misura, la cui trattazione esula
4.8 Esercizi proposti 197

dagli scopi di questo corso. Qui ci limitiamo a richiamare il seguente risultato: se esiste una funzione g(t, τ )
integrabile su R rispetto a τ e un costante ε > 0, tale per cui:
  
 d
 
 f (t, τ )  ≤ g(t, τ ) , per ogni t0 ∈ R tale che |t0 − t| ≤ ε ,
 dt t=t0 

allora
 +∞  +∞
d d
f (t, τ )dτ = [ f (t, τ )] dτ .
dt −∞ −∞ dt

Esercizio 4.13 Calcolare e diagrammare la risposta al gradino e la risposta impulsiva del sistema LTI avente
relazione i-u:
 t
y(t) = [x(τ ) − x(τ − 1)] dτ .
t−1

Risultato: s(t) = Λ(t − 1); h(t) = rect(t − 0.5) − rect(t − 1.5).

Esercizio 4.14 Calcolare e diagrammare la risposta al gradino s(n) del sistema LTI avente relazione i-u

y(n) = x(n + 1) − 2 x(n) + x(n − 1)

Successivamente, utilizzando s(n), calcolare e diagrammare la risposta y(n) del sistema al segnale di ingresso
x(n) = R2 (n) − R2 (n − 2).

Risultato: s(n) = δ (n + 1) − δ (n); y(n) = δ (n + 1) − δ (n) − 2δ (n − 1) + 2δ (n − 2) + δ (n − 3) − δ (n − 4).

Esercizio 4.15 Per ognuno dei seguenti sistemi LTI con risposta impulsiva h(t), stabilire se il sistema è non
dispersivo, causale e stabile:

(a) h(t) = e−4t u(t − 2).


(b) h(t) = e−6t u(3 − t).
(c) h(t) = e−2t u(t + 2).
(d) h(t) = e2t u(−1 − t).
(e) h(t) = e−6|t| .
(f)h(t) = t e−t u(t).
 
(g) h(t) = 2 e−t − e(t−100)/100 u(t).

Risultato: (a) il sistema è dispersivo, causale, stabile; (b) il sistema è dispersivo, non causale, instabile; (c)
il sistema è dispersivo, non causale, stabile; (d) il sistema è dispersivo, non causale, stabile; (e) il sistema è
dispersivo, non causale, stabile; (f) il sistema è dispersivo, causale, stabile; (g) il sistema è dispersivo, causale,
instabile;

Esercizio 4.16 Per ognuno dei seguenti sistemi LTI con risposta impulsiva h(n), stabilire se il sistema è non
dispersivo, causale e stabile:

(a) h(n) = (1/2)n u(n).


(b) h(n) = 4n u(n).
(c) h(n) = (1/3)n u(n) + 3n u(−n − 1).
(d) h(n) = (1/2)|n| .
198 Sistemi lineari tempo-invarianti (LTI)

 nπ 
(e) h[n] = sin u(n).
3
(f) h(n) = 2 u(n + 5) − u(n) − u(n − 5).
(g) h(n) = n (1/3)n u(n − 1).

Risultato: (a) il sistema è dispersivo, causale, stabile; (b) il sistema è dispersivo, causale, instabile; (c) il sistema
è dispersivo, non causale, stabile; (d) il sistema è dispersivo, non causale, stabile; (e) il sistema è dispersivo,
causale, instabile; (f) il sistema è dispersivo, non causale, stabile; (g) il sistema è dispersivo, causale, stabile.

Esercizio 4.17 Si consideri il sistema LTI avente risposta impulsiva

1
h(t) = δ (t) + δ (t − T ) ,
2
con T > 0. Si può dimostrare che tale sistema è invertibile e che il sistema inverso ha risposta impulsiva
+∞
hinv (t) = ∑ gk δ (t − kT ). Ricavare l’espressione dei coefficienti gk .
k=0
[Suggerimento: studiare l’equazione h(t) ∗ hinv (t) = δ (t) nelle incognite gk .]

Risultato: gk = (−1)k 21k , k ∈ N0 .

Esercizio 4.18 Si consideri il sistema S descritto dalla seguente relazione i-u:


+∞
y(n) = ∑ x(k) g(n − 2k) ,
k=−∞

dove g(n) = R4 (n).


(a) Calcolare y(n) quando x(n) = δ (n − 1).
(b) Calcolare y(n) quando x(n) = δ (n − 2).
(c) Sulla base dei risultati dei punti (a) e (b), stabilire se S può essere un sistema LTI.
(d) Verificare che S si può interpretare come la cascata (nell’ordine) di un espansore per L (con L da determi-
nare) e di un sistema LTI con risposta impulsiva h(n) = g(n).

Risultato: (a) y(n) = R4 (n − 2); (b) y(n) = R4 (n − 4); (c) non è LTI; (d) si prova effettuando il cambiamento
di variabile h = 2k nella sommatoria e ricordando le proprietà dell’espansione, si trova L = 2.

Esercizio 4.19 Si consideri il sistema S descritto dalla seguente relazione i-u:


+∞
y(n) = ∑ x(2k) g(n − k) ,
k=−∞

dove g(n) = R3 (n).


(a) Calcolare y(n) quando x(n) = δ (n − 1).
(b) Calcolare y(n) quando x(n) = δ (n − 2).
(c) Sulla base dei risultati dei punti (a) e (b), stabilire se S può essere un sistema LTI.

Risultato: (a) y(n) ≡ 0; (b) y(n) = R3 (n − 1); (c) non è LTI.


4.8 Esercizi proposti 199

Esercizio 4.20 Si consideri la connessione in cascata dei due sistemi LTI causali aventi risposte impulsive
h1 (n) ed h2 (n), rispettivamente, con h1 (n) = R2 (n). Sapendo che la risposta impulsiva del sistema complessivo
è h(n) = δ (n) + 4δ (n − 1) − 4δ (n − 2) − 2δ (n − 3) + 5δ (n − 4), determinare la risposta impulsiva h2 (n) (si noti
che questo equivale ad effettuare una deconvoluzione).

Risultato: h2 (n) = δ (n) + 3δ (n − 1) − 7δ (n − 2) + 5δ (n − 3).

Esercizio 4.21 Si consideri la seguente interconnessione di sistemi LTI:

w1(t)
h1(t)

+ w(t) y 3(t) +
x(t) h3(t) y(t)
+ -
h2(t)
w2(t)

y 4(t)
h4(t)

Sistema complessivo

Le risposte impulsive dei sistemi sono le seguenti:

h1 (t) = u(t) , h2 (t) = u(t + 2) − u(t) , h3 (t) = δ (t − 2) , h4 (t) = eat u(t) ,

dove a è un numero reale negativo.

(a) Classificare, motivando brevemente le risposte, ciascuno dei sistemi sopra riportati sulla base delle loro
proprietà (non dispersività, causalità e stabilità).
(b) Determinate la risposta impulsiva h(t) del sistema complessivo avente come ingresso ed uscita i segnali
x(t) e y(t), rispettivamente, e discuterne le proprietà (non dispersività, causalità e stabilità).

Risultato: (a) il sistema h1 (t) è dispersivo, causale, instabile; il sistema h2 (t) è dispersivo, non causale, stabile; il
sistema h3 (t) è dispersivo, causale, stabile; il sistema h4 (t) è dispersivo, causale, stabile; (b) h(t) = (1−eat ) u(t),
il sistema è dispersivo, causale, instabile.

Esercizio 4.22 I quattro sistemi LTI in figura sono caratterizzati dalle seguenti risposte impulsive:

h1 (t) = h3 (t) = δ (t − 1) , h2 (t) = e−2t u(t) e h4 (t) = e−3 (t+2) u(t + 2) .

u1(t) w 3(t) u3(t) u4(t) +


h1(t)
- h3(t) h4(t) y(t)
+ +

x(t)

u2(t)
h2(t)

Sistema complessivo
200 Sistemi lineari tempo-invarianti (LTI)

(a) Calcolare la risposta impulsiva h(t) del sistema complessivo [avente x(t) come ingresso e y(t) come uscita].
(b) Classificare il sistema complessivo, motivando brevemente le risposte, sulla base delle sue proprietà di non
dispersività, causalità e stabilità.

  ( )
Risultato: (a) h(t) = e−2(t+1) − e−3(t+1) u(t + 1) + e−3t + e−2t u(t); (b) il sistema è dispersivo, non causale,
stabile.

Esercizio 4.23 Si considerino i seguenti tre sistemi TC:

S1 : y(t) = x(2t) (compressione di 2) ;


S2 : h(t) = δ (t) − δ (t − 1) ;
S3 : y(t) = x(t/2) (espansione di 2) .

(a) Determinare il legame ingresso/uscita del sistema costituito dalla cascata S1-S2-S3 (nell’ordine) e stabilire
se è lineare, non dispersivo, causale, invariante temporalmente, stabile.
(b) Ripetere il calcolo del punto (a) con riferimento alla cascata S3-S2-S1 (nell’ordine).

Risultato: (a) detti x(t) e y(t) i segnali in ingresso e uscita alla cascata, rispettivamente, il legame ingres-
so/uscita è y(t) = x(t) − x(t − 2) nel caso (a), y(t) = x(t) − x(t − 0.5) nel caso (b). Entrambi i sistemi sono
lineari, dispersivi, causali, invarianti temporalmente e stabili.

Esercizio 4.24 Si consideri la seguente interconnessione di sistemi:

u(t) v(t)
x(t) S1 h(t) S2 y(t)

 t 
dove il sistema al centro è LTI con risposta impulsiva h(t) = rect , con T > 0, mentre i due sistemi S1 e
2T
S2 sono caratterizzati dalle relazioni ingresso/uscita u(t) = x(t/3) e y(t) = v(at), rispettivamente, con a ∈ R.
(a) Determinare la relazione ingresso/uscita del sistema complessivo e discuterne brevemente le proprietà
(linearità, non dispersività, causalità e stabilità).
(b) Determinare il valore di a in corrispondenza del quale il sistema complessivo è LTI.
(c) Calcolare la risposta impulsiva h(t) del sistema complessivo per il valore di a determinato al punto (b).
 T

at − τ
Risultato: (a) y(t) = x d τ ; il sistema è lineare, dispersivo, non causale, stabile; (b) il sistema è
−T 3

3t
lineare per ogni a; in generale è tempo-variante, eccetto che nel caso in cui a = 3; (c) h(t) = 3 rect .
2T

Esercizio 4.25 Si consideri il sistema LTI avente risposta impulsiva:



n
j
h(n) = u(n) .
2

(a) Determinare la risposta y(n) del sistema al segnale di ingresso x(n) = cos(π n) u(n).
(b) Determinare un’espressione semplificata della risposta y(n) per n → +∞.
!
1 − (− j/2)(n+1) (−1)n
Risultato: (a) y(n) = (−1) n
u(n); (b) per n → +∞, y(n) ≈ .
1 + j/2 1 + j/2
4.8 Esercizi proposti 201


Esercizio 4.26 Si consideri il circuito RC di fig. 4.36, con costante di tempo T = RC = 1s. Supponendo che il
sistema sia inizialmente in quiete (il sistema è quindi LTI), nell’ipotesi in cui la tensione di ingresso sia data da

t −1
x(t) = e−3t rect ,
2

determinare analiticamente e rappresentare graficamente la tensione di uscita y(t) ai capi del condensatore.


 0, per t < 0 ,



Risultato: y(t) = 0.5 (1 − e−2t ) e−t , per 0 ≤ t < 2 ,




0.5 (1 − e−4 ) e−t , per t ≥ 2 .

Esercizio 4.27 Si consideri il circuito CR di fig. 4.36, dove la tensione x(t) ai capi della serie CR è il segnale
di ingresso, e la tensione y(t) ai capi della resistenza è il segnale di uscita.
(a) Determinare l’equazione differenziale che lega x(t) ed y(t).
(b) Determinare la soluzione omogenea dell’equazione differenziale determinata al punto (a).
(c) Determinare l’evoluzione libera del sistema supponendo che y(0) = y0 .
(d) Determinare l’evoluzione forzata del sistema quando l’ingresso è x(t) = t u(t) (rampa).
(e) Stabilire sotto quali condizioni il sistema CR è un sistema LTI e determinare la sua risposta al gradino e la
sua risposta impulsiva.
(f) Studiare le proprietà (non dispersività, causalità, stabilità) del sistema LTI determinato al punto (e).
[Suggerimento: per il punto (e), notare che essendo il gradino la derivata della rampa, la risposta al
gradino sarà la derivata della risposta alla rampa.]

d 1 d 
Risultato: (a) y(t) + y(t) = x(t), con T = RC; (b) y0 (t) = c1 e−t/T ; (c) ylib (t) = y0 e−t/T ; (d) yfor (t) =
dt T dt
  d
T 1 − e−t/T u(t) (risposta alla rampa); (e) il sistema è LTI se y0 = 0; s(t) = yfor (t) = e−t/T u(t); h(t) =
dt
d 1
s(t) = δ (t) − e−t/T u(t); (f) il sistema è dispersivo, causale, stabile.
dt T

Esercizio 4.28 Il segnale di ingresso x(n) e quello di uscita y(n) di un sistema LTI causale sono legati dalla
seguente equazione alle differenze:

y(n) + a−1 y(n − 1) = x(n − 1) ,

con a ∈ R. Determinare la risposta impulsiva h(n) del sistema e stabilire se esso è dispersivo, causale e stabile.
[Suggerimento: Per calcolare h(n), porre x(n) = δ (n) e risolvere ricorsivamente l’equazione alle differenze
con h(n) = y(n) ed h(−1) = 0.]

Risultato: h(n) = (1/a)n−1 u(n − 1), sistema dispersivo, causale, stabile se e solo se |a| > 1.

Esercizio 4.29 Si consideri un sistema ARMA descritto dall’equazione alle differenze

2y(n) − y(n − 1) + y(n − 3) = x(n) − 5x(n − 4) .

(a) Disegnare lo schema implementativo del sistema in forma diretta I.


(b) Disegnare lo schema implementativo del sistema in forma diretta II.
(c) Disegnare lo schema implementativo del sistema in forma canonica.
202 Sistemi lineari tempo-invarianti (LTI)

Esercizio 4.30 Si consideri il sistema LTI avente relazione i-u y(t) = x(t) − x(t − T ), con T > 0. Calcolare la
risposta in frequenza del sistema, ed utilizzarla quando possibile per calcolare la risposta del sistema ai seguenti
segnali applicati al suo ingresso:
(a) x(t) = e j2π T .
t

(b) x(t) = e jπ T .
t

 
(c) x(t) = cos 2π Tt .
 t  
(d) x(t) = 2 sin 2π T + cos π Tt .
 
(e) x(t) = cos 2π Tt u(t).

     
Risultato: (a) y(t) ≡ 0; (b) y(t) = 2e jπ T ; (c) y(t) ≡ 0; (d) y(t) = 2 cos π Tt ; (e) y(t) = cos 2π Tt rect t−0.5T
t
T .

Esercizio 4.31 Si considerino i sistemi TC S1 , S2 , S3 , le cui risposte al fasore x(t) = e j5t sono le seguenti:

S1 : e j5t −→ te j5t ;
S2 : e j5t −→ e j5(t−1) ;
S3 : e j5t −→ cos(5t) .

Stabilire se i tre sistemi possono essere LTI.

Risultato: Solo il sistema S2 può essere LTI, i sistemi S1 e S3 non sono sicuramente LTI.

Esercizio 4.32 Si considerino i sistemi TD S1 , S2 , S3 , le cui risposte al fasore x(n) = e jπ n/2 sono le seguenti:

S1 : e jπ n/2 −→ e jπ n/2 u(n) ;


S2 : e jπ n/2 −→ e j3π n/2 ;
S3 : e jπ n/2 −→ 2 e j5π n/2 .

Stabilire se i tre sistemi possono essere LTI.

Risultato: Solo il sistema S3 può essere LTI, i sistemi S1 e S2 non sono sicuramente LTI.

Esercizio 4.33 Nello schema di figura, il sistema S1 è descritto dalla relazione ingresso-uscita
 t
z(t) = x(u) du ,
−∞

ed il sistema S2 è descritto dalla risposta impulsiva h2 (t) = δ (t − T ), con T > 0.

z(t) +
x(t) - S1 -, - y(t)
− 6

- S2

(a) Determinare l’espressione esplicita del legame ingresso-uscita del sistema complessivo [avente x(t) come
ingresso ed y(t) come uscita] ed individuarne le proprietà (linearità, non dispersività, causalità, invarianza
temporale, stabilità).
(b) Nel caso in cui il sistema complessivo determinato al punto (a) sia LTI, determinarne la risposta impulsiva
h(t) e la risposta armonica H( f ).
4.8 Esercizi proposti 203

 t
(c) Assumendo che l’ingresso sia x(t) = 1 + δ (t) + cos 2π , calcolare l’uscita y(t) e rappresentarla grafi-
T
camente.
 t
Risultato: (a) y(t) = x(τ ) dτ , è un integratore con memoria finita, con le seguenti proprietà: linea-
t−T
re, dispersivo,
causale, tempo-invariante, stabile); (b) il sistema è LTI, applicando x(t) = δ (t) si ha h(t) =

t − 0.5T 1   sin(π f T )
rect , applicando x(t) = e j2π f t si ha H( f ) = 1 − e− j2π f T = e− jπ f T ; (c) y(t) =
T
 t−0.5T  j2π f πf
rect T .

Esercizio 4.34 Nello schema di figura, il sistema S è caratterizzato dalla risposta impulsiva hS (t) = δ (t − T )
(T > 0).

x(t) -, -, - y(t)
6 6

- S - S

(a) Determinare l’espressione esplicita del legame ingresso-uscita del sistema complessivo [avente x(t) come
ingresso ed y(t) come uscita] ed individuarne le proprietà (linearità, non dispersività, causalità, invarianza
temporale, stabilità).
(b) Nel caso in cui il sistema complessivo determinato al punto (a) sia LTI, determinarne la risposta impulsiva
h(t) e la risposta armonica H( f ).
1  t   t 
(c) Assumendo che l’ingresso sia x(t) = + 5 cos 2π + 7 sin 4π , calcolare l’uscita y(t).
3 3T 3T

Risultato: (a) y(t) = x(t) + x(t − T ) + x(t − 2T ); il sistema è lineare, dispersivo, causale, tempo-invariante,
stabile; (b) il sistema è LTI, applicando x(t) = δ (t) si ha h(t) = δ (t) + δ (t − T ) + δ (t − 2T ), applicando x(t) =
e j2π f t si ha H( f ) = 1 + e− j2π f T + e− j4π f T ; (c) y(t) ≡ 1.

Esercizio 4.35 Si consideri il sistema LTI descritto dalla seguente relazione ingresso-uscita:
y(t) = x(t) − x(t − T ) T ∈ R+ .
(a) Determinare la risposta in frequenza H( f ) del sistema e diagrammare accuratamente la risposta in ampiezza
e la risposta in fase nell’intervallo di frequenze (−1/T, 1/T ).
(b) Sfruttando i risultati del punto (a), calcolare l’uscita y(t) del sistema se in ingresso si pone il segnale

2π t 2π t
x(t) = 3 + 2 cos + 4 cos
2T T

 2π t 
Risultato: (a) H( f ) = 1 − e− j2π f T = 2 je− jπ f T sin(π f T ); (b) y(t) = 4 cos 2T .

Esercizio 4.36 Si consideri il sistema LTI avente, con riferimento al periodo principale, la seguente risposta in
frequenza:
1 − e− j 4πν
H(ν ) = per −0.5 < ν ≤ 0.5 .
1 + 0.5 e− j 8πν
Calcolare l’uscita y(n) corrispondente al segnale di ingresso x(n) = sin(0.25 π n).

Risultato: y(n) = 2 2 sin(0.25 π (n + 1)).
204 Sistemi lineari tempo-invarianti (LTI)

R R L
C

x(t) C y(t) x(t) C y(t)


x(t) R y(t)

Fig. 4.36. Circuito RC. Fig. 4.38. Circuito RLC.


Fig. 4.37. Circuito CR.

Esercizio 4.37 Si consideri il circuito CR di fig. 4.37, dove la tensione x(t) ai capi della serie CR è il segnale
di ingresso, e la tensione y(t) ai capi del condensatore è il segnale di uscita.
(a) Determinare l’equazione differenziale che lega x(t) ed y(t).
(b) Supponendo che l’equazione differenziale definisca un sistema LTI stabile, determinare la sua risposta in
frequenza H( f ).
(c) Determinare la risposta in ampiezza ed in fase del sistema e rappresentarle graficamente.

d 1 d  j2π f T
Risultato: (a) y(t) + y(t) = x(t), con T = RC; (b) H( f ) = ;
dt T dt 1 +j2π f T
π
2π | f |T − arctan(2π f T ) , f >0
(c) |H( f )| = # , H( f ) =  j +  f − (1 + j2π f T ) = 2 π .
1 + 4π f T
2 2 2 − 2 − arctan(2π f T ) , f <0

Esercizio 4.38 Si consideri il circuito RLC di fig. 4.38, dove la tensione x(t) ai capi della serie RLC è il segnale
di ingresso, e la tensione y(t) ai capi del condensatore è il segnale di uscita.
(a) Determinare l’equazione differenziale che lega x(t) ed y(t).
(b) Supponendo che l’equazione differenziale definisca un sistema LTI stabile, determinare la sua risposta in
frequenza H( f ).
(c) Determinare la risposta in ampiezza ed in fase del sistema e rappresentarle graficamente.

d2 d  
Risultato: (a) 2 y(t) + 2ζ y(t) + ω02 y(t) = ω02 x(t), con ω0 = √1LC (pulsazione di risonanza) e ζ = R
2L
dt dt
(coefficiente di smorzamento);
1
(b) H( f ) = , con 2π f0 = ω0 ;
1 − ( f / f0 )2 + j πζ ff2
0

1 ζf
(c) |H( f )| = - , H( f ) = tan−1 .
ζ2 f2 π f02 [1 − ( f / f0 )2 ]
[1 − ( f / f0 ) ] + π 2 f 4
2 2
0

Esercizio 4.39 Supponendo che il sistema ARMA descritto dell’esercizio 4.29 sia stabile, calcolare la sua
risposta in frequenza H(ν ).

1 − 5 e− j8πν
Risultato: H(ν ) = .
2 − e− j2πν + e− j6πν

Esercizio 4.40 Si consideri l’implementazione di un sistema LTI ARMA in forma diretta prima di figura:
4.8 Esercizi proposti 205

x(n) y(n)

z -1 z -1
-1/a a

dove a ∈ R con |a| < 1.

(a) Determinare l’equazione alle differenze che lega x(n) ed y(n).


(b) Supponendo che l’equazione alla differenze definisca un sistema LTI stabile, determinare la sua risposta in
frequenza H(ν ).
(c) Provare che la risposta in ampiezza del sistema è costante, per cui tale sistema prende il nome di sistema
all-pass.

1 − a−1 e− j2πν 1
Risultato: (a) y(n) − ay(n − 1) = x(n) − a−1 x(n − 1); (b) H(ν ) = − πν
; (c) |H(ν )| = .
1 − ae j2 |a|
206 Sistemi lineari tempo-invarianti (LTI)
Capitolo 5

Serie di Fourier

La descrizione nel dominio del tempo dei sistemi LTI si basa sulla rappresentazione del segnale di
ingresso come sovrapposizione di impulsi traslati nel tempo e sulla definizione di risposta impulsi-
va. Abbiamo però visto nel § 4.7 che, quando il segnale di ingresso è un semplice fasore, il calcolo
dell’uscita di un sistema LTI si effettua più semplicemente introducendo il concetto di risposta in
frequenza. Nasce allora l’esigenza di rappresentare un generico segnale come sovrapposizione (di-
screta o continua) di fasori (rappresentazioni di Fourier o nel dominio della frequenza). In questo
capitolo si introduce una prima rappresentazione di questo tipo, mostrando in particolare che i segnali
periodici (TC e TD) possono essere espressi come sovrapposizione discreta di fasori, aventi frequen-
ze multiple di una stessa frequenza (frequenza fondamentale). Tale rappresentazione prende il nome
di serie di Fourier, e nel caso TD assume la denominazione più specifica di Discrete Fourier Series
(DFS). I benefici di tale rappresentazione saranno evidenziati calcolando nel § 5.5 l’uscita di un si-
stema LTI sollecitato in ingresso da un segnale periodico. L’analisi di tale problema ci consentirà di
discutere più approfonditamente il concetto di selettività in frequenza di un sistema LTI e di introdurre
un’importante classe di sistemi LTI, denominati filtri ideali.

5.1 Introduzione
Nel precedente capitolo abbiamo ricavato le semplici relazioni i-u (4.97) e (4.105) che consentono di
calcolare, nel caso TC o TD, la risposta di un sistema LTI ad un fasore applicato al suo ingresso; la
semplicità di tali risultati spinge a cercare rappresentazioni di segnali come sovrapposizione di fasori.
Si consideri infatti un segnale espresso da una somma di fasori, come ad esempio il seguente segnale
TC, composto da due fasori a frequenze f1 ed f2 :

x(t) = e j2π f1t + 2 e j2π f2t .

Se tale segnale è posto in ingresso ad un sistema LTI avente risposta in frequenza H( f ), per la linearità
del sistema e per la (4.97), l’uscita corrispondente sarà calcolabile semplicemente come:

y(t) = H( f1 ) e j2π f1t + 2 H( f2 ) e j2π f2t .


208 Serie di Fourier

Si potrebbe obiettare che un segnale x(t) come il precedente, espresso come somma di un numero
finito di fasori, e per di più a valori complessi, rappresenti un caso particolare di scarso interesse
pratico. Tuttavia uno dei risultati più significativi della teoria dei segnali è che (quasi) tutti i segnali
di interesse pratico possono essere rappresentati come sovrapposizione di fasori. In particolare, i
segnali periodici possono essere rappresentati come sovrapposizione discreta (ovvero come somma
di una serie) di fasori: tale rappresentazione, che prende il nome1 di serie di Fourier, sarà esaminata
in questo capitolo. Successivamente, nel cap. 6, vedremo la rappresentazione più generale di un se-
gnale, non necessariamente periodico, come sovrapposizione continua (ovvero definita mediante un
integrale) di fasori, nota come trasformata di Fourier. Quest’ultima rappresentazione, opportunamen-
te generalizzata, sarà applicabile anche ai segnali periodici, e presenterà interessanti relazioni con la
serie di Fourier.
Nel seguito del capitolo, poiché esistono differenze non trascurabili tra i due casi, tratteremo
separatamente la serie di Fourier per segnali TC e TD.

5.2 Serie di Fourier per segnali TC


Il nostro scopo è quello di rappresentare un arbitrario segnale periodico come sovrapposizione di
fasori. Partiamo per semplicità da uno dei più semplici segnali periodici TC, vale a dire il segnale
sinusoidale di ampiezza A e frequenza f0 , avente fase iniziale ϕ0 = 0:

x(t) = A cos(2π f0t) .

Tale segnale risulta periodico di periodo T0 = 1/ f0 . È semplice rappresentare tale sinusoide come
sovrapposizione di fasori, applicando la formula di Eulero:
A j2π f0t A − j2π f0t
x(t) = A cos(2π f0t) = e + e .
2 2
La relazione precedente mostra, in accordo con l’interpretazione già data nel § 2.3.3, che una sinusoide
si può esprimere come somma di due fasori aventi frequenze f0 e − f0 , rispettivamente, ed ampiezza
A/2.
La rappresentazione come somma di fasori si può facilmente estendere al caso di un segnale x(t)
somma di sinusoidi a frequenze diverse, purché le frequenze siano tutte multiple di una frequenza
comune f0 ; solo in questo caso, infatti, il segnale x(t) risulta periodico.2 Si consideri ad esempio il
seguente segnale, periodico di periodo T0 = 1/ f0 :

x(t) = A1 cos(2π f0t) + A2 cos(2π 2 f0t) + A3 cos(2π 3 f0t) . (5.1)

Applicando a ciascuna sinusoide la formula di Eulero si ottiene:


A1 j2π f0t A1 − j2π f0t A2 j2π 2 f0t A2 − j2π 2 f0t A3 j2π 3 f0t A3 − j2π 3 f0t
x(t) = e + e + e + e + e + e , (5.2)
2 2 2 2 2 2
1 La serie di Fourier (come la trasformata di Fourier) deve il suo nome al matematico francese Jean Baptiste Joseph
Fourier (1768-1830), che la introdusse in vari scritti del 1807 e del 1811, ed in maniera più estesa nel suo più importante
trattato “Théorie analytique de la chaleur” (1822), dove tale strumento matematico veniva applicato per lo studio di problemi
di trasmissione del calore. Va osservato, peraltro, che molto prima di Fourier, l’espressione di un segnale arbitrario come
somma di oscillazioni sinusoidali fu introdotta nel 1753 dal matematico svizzero Daniel Bernoulli (1700–1782) nell’ambito
dei suoi studi sul problema delle corde vibranti, e costituì l’oggetto di una violenta disputa scientifica con il più importante
matematico dell’epoca, lo svizzero Leonhard Euler (1707–1783) detto Eulero.
2 In generale, si può dimostrare che la somma di funzioni periodiche con periodi differenti è ancora una funzione perio-

dica se e solo se i periodi sono commensurabili tra loro, cioè i loro rapporti sono dei numeri razionali. Le somme di funzioni
periodiche con periodi incommensurabili appartengono ad una classe più ampia di funzioni dette quasi periodiche [17].
5.2 Serie di Fourier per segnali TC 209

e quindi x(t) è la combinazione lineare di 6 fasori, a frequenze ± f0 , ±2 f0 e ±3 f0 . Gli esempi visti


mostrano che un segnale periodico x(t) di periodo T0 , ottenuto come combinazione lineare di un
numero finito di sinusoidi, si può rappresentare come somma di un numero finito di fasori:
M
x(t) = ∑ Xk e j2π k f0t , con M ∈ N , (5.3)
k=−M

in cui ciascun fasore è moltiplicato per un coefficiente Xk , che in generale può essere complesso. Ad
A
esempio, per il segnale (5.1), dal confronto tra la (5.3) e la (5.2) si ricava che M = 3 e Xk = 2|k| , con k ∈
{±1, ±2, ±3}. Le frequenze fk = k f0 dei fasori della rappresentazione (5.3) sono tutte multiple della
frequenza fondamentale f0 = 1/T0 . Questa particolare proprietà assicura che il segnale x(t) ottenuto
mediante la (5.3) sia effettivamente periodico di periodo T0 , in quanto i fasori che lo compongono
hanno tutti periodo pari ad un sottomultiplo del periodo T0 , e quindi ammettono T0 come più piccolo
periodo comune. Poiché le frequenze dei fasori della rappresentazione sono in rapporto armonico
tra loro (ovvero il rapporto tra due qualunque frequenze è un numero razionale), i vari termini della
rappresentazione prendono il nome di armoniche del segnale x(t). Ad esempio, i termini per k = ±1
prendono il nome di prima armonica o fondamentale, i termini per k = ±2 prendono il nome di
seconda armonica, e così via fino ad arrivare ai termini per k = ±M che prendono il nome di M-esima
armonica.
Assegnato il periodo T0 e il numero di armoniche M, il segnale x(t) è completamente determinato
dai coefficienti Xk della combinazione lineare. Tali coefficienti possono essere calcolati direttamente
dal segnale x(t) (problema dell’analisi). A tale proposito, notiamo che la (5.3) si può interpretare
anche come decomposizione del segnale x(t) in segnali elementari xk (t) = e j2π k f0t [cfr. (4.1)], dove
le funzioni xk (t) sono ortogonali, nel senso precisato nel cap. 2 per i segnali di potenza (in quanto i
fasori sono segnali di potenza). Se infatti consideriamo due fasori della rappresentazione (5.3), la loro
potenza mutua si calcola facilmente:


 ∗ 1 j2π (k−h) f0 t 1, se k = h ;
Pxk xh = xk (t) xh (t) = e dt = δ (k − h) = (5.4)
T0 T0 0, se k = h ;

e pertanto risultano ortogonali se k = h, cioè se hanno frequenze distinte. La proprietà di ortogonalità


agevola la determinazione dei coefficienti Xk per un dato segnale x(t). Per mostrare ciò, supponiamo
che il segnale x(t) sia sommabile sul periodo T0 , ovvero:

|x(t)| dt < +∞ . (5.5)
T0

Essendo l’intervallo di integrazione finito, questa condizione è quasi sempre verificata per i segnali
x(t) di interesse pratico: in particolare, lo è sicuramente se x(t) è un segnale limitato (come la somma
di un numero finito di sinusoidi). In tale ipotesi, moltiplicando ambo i membri della (5.3) per e− j2π h f0t ,
con h ∈ {0, ±1, . . . , ±M}, ed integrando termine a termine su un periodo, si ottiene:
 M 
1 1
x(t) e − j2π h f0 t
dt = ∑ Xk e j2π (k−h) f0t dt = Xh , (5.6)
T0 T0 T T0
k=−M 0  
=δ (k−h)

per cui, cambiando l’indice da h nuovamente a k, si ha:



1
Xk = x(t) e− j2π k f0t dt , con k ∈ {0, ±1, . . . , ±M} , (5.7)
T0 T0
210 Serie di Fourier

che consente di calcolare i coefficienti Xk della rappresentazione (5.3) per il segnale x(t) espresso
come somma di un numero finito di fasori. Si osservi che, in virtù della (5.5), sussistendo la relazione
|x(t) e− j2π k f0t | = |x(t)|, la funzione x(t) e− j2π k f0t è sommabile sul periodo T0 e quindi l’integrale che
definisce i coefficienti Xk nella (5.7) ha senso.
Purtroppo, non tutti i segnali periodici di interesse pratico si possono esprimere come combina-
zione lineare di un numero finito di fasori. Ad esempio, basti pensare che nella (5.3) i termini della
rappresentazione (cioè i fasori) sono funzioni continue, conseguentemente il segnale x(t), espresso co-
me somma di un numero finito di funzioni continue, è ancora una funzione continua (cfr. prop. B.3).
In altre parole, affinchè la rappresentazione (5.3) sia applcabile, il segnale periodico x(t) deve essere
necessariamente continuo. Abbiamo già avuto modo di evidenziare in passato che, sebbene nessun
fenomeno fisico sia descrivibile mediante segnali che presentano delle discontinuità, i segnali discon-
tinui sono un’utile astrazione matematica nello studio dei sistemi. (vedi concetto di gradino e di
risposta al gradino). Si osservi inoltre che non tutti i segnali continui, inoltre, possono essere rap-
presentati combinando linearmente un numero finito di fasori. Le precedenti motivazioni spingono a
cercare una generalizzazione della rappresentazione definita dalle (5.3) e (5.7), nella quale il segnale
periodico x(t) avente periodo T0 è espresso come somma di una serie:
M +∞
x(t) = lim
M→+∞
∑ Xk e j2π k f0t = ∑ Xk e j2π k f0t , (5.8)
k=−M k=−∞

ovvero si ottiene come la sovrapposizione di un numero infinito di fasori, ciascuno dei quali è molti-
plicato per un coefficiente complesso Xk dato da:

1
Xk = x(t) e− j2π k f0t dt , ∀k ∈ Z . (5.9)
T0 T0

È interessante osservare che la sommabilità del segnale x(t) sul periodo T0 assicura l’esistenza dei
coefficienti Xk non solo per k ∈ {0, ±1, . . . , ±M} ma, più in generale, per ogni k ∈ Z. Infatti, utiliz-
zando la (5.9) è possibile effettuare la seguente maggiorazione:
  
1  − j2π k f0 t 
 1
|Xk | =  x(t) e dt  ≤ |x(t)| dt ,
T0 T0 T0 T0
dove si è sfruttato il fatto che il fasore ha modulo unitario. Dalla maggiorazione precedente, si ricava
che una condizione sufficiente affinché tutti i coefficienti Xk della serie (5.8) esistano finiti è che la
funzione x(t) sia sommabile sul periodo T0 . Tuttavia, a differenza della rappresentazione (5.3) che,
essendo la somma di un numero finito di termini, non pone alcun problema di convergenza, la serie di
funzioni (5.8) può risultare non convergente. Per il momento tralasciamo questo aspetto, rimandando
ogni discussione sulla convergenza della serie (5.8) al § 5.2.1.
In definitiva, mettendo insieme le (5.8) e (5.9), giungiamo alla seguente definizione di serie di
Fourier per un segnale TC:

Definizione 5.1 (serie di Fourier a TC)


Sia x(t) un segnale periodico avente periodo T0 e frequenza fondamentale f0 = 1/T0 . La serie di
Fourier di x(t) è definita dalle equazioni:
+∞
x(t) = ∑ Xk e j2π k f0t (equazione di sintesi) (5.10)
k=−∞

1
Xk = x(t) e− j2π k f0t dt (equazione di analisi) (5.11)
T0 T0
5.2 Serie di Fourier per segnali TC 211

Le equazioni (5.10) e (5.11) prendono rispettivamente il nome di equazione di sintesi ed equazione


di analisi della serie di Fourier.3 In particolare, la prima consente di costruire o sintetizzare il se-
gnale x(t) sovrapponendo i singoli fasori della rappresentazione, la seconda consente di decomporre
o analizzare il segnale x(t), nel senso che consente di calcolare i coefficienti complessi Xk della sua
rappresentazione come somma di fasori. Dal punto di vista matematico, la serie di Fourier instaura
una corrispondenza biunivoca tra il segnale x(t) e la successione dei coefficienti complessi {Xk }k∈Z ,
chiamati anch’essi armoniche del segnale. Più precisamente, siano x1 (t) e x2 (t) due segnali periodici
con uguale periodo T0 , sviluppabili in serie di Fourier con coefficienti X1,k ed X2,k , rispettivamente; se
X1,k = X2,k , per ogni k ∈ Z, allora i due segnali x1 (t) e x2 (t) sono uguali quasi ovunque su R, ovvero
si ha x1 (t) = x2 (t), ∀t ∈ R eccetto che in un insieme di misura nulla. In altre parole, la successione
{Xk }k∈Z identifica (quasi) univocamente il segnale x(t) (proprietà di unicità della serie di Fourier).
La corrispondenza biunivoca tra x(t) e la successione dei suoi coefficienti di Fourier si può denotare
simbolicamente come segue:

FS
x(t) ←→ Xk .

È interessante osservare che, in virtù di tale corrispondenza, un segnale periodico TC può essere
equivalentemente descritto nel dominio della frequenza da un segnale TD (la successione dei suoi
coefficienti di Fourier). Poiché i coefficienti Xk sono grandezze complesse, per rappresentarli grafi-
camente dobbiamo decomporli in modulo e fase (risulta scarsamente utilizzata la rappresentazione in
parte reale ed immaginaria). La sequenza |Xk | dei moduli prende il nome di spettro di ampiezza del
segnale x(t), mentre la sequenza Xk delle fasi prende il nome di spettro di fase del segnale x(t) (que-
st’ultimo spettro è definito a meno di multipli di 2π ). Gli spettri di ampiezza e di fase possono essere
rappresentati mediante due diagrammi cartesiani, che riportano |Xk | e Xk in funzione di k o anche di
fk = k f0 . Essi costituiscono un primo esempio di rappresentazione nel dominio della frequenza per
un segnale x(t), in quanto forniscono per ogni valore di k, rispettivamente, l’ampiezza |Xk | e la fase
Xk del fasore a frequenza k f0 presente nel segnale.
Particolarizzando l’equazione di analisi per k = 0, si ha

1
X0 = x(t) dt = xdc , (5.12)
T0 T0


dove si è tenuta presente la definizione xdc = x(t) di componente continua, ed il fatto che per segnali
periodici la media temporale [cfr. prop. 2.7(c)] si può calcolare su un periodo del segnale. La (5.12)
mostra che l’armonica a frequenza zero rappresenta la componente continua del segnale periodico.
Per differenza, la componente alternata si calcola come:

+∞
xac (t) = x(t) − xdc = ∑ Xk e j2π k f0t ,
k = −∞
k = 0

e quindi xac (t) è un segnale periodico avente lo stesso periodo di x(t), e gli stessi coefficienti della serie
di Fourier di x(t), fatta eccezione per il coefficiente per k = 0, ovvero per la componente continua, che
è ovviamente nulla per xac (t).

3 Inparticolare, tali equazioni definiscono la cosiddetta forma esponenziale della serie di Fourier, valida in generale per
segnali x(t) a valori reali o complessi. Altre forme della serie di Fourier, valide esclusivamente per segnali a valori reali,
saranno sviluppate nel § 5.4.2.
212 Serie di Fourier

1
1
|Xk|

0.5 0.8

0.6
0

sinc(x)
−5 0 5
k 0.4
1
0.2
∠ Xk

0 0

−0.2
−1 −6 −4 −2 0 2 4 6
−5 0 5
k x

Fig. 5.1. Spettro di ampiezza (in alto) e di fase (in Fig. 5.2. La funzione sinc(x) per valori di x ∈ [−6, 6].
basso) del segnale dell’es. 5.1 (A = 1, ϕ0 = π4 ).

 Esempio 5.1 (serie di Fourier di un segnale sinusoidale TC) Il calcolo della serie di Fourier per un segna-
le sinusoidale TC è immediato. Per maggiore generalità rispetto al caso visto precedentemente, consideriamo
un segnale sinusoidale avente fase iniziale arbitraria ϕ0 :
x(t) = A cos(2π f0t + ϕ0 ) ,
con A > 0. Applicando la formula di Eulero si ha:
A jϕ0 j2π f0 t A − jϕ0 − j2π f0 t
x(t) = e e + e e ,
2 2
da cui, per confronto con l’equazione di sintesi (5.10), si ricava:

 A jϕ
 2 e 0, k = 1;
Xk = A2 e− jϕ0 , k = −1;


0, altrimenti.
Gli spettri di ampiezza e fase sono dati, rispettivamente, da:

A
, k = ±1;
|Xk | = 2
0, altrimenti;

ϕ0 ,
 k = 1;
Xk = −ϕ0 , k = −1;


indeterminata, altrimenti;
e sono riportati4 in fig. 5.1 per il caso A = 1 e ϕ0 = π4 . 

L’esempio precedente mostra che in casi molto semplici, ovvero quando il segnale periodico è com-
posto da funzioni sinusoidali (vedi anche il segnale (5.1)), i coefficienti della sua serie di Fourier si
possono ottenere “per ispezione” adoperando semplici relazioni trigonometriche, come la formula di
Eulero. Per segnali più complicati, il calcolo dei coefficienti non è un problema concettualmente dif-
ficile, in quanto si può effettuare risolvendo l’integrale che compare nell’equazione di analisi (5.11);
eventuali complicazioni possono riguardare soltanto la difficoltà di risoluzione dell’integrale.
4 Si
noti che in fig. 5.1 e nel seguito, per semplicità di rappresentazione, la fase corrispondente al numero complesso
z = 0 viene convenzionalmente assunta pari a zero, sebbene essa risulti a rigore indeterminata.
5.2 Serie di Fourier per segnali TC 213

0.5 0.4

|Xk|
0.4 0.2
0.3
0
0.2 −5 0 5
Xk

k
0.1
0 2

∠ Xk
−0.1 0
−0.2
−2

−5 0 5 −5 0 5
k k

Fig. 5.3. I coefficienti Xk dell’onda rettangolare del- Fig. 5.4. Spettro di ampiezza (in alto) e di fase (in
l’es. 5.2 (A = 1, δc = 0.5) sono puramente
  reali, e basso) dell’onda rettangolare dell’es. 5.2 (A = 1, δc =
si ottengono dalla funzione 12 sinc 2x (tratteggiata) 0.5).
calcolata per x = k.

 Esempio 5.2 (serie di Fourier dell’onda rettangolare TC, funzione sinc) Calcoliamo la serie di Fourier
per un’onda rettangolare TC di periodo T0 , ampiezza A > 0 e duty-cycle δc = TT0 ≤ 1 (per il grafico del segnale
e l’interpretazione del duty-cycle, cfr. es. 2.9). Tale segnale si ottiene per replicazione dal generatore:
t 
xg (t) = A rect ,
T
e quindi la sua espressione è la seguente:
  t 
x(t) = repT0 A rect .
T
Per calcolare i coefficienti della serie di Fourier utilizziamo direttamente l’equazione di analisi (5.11):
  T0 /2 t   T /2
1 − j2π k f0 t 1 − j2π k f0 t 1
Xk = x(t) e dt = A rect e dt = A e− j2π k f0 t dt .
T0 T0 T0 −T0 /2 T T0 −T /2

Per k = 0, si ha:
 T /2
1 T
X0 = A dt = A = Aδc ,
T0 −T /2 T0
mentre per k = 0 si ha:
A  t=T /2 sin(π k f0 T ) sin(π kδc )
Xk = e− j2π k f0 t =A =A . (5.13)
− j2π k f0 T0 t=−T /2 πk πk
Per esprimere in forma più compatta il risultato precedente, introduciamo la funzione sinc(x):

 sin(π x)
sinc(x) = , x ∈ R, (5.14)
πx
il cui grafico per x ∈ [−6, 6] è riportato in fig. 5.2. Le principali proprietà della funzione sinc(x) sono le tre
seguenti, di facile dimostrazione:
(a) La funzione sinc(x) è una funzione pari:

sinc(−x) = sinc(x) .
214 Serie di Fourier

(b) La funzione sinc(x) si annulla in tutti i valori interi tranne per k = 0:



1, k = 0 ;
sinc(k) =
0, k = 0 .

(c) La funzione sinc(x) è infinitesima del primo ordine per x → ±∞, in quanto:

1
|sinc(x)| ≤ , ∀x ∈ R .
π |x|

Moltiplicando e dividendo per δc nella (5.13), e utilizzando la definizione di sinc(x), si ha:

sin(π kδc )
Xk = A δc = A δc sinc(kδc ) , k = 0 .
π kδc

Notiamo che l’espressione precedente vale anche per k = 0, in quanto, per la proprietà (b) della sinc, risulta:

X0 = A δc sinc(0) = A δc .

Notiamo che nell’espressione delle armoniche Xk compaiono solo A ed il duty-cycle δc . Consideriamo allora il
caso particolare δc = 0.5 (duty-cycle del 50 %) e A = 1. In tal caso, le armoniche si esprimono come:

1 k
Xk = sinc ,
2 2

ed utilizzando la definizione di sinc(x) e le sue proprietà, nonché proprietà trigonometriche elementari, si ha:
1


 2, k = 0;
0, k pari;
Xk = 1

 πk , k = 2h + 1, h pari (k = . . . − 7, −3, 1, 5, 9, . . .);

 1
− πk , k = 2h + 1, h dispari (k = . . . , −5, −1, 3, 7, 11, . . .).

Più in generale, osserviamo che questo segnale, per qualunque valore di A e δc , presenta armoniche puramente
reali, quindi esse possono essere rappresentate come in fig. 5.3, su un unico diagramma cartesiano. Per maggiore
generalità, tuttavia, ricaviamo gli spettri di ampiezza e di fase:
1
2,
 k = 0;
|Xk | = 0, k pari, k = 0;

 1 , k dispari;
π |k|



0 k = 0;

indeterminata k pari, k = 0;
Xk =

0 k = . . . , −5, −1, 1, 5, . . .;


±π k = . . . , −7, −3, 3, 7, . . ..
che sono raffigurati graficamente in fig. 5.4. Notiamo la simmetria pari dello spettro di ampiezza, e quella
dispari dello spettro di fase, ottenuta quest’ultima scegliendo opportunamente la fase π per k > 0, e la fase
−π per k < 0. Il grafico dello spettro di ampiezza del segnale mostra che tale onda rettangolare possiede
soltanto armoniche dispari (vale a dire per valori dispari di k), la cui ampiezza decresce con legge inversamente
proporzionale a k. 
5.2 Serie di Fourier per segnali TC 215

1
0.4

|Xk|
0.8 0.2

0.6 0
x(t)

−5 0 5
k
0.4
2
0.2

∠ Xk
0
0 −2
−2 −1 0 1 2 −5 0 5
t/T k
0

Fig. 5.5. L’onda triangolare dell’es. 5.3 (A = 1). Fig. 5.6. Spettro di ampiezza (in alto) e di fase (in
basso) dell’onda triangolare dell’es. 5.3 (A = 1).

 Esempio 5.3 (serie di Fourier dell’onda triangolare TC) Calcoliamo la serie di Fourier per un’onda trian-
golare TC di periodo T0 ed ampiezza A:


2t
x(t) = repT0 A Λ ,
T0

ottenuta a partire dal generatore:


2t
x(t) = A Λ .
T0

Tale segnale è raffigurato graficamente in fig. 5.5 per A = 1. Per calcolare i coefficienti della serie di Fou-
rier utilizziamo direttamente l’equazione di analisi (5.11), ricordando la definizione esplicita della finestra
triangolare:

  T0 /2

1 − j2π k f0 t 1 2|t|
Xk = x(t) e dt = A 1− e− j2π k f0 t dt .
T0 T0 T0 −T0 /2 T0

Applicando la formula di Eulero a e− j2π k f0 t , si ha:

 T0 /2
 T0 /2

1 2|t| 2A 2t
Xk = A 1− cos(2π k f0t) dt = 1− cos(2π k f0t) dt ,
T0 −T0 /2 T0 T0 0 T0

dove non abbiamo riportato l’integrale in cui compare sin(2π k f0t), in quanto esso risulta nullo per la simmetria
dispari della funzione integranda, ed abbiamo viceversa sfruttato nell’integrale in cui compare cos(2π k f0t) la
simmetria pari della funzione integranda. Per k = 0, si ha:

 T0 /2

2A 2t 2A T0 A
X0 = 1− dt = = ,
T0 0 T0 T0 4 2

mentre per k = 0, decomponendo l’integrale nella differenza di due integrali ed integrando per parti il secondo
216 Serie di Fourier

integrale, si ha:
' T0 /2  .
2A 2 T0 /2
Xk = cos(2π k f0t) dt − t cos(2π k f0t) dt
T0 0 T0 0
      T0 /2
//
2A sin(2π k f0t) t=T0 /2 2 sin(2π k f0t) t=T0 /2 sin(2π k f0t)
= − t − dt
T0 2π k f0 t=0 T0 2π k f0 t=0 0 2π k f0
  
 
2A  1 2  T0 1 1 cos(2π k f0t) t=T0 /2 
= sin(π k) − sin(π k) +
T0  2π k f0    T0  2 2π k f0    2π k f0 2π k f0 t=0 
=0 =0
4A 1
= 2 [1 − cos(π k) ]
T0 (2π k f0 )2   
(−1)k

0, k pari, k = 0;
= 2A
 , k dispari.
π 2 k2

Notiamo che le armoniche Xk sono reali e non negative, quindi gli spettri di ampiezza e fase si calcolano
banalmente, in quanto |Xk | = Xk ≥ 0 e Xk = 0, e sono raffigurati in fig. 5.6: si noti anche in questo caso la
simmetria pari dello spettro di ampiezza. Dal confronto con lo spettro di ampiezza dell’onda rettangolare con
δc = 1/2, notiamo che anche l’onda triangolare possiede solo armoniche dispari, ma la loro ampiezza decresce
in modo inversamente proporzionale a k2 , quindi più rapidamente (si ricordi che l’onda rettangolare presenta
armoniche che decrescono come 1/k). Come vedremo (cfr. § 5.2.2), questo significa che l’onda triangolare può
essere approssimata più accuratamente con un numero minore di armoniche. 

Come evidenziato dagli es. 5.2 e 5.3, fatta eccezione per casi molto semplici (es. segnale sinusoidale),
il calcolo dei coefficienti della serie di Fourier per un dato segnale x(t) si effettua utilizzando diretta-
mente l’equazione di analisi (5.11), e quindi consiste nella risoluzione di un integrale. In taluni casi è
possibile utilizzare le proprietà formali (riportate nel § 5.4 o più estesamente in app. E) per ricondurre
il calcolo a quello di qualche altro segnale per il quale è noto lo sviluppo in serie di Fourier. Vedremo
tuttavia nel cap. 6 una procedura molto semplice e generale che consente di ricondurre il calcolo dei
coefficienti della serie di Fourier a quello di una trasformata di Fourier (formule o serie di Poisson).
Quest’ultima strada è generalmente la più semplice per calcolare la serie di Fourier di un dato segnale.

5.2.1 Condizioni matematiche per la convergenza della serie di Fourier

In questa sezione prenderemo in considerazione il problema della convergenza della serie di Fourier.5
La trattazione di tale problema matematico è interessante anche dal punto di vista applicativo in quan-
to, come vedremo nel § 5.2.2, esso è intimamente legato al problema della ricostruzione di un segnale
periodico a partire da un numero finito di armoniche.
Sia x(t) un arbitrario segnale periodo con periodo T0 . L’ipotesi di partenza che riterremo valida
d’ora in avanti è che il segnale x(t) sia sommabile sul periodo T0 . Abbiamo già avuto modo di dire
che tutti i segnali periodici di interesse pratico verificano questa ipotesi; inoltre, come già mostrato
precedentemente, la sommabilità di x(t) sul periodo assicura che tutti i coefficienti Xk della serie di
Fourier, definiti dalla equazione di analisi (5.11), esistano finiti. Tuttavia, il fatto che i coefficienti Xk

5 Peruna trattazione esauriente del problema della convergenza della serie di Fourier si rimanda ai testi di analisi ma-
tematica (ad esempio [3]); nel seguito daremo solo qualche risultato fondamentale, enfatizzando il più possibile gli aspetti
intuitivi ed applicativi ed omettendo le relative dimostrazioni.
5.2 Serie di Fourier per segnali TC 217

calcolati mediante l’equazione di analisi a partire da x(t) esistano finiti non significa che la serie
+∞
∑ Xk e j2π k f0t (5.15)
k=−∞

costruita a partire da questi coefficienti converga, né tanto meno che tale serie converga al segnale
x(t). Così come per le serie numeriche, lo studio della convergenza di una serie di funzioni passa
attraverso la definizione delle sue somme parziali. Si definisce somma parziale (simmetrica) M-esima
della serie di Fourier (5.15) il segnale:
M
xM (t) = ∑ Xk e j2π k f0t , con M ∈ N , (5.16)
k=−M

ottenuto troncando simmetricamente6 la serie di Fourier ai primi 2M + 1 termini. Se la serie di Fourier


(5.15) converge al segnale x(t), allora si può scrivere
lim xM (t) = x(t) , (5.17)
M→+∞

ovvero l’equazione di sintesi restituisce il segnale x(t). Lo studio delle condizioni sotto le quali la serie
(5.15) converge dipende dal tipo di convergenza richiesta. In particolare, si dice che la serie di Fourier
(5.15) converge uniformemente [5] al segnale x(t) su R se, per ogni ε > 0, è possibile determinare
Nε ∈ N tale che in ogni punto t ∈ R e per tutti i valori di M > Nε sia verificata la disuguaglianza:7
|xM (t) − x(t)| < ε .
Una proprietà importante delle serie uniformemente convergenti è che esse si possono integrare mem-
bro a membro; pertanto, se la serie di Fourier converge uniformemente su R, i passaggi che hanno
portato a ricavare i coefficienti Xk nelle (5.6) e (5.7) sono validi anche per M → +∞. Risulta imme-
diatamente evidente che, se il segnale x(t) ha almeno una discontinuità, la sua serie di Fourier non
potrà convergere uniformemente ad x(t), poichè la somma di una serie uniformemente convergente
di funzioni continue (quali sono i fasori) è sempre una funzione continua. Quindi, la continuità del
segnale x(t) è condizione necessaria (ma non sufficiente) affinchè la sua serie di Fourier sia unifor-
memente convergente. Una condizione sufficiente per la convergenza uniforme della serie di Fourier
è la seguente: se la successione {Xk } dei coefficienti è sommabile, ovvero se
+∞
∑ |Xk | < +∞ , (5.18)
k=−∞

allora la serie associata ai coefficienti Xk converge uniformemente.8 Si osservi che affinchè la succes-
sione {Xk } sia sommabile occorre che essa sia necessariamente infinitesima all’infinito, cioè
lim |Xk | = 0 .
k→±∞
6 È opportuno effettuare un troncamento simmetrico per garantire che siano presenti le armoniche Xk e X−k , in modo che
il segnale xM (t) possa essere reale (proprietà di simmetria hermitiana, cfr. § 5.4.2).
7 Si osservi che la peculiarità della convergenza uniforme consiste nel fatto che il numero N non dipende dal particolare
ε
punto t ∈ R: infatti, uno stesso numero Nε va bene per tutti i punti dell’asse reale.
8 Tale risultato è una conseguenza del cosiddetto criterio di Weierstrass [6]: se g (x), con k ∈ Z, sono funzioni a valori
k
+∞
complessi definite sull’intervallo (a, b), con |gk (x)| ≤ Mk , ∀k ∈ Z e ∀x ∈ (a, b), e inoltre ∑ |Mk | < +∞, allora la serie
k=−∞
+∞
bilatera ∑ gk (x) converge uniformemente in (a, b).
k=−∞
218 Serie di Fourier

Si faccia bene attenzione che la sommabilità dei coefficienti di Fourier assicura solo la convergenza
uniforme della serie di Fourier, ma non che la serie restituisca proprio x(t). In altre parole, se la
(5.18) è verificata, la serie di Fourier (5.15) può convergere uniformemente ad un segnale x̌(t) = x(t);
tuttavia, quando ciò accade, i coefficienti di Fourier si possono ottenere equivalentemente dalle due
espressioni seguenti:
 
1 1
Xk = x̌(t) e− j2π k f0t dt = x(t) e− j2π k f0t dt .
T0 T0 T0 T0

Una semplice condizione sufficiente [11] per la convergenza uniforme al segnale x(t) della serie di
Fourier (5.15) è data dal seguente teorema:

Teorema 5.1 (condizione sufficiente per la convergenza uniforme ad x(t))


Se il segnale x(t), periodico con periodo T0 , è continuo e derivabile quasi ovunque, con derivata
x (t) a quadrato sommabile sul periodo T0 , ossia:
  
x (t)2 dt < +∞ ,
T0

la serie di Fourier (5.10) converge uniformemente al segnale x(t) su tutto l’asse reale.

Abbiamo appena visto che la serie di Fourier può convergere uniformemente al segnale x(t) solo se
tale segnale è continuo. Pertanto, se ci limitassimo a considerare la sola convergenza uniforme, non
potremmo applicare la teoria della serie di Fourier al caso di segnali con discontinuità, come l’onda
rettangolare dell’es. 5.2. Dal punto di vista ingegneristico, potremmo aggirare l’ostacolo osservando
che nella pratica i segnali discontinui non esistono, ma sono solo una rappresentazione idealizzata di
segnali che variano molto rapidamente, ma con continuità. Tuttavia dal punto di vista matematico
il problema ha significato e va affrontato in modo rigoroso,9 considerando il problema della conver-
genza puntuale [10] della serie di Fourier al segnale x(t). A differenza della convergenza uniforme
espressa dal teor. 5.1, che assicura la convergenza della serie (5.15) al segnale x(t) per ogni t ∈ R, il
problema della convergenza puntuale della serie di Fourier consiste nel trovare sotto quali condizioni
la serie (5.15) converge ad x(t) per quasi tutti i valori di t ∈ R, eccetto al più un sottoinsieme di valori
di t di misura nulla, per i quali la serie, pur essendo convergente, non restituisce esattamente il segnale
x(t). Si tratta quindi di dare una interpretazione meno restrittiva della convergenza della serie (5.15)
che, com’è intuibile, possa consentire di applicare la teoria della serie di Fourier ad una classe più
ampia di segnali periodici. In tal senso, un risultato importante fu ottenuto dal matematico tedesco
Johann Peter Gustav Lejeune Dirichlet (1805-1859), che individuò nel 1828 le condizioni matemati-
che che prendono il suo nome e garantiscono che, una volta calcolati i coefficienti Xk a partire da un
segnale x(t), la serie associata a tali coefficienti converga (non necessariamente in maniera uniforme)
al segnale da rappresentare, tranne che nei punti di discontinuità:

9 Il problema della continuità della somma della serie di Fourier fu al centro del dibattito matematico dell’800, e solle-

vò numerosi dubbi sulla validità della serie di Fourier, tanto da negare al suo scopritore il meritato riconoscimento della
comunità scientifica. Uno dei critici più severi fu il matematico francese Joseph-Louis Lagrange (1763–1813). Infatti la
principale obiezione che si muoveva a Fourier era la seguente: visto che le funzioni della serie (fasori, coseni o seni) sono
tutte continue, come può la serie rappresentare segnali discontinui, come l’onda rettangolare dell’es. 5.2? Oggi sappiamo
che se la serie non converge uniformemente, la somma di una serie di funzioni continue non è necessariamente una funzione
continua, ma ai matematici dell’800 l’affermazione di Fourier doveva sembrare ai limiti dell’eresia.
5.2 Serie di Fourier per segnali TC 219

Teorema 5.2 (condizioni di Dirichlet per la serie di Fourier)


Sia x(t) un segnale periodico di periodo T0 . Se il segnale soddisfa le seguenti tre condizioni:

(d1) x(t) è sommabile sul periodo T0 :



|x(t)| dt < +∞ ;
T0

(d2) x(t) è una funzione continua nel periodo T0 , escluso al più un numero finito di punti con
discontinuità di prima specie;

(d3) x(t) è una funzione derivabile nel periodo T0 , escluso al più un numero finito di punti nei
quali esistono finite la derivata sinistra e destra;

allora la serie di Fourier di x(t) esiste e, per ogni t ∈ R, converge al valore assunto dalla funzione
x(t) nei punti in cui questa è continua, ed a 12 [x(t + ) + x(t − )] (semisomma dei limiti destro e
sinistro) nei punti in cui x(t) presenta discontinuità di prima specie.

Si può inoltre dimostrare che la convergenza della serie di Fourier è uniforme in ogni intervallo che
non contiene punti di discontinuità di x(t), mentre non è uniforme in ogni intervallo che contiene
punti di discontinuità di x(t). In particolare, se la funzione x(t) è continua, la convergenza della serie
è uniforme per ogni t ∈ R.10
 Esempio 5.4 (onda rettangolare TC) Si verifica facilmente che l’onda rettangolare dell’es. 5.2 soddisfa le
tre condizioni di Dirichlet, e quindi la sua serie di Fourier converge alla funzione x(t) nel punti di continuità, ed
al valore A2 (semisomma dei limiti destro e sinistro) nei punti di discontinuità. Poiché l’onda rettangolare non
è una funzione continua, la convergenza non è uniforme per ogni t ∈ R. In particolare, la convergenza non è
uniforme in ogni intervallo che contiene i punti di discontinuità. Si osservi che in questo caso i coefficienti Xk ,
decrescendo come 1/k, non costituiscono una successione sommabile, violando la condizione (5.18). 

 Esempio 5.5 (onda triangolare a TC) Anche l’onda triangolare dell’es. 5.3 soddisfa le condizioni di Diri-
chlet. In più, essendo una funzione continua, la serie di Fourier restituisce x(t) in tutti i punti, ed inoltre la
convergenza della serie è uniforme per ogni t ∈ R. Il fatto che la serie converga uniformemente è testimoniato
anche dal fatto che i coefficienti Xk , decrescendo come 1/k2 , costituiscono una sequenza sommabile. Il fatto
che la serie converga uniformemente al segnale x(t) è inoltre testimoniato dal teor. 5.1. 

Per concludere, osserviamo che, oltre alla convergenza uniforme e alla convergenza puntuale della
serie di Fourier, esiste un terzo tipo di convergenza (meno restrittiva di entrambe), detta convergenza
in media quadratica, per la cui validità si richiede solo che il segnale x(t) sia a quadrato sommabile
sul periodo T0 . Questo tipo di convergenza, che è importante non solo nell’ambito della teoria dei
segnali e sistemi, ma anche in molti problemi di fisica matematica, è discusso in app. E.

10 In taluni testi le condizioni di Dirichlet sono espresse con linguaggio matematico differente. Ad esempio, la condizione

(d3) fu originariamente formulata dallo stesso Dirichlet nel modo seguente, matematicamente equivalente: “x(t) presenta nel
periodo T0 un numero finito di massimi e minimi”. Inoltre, in numerosi testi la condizione (d2) viene formulata come il fatto
che x(t) è una funzione “generalmente continua”, e la condizione (d3) come il fatto che x(t) è una funzione “generalmente
derivabile con derivata generalmente continua”. Infine, considerazioni matematicamente più approfondite mostrano che,
in effetti, le condizioni di Dirichlet sono un caso particolare del seguente risultato, noto come criterio
( di Jordan:
) “se la
funzione x(t) è a variazione limitata in ogni intorno di t, allora la serie di Fourier converge a 12 x(t + ) + x(t − ) ” (per la
definizione di funzione a variazione limitata si veda [7]).
220 Serie di Fourier

5.2.2 Ricostruzione di un segnale periodico con un numero finito di armoniche


L’equazione di sintesi della serie di Fourier, nelle ipotesi in cui valgono le condizioni di Dirichlet per
la convergenza puntuale (cfr. teor. 5.2), consente di ricostruire esattamente in ogni punto di continuità
il valore del segnale x(t), mentre restituisce in ogni punto di discontinuità la semisomma del limite
destro e sinistro. La ricostruzione esatta di un segnale x(t) è possibile in generale solo considerando
un numero infinito di armoniche, quindi essa può essere verificata solo analiticamente. D’altra parte,
abbiamo osservato che una condizione necessaria per la convergenza uniforme della serie di Fourier
è che i coefficienti Xk tendano a zero per |k| → +∞. Tale proprietà è sicuramente verificata per
l’onda rettangolare e triangolare. Questo vuol dire che, se è vero che in teoria occorre considerare un
numero finito di armoniche per ricostruire il segnale x(t), è pur vero che in pratica le armoniche di
ordine superiore (quelle corrispondenti a valori di |k| grandi) “pesano” di meno nella ricostruzione del
segnale. Pertanto, in pratica, se M è “sufficientemente” grande, il segnale
M
xM (t) = ∑ Xk e j2π k f0t , con M ∈ N ,
k=−M

già definito nella (5.16), che include solo un numero finito di armoniche, può risultare una buona ap-
prossimazione del segnale x(t). La questione fondamentale è quanto debba essere grande M affinchè
xM (t) consenta di ricostruire con un sufficiente grado di accuratezza il segnale x(t). Evidentemente,
la scelta di M dipende dalla rapidità con cui i coefficienti di Fourier Xk tendono a zero per |k| → +∞.
Abbiamo osservato che la rapidità di decadimento a zero dei coefficienti di Fourier può essere diversa
da segnale a segnale: ad esempio, i coefficienti decadono come 1/k per l’onda rettangolare, e come
1/k2 per l’onda triangolare. È facilmente intuibile che, quanto maggiore è la rapidità di decadimento
dei coefficienti di Fourier, tanto più piccolo può essere il valore M sufficiente a garantire un deter-
minato livello di accuratezza. È allora particolarmente interessante notare che l’effettiva rapidità con
cui i coefficienti Xk decadono a zero dipende dalla dolcezza del segnale x(t) nel dominio del tem-
po. Osserviamo infatti preliminarmente che, dal punto di vista matematico, un segnale x(t), continuo
con alcune sue derivate, ha un andamento tanto più dolce quanto maggiore è il numero di derivate
continue. Vale allora la seguente proprietà (la cui dimostrazione, non riportata, si basa sulla ripetuta
integrazione per parti dell’equazione di analisi):

Proprietà 5.1 (rapidità di decadimento a zero dei coefficienti della serie di Fourier)
Sia x(t) un segnale periodico di periodo T0 . Se il segnale è continuo con le sue derivate fino a
quella di ordine n, con derivata (n + 1)-esima discontinua ma limitata, i coefficienti Xk della sua
serie di Fourier decadono a zero per k → ±∞ come 1/|k|n+2 .

La proprietà precedente esprime con linguaggio matematico il seguente concetto qualitativo: quanto
più è dolce il segnale, tanto più rapidamente decadono a zero i coefficienti della sua serie di Fourier.
Più precisamente, essa consente di prevedere esattamente tale rapidità di decadimento a zero, anche
senza calcolare esplicitamente i coefficienti Xk : basta infatti individuare il più piccolo ordine di deri-
vata discontinua, ed incrementarlo di uno per avere la rapidità di convergenza a zero dei coefficienti.
Notiamo che la proprietà precedente vale anche per un segnale discontinuo, basta porre n = −1. Come
conseguenza della prop. 5.1, possiamo prevedere che, quanto più dolce è l’andamento del segnale nel
dominio del tempo, tanto minore sarà il numero di armoniche necessario per ricostruite il segnale con
una determinata accuratezza (ovvero tanto più piccolo sarà il valore di M).
Gli esempi seguenti chiariscono ulteriormente l’importante relazione che intercorre tra l’anda-
mento del segnale x(t) nel dominio del tempo ed i suoi coefficienti Xk nel dominio della frequenza.
5.2 Serie di Fourier per segnali TC 221

 Esempio 5.6 (fenomeno di Gibbs) Si consideri l’onda rettangolare dell’es. 5.2. Per δc = 1/2 ed A = 1, i
coefficienti della sua serie di Fourier sono dati da:

1 k
Xk = sinc ,
2 2
e pertanto il segnale ricostruito con 2M + 1 armoniche, sfruttando la simmetria pari della funzione sinc ed il
fatto che Xk = 0 per k dispari, assume l’espressione

1 M k 1 M
k
xM (t) = ∑
2 k=−M
sinc
2
e j2π k f0 t
=
2
+ ∑ sinc
2
cos(2π f0t) . (5.19)
k=1
k dispari

Si osservi che l’onda rettangolare è un segnale discontinuo, quindi la prop. 5.1 si applica con n = −1, confer-
mando che, in effetti, i coefficienti della serie di Fourier dell’onda rettangolare decadono a zero come 1/|k|.
L’espressione (5.19) può essere calcolata numericamente utilizzando ad esempio Matlab o Mathematica. In
fig. 5.7 sono rappresentati il segnale x(t) su un periodo e la sua ricostruzione xM (t) per M = 0, 1, 3, 5, 11, 101,
ottenuti con Matlab. Poiché l’onda quadra soddisfa le condizioni di Dirichlet, la ricostruzione ideale mediante
la serie di Fourier deve restituire il valore 1 oppure 0 in tutti i punti di continuità, ed il valore 1/2 in corri-
spondenza delle discontinuità. È interessante osservare il particolare comportamento del segnale ricostruito
nell’intorno delle discontinuità. Infatti da entrambi i lati della discontinuità sono presenti delle oscillazioni, la
cui frequenza aumenta, ma la cui ampiezza non diminuisce al crescere di M. Questo fenomeno, noto come feno-
meno di Gibbs,11 non pregiudica la convergenza della serie di Fourier in prossimità della discontinuità. Infatti
al crescere di M i picchi delle oscillazioni, sebbene restino di ampiezza invariata, vengono “schiacciati” verso
la discontinuità, garantendo la convergenza per ogni valore di t arbitrariamente prossimo alla discontinuità.
Matematicamente, il fenomeno di Gibbs è una conseguenza del fatto che la serie di Fourier dell’onda rettan-
golare converge, ma non uniformemente negli intervalli che contengono le discontinuità, come già discusso in
precedenza. 
È interessante osservare che il fenomeno di Gibbs non si verifica solo per l’onda rettangolare, ma
per ogni segnale x(t) che, pur soddisfacendo le condizioni di Dirichlet, presenta dei punti di discon-
tinuità. In particolare, se t0 è un punto di discontinuità, denotato con s(t0 ) = x(t0+ ) − x(t0− ) il salto di
discontinuità in t0 , si può dimostrare che le oscillazioni a destra e a sinistra della discontinuità sono
simmetriche, e la loro ampiezza (calcolata rispetto al limite destro o sinistro) tende per M → +∞ in
valore assoluto a
βgibbs
|s(t0 )| (5.20)
π
dove βgibbs ≈ 0.28114072518757 è una costante notevole.12 Nell’es. 5.6, l’ampiezza delle oscillazioni
calcolata secondo la (5.20) è pari in valore assoluto circa a 0.09, come si può anche osservare dalla
fig. 5.7, nella quale il segnale oscilla tra i valori −0.09 (a sinistra della discontinuità) e 1.09 (a destra
della discontinuità.
 Esempio 5.7 (onda triangolare) Si consideri l’onda triangolare dell’es. 5.3. L’onda triangolare è continua
ma con derivata prima discontinua, per cui la prop. 5.1 si applica con n = 0, confermando che, in effetti, i coeffi-
cienti della serie di Fourier dell’onda triangolare decadono a zero come 1/k2 . Inoltre, poiché l’onda triangolare
è una funzione continua, il fenomeno di Gibbs non si verifica per tale segnale. In effetti, la convergenza della
serie di Fourier è dell’onda triangolare è uniforme in R, e la ricostruzione con un numero finito di armoniche è
molto più rapida e regolare, come testimoniato dalla fig. 5.8. 
11 Il fenomeno prende il nome dal fisico J. W. Gibbs (1839–1903), che per primo lo osservò e lo descrisse.
 " +∞ sin(t)
12 In effetti la costante βgibbs si può calcolare come βgibbs = − π t dt, che a sua volta può essere espresso in termini
"
della funzione non elementare seno integrale sinint(x) = 0x sint
t dt, come βgibbs = sinint(π ) − π2 (in Matlab si può usare per
il calcolo la funzione sinint).
222 Serie di Fourier

1 1

0.8 0.8
x(t), xM(t)

x(t), xM(t)
0.6 0.6

0.4 0.4

0.2 0.2

0 0

−0.5 0 0.5 −0.5 0 0.5


t/T0 t/T0

(a) (b)

1 1

0.8 0.8
x(t), xM(t)

x(t), xM(t)

0.6 0.6

0.4 0.4

0.2 0.2

0 0

−0.5 0 0.5 −0.5 0 0.5


t/T t/T
0 0
(c) (d)

1 1

0.8 0.8
x(t), xM(t)

x(t), xM(t)

0.6 0.6

0.4 0.4

0.2 0.2

0 0

−0.5 0 0.5 −0.5 0 0.5


t/T0 t/T0

(e) (f)
Fig. 5.7. Ricostruzione di un’onda rettangolare con un numero finito (2M + 1) di armoniche (si noti la presenza
del fenomeno di Gibbs in corrispondenza delle discontinuità): (a) M = 0; (b) M = 1; (c) M = 3; (d) M = 5; (e)
M = 11; (f) M = 101.
5.2 Serie di Fourier per segnali TC 223

Dal punto di vista pratico, la lenta convergenza a zero (come 1/k) delle armoniche dell’onda rettan-
golare comporta che per ottenere una buona approssimazione con M finito è necessario considerare
un elevato numero di armoniche. Viceversa, la più rapida convergenza a zero (come 1/k2 ) delle ar-
moniche dell’onda triangolare determina una migliore ricostruzione a parità di numero di armoniche
(si confrontino le fig. 5.7 e 5.8).13

13 Una valutazione quantitativa della bontà di tale ricostruzione, insieme con un ulteriore confronto tra la ricostruzione
dell’onda rettangolare e quella triangolare, è proposta nel § 5.4.3, sulla base dell’uguaglianza di Parseval.
224 Serie di Fourier

1 1

0.8 0.8
x(t), xM(t)

x(t), xM(t)
0.6 0.6

0.4 0.4

0.2 0.2

0 0

−0.5 0 0.5 −0.5 0 0.5


t/T0 t/T0

(a) (b)

1 1

0.8 0.8
x(t), xM(t)

x(t), xM(t)

0.6 0.6

0.4 0.4

0.2 0.2

0 0

−0.5 0 0.5 −0.5 0 0.5


t/T t/T
0 0
(c) (d)

1 1

0.8 0.8
x(t), xM(t)

x(t), xM(t)

0.6 0.6

0.4 0.4

0.2 0.2

0 0

−0.5 0 0.5 −0.5 0 0.5


t/T0 t/T0

(e) (f)
Fig. 5.8. Ricostruzione di un’onda triangolare con un numero finito (2M + 1) di armoniche (si noti l’assenza
del fenomeno di Gibbs): (a) M = 0; (b) M = 1; (c) M = 3; (d) M = 5; (e) M = 11; (f) M = 101.
5.3 Serie di Fourier per segnali TD (DFS) 225

5.3 Serie di Fourier per segnali TD (DFS)


Trattiamo ora la rappresentazione in serie di Fourier di segnali TD, nota anche come Discrete Fourier
Series (DFS). Denotiamo con x(n) un segnale periodico di periodo N0 ∈ N, e definiamo la sua frequen-

za fondamentale come ν0 = 1/N0 . Anche nel caso TD la serie di Fourier consiste nella rappresenta-
zione di x(n) come sovrapposizione di fasori aventi frequenze multiple della frequenza fondamentale
ν0 , quindi con un’espressione del tipo:

x(n) = ∑ Xk e j2π kν0 n . (5.21)


k

Notiamo che, nella (5.21), non abbiamo indicato di proposito gli estremi di variazione dell’indice
k, e quindi l’intervallo di variazione delle frequenze νk = kν0 . Infatti, una differenza fondamentale
da tener presente nel caso TD rispetto al caso TC è che due fasori aventi frequenze ν1 e ν2 tali
che ν2 − ν1 = k ∈ Z sono matematicamente coincidenti (proprietà di periodicità in frequenza dei
fasori TD, cfr. § 2.3.3). Nella (5.21), pertanto, è sufficiente far variare k in modo da ottenere le
frequenze νk = kν0 = k/N0 in un qualunque intervallo di ampiezza unitaria, ad esempio in (0, 1)
oppure in (−1/2, 1/2). In particolare, se k ∈ {0, 1, . . . , N0 − 1}, le frequenze νk assumono i valori
0, 1/N0 , . . . , (N0 − 1)/N0 nell’intervallo [0, 1[, per cui la (5.21) si può scrivere come:
N0 −1
x(n) = ∑ Xk e j2π kν0 n . (5.22)
k=0

La relazione (5.22) è analoga all’equazione di sintesi (5.10) della serie di Fourier a TC, e rappresenta
l’equazione di sintesi della serie di Fourier discreta, in base alla quale un segnale periodico x(n) di
periodo N0 può essere rappresentato come somma di un numero finito N0 di fasori aventi frequenze
multiple della frequenza fondamentale ν0 = 1/N0 . La differenza fondamentale rispetto alla serie di
Fourier (5.10) per segnali TC è che nel caso TD il numero di armoniche è finito14 ed è pari proprio
ad N0 . Quindi un segnale TD periodico di periodo N0 può essere rappresentato esattamente con N0
armoniche (viceversa, salvo casi particolari, un segnale TC può essere solo approssimato utilizzando
un numero finito di armoniche).
L’equazione che consente di calcolare Xk (equazione di analisi) si trova con passaggi analoghi
a quelli utilizzati nel caso TC, semplificati dal fatto che, essendo la (5.22) una somma finita, non è
necessario utilizzare il concetto di convergenza uniforme di una serie come nel caso TC. In particolare,
moltiplicando ambo i membri della (5.22) per e− j2π hν0 n e sommando su un periodo, si ha:

1 N0 −1 N0 −1
1 N0 −1 j2π (k−h)ν0 n

N0 n=0
x(n) e− j2π hν0 n
= ∑ k N0 ∑ e
X = Xh ,
k=0 n=0
  
=δ (k−h)

per cui, cambiando l’indice da h nuovamente a k, si ha:

1 N0 −1
Xk = ∑ x(n) e− j2π kν0 n ,
N0 n=0
k ∈ {0, 1, . . . , N0 − 1} . (5.23)

Le (5.22) e (5.23) rappresentano una coppia di equazioni di sintesi/analisi della serie di Fourier per
segnali TD. Esse, se si eccettua la fondamentale differenza sul numero di fasori che compaiono nella
14 Si
osservi che, proprio per questo motivo, è improprio parlare di “serie” di Fourier nel caso TD, in quanto si tratta di
una somma (finita) e non di una serie.
226 Serie di Fourier

rappresentazione, costituiscono formalmente l’esatta controparte delle (5.10) e (5.11), valide nel caso
TC. Va detto però che, nella letteratura scientifica, viene abitualmente utilizzata una definizione leg-
germente diversa per la serie di Fourier a TD. A partire da Xk , si definisce infatti la sequenza X(k)
come

X(k) = N0 Xk , (5.24)

e pertanto, con sostituzioni algebriche banali, le (5.22) e (5.23) si riscrivono in termini di x(n) e X(k)
come:

1 N0 −1
x(n) = ∑ X(k) e j2π kν0 n ,
N0 k=0
(5.25)

N0 −1
X(k) = ∑ x(n) e− j2π kν0 n . (5.26)
n=0

Una prima differenza rispetto alle (5.22) e (5.23) è che il fattore 1/N0 è stato spostato dall’equazione
di analisi a quella di sintesi. Inoltre nella (5.26) abbiamo esteso la definizione di X(k) a qualunque
valore di k, sebbene a rigore gli unici valori di X(k) richiesti dall’equazione di sintesi (5.25) siano
quelli dell’intervallo {0, 1, . . . , N0 − 1}. D’altra parte è facile verificare che la sequenza X(k) definita
mediante la (5.26) è periodica,15 come la sequenza x(n), di periodo N0 : tale proprietà discende ba-
nalmente dalla periodicità in k del fasore e− j2π kν0 n . In altri termini, le (5.25) e (5.26) definiscono una
trasformazione biunivoca tra le due sequenze x(n) e X(k), entrambe periodiche dello stesso periodo
N0 . Se infine nelle (5.25) e (5.26) facciamo l’ulteriore posizione:

wN0 = e− j2π /N0 (5.27)

perveniamo alla seguente definizione per la serie di Fourier o DFS di un segnale TD:

Definizione 5.2 (serie di Fourier a TD o DFS)


Sia x(n) un segnale periodico avente periodo N0 e frequenza fondamentale ν0 = 1/N0 . Posto

wN0 = e− j2π /N0 , la serie di Fourier (DFS) di x(n) è definita dalle equazioni:

1 N0 −1
x(n) = ∑ X(k) w−kn
N0 k=0 N0 (equazione di sintesi) (5.28)

N0 −1
X(k) = ∑ x(n) wkn
N0 (equazione di analisi) (5.29)
n=0

In effetti, nella letteratura scientifica le (5.28) e (5.29) sono comunemente considerate le equazioni
di sintesi ed analisi della serie di Fourier a TD, anche se esse non sono esattamente corrispondenti a
quelle nel caso TC. In particolare, la (5.29) viene denominata Discrete Fourier Series (DFS), mentre
la (5.28) prende il nome di Inverse Discrete Fourier Series (IDFS). Per sottolineare che la DFS/IDFS
istituisce una corrispondenza biunivoca tra due sequenze periodiche delle stesso periodo N0 si scrive:
DFS
x(n) ←→ X(k) .
15 Notiamo che una tale periodicità non vale invece per la sequenza dei coefficienti Xk della serie di Fourier di un segnale
TC, che anzi tendono a zero per |k| → ∞ e quindi non possono essere periodici.
5.3 Serie di Fourier per segnali TD (DFS) 227

0.8

0.6

x(n)
0.4

0.2

−20 −10 0 10 20
n

Fig. 5.9. Onda rettangolare TD dell’es. 5.8 (N0 = 8,


M = 4).

La DFS e IDFS possono anche essere viste come operatori, e si scrive sinteticamente

X(k) = DFS[x(n)] , x(n) = IDFS[X(k)] .

È interessante mettere in luce un’ulteriore differenza tra il caso TC e TD. Un segnale TC periodi-
co x(t) con periodo T0 è completamente descritto nel dominio del tempo dal suo andamento su un
qualsiasi periodo, ad esempio per t ∈ [0, T0 [, ovvero da un’inifinità continua di valori; abbiamo visto
che invece, nel dominio della frequenza, il segnale x(t) è descritto dalla successione {Xk }k∈Z dei suoi
coefficienti di Fourier, ovvero da un segnale TD. Differentemente dal caso TC, per i segnali periodici
TD sussiste una perfetta dualità tra il dominio del tempo e quello della frequenza. Infatti, un segnale
TD periodico x(n) con periodo N0 è completamente descritto nel dominio del tempo dai suoi N0 va-
lori assunti su un periodo, ad esempio x(0), x(1), . . . , x(N0 − 1); nel dominio della frequenza sussiste
esattamente la stessa proprietà, il segnale x(n) è completamente descritto assegnando solo N0 valori,
N0 −1
cioè i coefficienti {X(k)}k=0 della sua serie di Fourier.
Si può infine verificare che le quantità wN0 definite mediante la (5.27) godono delle seguenti
proprietà:
∗ −kn
N0 ) = wN0 ;
(a) Coniugazione: (wkn
k(n+N0 )
(b) Periodicità in n: wN0 = wkn
N0 ;

(k+N0 )n
(c) Periodicità in k: wN0 = wkn
N0 .

In particolare, la periodicità della sequenza x(n) deriva dalla proprietà (b), mentre la periodicità della
sequenza X(k) segue dalla proprietà (c). La periodicità di X(k) è una caratteristica peculiare della
DFS, ed è importante per comprendere alcune proprietà sia della DFS (come ad esempio la simmetria
hermitiana, cfr. § 5.4.2), sia della trasformata discreta di Fourier (DFT), che è strettamente legata alla
DFS (cfr. cap. 7).
 Esempio 5.8 (DFS dell’onda rettangolare TD, funzione di Dirichlet) Consideriamo l’onda rettangolare TD
di ampiezza unitaria e periodo N0 , ottenuta replicando una finestra rettangolare di durata M ≤ N0 :
+∞
x(n) = repN0 [RM (n)] = ∑ RM (n − kN0 ) ,
k=−∞
228 Serie di Fourier

e raffigurata graficamente in fig. 5.9 per N0 = 8 ed M = 4. La DFS di x(n) si scrive, sulla base della definizione
(5.29), come:
N0 −1 M−1 M−1
X(k) = DFS[x(n)] = ∑ N0 =
x(n) wkn ∑ wknN0 = ∑ [wkN0 ]n .
n=0 n=0 n=0

Per calcolare l’espressione precedente in forma chiusa, è possibile sfruttare la seguente identità:
N2
aN1 − aN2 +1
∑ an =
1−a
, valida per ogni a ∈ C e per ogni N2 ≥ N1 .
n=N1

Ponendo infatti a = wkN0 , N1 = 0 e N2 = M − 1, si ha:


M−1 1 − wkM
∑ [wkN0 ]n =
N0
X(k) = . (5.30)
n=0 1 − wkN0

Ricordando la definizione di wN0 , notiamo che


− j2π kM
wkM
N0 = e N 0 ,
− j2π Nk
wkN0 = e 0 ,
per cui la (5.30) può essere riscritta, con semplici passaggi algebrici, come
 
− jπ kM jπ kM − jπ kM  
− j2π kM e N0
e N0
− e N0
sin π kM
1−e N0
 0  e− jπ (M−1) N0 .
N k
X(k) = =   =
− j2π Nk
− jπ k jπ k − jπ k
1−e 0 e N0 e N0 − e N0 sin π Nk0

Per esprimere in forma più compatta il risultato precedente, introduciamo la funzione DM (x) (funzione di
Dirichlet o “sinc periodica”):
 sin(π xM) − j(M−1)π x
DM (x) = e , x ∈ R, (5.31)
sin(π x)
il cui grafico per x ∈ [−1, 1] è riportato in fig. 5.10 [notiamo che trattandosi di una funzione complessa abbiamo
rappresentato separatamente modulo e fase di DM (x)]. Le principali proprietà della funzione DM (x) sono le
seguenti, di facile dimostrazione:
1. La funzione DM (x) è periodica di periodo 1:

DM (x + 1) = DM (x) , ∀x ∈ R .

2. La funzione DM (x) si annulla in tutti i valori di x multipli di 1/M, tranne che in x = ±1, ±2, . . ., dove
vale M:

 k
0, x = , k ∈ Z, x ∈ Z ;
DM (x) = M
M, x ∈ Z .

Utilizzando la definizione (5.31), si ha allora:


k
X(k) = DM ,
N0
ovvero la DFS dell’onda rettangolare si ottiene campionando con passo 1/M la funzione di Dirichlet. Tale DFS
è rappresentata in ampiezza e fase in fig. 5.11 nel caso N0 = 8 ed M = 4. Notiamo anche in questo caso la
simmetria pari dello spettro di ampiezza, e quella dispari dello spettro di fase. 
5.4 Principali proprietà della serie di Fourier e della DFS 229

4 4
|DM(x)|

|X(k)|
2 2

0 0
−1 −0.5 0 0.5 1 −5 0 5
x k

2 2
∠ D (x)

∠ X(k)
M

0 0

−2 −2
−1 −0.5 0 0.5 1 −5 0 5
x k

Fig. 5.10. Funzione di Dirichlet per M = 4: modulo Fig. 5.11. DFS dell’onda rettangolare dell’es. 5.8
(in alto) e fase (in basso). (N0 = 8, M = 4): spettro di ampiezza (in alto) e di
fase (in basso).

Notiamo in conclusione che, poiché la DFS è la rappresentazione di un segnale periodico come somma
finita di fasori, allora per essa non esistono problemi di convergenza come per la serie di Fourier a
TC. In altre parole, un qualunque segnale periodico TD con periodo N0 si può sempre esprimere
mediante le (5.28) and (5.29). Di conseguenza, il fenomeno di Gibbs non sussiste nel caso TD,
anche perchè il concetto di continuità perde di significato in tal caso. Il fatto che la DFS/IDFS sia
espressa mediante una somma finita di termini comporta che la DFS/IDFS può essere calcolata non
solo analiticamente, ma anche algoritmicamente, in quanto richiede un numero finito di operazioni.
Vedremo (cfr. § cap. 7) che la DFS presenta forti affinità con la trasformata di Fourier discreta (DFT),
e per quest’ultima esistono algoritmi di calcolo computazionalmente efficienti, denominati algoritmi
Fast Fourier Transform (FFT), che a partire dalla loro scoperta negli anni ’60 hanno dato un grosso
impulso alla diffusione delle tecniche di elaborazione numerica dei segnali.

5.4 Principali proprietà della serie di Fourier e della DFS


La serie di Fourier a TC e a TD (DFS) gode di molte proprietà interessanti, che suggeriscono ulteriori
considerazioni concettuali e, soprattutto, risultano particolarmente utili per facilitare il calcolo dei
coefficienti di Fourier. In questo paragrafo considereremo solo alcune proprietà principali della serie
di Fourier che risultano più interessanti per le loro implicazioni nell’elaborazione dei segnali. In
particolare, discuteremo nel dettaglio la proprietà di linearità, simmetria hermitiana dei coefficienti, e
l’uguaglianza di Parseval per il calcolo della potenza. Per tali proprietà, tratteremo congiuntamente
sia il caso TC che quello TD, evidenziando, quando necessario, le differenze salienti. Altre proprietà
formali, utili talvolta nei calcoli, sono simili a quelle della trasformata di Fourier (che vedremo in
maggior dettaglio), e sono comunque riportate in app. E.

5.4.1 Linearità
Siano x(t) ed y(t) due segnali periodici TC con lo stesso periodo T0 , i cui coefficienti di Fourier siano
Xk e Yk , rispettivamente. Poichè i due segnali x(t) e y(t) hanno lo stesso periodo, si può facilmente
dimostrare che una loro arbitraria combinazione lineare z(t) = α1 x(t) + α2 y(t), con α1 , α2 ∈ C, è
ancora un segnale periodico di periodo T0 .16 La proprietà di linearità della serie di Fourier afferma
230 Serie di Fourier

che i coefficienti di Fourier Zk del segnale periodico z(t) si ottengono combinando linearmente allo
stesso modo i coefficienti di Fourier dei segnali x(t) e y(t), ossia:

Zk = α1 Xk + α2 Yk .

Analogamente, siano x(n) ed y(n) due segnali periodici TD con lo stesso periodo N0 , i cui coefficienti
di Fourier siano X(k) e Y (k), rispettivamente. Anche in questo caso si può mostrare agevolmente che
un’arbitraria combinazione lineare z(n) = α1 x(n) + α2 y(n), con α1 , α2 ∈ C, dei due segnali è ancora
un segnale periodico di periodo N0 ,17 la cui DFS si ottiene da quella dei segnali x(n) ed y(n) nel
seguente modo:

Z(k) = α1 X(k) + α2 Y (k) .

Riassumendo, otteniamo la seguente proprietà notevole:

Proprietà 5.2 (linearità della serie di Fourier)


FS FS
(a) Siano x(t) ←→ Xk e y(t) ←→ Yk due segnali TC periodici con lo stesso periodo. Si ha:

FS
α1 x(t) + α2 y(t) ←→ α1 Xk + α2 Yk , ∀α1 , α2 ∈ C .

DFS DFS
(b) Siano x(n) ←→ X(k) e y(n) ←→ Y (k) due segnali TD periodici con lo stesso periodo. Si
ha:
DFS
α1 x(n) + α2 y(n) ←→ α1 X(k) + α2 Y (k) , ∀α1 , α2 ∈ C .

La dimostrazione della proprietà di linearità nel caso TC e TD si ottiene immediatamente a partire


dalle equazioni di analisi (5.11) e (5.29), rispettivamente. Si noti infine che la proprietà di linearità si
estende facilmente al caso della combinazione lineare di un numero arbitrario (ma finito) di segnali
periodici dello stesso periodo.

5.4.2 Simmetria hermitiana


Con riferimento a segnali periodici TC, negli es. 5.1, 5.2 e 5.3 abbiamo osservato che lo spettro di
ampiezza |Xk | è una funzione pari di k, mentre lo spettro di fase Xk è una funzione dispari di k (a
meno di multipli di 2π ). Valgono cioè le seguenti relazioni:

|Xk | = |X−k | , (simmetria pari)


(5.32)
Xk = −X−k . (simmetria dispari)

Si può facilmente mostrare che queste relazioni di simmetria per gli spettri di ampiezza e di fase si
possono sinteticamente enunciare come:

Xk∗ = X−k . (5.33)


16 Può accadere in casi particolari che il periodo fondamentale della combinazione lineare sia però più piccolo di T0 .
17 Anche nel caso TD, esistono casi particolari in cui il periodo fondamentale della combinazione lineare è più piccolo di
N0 .
5.4 Principali proprietà della serie di Fourier e della DFS 231

Una proprietà analoga è stata osservata anche nell’es. 5.8 riguardante la DFS dell’onda rettangolare
TD, dove si è visto che lo spettro di ampiezza |X(k)| è una funzione pari di k, mentre lo spettro di fase
X(k) è una funzione dispari di k (a meno di multipli di 2π ). Valgono cioè le seguenti relazioni:

|X(k)| = |X(−k)| , (simmetria pari)


(5.34)
X(k) = −X(−k) . (simmetria dispari)

Pertanto, anche in questo caso le (5.34) si possono scrivere in maniera più compatta come:

X ∗ (k) = X(−k) . (5.35)

Le proprietà (5.33) e (5.35), in particolare, prendono il nome di simmetria hermitiana o coniugata dei
coefficienti di Fourier, e valgono se e solo se il segnale periodico in questione è reale, come specificato
dalla seguente proprietà:

Proprietà 5.3 (simmetria hermitiana dei coefficienti della serie di Fourier)


FS
(a) Sia x(t) ←→ Xk un segnale TC periodico. Vale la seguente equivalenza:

x(t) reale ⇐⇒ Xk∗ = X−k (simmetria hermitiana) (5.36)

DFS
(b) Sia x(n) ←→ X(k) un segnale TD periodico. Vale la seguente equivalenza:

x(n) reale ⇐⇒ X ∗ (k) = X(−k) (simmetria hermitiana) (5.37)

Prova. Nel seguito è riportata la dimostrazione della proprietà di simmetria hermitiana solo nel caso TC; la
dimostrazione nel caso della DFS si ottiene con ragionamenti analoghi. Proviamo prima l’implicazione ⇒ nella
(5.36). Partiamo dall’equazione di analisi (5.11):

1
Xk = x(t) e− j2π k f0 t dt .
T0 T0

Se x(t) è reale, si ha x∗ (t) ≡ x(t), e pertanto:


 
1 1
Xk∗ = x∗ (t) e j2π k f0 t dt = x(t) e− j2π (−k) f0t dt = X−k .
T0 T0 T0 T0

Proviamo adesso l’implicazione ⇐ nella (5.36). Se vale la simmetria hermitiana (5.36), osserviamo prelimi-
narmente che per k = 0 si ha X0 = X0∗ , e quindi X0 è reale. Inoltre l’equazione di sintesi (5.10) si può riscrivere
come:
+∞ −1 +∞ +∞
x(t) = X0 + ∑ Xk e j2π k f0 t + ∑ Xk e j2π k f0 t = X0 + ∑ Xk e j2π k f0 t + ∑ X−k e− j2π k f0 t
k=1 k=−∞ k=1 k=1
! (5.38)
+∞ +∞ +∞
= X0 + ∑ Xk e j2π k f0 t
+∑ Xk∗ e− j2π k f0 t = X0 + 2 Re ∑ Xk e j2π k f0 t
,
k=1 k=1 k=1

da cui, avendo già provato che X0 è reale, si ricava che x(t) è reale. 
L’equivalenza tra simmetria hermitiana e simmetria pari/dispari degli spettri di ampiezza/fase si dimo-
stra facilmente nel caso TC esprimendo Xk come Xk = |Xk | e jXk e sostituendo tale espressione nella
(5.36). Si ha:

Xk∗ = X−k ⇐⇒ |Xk | e− jXk = |X−k | e jX−k


232 Serie di Fourier

da cui eguagliando modulo e fase dei due membri si ottiene la (5.32) (con analoghi passaggi si ottiene
la (5.34) a partire dalla (5.37) nel caso TD). Per evitare possibili fraintendimenti, notiamo che, poiché
la fase di un numero complesso è definita a meno di multipli di 2π , la simmetria dispari dello spettro
di fase va intesa anch’essa a meno di multipli di 2π . In altre parole, se x(·) è reale, tra tutti i pos-
sibili andamenti dello spettro di fase (ottenuti aggiungendo o sottraendo multipli di 2π ), è possibile
determinarne almeno uno dispari.
Rispetto al caso TC, la proprietà di simmetria hermitiana della DFS merita qualche ulteriore com-
mento, in relazione alla periodicità della sequenza X(k). Notiamo infatti che nell’equazione di sintesi
(5.28) compaiono solo i valori di X(k) per k ∈ {0, 1, . . . , N0 − 1}, per cui sembrerebbe che la sim-
metria hermitiana si possa applicare solo per k = 0 e, conseguentemente, il solo coefficiente X(0) è
vincolato ad essere reale, mentre non è imposta nessuna relazione tra gli altri coefficienti X(k), per
k ∈ {1, 2, . . . , N0 − 1}. Questa conclusione non è corretta. Infatti, ricordando che la DFS X(k) è una
sequenza periodica di periodo N0 , si ha:
X(−k) = X(−k + N0 ) = X(N0 − k) ,
per cui la (5.37) si può riscrivere, per k ∈ {1, 2, . . . , N0 − 1}, anche come segue:
X ∗ (k) = X(N0 − k) .
Notiamo infatti che, se k ∈ {1, 2, . . . , N0 − 1}, anche N0 − k varia nello stesso intervallo. In definitiva,
la proprietà di simmetria hermitiana per la DFS, con riferimento ai soli valori di k ∈ {0, 1, . . . , N0 − 1},
si può esprimere, in alternativa alla (5.37) mediante le seguenti condizioni:

X(0) reale ,
(5.39)
X ∗ (k) = X(N0 − k) , k ∈ {1, 2, . . . , N0 − 1} ,
dove la seconda relazione si può interpretare anche come una simmetria di X(k) rispetto al “punto
medio” N0 /2 dell’intervallo {1, 2, . . . , N0 − 1}. In particolare, se N0 /2 è intero (il che accade se e solo
se N0 è pari), applicando la (5.39) per k = N0 /2 si ha:
X ∗ (N0 /2) = X(N0 /2) ,
da cui si deduce che, oltre a X(0), anche X(N0 /2) è vincolato ad essere reale per N0 pari.
La proprietà di simmetria hermitiana dei coefficienti consente di ottenere forme alternative della
serie di Fourier a TC e TD, valide esclusivamente per segnali reali. Infatti, con riferimento a segnali
periodici TC reali, ponendo Xk = |Xk | e jXk nella (5.38), si ottiene:
! !
+∞ +∞
x(t) = X0 + 2 Re ∑ |Xk | e jX
k
e j2π k f0t = X0 + 2 Re ∑ |Xk | e j(2π k f t+X )
0 k

k=1 k=1
(5.40)
+∞
= X0 + 2 ∑ |Xk | cos(2π k f0t + Xk ) .
k=1

Con ragionamenti simili, partendo dall’equazione di sintesi (5.28) e sfruttando la proprietà di simme-
tria hermitiana nella forma (5.39), si può verificare (la verifica è lasciata al lettore come esercizio)
che, per segnali periodici TD reali, si ottiene:
 
/
 (N0 /2)−1

 1 N
+ 2 ∑ |X(k)| cos[2π kν0 n + X(k)] , N0 pari ,
0

 X(0) + (−1)n X
 N0 2 k=1
x(n) =  /

 (N0 −1)/2
 1
 N X(0) + 2 ∑ |X(k)| cos[2π kν0 n + X(k)] ,

 N0 dispari .
0 k=1
5.4 Principali proprietà della serie di Fourier e della DFS 233

(5.41)

Le (5.40) e (5.41) sono forme alternative delle equazioni di sintesi della serie di Fourier a TC e
TD, rispettivamente, valide per segnali reali, note come forma polare della serie di Fourier, in cui
compaiono esclusivamente funzioni trigonometriche reali e coefficienti reali. Un’ulteriore espressione
della serie di Fourier, molto utilizzata nei testi di analisi matematica e valida sempre per segnali reali,
si ottiene nel caso TC decomponendo Xk , anziché in modulo e fase, in parte reale ed immaginaria.
Infatti, ponendo X0 = a0 /2 e Xk = (ak − jbk )/2 (con k ∈ N) nella (5.38), si ha, con facili passaggi
algebrici,

a0 +∞
x(t) = + ∑ [ak cos(2π k f0t) + bk sin(2π k f0t)] , (5.42)
2 k=1

dove:
  
2 2 2
a0 = x(t) dt , ak = x(t) cos(2π k f0t) dt , bk = x(t) sin(2π k f0t) dt .
T0 T0 T0 T0 T0 T0

Allo stesso modo, ponendo X(0) = a(0)/2 e X(k) = [a(k) − jb(k)]/2 (con k ∈ {1, 2, . . . , N0 − 1}) nella
(5.29), partendo dall’equazione di sintesi (5.28) e sfruttando la proprietà di simmetria hermitiana nella
forma (5.39), nel caso TD si ottiene:
  /
 (N0 /2)−1

 1 a(0) (−1) n a(N /2)
+ ∑ [a(k) cos(2π kν0 n) + b(k) sin(2π kν0 n)] , N0 pari ,
0

 +
 N0 2 2 k=1
x(n) =  /

 (N −1)/2
 1 a(0) 0


 + ∑ [a(k) cos(2π kν0 n) + b(k) sin(2π kν0 n)] , N0 dispari .
N0 2 k=1
(5.43)

dove:
N0 −1 N0 −1 N0 −1
a(0) = 2 ∑ x(n) , a(k) = 2 ∑ x(n) cos(2π kν0 n) , bk = 2 ∑ x(n) sin(2π kν0 n) .
n=0 n=0 n=0

Le espressioni (5.42) e (5.43) sono note come forma trigonometrica o forma rettangolare della serie
di Fourier, ed in essa, come nella forma polare, compaiono soltanto quantità reali.
Nel seguito, anche per segnali reali, saranno utilizzate quasi esclusivamente le definizioni originali
di serie di Fourier a TC e TD (cfr. def. 5.1 e def. 5.2), note anche come forma esponenziale della serie
di Fourier, perché più generali e compatte.

5.4.3 Uguaglianza di Parseval


L’uguaglianza di Parseval consente di esprimere la potenza di un segnale periodico in termini del-
le potenza delle armoniche che lo compongono. Consideriamo dapprima il caso di un segnale TC
periodico. Il punto di partenza è l’equazione di sintesi (5.10), che riscriviamo per comodità:
+∞
x(t) = ∑ Xk e j2π k f0t .
k=−∞
234 Serie di Fourier

Abbiamo già osservato [eq. (5.4)] che i fasori e j2π k f0t che compaiono nella (5.10) sono a due a due
ortogonali. Tale proprietà consente di calcolare la potenza della somma dei fasori come somma del-
le potenze dei singoli fasori. Poiché (cfr. es. 2.18) la potenza di un singolo fasore Xk e j2π f0t della
rappresentazione vale |Xk |2 , otteniamo la seguente relazione:
+∞
Px = ∑ |Xk |2 ,
k=−∞

nota come uguaglianza di Parseval per la serie di Fourier (a TC).


Passiamo a considerare il caso di un segnale periodico TD, riprendendo e riscrivendo l’equazione
di sintesi (5.28):

1 N0 −1 N0 −1
1 j2π k n
x(n) = ∑
N0 k=0
X(k) w−kn
N0 = ∑ X(k) e N0 .
k=0 N0

Come nel caso TC, possiamo interpretare questa relazione come uno sviluppo del segnale x(n) in una
j2π k
n
somma finita di fasori xk (n) = e N0 , con coefficienti X(k)/N0 . È semplice anche in questo caso
provare che i segnali xk (n), essendo fasori a frequenze distinte, sono tra di loro ortogonali, ovvero
hanno potenza mutua nulla:

1 N0 −1 j2π (k−h) 1, se k = h ;

∑ e N0 = δ (k − h) = 0, se k = h .
n
Pxk xh = xk (n) xh (n) =
N0 n=0

In virtù di tale ortogonalità, la potenza del segnale x(n) si ottiene come somma delle potenze dei
singoli fasori, e tenendo conto che la potenza di ciascun fasore della rappresentazione è pari stavolta
a |X(k)|2 /N02 , si ottiene la seguente relazione:

1 N0 −1
Px = ∑ |X(k)|2 .
N02 k=0

nota come uguaglianza di Parseval per la DFS. Riassumendo, possiamo quindi enunciare la seguente
proprietà:

Proprietà 5.4 (uguaglianza di Parseval per la serie di Fourier)


FS
(a) Sia x(t) ←→ Xk un segnale TC periodico con periodo T0 . La potenza di x(t) è data da:
+∞
Px = ∑ |Xk |2 . (5.44)
k=−∞

DFS
(b) Sia x(n) ←→ X(k) un segnale TD periodico con periodo N0 . La potenza di x(n) è data da:

1 N0 −1
Px = ∑ |X(k)|2 .
N02 k=0
(5.45)

L’interpretazione “fisica” della uguaglianza di Parseval è che la potenza di un segnale periodico si può
ottenere sommando le potenze delle singole armoniche che lo compongono. Notiamo che per segnali
5.4 Principali proprietà della serie di Fourier e della DFS 235

TC reali, sfruttando la simmetria hermitiana dei coefficienti, la (5.44) può essere riscritta utilizzando
solo le armoniche con k ≥ 0, ottenendo:
+∞
Px = X02 + 2 ∑ |Xk |2 .
k=1

L’uguaglianza di Parseval può essere utilizzate per misurare la bontà della ricostruzione di un segnale
TC periodico impiegando un numero finito di armoniche (cfr. § 5.2.2). Infatti, per ottenere una valu-
tazione quantitativa di tale bontà, è possibile calcolare la potenza del segnale ricostruito con 2M + 1
armoniche:
M
xM (t) = ∑ Xk e j2π k f0t , con M ∈ N ,
k=−M

e confrontarla con la potenza del segnale originario x(t). Utilizzando l’uguaglianza di Parseval, la
potenza del segnale ricostruito è pari a:
M
Px (M) = ∑ |Xk |2 .
k=−M

Tale potenza può essere rapportata alla potenza Px del segnale x(t), ottenendo così il coefficiente

 Px (M)
ξM = ∈ [0, 1] ,
Px
che può essere assunto come indice della bontà della ricostruzione al variare di M. In particolare, tale
coefficiente, per un fissato valore di M, indica la frazione della potenza del segnale originario x(t)
presente nel segnale approssimato xM (t). In fig. 5.12 è rappresentato, al variare di M, il coefficiente
ξM (espresso in percentuale) per l’onda rettangolare e triangolare. Si noti come il coefficiente ξM per
l’onda triangolare tenda molto più rapidamente ad 1, rispetto a quello per l’onda rettangolare. Per
un fissato valore di ξM , e quindi per un fissato valore di accuratezza relativa, è possibile calcolare il
numero di armoniche M necessarie per i due segnali considerati. Ad esempio, per avere ξM ≥ 0.99
è necessario considerare M = 23 per l’onda ret