Sei sulla pagina 1di 160

Appunti di Teoria dei Segnali

Corso di Teoria dei Segnali, Prof. Maurizio di Bisceglie Rel. 28.11.2000


Indice

1 STUDIO DEI SEGNALI NEL DOMINIO DEL TEMPO 1


1.1 Introduzione. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Classificazione dei segnali. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Segnali deterministici elementari. . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3.1 Impulso o finestra rettangolare. . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.2 Gradino unitario. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.3 Esponenziale complesso (tempo continuo). . . . . . . . . . . . . . . . . . . 6
1.3.4 Segnale sinusoidale (tempo continuo). . . . . . . . . . . . . . . . . . . . . . 7
1.3.5 Sequenza esponenziale (tempo discreto). . . . . . . . . . . . . . . . . . . . 7
1.3.6 Fasore (tempo discreto). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.7 Impulso di tipo sinc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.8 Impulso discreto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.9 Impulso continuo (impulso di Dirac). . . . . . . . . . . . . . . . . . . . . . 12
1.3.10 esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4 CARATTERIZZAZIONE STATISTICA DI SEGNALI ALEATORI . . . . . . . . . 16
1.4.1 Caratterizzazione di ordine N . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4.2 Caratterizzazione sintetica . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.4.3 Segnali aleatori stazionari . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4.4 Caratterizzazione congiunta . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4.5 Processo di Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

i
1.4.6 Processo di conteggio dei successi di Bernoulli . . . . . . . . . . . . . . . . 23
1.4.7 Processo di Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.4.8 Processi gaussiani . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.5 MEDIE TEMPORALI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.5.1 Segnali deterministici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.5.2 Segnali aleatori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.5.3 Rappresentazione dei segnali . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.5.4 Funzioni di correlazione per segnali deterministici . . . . . . . . . . . . . . 35

2 I SISTEMI NEL DOMINIO DEL TEMPO 41


2.1 GENERALITÀ SUI SISTEMI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.1.1 Dispersività . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.1.2 Causalità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.1.3 Invertibilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.1.4 Invarianza temporale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.1.5 Stabilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.1.6 Linearità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.2 SISTEMI LINEARI: SOMMA ED INTEGRALE DI SOVRAPPOSIZIONE . . . . . 49
2.3 Sistemi lineari tempo invarianti . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.4 LEGAMI INGRESSO USCITA PER LE FUNZIONI DI CORRELAZIONE . . . . . 62

3 ANALISI NEL DOMINIO DELLA FREQUENZA 73


3.1 FUNZIONE DI TRASFERIMENTO DI UN SISTEMA LTI . . . . . . . . . . . . . 73
3.2 RISPOSTA IN FREQUENZA DI UN SISTEMA LTI . . . . . . . . . . . . . . . . . 76
3.3 TRASFORMATA DI FOURIER . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.4 ESEMPI DI TRASFORMATE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.5 TRASFORMATE DI FOURIER AL LIMITE . . . . . . . . . . . . . . . . . . . . . 90
3.6 PROPRIETÀ DELLA TRASFORMATA DI FOURIER . . . . . . . . . . . . . . . . 92
3.6.1 Linearità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3.6.2 Proprietà di simmetria della trasformata di Fourier . . . . . . . . . . . . . . 93

ii
3.6.3 Cambiamento di scala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3.6.4 Traslazione nel dominio del tempo . . . . . . . . . . . . . . . . . . . . . . . 96
3.6.5 Traslazione nel dominio della frequenza (modulazione) . . . . . . . . . . . . 98
3.6.6 Convoluzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.6.7 Replicazione e campionamento . . . . . . . . . . . . . . . . . . . . . . . . 104
3.6.8 SPETTRO DI SEGNALI PERIODICI . . . . . . . . . . . . . . . . . . . . . 108
3.7 CARATTERIZZAZIONE ENERGETICA DEI SEGNALI . . . . . . . . . . . . . . 119
3.7.1 Spettri di energia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
3.7.2 Densità spettrale di potenza . . . . . . . . . . . . . . . . . . . . . . . . . . 123
3.7.3 Spettri mutui di energia e di potenza . . . . . . . . . . . . . . . . . . . . . . 124
3.7.4 Processi bianchi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
3.7.5 Teorema di Wiener-Kintchine . . . . . . . . . . . . . . . . . . . . . . . . . 126
3.8 SEGNALI PAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
3.9 LEGAMI INGRESSO USCITA PER LE
 . . . . . . . . . . . . . . . . . . . . 133
3.10 LA DISTORSIONE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
3.10.1 Distorsione di ampiezza . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
3.10.2 Distorsione di fase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
3.10.3 Distorsione non lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
3.11 PROPRIETÀ DELLA TRASFORMATA DI FOURIER . . . . . . . . . . . . . . . . 142
3.12 PROPRIETÀ DELLA SERIE DI FOURIER . . . . . . . . . . . . . . . . . . . . . . 146
3.13 PROPRIETÀ DELLA DFS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
3.14 PROPRIETÀ DELLA DFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
3.15 FORME D’ONDA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
3.16 SEQUENZE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153

1
2
Capitolo 1

STUDIO DEI SEGNALI NEL


DOMINIO DEL TEMPO

1.1 Introduzione.

Il concetto di segnale interviene in molti campi della scienza e della tecnologia. La natura fisica dei
segnali può essere molto diversa, ma la loro caratteristica di base é comune: precisamente il segnale
descrive il modo di variare di una grandezza misurabile. Pertanto il segnale può essere rappresentato
matematicamente da una funzione di una o più variabili indipendenti.

Esempio 1 Segnale vocale.


É una pressione acustica variabile nel tempo,  . Tipicamente, il segnale corrispondente
al suono vocalico ”a”, presenta una spiccata ripetitività (segnale quasi periodico) mentre il
segnale corrispondente al suono consonantico, ”s” non esibisce nessuna periodicità.

Esempio 2 Segnale di immagine in bianco e nero.


Una immagine in bianco e nero é descritta dalla luminosità o luminanza, come funzione di
due coordinate spaziali, 
  .

Esempio 3 Segnale BPSK (Binary Phase Shift Keying).


Per trasmettere un segnale binario, si associa al simbolo ’1’ il segnale  ed al simbolo
’0’ il segnale  . Quindi alla seguenza di simboli ’100111’ corrisponderá la sequenza
dei segnali 




 . Se  si ottiene una coppia di
segnali BPSK.

1
2 Capitolo 1. STUDIO DEI SEGNALI NEL DOMINIO DEL TEMPO


  



   
  
  
 0

Figura 1.1: Rappresentazione grafica di una sequenza

Esempio 4 Serie storiche.


Una successione di valori omogenei prende il nome di serie storica o serie temporale. Le tem-
perature minime e quelle massime del giorno in una data località, l’indice di borsa, il numero
di copie vendute al giorno da un quotidiano sono serie con cadenza giornaliera; l’indice del
costo della vita costituisce una serie con cadenza mensile, etc..

1.2 Classificazione dei segnali.


Gli esempi precedenti indicano che i segnali possono essere funzioni di una sola variabile o di più
variabili; nel primo caso si dicono monodimensionali e nel secondo multidimensionali: ad esempio
il segnale d’immagine é bidimensionale. Nel seguito considereremo solo segnali monodimensionali,
anche se la maggior parte di quanto diremo vale anche per i segnali pluridimensionali.
Generalmente la variabile indipendente é di tipo temporale: adottiamo la convenzione di denominare
comunque tale variabile come tempo. Con riguardo all’insieme di definizione della variabile tempo
si definiscono le classi dei segnali a tempo continuo e dei segnali a tempo discreto come segue. I
segnali (a tempo) continuo, o forme d’onda, sono i segnali definiti su un insieme continuo; il segnale
vocale e il segnale BPSK sono esempi di segnali a tempo continuo. Per convenzione un segnale
a tempo continuo é individuato dall’uso della variabile indipendente  , o
; ad esempio  , 

denotano convenzionalmente segnali a tempo continuo. I segnali (a tempo) discreto, o sequenze,
sono i segnali definiti in un insieme discreto di tempi: la variabile indipendente viene di norma
indicata con una delle lettere da a  e si intende, salvo avviso contrario, che descriva l’insieme
dei numeri relativi, o un suo sottinsieme; cosı̀ per esempio, la notazione    individua un segnale
discreto. Il modo di rappresentare graficamente una sequenza é illustrato nella Fig. 1.1.
Si noti che il segnale BPSK é continuo nel tempo, anche se rappresenta un segnale a tempo discreto
i cui valori assunti sono discreti, in particolare binari. Analogamente, i valori assunti dal segnale
1.2. Classificazione dei segnali. 3

vocale sono continui, i possibili valori della temperatura minima giornaliera descrivono un insieme
continuo, mentre il numero delle copie vendute ogni giorno di un quotidiano sono necessariamente
un numero intero. Corrispondentemente a questa distinzione si può anche introdurre una classi-
ficazione sulla base della gamma dei valori assunti (dinamica) in segnali ad ampiezza continua o
analogici e segnali ad ampiezza discreta; i segnali a tempo ed ampiezza discreta, che assumono solo
un numero finito di valori, si chiamano anche numerici o digitali.
Una sequenza    può rappresentare un fenomeno per cui la variabile indipendente é intrinseca-
mente discreta, oppure può rappresentare successivi campioni di un fenomeno che evolve in modo
continuo. Per esempio la successione delle temperature minime o massime giornaliere in una data
località, od altre successioni inerenti a grandezze metereologiche, o demografiche od econometriche
sono segnali intrinsecamente discreti; d’altra parte l’elaborazione della voce al calcolatore richiede
che i segnali vocali vengano rappresentati mediante una successione di valori presi ad intervalli
costanti di tempo (tipicamente gli intervalli sono di un centinaio di microsecondi): questo tipo di
rappresentazione si chiama campionamento uniforme o semplicemente campionamento. Analoga-
mente le immagini fisse possono essere riprodotte mediante una griglia regolare di elementi di im-
magine (pixel) attribuendo a ciascuno di essi la luminosità corrispondente dell’immagine originaria
(campionamento spaziale). Nel seguito sequenze e forme d’onda verranno trattati in parallelo in
modo da poterne, di volta in volta, evidenziare le analogie e le differenze.
In tutti i processi di comunicazione, sia sotto forma di trasmissione, sia sotto forma di immagaz-
zinamento dell’informazione, intervengono segnali non perfettamente noti, cioè segnali casuali o
aleatori: invero alla radice stessa di informazione c’é un certo grado di incertezza o impredici-
bilità; il trasferimento dell’informazione, trasportata dai segnali, avviene proprio per eliminare tale
incertezza o impredicibilità, parzialmente o completamente.
Nonostante ciò, é opportuno considerare anche i segnali perfettamente noti, detti anche determinis-
tici o derminati, per le seguenti ragioni:

consentono di studiare le proprietà dei sistemi che elaborano o trasferiscono l’informazione


(analisi) e di progettare sistemi aventi determinati requisiti (sintesi);

costituiscono i blocchi elementari aggregando i quali si ottengono realizzazioni di segnali


aleatori.

Ad esempio il segnale corrispondente ad uno specifico simbolo BPSK é un segnale deterministico,


tuttavia quando si instaura il processo di comunicazione, viene generato un segnale costituito da
una successione, non nota a priori, di segnali del tipo considerato in precedenza per cui il segnale
complessivo é di tipo aleatorio.
Un segnale (discreto o continuo) si dice deterministico se esso é completamente descritto da una
espressione matematica, da una tabella, da un grafico o da una regola di qualunque tipo. Invece un
segnale aleatorio é una collezione di segnali ognuno dei quali corrisponde a un singolo risultato di un


esperimento casuale. Precisamente, se denotiamo con il generico risultato di un esperimento, cioè


4 Capitolo 1. STUDIO DEI SEGNALI NEL DOMINIO DEL TEMPO







 






Figura 1.2: Rappresentazione grafica di un segnale aleatorio

un punto dell’insieme dei possibili risultati o spazio dei campioni , un segnale aleatorio può essere


definito come una legge di corrispondenza che associa a una funzione deterministica del tempo
(funzione membro o realizzazione del segnale aleatorio). Equivalentemente un segnale aleatorio
   può essere riguardato come una funzione di due variabili (vedi Fig. 1.2), la prima,  o  , é una


variabile che descrive l’insieme dei tempi, e la seconda é una variabile il cui dominio é lo spazio


dei campioni : quindi la notazione per un processo aleatorio, supposto ad esempio tempo-continuo,
potrebbe essere 
 , tuttavia più comunemente si usa la notazione  per rappresentare un seg-


nale aleatorio , omettendo di evidenziare la dipendenza da . In altri termini un segnale é determin-


istico se l’ampiezza istantanea  (o    ) é, comunque si scelga l’istante di tempo, una variabile
reale o complessa, mentre é aleatorio se essa é una variabile aleatoria reale o, più in generale, com-
plessa. In ogni caso va tenuto presente che, nel caso di segnali aleatori, la notazione  può avere
quattro diverse interpretazioni Fig. 1.2:

una famiglia di funzioni del tempo ( e




variabili), cioè il segnale aleatorio;

una singola funzione del tempo ( variabile e fissato); cioè una funzione membro del segnale


aleatorio ;

una variabile aleatoria ( fissato e variabile);




un semplice numero ( e


fissati);

l’effettiva interpretazione di  va dedotta di volta in volta dal contesto.

1.3 Segnali deterministici elementari.


Introduciamo qui alcuni segnali deterministici di uso molto comune.
1.3. Segnali deterministici elementari. 5


 

  
1



    
     
  
Figura 1.3: Impulso o finestra rettangolare:   continuo,  discreto

1.3.1 Impulso o finestra rettangolare.

  
     
Nel caso continuo l’impulso rettangolare (Fig. 1.3a) di ampiezza e durata unitarie é definito da:

 

altrimenti
(1.1)

Conseguentemente l’impulso rettangolare  , centrato in   , di ampiezza  e di durata  , é


l’impulso:
 
  
 
Analogamente, nel caso discreto, la finestra rettangolare    di durata (Fig. 1.3b) é definita
       
     
da:

! "$#$% &'


)(*"$% (1.2)

1.3.2 Gradino unitario.


Nel caso continuo il gradino unitario +  (Fig. 1.4a) é definito da:
 ,
.-
+   /
.0 (1.3)

e nel caso discreto (1.4b) da:  ,


21
+    /
 0 (1.4)

Combinando due gradini di uguale ampiezza si ottengono impulsi rettangolari. Ad esempio


l’impulso rettangolare di durata T si può ottenere come segue:
      +  
  3+ 5 4   2  

6 Capitolo 1. STUDIO DEI SEGNALI NEL DOMINIO DEL TEMPO


u  u  
1 1


 
   4 
  
Figura 1.4: Gradino unitario: ) continuo, ) discreto  
 
 
   

 5 4 
Figura 1.5: Rappresentazione grafica del fasore

1.3.3 Esponenziale complesso (tempo continuo).

E il segnale
   
(1.5)

          -
con ed  numeri complessi; se ed  sono reali si ha l’esponenziale reale. Se  é immaginario

puro, diciamo    

, posto  con

, si ottiene il fasore (o vettore rotante)

di pulsazione , frequenza , ampiezza e fase iniziale , cioè il segnale:

         "!   (1.6)

Il fasore é rappresentato, nel piano complesso, da un vettore rotante con velocità angolare  rad./sec.,

ovvero velocità di rotazione di giri al secondo o Hz, che per convenzione é positiva in senso
antiorario (Fig. 1.5). Si noti che il fasore é un segnale periodico di periodo


    
1.3. Segnali deterministici elementari. 7

1.3.4 Segnale sinusoidale (tempo continuo).

La sinusoide di ampiezza  - , fase iniziale  e pulsazione  é il segnale:

      4   (1.7)

Utilizzando le formule di Eulero é immediato verificare che:

    5 4    

     4        
all’asse reale e rotanti con la stessa velocità angolare
 
cioé che un segnale sinusoidale é la somma di due fasori di ampiezza dimezzata, simmetrici rispetto
ma in verso opposto. In alternativa é
possibile rappresentare la sinusoide come la proiezione di un fasore sull’asse reale, cioè:

     4          

   4  
Inversamente un generico esponenziale complesso si può sempre esprimere in termini di un espo-
nenziale reale e di un fasore: infatti posto  e  risulta:

 
      
Oppure esso può essere espresso in termini di un esponenziale reale e di due sinusoidi in quadratura

 
        4   4   % (   5 4   
come segue:

Dal tale relazione si evince che un esponenziale complesso ha come parte reale ed immaginaria due
sinusoidi, della stessa pulsazione, di ampiezza crescente se e di ampiezza decrescente se -
0 (se 
l’ampiezza é costante e si ha il fasore).

1.3.5 Sequenza esponenziale (tempo discreto).

La sequenza esponenziale di ampiezza  e base  é definita come:

     (1.8)

 
dove ed sono in generale complessi, se invece sono entrambi reali si ha la sequenza esponenziale

reale o semplicemente sequenza esponenziale. La sequenza esponenziale reale, posto 
 -  0 , é a 
segno costante se ed a segni alterni se (Fig. 1.6).
8 Capitolo 1. STUDIO DEI SEGNALI NEL DOMINIO DEL TEMPO


 


  1
 

     
   1 3 4 5 6   4 5 


Figura 1.6: Sequenze esponenziali

1.3.6 Fasore (tempo discreto).


Il fasore a tempo discreto é definito come
            
    


  
Come nel caso continuo esso legato alla sequenza sinusoidale dalla relazione:
       4      4   

Le relazioni fra fasori e sinusoidi a tempo discreto sono del tutto analoghe a quelle relative al caso

  
continuo. Invece esistono importanti differenze fra continuo e discreto riguardo alle proprietà di
  fluttua sempre più
  
periodicità dei fasori e delle sinusoidi. In particolare non é vero che

velocemente al crescere di e non é vero che
 
é sempre periodico rispetto a  . Tali asserzioni
discendono dalla proprietà di periodicità dell’esponenziale di argomento immaginario puro: infatti

          
avendosi
      (1.9)

    e     , il fasore      é indistinguibile dal fasore      .


due fasori le cui frequenze si differenziano per un numero intero sono indistinguibili. Ad esempio,
   
posto 



Dato che i fasori, e quindi le sinusoidi discrete, sono indistinguibili se le loro frequenze differiscono
di un numero intero, basta scegliere un intervallo di ampiezza unitaria nel quale convenzionalmente
definire la frequenza. Le scelte più naturali sono

 

 
0 

 ' 0 

1.3. Segnali deterministici elementari. 9

corrispondentemente in termini di pulsazione l’intervallo di definizione ha ampiezza






  0   ' 0  
 

A causa della periodicità espressa nella (1.9) la rapidità di variazione delle sinusoidi discrete non

cresce costantemente all’aumentare di : piuttosto, come é evidenziato in Fig. 1.7, le sequenze sinu-
  
soidali variano sempre più rapidamente al crescere di da 0 a  , ma poi, al crescere di da  a 1

variano sempre meno rapidamente (per 
 

e per   abbiamo un segnale costante). Quindi nel
caso dei segnali discreti, analogamente al caso continuo, le basse frequenze sono quelle nell’intorno
di 0, mentre le alte frequenze sono quelle nell’intorno di  .


Per quanto concerne la periodicità temporale, deve esistere un numero
 tale che:

            
 

Perchè ciò avvenga é necessario e sufficiente che


  : quindi condizione necessaria e sufficiente


 
mettiamo in tale ipotesi, cioè  , e assumiamo che  e siano primi fra loro, allora il periodo
affinchè un fasore sia periodico nel tempo é che la sua frequenza sia un numero razionale. Se ci
é . Cosı̀ per esempio la sequenza           é periodica di periodo     , la sequenza


 
            é periodica di periodo    , mentre il segnale 
         non é
periodico.

1.3.7 Impulso di tipo sinc


L’impulso di tipo sinc di ampiezza unitaria é definito come

   % (  (1.10)

Il segnale presenta una serie di lobi laterali di durata  , salvo il lobo centrale che ha durata 2. I lobi
hanno ampiezza decrescente; in particolare il primo lobo laterale ha ampiezza




volte quella del

lobo centrale, cioè si trova a   
dB, cioé
 
 

               
L’ampiezza dei lobi laterali, inoltre, decade come    ovvero di 6 dB/ottava = 20 dB/decade. 
1.3.8 Impulso discreto.
L’impulso unitario ideale discreto     (Fig. 1.9) é la sequenza definita da:
 ,
 
    /
  
 (1.11)
10 Capitolo 1. STUDIO DEI SEGNALI NEL DOMINIO DEL TEMPO

  
  
  

   
 


 

  


 
  
Figura 1.7: Sequenze sinusoidali per diversi valori della frequenza.
1.3. Segnali deterministici elementari. 11

1.0

.8

.6

.4
sinc(t)

.2

.0

−.2

−.4
−4 −2 0 2 4 t

Figura 1.8: Segnale di tipo sinc


  
1

      
      

Figura 1.9: Impulso discreto


12 Capitolo 1. STUDIO DEI SEGNALI NEL DOMINIO DEL TEMPO

 
Poichè     , impulso unitario locato in , é uguale a 1 per     e 0 altrove, é immediato
verificare che, dato una qualunque sequenza    , si ha:


                 
cioè il prodotto di un segnale per un impulso unitario é ancora un impulso, ma di ampiezza pari al
valore del segnale nel punto dove é locato l’impulso.
Con analogo ragionamento é immediato verificare che si ha:

       

 
      

(1.12)



Tale relazione ha due interpretazioni diverse a seconda che  si consideri fisso o variabile. Se 
si considera fisso essa mostra che operando sul segnale   con un singolo impulso locato in  
secondo la (1.12) si ottiene il campione    del segnale: pertanto se  é fisso la (1.12) é la propriet à
di campionamento. Se invece  si considera variabile la (1.12) rappresenta il segnale    come

combinazione lineare, con coefficienti   , di impulsi unitari locati nei vari istanti , cosı̀ come 
illustrato in Fig. 1.10: pertanto se  é variabile la (1.12) é la propriet à di riproducibilità.
In particolare un gradino unitario viene rappresentato come segue:

+   
   +         



 

e quindi, tenuto conto che +    é nullo per 0 , con il cambio di indice   
  si ha:

+       




 

Da tale equazione segue che il gradino unitario é la somma corrente, cioè la somma tra  ed  , dei
valori dell’impulso unitario: infatti tale somma é 0 se  e 1 se  . Inversamente l’impulso 0 1

unitario é la differenza prima   del gradino unitario:


    3+   2+         +   

1.3.9 Impulso continuo (impulso di Dirac).


A differenza del caso discreto, nel quale la definizione di impulso non pone problemi di sorta,
l’impulso continuo  non é una funzione in senso ordinario, bensı̀ una funzione generalizzata.

si dice ottava un intervallo di frequenze


  in cui 
, mentre se 
tale intervallo si dice decade.
1.3. Segnali deterministici elementari. 13


  

   
    1 2 3 4 5

 4

       

   
    1 2 3 4 5



    

   
    1 2 3 4 5


       

 
     1 2 3 4 5 


 
     

   
    1 2 3 4 5

Figura 1.10: Rappresentazione di una sequenza come sovrapposizione di -impulsi. 


14 Capitolo 1. STUDIO DEI SEGNALI NEL DOMINIO DEL TEMPO

L’impulso continuo é definito dalla condizione che, per ogni funzione  continua in   , si
abbia:
   
,


   
, 
  
  (1.13)


  
 
Da tale definizione, utilizzando le proprietà dell’integrale, si possono ricavare formalmente le pro-
prietà dell’impulso di Dirac. Ad esempio, posto    ,    e    , risulta: 4
 

   

   (1.14)

ciò si esprime dicendo che l’impulso   ha area unitaria; sempre dalla definizione, per  e 

continui in   , si ha: 
          
 


           
ma anche 

 


e quindi

       (1.15)
Si ha poi, per un qualsiasi  continuo in 0:

 

         

          



e ciò é equivalente a:
         
 
che esprime la cosidetta proprietà di cambiamento della scala; in particolare da tale relazione, po-
nendo    , segue che  é pari.
Inoltre dalla definizione (1.13) e dalla parità di   , per ogni  continuo in t, si ha:
 


 
    
 

che esprime la proprietà di campionamento o di riproducibilità secondo che  venga considerato


fisso o variabile. Infine, dalla definizione (1.13) segue che il gradino unitario é l’integrale dell’


impulso ideale, cioè
+  
  




1.3. Segnali deterministici elementari. 15

conseguentemente risulta anche


 + 
  


L’idea intuitiva che corrisponde a tutte queste proprietà é che l’impulso unitario sia zero ovunque
fuorché per  
, dove é infinito, e che la sua area sia unitaria. Chiaramente nessuna funzione

 
ordinaria soddisfa tale requisiti, ma é possibile trovare opportune famiglie di funzioni ordinarie
che approssimano  . Precisamente, una famiglia   di funzioni ordinarie converge (in senso

generalizzato) a  se vale la proprietà:

%& 


   

      (1.16)

per ogni  continuo in   ; in tal caso si scrive semplicemente:


% &     
 
Ad esempio, la proprietà (1.16) é soddisfatta per la famiglia di rettangoli

  
   
  

Più in generale una famiglia di impulsi   converge alla  se, al tendere a zero di , il singolo  
 
impulso tende a concentrarsi sull’origine, la sua ampiezza diverge, mentre l’area converge ad un
valore unitario. Ad esempio altre tre possibili famiglie di impulsi   che convergono al -impulso
unitario, tutte e tre costituite da impulsi

di ampiezza , durata equivalente ed area unitaria, sono  
la famiglia di impulsi triangolari    , cioè:

  
   
  

ove,  e’ l’impulso triangolare di ampiezza ed area unitarie, cioè é l’impulso:
   
   

   -

 
   

(1.17)

quella degli impulsi sinc     , cioè la famiglia:

  
  % (

  
 
ove il segnale sinc    di ampiezza ed area unitarie é l’impulso:

 % (  
 % (    
(1.18)

e quella degli impulsi gaussiani, cioè:

        
 
16 Capitolo 1. STUDIO DEI SEGNALI NEL DOMINIO DEL TEMPO

1.3.10 esercizi

 
 
Ex. 1.1 Disegnare il grafico dei seguenti segnali:
   4    


    
      

Ex. 1.2 Calcolare il risultato delle seguenti espressioni:
sinc 
   
    

    
  

1.4 CARATTERIZZAZIONE STATISTICA DI SEGNALI


ALEATORI

1.4.1 Caratterizzazione di ordine N


I segnali aleatori, che descrivono l’evoluzione di una grandezza in un ben definito esperimento, sono,
come si è detto, impredicibili, tuttavia esibiscono qualche forma di regolarità statistica, corrispon-
dente allo spazio di probabilità sottostante all’esperimento.
Per caratterizzare un segnale aleatorio è dunque utile l’interpretazione di  , rispettivamente    ,
come variabile aleatoria ( oppure  fissato). Nel seguito ci riferiremo prevalentemente a segnali
aleatori reali a tempo continuo, tuttavia, con ovvie modifiche, quanto detto si applica anche ai segnali
a tempo discreto.
La funzione di distribuzione cumulativa (CDF) della v.a.
   

   P  
 :

si chiama funzione di distribuzione cumulativa del primo ordine di  ; il pedice può essere omesso
quando non c’è luogo a confusione.

   
La corrispondente funzione di densità di probabilità (pdf) è:
  
     

Il significato di   è collegato all’interpretazione frequentistica della probabilità. Supponiamo
 
che siano disponibili
   
realizzazioni del segnale  : data una soglia si considera il numero
  di realizzazioni che all’istante  non superano la soglia ; allora   si può interpretare

  
come limite del rapporto 
al crescere di .
1.4. CARATTERIZZAZIONE STATISTICA DI SEGNALI ALEATORI 17

Quella che precede è la caratterizzazione statistica del primo ordine del segnale; la caratterizzazione
del secondo ordine si ottiene considerando due istanti di tempo   e   e le relative variabili aleatorie

  
   e    per cui la CDF congiunta é definita come
 
   
    P    
     

   
e la pdf congiunta come
  
   
 
 
   
  
 
sono rispettivamente la CDF e la pdf del secondo ordine del segnale aleatorio  .

Più in generale la caratterizzazione statistica di ordine

di un segnale aleatorio si ottiene per
mezzo della CDF (o pdf) congiunta delle variabili aleatorie  
   
  per ogni -pla ) )  
)  ) 
 
 
 . Un segnale aleatorio è completamente caratterizzato se è nota la caratterizzazione di

ordine per ogni .
In quello che precede si è implicitamente assunto che la variabile aleatoria  sia continua, cioè
che il processo  sia continuo in ampiezza. Se la variabile  è discreta allora in aggiunta alla


caratterizzazione in termini di CDF marginali o congiunte, in luogo delle densità di probabilità (che
dovrebbero essere definite in senso generalizzato, cioè mediante -impulsi), è conveniente riferirsi

 
alle distribuzioni di probabilità (PMF - Probability Mass Function). Cosı̀ esemplificando con riferi-

mento alla caratterizzazione del primo ordine, la PMF dell’ampiezza è:


      P     
dove la variabile  descrive l’insieme discreto dei possibili valori assunti dalla v.a.  .

1.4.2 Caratterizzazione sintetica


Poiché non sempre è disponibile la caratterizzazione completa, o per lo meno quella di ordine , di



un segnale aleatorio , si può far ricorso ad una caratterizzazione sintetica dello stesso, cioè in termini
di alcune funzioni che ne descrivono il comportamento medio.


 del segnale  , cioè la funzione:


La prima di tali funzioni è la media statistica

     
  

 
 


 


 

Analogamente si definiscono il valor quadratico medio (o valore m.s.), il valore efficace (o





valore rms)   e la varianza  di 

      



 
         ! #   
      
tali grandezze sono legate tra loro dalla relazione:

    !#        
 
18 Capitolo 1. STUDIO DEI SEGNALI NEL DOMINIO DEL TEMPO

La correlazione fra le v.a.  e    , considerata come funzione di  e  , è la funzione di autocor-


relazione in tempo-tempo del segnale 


  
       


 




   
  
      (1.19)

analogamente nel caso di sequenze la funzione di autocorrelazione in tempo-tempo è


         
 
 
Esempio Sia      
  4 
 e          4  con 

costante e

variabile aleatoria
uniforme in 
  . Risulta
   
     4

     4 
   
   


           

La funzione di autocorrelazione 


  gode delle seguenti proprietà:

P1. Il valore per    è il valore m.s. del segnale, cioè


 
      
infatti
 
 
    
   
P2. La funzione di autocorrelazione è simmetrica, cioè:
 
infatti,
 
  
       

  
    

 

 
 .

) )  
P3. La funzione di autocorrelazione è semidefinita positiva, cioè comunque si scelgano istanti di
tempo  
 

 e per ogni la matrice:

   
  
  
  ) )   
   
 
   
     
  ) )   
  
  

  
 .
..
.
..
) ) ..
 .
   

   
  ) )
è semidefinita positiva

Una matrice  si dice definita positiva se, per ogni vettore  la forma quadratica  é maggiore di zero e risulta


     se e solo se  é identicamente nullo. Analogamente, una matrice  si dice semidefinita positiva se, per ogni
vettore  risulta   
 .
1.4. CARATTERIZZAZIONE STATISTICA DI SEGNALI ALEATORI 19

infatti, detto
    
   
) )
  

il vettore degli
 campioni del processo  e detto
    
 
) )
  
un arbitrario vettore reale si ha:

        

        
Da cui, essendo il primo membro non negativo, segue il carattere definito positivo della funzione di
autocorrelazione.
Ovviamente analoghe proprietà valgono per l’autocorrelazione dei segnali a tempo discreto.

  

La covarianza tra due campioni del segnale aleatorio definisce, al variare degli istanti di campiona-


mento, la funzione di autocovarianza; precisamente si ha
 
        
    
             

per segnali a tempo continuo; analogamente per sequenze:
  
          
    
        
          

 
in altri termini la funzione di autocovarianza del processo  è la funzione di autocorrelazione del
processo centrato
       

 
Conseguentemente tali funzioni sono sono legate dalla relazione:

    
  4     
 
 
    

  4    
   
Spesso nel definire le funzioni di autocorrelazione e di autocovarianza anziché utilizzare come vari-


abili indipendenti i due istanti temporali si preferisce far riferimento al ritardo. Precisamente la
funzione di autocorrelazione in tempo-ritardo di un segnale a tempo continuo è definita da:


 
     



   
e per le sequenze da:
 
        


In modo analogo si possono definire le funzioni di autocovarianza in tempo-ritardo.
Si osservi che con abuso di notazione sia l’autocorrelazione in tempo-tempo che quella in tempo-
ritardo vengono denotate con lo stesso simbolo 
 ; pertanto la distinguibilità delle due funzioni
è affidata esclusivamente ai simboli utilizzati per denotare i due istanti di tempo ( ed  nel caso di

segnali a tempo continuo e rispettivamente  e per le sequenze) ovvero il tempo ed il ritardo ( e

nel caso di segnali a tempo continuo e rispettivamente  e  per le sequenze): pertanto, tali variabili
temporali non sono variabili mute.
20 Capitolo 1. STUDIO DEI SEGNALI NEL DOMINIO DEL TEMPO

1.4.3 Segnali aleatori stazionari


Il fatto che le notazioni relative alle varie caratterizzazioni statistiche introdotte precentemente es-
plicitino la dipendenza dall’istante temporale (primo ordine) o dagli istanti di tempo (ordine supe-
riore al primo) sta ad indicare che le statistiche in generale cambiano nel tempo. Se le statistiche,
almeno in qualche misura, non sono affette dalla scelta dell’origine dei tempi, il segnale si dice
stazionario. Tuttavia occorre precisare questo concetto perché esistono diversi livelli di stazionar-
ietà.
Un segnale  si dice stazionario in senso stretto, o semplicemente stazionario, se  e   

hanno la stessa caratterizzazione statistica per ogni . Le statistiche da prendere in considerazione
per le stazionarietà in senso stretto hanno ordine comunque elevato. Poiché spesso per molti scopi è

sufficiente la caratterizzazione del primo o del secondo ordine ha interesse definire anche la staziona-
rietà di ordine .
Un segnale  si dice stazionario del primo ordine se i segnali aleatori  e    hanno la 

stessa caratterizzazione statistica del primo ordine per ogni ; analogamente esso si dice stazionario

del secondo ordine se  e    hanno le stesse statistiche del secondo ordine per ogni . In 
   2    % ( %
)(
particolare, se un segnale è stazionario almeno del primo ordine, risulta
               
)(*"$
 

    % ( %
)(
)(*"$

Quindi necessariamente:
       (1.20)

    2 2    
Se un segnale è stazionario almeno del secondo ordine allora si ha:
 
   
  
      
      
   
 

 
    
e quindi la pdf è funzione solo della differenza
    . Ne segue che anche le funzioni di

  
autocorrelazione e di autocovarianza dipendono soltanto dalla differenza
:
 
         
 (1.21)
In molti casi, quando è sufficiente la caratterizzazione globale del segnale (cioè media e autocorre-
lazione), siamo interessati soltanto al verificarsi della (1.20) e della (1.21); ciò conduce ad una forma
più debole di stazionarietà. Un segnale si dice stazionario in senso lato (SSL o WSS) se la media
è costante nel tempo (1.20) e l’autocorrelazione dipende soltanto dalla differenza tra i due istanti di
tempo (1.21), cioè dal ritardo
.
Notiamo esplicitamente che la stazionarietà in senso stretto implica la stazionarietà in senso lato, ma
non viceversa.

1.4.4 Caratterizzazione congiunta


Spesso occorre considerare più di un segnale aleatorio . In tal caso in aggiunta alla caratterizzazione
statistica dei singoli segnali occorre anche precisare in che termini i processi si influenzino statis-
1.4. CARATTERIZZAZIONE STATISTICA DI SEGNALI ALEATORI 21

ticamente l’un l’altro. Facendo riferimento per semplicità al caso di due soli segnali, supposti a
tempo continuo, diciamoli  e  , la caratterizzazione completa congiunta richiede la specifi-
cazione della CDF (in alternativa pdf o PMF a seconda che si tratti di segnali ad ampiezza continua
o discreta) di un numero arbitrario di campioni comunque scelti sia su  che su  .
Per quanto concerne la caratterizzazione sintetica oltre a fornire medie e funzioni di autocorrelazione


dei singoli segnali, occorre anche specificare il momento congiunto:


  
     
che prende il nome di funzione di mutua correlazione in tempo-tempo di  e  . Tale funzione
dipende dall’ordine con cui sono considerati i processi, ma la funzione di mutua correlazione tra


 e  è legata a quella tra  e  dall’ovvia relazione di simmetria:

  


 



In alternativa si può considerare la funzione di mutua correlazione in tempo-ritardo:



      



Equivalentemente si possono introdurre la funzione di mutua covarianza in tempo-tempo
 

  

              

 
e la funzione di mutua covarianza in tempo-ritardo



 

         
    


Osserviamo infine che quanto esposto con riferimento ai segnali a tempo continuo vale anche mutatis
mutandis per le sequenze.
Consideriamo ora alcuni esempi di segnali aleatori di frequente applicazione.

1.4.5 Processo di Bernoulli


Si consideri l’esperimento aleatorio consistente in di una serie infinita di prove, che possono avere
due esiti, convenzionalmente denominati successo S ed insuccesso I; le successive prove sono in-
dipendenti e sono ripetute sotto identiche condizioni, la probabilità di successo in una generica prova
è , la probabilità di insuccesso è     . Ad esempio se l’esperimento è una serie di lanci di
una moneta ben bilanciata allora    
; se l’esperimento è l’osservazione del comporta-

  
mento delle autovetture a un dato bivio assumendo come successo la svolta a destra, e se si osserva
 
che la percentuale di autovetture che svoltano a destra nel lungo termine è % allora  .

Ad ogni risultato dell’esperimento è associato un segnale   nel seguente modo:     se
nell’ennesima prova si è avuto un successo, altrimenti     : il segnale che cosı̀ si ottiene è una
22 Capitolo 1. STUDIO DEI SEGNALI NEL DOMINIO DEL TEMPO


  
    

 

 

 

  



  

  
Figura 1.11: Realizzazione di un processo di Bernoulli.

 

  

1

 

1 

Figura 1.12: Processo di Bernoulli:   CDF,  PMF.

realizzazione del processo di Bernoulli, ed è evidentemente un segnale a tempo discreto, discreto an-
che in ampiezza (fig. 1.11) . In altri termini un processo di Bernoulli è una successione di variabili
aleatorie binarie, dette anche bernoulliane e denotate sinteticamente:

  
 


La CDF

indipendenti ed identicamente distribuite (i.i.d.).
  e la PMF

   di tale segnale sono:

     





' 1
0
0 
 
    
  



 

e sono diagrammate in fig. 1.12a e fig. 1.12b rispettivamente.


Poiché la CDF e la PMF sono indipendenti dal tempo il processo è stazionario almeno del  ordine;
conseguentemente media , valore r.m.s. e varianza 
 del processo di Bernoulli sono indipendenti 
dal tempo e valgono:
  

     

Si noti che, nel definire una variabile aleatoria Bernoulliana, i singoli esperimenti erano costituiti da un’unica prova con
due possibili esiti mentre nella costruzione del corrispondente processo aleatorio il singolo esperimento é costituito da un
numero infinito di prove.
1.4. CARATTERIZZAZIONE STATISTICA DI SEGNALI ALEATORI 23

Il calcolo dell’autocorrelazione del processo di Bernoulli è immediato grazie all’indipendenza, e


quindi incorrelazione, tra i suoi campioni:

          


 
 
               
    


o equivalentemente:
     4    
L’andamento dell’autocorrelazione del processo di Bernoulli è riportato in fig. 1.13.


 

        
 

 

 

  



  

Figura 1.13: Autocorrelazione del processo di Bernoulli.


Il processo di Bernoulli è SSL. Inoltre esso costituisce anche un primo esempio di segnale aleatorio
completamente caratterizzabile: infatti la CDF di campioni, comunque scelti, è data semplice-
mente dal prodotto delle CDF dei singoli campioni in virtù della loro indipendenza statistica.
Si osservi che, alcume proprietà del processo di Bernoulli (autocovarianza impulsiva, caratteriz-
zazione completa assegnata la CDF del singolo campione) derivano dall’indipendenza statistica dei
suoi campioni e quindi valgono più in generale per le sequenze di variabili aleatorie i.i.d.

1.4.6 Processo di conteggio dei successi di Bernoulli

 1
Dato un processo di Bernoulli monolatero, consideriamo un altro processo: il conteggio dei successi
   . Precisamente sia   

  un processo di Bernoulli con probabilità di successo , allora
il conteggio di successi    è la somma corrente di    , cioè il processo definito come:

 
21 

      4  

4  4    

Una possibile realizzazione è presentata in fig. 1.14. Si tratta dunque di un segnale discreto nel tempo
e discreto in ampiezza.
24 Capitolo 1. STUDIO DEI SEGNALI NEL DOMINIO DEL TEMPO

  
6
5
4
3 

2
1
 
1 2 3 4 5 6 7 8 9 10

Figura 1.14: Realizzazione del processo di conteggio di successi.

Per un fissato 

   è una variabile casuale con valori in



) )

e PMF:

     
  P          


 


) )


Infatti la probabilità di avere  successi in un prefissato ordine in  prove indipendenti è   ed



 



esistono

  sequenze di  prove con successi. Tale distribuzione è detta binomiale di parametri
e e sinteticamente si scrive:
  



Quindi
   non è stazionario nemmeno del   ordine.
La media e la varianza di
 
  si ottengono facilmente sulla base delle corrispondenti statistiche del
processo di Bernoulli: infatti la media di una somma di v.a. è la somma delle loro medie (linearità
della media) e la varianza di una somma di v.a. incorrelate è la somma del varianze (additività della
varianza di v.a. incorrelate). Pertanto si ha:

      
        !#         ! #   

  
  
conseguentemente il valore quadratico medio vale:

      
      4 !#          4  

Siccome la media dipende da  ,


   non è stazionario nemmeno in senso lato.
La caratterizzazione statistica del processo di conteggio dei successi consegue abbastanza semplice-
mente qualora si osservi che tale processo è ad incrementi indipendenti. Infatti, comunque si scel-
gano quattro istanti verificanti la relazione d’ordine  , gli incrementi
     0    0   
1.4. CARATTERIZZAZIONE STATISTICA DI SEGNALI ALEATORI 25

   
   
  4 ) )
e sono indipendenti in quanto rappresentano il numero di successi nelle prove
4 
) )


 . Con queste premesse è facile calcolare
- 
e, rispettivamente, nelle prove
l’autocorrelazione dei conteggi di Bernoulli: infatti, supposto 

, si ha:

                  4              



 
 
      4                
             4          

ove nell’effettuare i passaggi si è utilizzata l’indipendenza di 


   e di         . Sostituendo
le espressioni della media e della varianza si ottiene

   4
 
   

Ovviamente il ruolo di  e si inverte se
   -
 . Notiamo che la proprietà di indipendenza degli
incrementi di   deriva dalla indipendenza delle variabili    , ma è inessenziale che le   

siano bernoulliane; quindi la proprietà di indipendenza degli incrementi vale più in generale per un
processo del tipo:

1 

    
  54  54 4
  
  
dove    sono variabili indipendenti continue o discrete, con distribuzione arbitraria, cioè per la
somma corrente di una sequenza di variabili indipendenti. Se supponiamo che le    siano anche
identicamente distribuite, allora gli incrementi sono anche stazionari nel senso che la distribuzione

dell’incremento          con   -
, dipende solo da  e non anche da  . Si osservi che la
possibilità di caratterizzare completamente il processo a partire dalla caratterizzazione del  ordine
vale in generale per un qualunque processo ad incrementi indipendenti e stazionari.

1.4.7 Processo di Poisson

Il processo di Poisson modella numerose situazioni pratiche, come arrivi di clienti ad un certo
servizio, arrivi di chiamate telefoniche a una centrale di commutazione, arrivi di particelle radioattive
a un contatore Geiger etc. In generale un processo di conteggio di arrivi  rappresenta il numero

di arrivi nell’intervallo 
 , cosicché      4
 rappresenta il numero di arrivi nell’intervallo

4 

  : quindi 

 -
, è un processo monolatero, a tempo continuo, ma a valori discreti, e

precisamente interi. Una possibile realizzazione di un processo di conteggio di arrivi è rappresentata
in fig. 1.15: chiaramente  è non decrescente ed è costante a tratti.
Per un processo di Poisson, la probabilitá di  arrivi nell’intervallo 
 é data da

 
     P  

     


26 Capitolo 1. STUDIO DEI SEGNALI NEL DOMINIO DEL TEMPO

 

6
5
4
3
2
1

    
       
Figura 1.15: Realizzazione di un processo di Poisson.


dove il parametro rappresenta il numero medio di arrivi in un intervallo di ampiezza unitario
(frequenza media degli arrivi). Infatti risulta

     
 

     !#     

per cui, ponendo   

si ottiene     

. Anche il processo di Poisson  non è stazionario in

senso lato. L’autocorrelazione può essere calcolata utilizzando l’indipendenza e stazionarietà degli
incrementi; precisamente, utilizzando la procedura esposta con riferimento al processo di conteggio
dei successi, si ottiene, per  

.0
  

     (1.22) 4

1.4.8 Processi gaussiani

Un’ulteriore categoria di processi la cui caratterizzazione statistica è molto semplice è quella dei
processi gaussiani, per i quali la pdf congiunta di ordine comunque elevato si ricava dalla media e
dalla funzione di autocovarianza.
 

Ricordiamo innanzitutto che variabili aleatorie reali (rispettivamente un vettore
     ) si dicono congiuntamente gaussiane se la loro pdf congiunta è:
     
 
 

                  
 
  

  
     (1.23)

ove  è il vettore delle medie:

 
        


 
1.4. CARATTERIZZAZIONE STATISTICA DI SEGNALI ALEATORI 27

  e    

denotano rispettivamente il determinante e l’inversa della matrice di covarianza di




       
cioè della matrice il cui elemento generico   è la covarianza tra le variabili aleatorie  e  . Per
indicare sinteticamente che è un vettore gaussiano, di media  e matrice di covarianza , si
 
adopera la notazione:

 



Dalla definizione segue che la conoscenza di valor medio    e funzione di autocovarianza   


  è 
sufficiente a caratterizzare completamente un processo gaussiano    . Infatti, supposto per fissare le

  
 

 ) ) 
idee il processo tempo continuo, la pdf di campioni  , arbitrariamente scelti è
data dalla (1.23) ove il vettore  e la matrice sono espressi in termini del valor medio del processo
  e della sua autocovarianza  
  dalle relazioni
 
        ) )     (1.24)
    
    
   
  
  

    
     
     
   
   
.. .. ..  (1.25)
 
  .   
 
.
  
   
.
   
   

Pertanto la pdf di ordine  considerati solo tramite la
del processo dipende dagli istanti di tempo
media (1.24), il determinante e l’inversa della matrice di covarianza (1.25). Conseguentemente
un processo gaussiano stazionario in senso lato è anche stazionario in senso stretto. Infatti per un
processo stazionario in senso lato il vettore  (1.24) è indipendente dal tempo e il generico elemento
     
  della matrice di covarianza (1.25) non dipende separatamente da   e da  , ma solo
   

dalla loro differenza     ; quindi la pdf congiunta degli campioni è invariante per traslazioni.

Si osservi che se gli campioni considerati del processo gaussiano sono incorrelati essi sono anche
indipendenti: in altri termini nel caso gaussiano incorrelazione è equivalente ad indipendenza. Infatti
se i campioni sono incorrelati allora la matrice di covarianza (1.25) è diagonale; conseguentemente,
esplicitando la forma quadratica che costituisce l’argomento dell’esponenziale a secondo membro
della (1.23), si ha 
 
          
   
  
e la pdf congiunta (1.23) diventa
 
  
 
) )
   


   

  
          
     
   
 
  
cioè il prodotto delle pdf marginali dei singoli campioni    .
28 Capitolo 1. STUDIO DEI SEGNALI NEL DOMINIO DEL TEMPO

Interessa infine ricordare che ogni trasformazione lineare di un processo gaussiano dà luogo a vari-
abili o a processi ancora gaussiani. In particolare se l’ingresso di un sistema lineare temporalmente
invariante o non (vedi capitolo successivo), è un segnale aleatorio gaussiano, allora anche l’uscita
è un segnale aleatorio gaussiano, il sistema cambia solo media ed autocovarianza del processo, ma
non la forma della pdf dei suoi campioni.

1.5 MEDIE TEMPORALI

1.5.1 Segnali deterministici

 , la sua media temporale nell’intervallo     


Si consideri un segnale deterministico è la
quantità

0 -   
 

 


    
analogamente la media temporale di una sequenza   

      


nell’intervallo è

0 -       4
 
      
  

 


Per le sequenze la media temporale coincide con la media aritmetica dei campioni, mentre per
le forme d’onda è l’altezza del rettangolo avente area uguale a quella sottesa dal segnale 
nell’intervallo 
  e base      . Notiamo esplicitamente che il risultato dell’operazione di
media temporale è un numero (reale o complesso) e quindi l’indicazione della variabile temporale
 o  nella notazione di media serve solo ad identificare l’operazione effettuata a seconda che si
tratti di segnali a tempo continuo o discreto; perciò, se è chiaro dal contesto di quale tipo di seg-
nale si tratti, la variabile temporale può non comparire nella notazione. Se si fa tendere all’infinito
l’ampiezza dell’intervallo si ha la media temporale (senza menzione dell’intervallo):

0  -  
%& 


   (1.26)

nel caso continuo, ovvero



0    -   % &   4 


  
 

(1.27)


nel caso discreto. Alla media temporale, riguardata come segnale costante, si da anche il nome di
componente continua e la si denota con 
1.5. MEDIE TEMPORALI 29


La media temporale di    , o di   
 
se si tratta di segnali complessi, si definisce valore


quadratico medio (sinteticamente valore m.s.) o potenza media e si denota con (o semplice-
mente quando non c’è ambiguità):

 0       -
Il termine potenza è giustificato dal fatto che quest’ultima è proporzionale al valore quadratico
medio: precisamente nella definizione di potenza si sottintende una costante di valore unitario, ma di
opportune dimensioni; altrimenti la denominazione più appropriata è valore quadratico medio. Ad
esempio se  è una corrente allora è la potenza media (in Watt) dissipata per effetto Joule in

un resistore di 1 che rappresenta il valore della costante di proporzionalità. La radice quadrata del
valore quadratico medio è il valore efficace, o sinteticamente valore rms, e verrà denotato con 

 
  0       -


Per una vasta classe di segnali deterministici la potenza è nulla. È questo, ad esempio, il caso dei
a durata limitata come l’impulso rettangolare    e l’impulso triangolare  

  +  -
segnali

 o non limitata come l’impulso esponenziale     . Sulla scorta della potenza
i segnali vengo distinti in segnali di potenza, che sono i segnali con potenza strettamente maggiore di


zero, ma finita ed in segnali di energia che sono i segnali con potenza nulla ma energia finita ovvero
in cui  


     0
 
 


per i segnali a tempo continuo, oppure





      0
 



per le sequenze. Notiamo che l’energia di un segnale non può essere negativa e che i segnali di ener-
gia hanno media necessariamente nulla, mentre i segnali di potenza hanno necessariamente energia
infinita.


Sulla scorta della potenza, dunque, i segnali vengono distinti in segnali di potenza, che sono i segnali
con potenza strettamente maggiore di zero, ma finita ed in segnali di energia che sono i segnali con
potenza nulla ma energia finita. Il caso   non ha invece alcuna rilevanza pratica. Una
categoria di segnali di potenza deterministici di notevole interesse è quella dei segnali periodici.
L’operazione di media temporale, per i segnali di potenza o di energia, gode delle seguenti proprietà
che si richiamano qui senza dimostrazione

P1 Linearità
Per ogni coppia   
  di numeri reali o complessi e per ogni coppia di segnali    
   
0  4   0 -34   0
risulta:
        -        -
30 Capitolo 1. STUDIO DEI SEGNALI NEL DOMINIO DEL TEMPO

P2 Invarianza temporale
La media temporale di un segnale    è invariante per traslazioni: cioè, comunque si scelga
il ritardo (o 
se trattasi di sequenze), risulta:

0   .-  0  - 0     .-  0    -


Si osservi che la proprietà di invarianza temporale comporta che nel valutare la media di un segnale
è del tutto arbitraria la scelta dell’origine dei tempi: in altri termini risulta

0  -  %&     0    -   % &          
  

   4
   
  

Un caso particolare è quello dei segnali periodici, per i quali la media temporale coincide con la
media calcolata su di un periodo, si ha cioè
 
0  - 

  0  
-    
  
 
ove e
 denotano il periodo di  e    , rispettivamente.


Esempio 1: Componente continua e potenza di un fasore
Si consideri un fasore di pulsazione , cioè il segnale

    
Se  
, il segnale si riduce alla costante 1 e risulta  0 -   ; più in generale il valor

medio di un segnale costante è uguale alla costante stessa. Per
 e si ha
 il fasore è periodico di
periodo 
  

   -        

0 

0     -  
Passando alla potenza si ha:

0       - 
e più in generale
  

Esempio 2: Media temporale e potenza di una sinusoide

    5 4 
Consideriamo il segnale
  
1.5. MEDIE TEMPORALI 31

con   ; utilizzando la rappresentazione di una sinusoide in termini di fasori e la linearità


della media, si ha

0    5 4 -  

  0    -4      0     .- 
Per quanto concerne la potenza, si ha

0      5 4    -  

  4    0       54   -  

 

Quindi la sinusoide è un segnale di potenza periodico a media nulla. Si osservi che


l’indipendenza di media e potenza dalla fase iniziale è la conferma, sia pure nel caso partico- 
lare di segnali sinusoidali, dell’invarianza della media, e quindi della potenza, per traslazioni.

Esempio 3: Impulso sinc


Si consideri l’impulso sinc di ampiezza  e durata equivalente , cioè il segnale 
 3  % (    
Come è facile verificare, si ha
  
   % & 
     % (    


 

 
 % &     % (   

  

  

  

  
   % (  


 
 


Quindi l’impulso sinc è un segnale di energia.

Notiamo esplicitamente che la potenza e l’energia sono operazioni invarianti per traslazione, ma non
sono operatori lineare. Infatti la potenza di una somma vale

0     4  0       -34 0       
   - 
 - 4 0

      -34 0      .-

  

ovvero, introdotta la potenza mutua tra    e    e quella tra    e   

 0      .-  0       -  

si ha
  4  4  4  4

 4   

32 Capitolo 1. STUDIO DEI SEGNALI NEL DOMINIO DEL TEMPO

Le potenze mutue e
 

danno conto dell’interazione in termini energetici dei segnali. Se una
è nulla lo è anche l’altra: in tal caso, i segnali si dicono ortogonali e sinteticamente si scrive
    

(1.28)


e vale l’additività delle potenze.

  4  4   4 4   

Analogamente a quanto si verifica per le potenze, è immediato verificare, considerati due segnali di


energia    e    , l’energia della loro somma vale

   4  
       


 

  

   
ove, e  denotano rispettivamente l’energia mutua tra    e    e quella tra    e   
definite da:  

 

 
   
 

   
nel caso di segnali a tempo continuo e da
 
  
 

 
           
 
 

Se



 (e quindi anche

per i segnali a tempo discreto.



 ) allora vale l’additività per l’energia ed in tal caso, analoga-


mente a quanto visto per i segnali di potenza, i segnali si dicono ortogonali e si adopera la notazione
sintetica (1.28).

1.5.2 Segnali aleatori


Per estendere ai segnali aleatori l’operazione di media temporale e le definizioni a tale operazione
collegate (componente continua, potenza, valore rms, ecc.), occorre tener presente che la media tem-
porale di un segnale aleatorio è una variabile aleatoria. Infatti, come é facile constatare, il risultato
dell’operazione
   
 % &



  (1.29)
 Ricordiamo che la potenza è spesso misurata in decibel (dB), cioè in unità logaritmiche rispetto ad un valore di riferimento
 ; precisamente

   
si ha:

In particolare si parla di dBW e di dBm se la potenza di riferimento sono rispettivamente quella di un 1W o 1mW. Con-
seguentemente anche i rapporti tra ampiezze possono essere misurate in dB, ma, essendo le potenze proporzionali ai quadrati
dei valori efficaci, per le ampiezze la misura in dB è data da
  
 
      
ove
 è il valore di riferimento.
1.5. MEDIE TEMPORALI 33

é un numero reale che dipende dalla particolare funzione membro considerata. Ha quindi senso


definire come potenza del processo aleatorio la quantitá

 % &     

 
 (1.30)

 
Mostriamo ora che i processi aleatori stazionari sono segnali di potenza. Calcolandone l’energia
risulta:

 % &       % &


 


 

 
 (1.31)


   
 
Se il processo é stazionario, per cui, sostituendo nella (1.31) si ottiene

 % &


 
  


     
 . Procedento nello stesso modo per la
  
che é uguale a zero se ma diverge se
potenza, otteniamo

 % & 0

     


  

da cui si evince che i segnali aleatori sono segnali di potenza.

1.5.3 Rappresentazione dei segnali


Un numero considerevole di proprietà e di applicazioni possono essere ottenute e interpretate sulla
base di una rappresentazione dei segnali di energia e di quelli di potenza come elementi di uno spazio
opportuno.
Cominciamo dunque col richiamare alcune proprietá degli spazi euclidei. Consideriamo il caso bidi-
mensionale ed individuiamo un sistema di riferimento mediante due versori  e  . Ció significa
 
     4 
che qualunque vettore in questo spazio é rappresentabile come somma delle due proiezioni sui ver-
sori  e  , cioé     

   come mostrato nella fig. 1.16. Similmente, per un secondo  
     
vettore, si ha   
  4  
   essendo  e  a modulo unitario, per essi valgono le proprietá:
   ,    ,    ; le proiezioni sono poi date dai prodotti scalari
      



     
 
    
 
     
Per i vettori nello spazio euclideo sappiamo che valgono alcune proprietá metriche che permettono
di definire la lunghezza di un vettore, il prodotto scalare tra due vettori e la distanza tra vettori nello
34 Capitolo 1. STUDIO DEI SEGNALI NEL DOMINIO DEL TEMPO

 

 
  

  
  

Figura 1.16: Rappresentazione del vettore  nello spazio bidimensionale 


spazio. Risulta dunque
       4   
           4   
d   

         4        
Estendiamo ora queste proprietá ai segnali di energia e di potenza ; a tal fine, é utile interpretare un
segnale come un vettore avente un numero infinito (non numerabile) di componenti. Sia dunque 
un segnale di energia o di potenza e si consideri il vettore di lunghezza ,   
   
 
  ) )  
avente come componenti i campioni del segnale nei punti 
 . Interpretando l’integrale come ) ) 
estensione sul continuo dell’operazione di somma, é possibile estendere il concetto di norma di un


vettore al caso di uno spazio di segnali ponendo
      

     


 
 (1.32)

Per cui la norma


     é proprio l’ energia del segnale  . Per il prodotto scalare vale una
proprietá simile 

   0


 -    
 
(1.33)

inoltre, due segnali si dicono ortogonali se


0
 -


La trattazione rigorosa dell’argomento esula dagli scopi di questo corso. Per approfondimenti si rimanda a testi specifici,
ad esempio L.E. Franks Signal Theory, Eglewood Cliffs, N.J., Prentice-Hall
1.5. MEDIE TEMPORALI 35

Le stesse estensioni valgono anche per i segnali di potenza a patto di definire opportunamente il


prodotto scalare; precisamente si ha

         
 % &

  


   (1.34)

Per il prodotto scalare vale una proprietá simile

   0


 -  % &

   


  (1.35)

Negli spazi lineari dotati di prodotto scalare vale inoltre la disuguaglianza di Schwartz
0
 -

dove l’uguaglianza si verifica se e solo se   , se cioè i segnali sono proporzionali.
Sulla base di queste considerazioni, il prodotto scalare è indicativo del grado di similitudine (pro-
porzionalità) fra due segnali: in particolare due segnali vengono detti perfettamente simili se il loro
prodotto scalare è massimo, mentre sono completamente dissimili se ortogonali.


1.5.4 Funzioni di correlazione per segnali deterministici

La funzione di correlazione 
 tra due segnali deterministici é definita come prodotto scalare tra


il segnale  ed il segnale ritardato 
 al variare del ritardo



  0 
  
 - (1.36)


analogamente nel caso di sequenze la definizione è

   0   
     .- (1.37)

Nel caso particolare che il secondo segnale coincida col primo, si ha la funzione di autocorrelazione
di    , che pertanto è definita da
 
  0 
  
 - (1.38)

nel caso di forme d’onda e da


    0   
     .- (1.39)

nel caso di sequenze. Si noti che per la funzione di autocorrelazione il doppio pedice è ridondante e
pertanto nel seguito sarà anche utilizzata la notazione    .

36 Capitolo 1. STUDIO DEI SEGNALI NEL DOMINIO DEL TEMPO

La (1.36) estende ai segnali deterministici la definizione di mutua correlazione precedentemente


introdotta per i segnali aleatori: precisamente tale funzione è la media temporale

 % &
 

     


 


nel caso di segnali di potenza, mentre per segnali di energia si riduce all’integrale



     
 

Analoghe considerazioni valgono per la funzione di autocorrelazione per i segnali a tempo discreto.
Si osservi che, sulla scorta dell’interpretazione data del prodotto scalare, la funzione di mutua corre-
lazione è un indice della similitudine tra i segnali  ed  
 al variare del ritardo
; analoga-
mente la funzione di autocorrelazione, confrontando un segnale con se stesso al variare del ritardo, è
un indice della rapidità di variazione del segnale stesso, ovvero della predicibilità (lineare) del valore
attuale sulla scorta del valore assunto
secondi prima.

Esempio 1: Impulso rettangolare


Consideriamo un impulso rettangolare di durata  e di ampiezza , cioè il segnale 
 
  


 3   
 


Trattandosi di un segnale di energia ( ), la sua funzione di autocorrelazione vale


0 -
  

  
         

 

 

     

 

 



      

  

Esempio 2: Segnale costante


Il segnale costante
 

 
è un segnale deterministico di potenza; conseguentemente la sua funzione di autocorrelazione
vale

  0 
  
 -  0   
 - 3
   
Pertanto un segnale costante ha un’autocorrelazione costante, come è intuitivo dal momento
che il segnale  ed il segnale ritardato  
 sono identici.
1.5. MEDIE TEMPORALI 37

Esempio 4: Fasori
Si considerino i due fasori

        "!    3      "!  


che sono entrambi segnali deterministici di potenza; conseguentemente la loro funzione di
mutua correlazione vale


  0 
  
 -  0   
 - 
     0     !  !  -    "! 
     

    

Da cui, ricordando che la media di un fasore è nulla a meno che la sua frequenza non sia zero,
segue che la mutua correlazione di due fasori a frequenza diversa è identicamente nulla. Se
invece i due fasori sono isofrequenziali, cioè   
  

, allora la mutua correlazione è non
nulla e vale
         0     !  !  -   "! 



       
             "!      " !  


Pertanto la mutua correlazione tra due fasori isofrequenziali è un fasore della stessa frequenza,
ma con ampiezza pari alla loro potenza mutua.

 
Se i due fasori isofrequenziali hanno anche la stessa ampiezza (     ) e la
   
stessa fase iniziale (     ), allora coincidono e la relazione precedente fornisce

l’autocorrelazione del fasore, precisamente risulta:


  0 
  
 -  0   
 - 3
      "!  
   "! 
 

Pertanto l’autocorrelazione di un fasore è un fasore della stessa frequenza, con fase iniziale
nulla e con ampiezza pari alla potenza del segnale.

Le proprietà analitiche delle funzioni di auto e di mutua correlazione discendono agevolmente dal
fatto che esse sono dei prodotti scalari. Precisamente la funzione di mutua correlazione gode delle
seguenti proprietà:

P1 Valore nell’origine


   0   
    - 
 





P2 Proprietà di simmetria coniugata:




        
P3 La funzione di mutua correlazione è limitata:
 

 
      
38 Capitolo 1. STUDIO DEI SEGNALI NEL DOMINIO DEL TEMPO

La proprietà P1 è un’immediata conseguenza della definizione e fornisce un’interpetrazione in ter-


mini energetici del valore nell’origine della mutua correlazione.
La proprietà P2 è anch’essa di immediata dimostrazione, invero, supposto per fissare le idee i segnali


a tempo continuo, si ha


  0 
  
 -  0 

  -   


segnali, ma le due funzioni di mutua correlazione


  
Tale proprietà evidenzia che la mutua correlazione dipende dall’ordine in cui si considerano i due
  e    sono tra loro legate dalla relazione

di simmetria espressa dalla P2.
La proprietà P3 afferma che la funzione di mutua correlazione tra    e    ; essa segue immediata-
mente dalla disuguaglianza di Schwartz e dall’invarianza della norma per traslazioni.

Passando a considerare la funzione di autocorrelazione si ha che essa gode delle seguenti proprietà:

P1 Valore nell’origine:

       
 


P2 Simmetria coniugata (Hermitianità):
        

 
P3 La funzione di autocorrelazione è limitata ed ha un massimo nell’origine

     

Esempio 5: Il segnale binario casuale


Il segnale telegrafico  è un segnale aleatorio a tempo continuo ed ampiezza discreta, e
precisamente con due possibili valori di ampiezza, 4 
e  , equiprobabili: inoltre il numero   
  
di commutazioni fra i due livelli in un intervallo di ampiezza
è una variabile di Poisson
(fig. 1.17) di parametro (media)
e le commutazioni relative ad intervalli disgiunti sono
indipendenti. In altri termini il numero di commutazioni è un processo di Poisson.
Poiché il segnale binario casuale è un segnale aleatorio, la sua autocorrelazione si calcola come
media temporale dell’autocorrelazione statistica in tempo-ritardo. Quest’ultima può essere
facilmente calcolata con la tecnica della media condizionata; infatti, considerati due istanti di
tempo  e  
, le due variabili aleatorie  e  
 assumono lo stesso valore (entrambe
4  
o entrambe  ) se il numero di commutazioni nell’intervallo di ampiezza
è pari e
viceversa assumono valori opposti se tale numero di commutazioni è dispari. Pertanto la media
1.5. MEDIE TEMPORALI 39

 
Figura 1.17: Realizzazione del segnale telegrafico.

      
   !#$%       

condizionata vale , mentre la media condizionata
%   !#$%  vale  
!#$%
 #


 . Mediando ulteriormente su si ottiene quindi


     3  #  %   !#$%
# !#$%
# %  !#$%



  
   


Esplicitando, in tale relazione la  e la  , si ha

     
 4        
    
    
  
 



 3   
 

 

 
Nel calcolo precedente si è implicitamente assunto

, ma è chiaro che se


1 
sufficiente sostituire
con 
; quindi in definitiva l’autocorrelazione dipende solo dal modulo
di
secondo la formula

       (1.40)
   
in accordo con la proprietà di simmetria secondo la quale l’autocorrelazione di un segnale
reale è pari.
Poiché inoltre, come è immediato verificare, il segnale binario casuale ha media nulla, esso è
SSL; conseguentemente la sua autocorrelazione, definita come prodotto scalare (1.38), coin-
cide con quella statistica (1.40).

Osserviamo che la funzione di mutua correlazione compare naturalmente quando si combinano tra
loro più segnali. Ad esempio, l’autocorrelazione del segnale somma     , dove   4

e  sono dello stesso tipo, è data da:
    
 4 4 4 4 4 4
 
  
  
 
 
 
  
 
 
 

Quindi la condizione


  
, è condizione sufficiente per l’additività della funzione di

 
autocorrelazione .
Precedentemente si è visto che condizione sufficiente per l’additività dell’energia, o della potenza,
 



è l’ortogonalità dei due segnali, cioè    (che, a seconda dei casi, equivale a 
40 Capitolo 1. STUDIO DEI SEGNALI NEL DOMINIO DEL TEMPO

o
 




).
Evidentemente, la condizione



  
è una condizione più restrittiva di
   , dal momento che essa comporta che non solo è nullo il prodotto scalare fra  e  ,

Due segnali la cui mutua correlazione sia identicamente nulla, cioè



ma anche quello fra  e una qualsiasi versione ritardata o anticipata di  .


  
, si di-
cono incoerenti; per cui si può affermare che l’incoerenza è condizione sufficiente per l’additività
dell’autocorrelazione oltre che per l’additività della potenza. Sulla scorta dell’esempio 4, si ha che
due fasori a frequenza diversa sono incoerenti; conseguentemente l’autocorrelazione della somma di
più fasori è uguale alla somma delle singole autocorrelazioni.
La condizione di incoerenza non deve essere confusa con la condizione di incorrelazione.
L’incorrelazione non implica che la mutua correlazione sia nulla, ma invece implica, in analogia
alla usuale terminologia statistica, che essa si fattorizza nel prodotto delle componenti continue.
Capitolo 2

I SISTEMI NEL DOMINIO DEL


TEMPO

2.1 GENERALITÀ SUI SISTEMI


I segnali subiscono varie modifiche nel percorso dalla sorgente alla destinazione: esse possono es-
sere intenzionali (per esempio le elaborazioni effettuate per estrarre l’informazione) o inintenzionali
(per esempio le distorsioni); in entrambi i casi esse sono rappresentate matematicamente mediante
sistemi.
Dal punto di vista analitico un sistema è un operatore     che converte un segnale    detto ingresso
in un segnale    detto uscita: l’azione del sistema     sul segnale può essere schematizzata con il
diagramma di fig. 2.1.

    
  

Figura 2.1: Rappresentazione di sistemi

I sistemi possono essere classificati sulla base dei segnali che elaborano. Cosı̀ si parla di sistema
deterministico se l’uscita corrispondente ad un qualunque ingresso deterministico è a sua volta un
segnale deterministico, di sistema numerico se ingresso ed uscita sono segnali numerici, discreto se
ingresso ed uscita sono sequenze, continuo se ingresso ed uscita sono forme d’onda. Pertanto, di

41
42 Capitolo 2. I SISTEMI NEL DOMINIO DEL TEMPO

  
  

  
Figura 2.2: Partitore resistivo:   circuito,  schema a blocchi

norma, ingresso ed uscita di un sistema sono segnali dello stesso tipo, con le eccezioni, di notev-
ole interesse pratico, del convertitore analogico/numerico, utilizzato per convertire un segnale ad
ampiezza e tempo continui in un segnale numerico, e quello numerico/analogico impiegato per ri-
costruire una forma d’onda dalla sua versione numerizzata; tali sistemi sono le interfacce necessarie
per poter effettuare l’elaborazione numerica di forme d’onda.
Sinteticamente per un sistema continuo il legame ingresso/uscita è:

 3   



e analogamente per un sistema discreto o numerico si ha:

   3     


Tali notazioni sottolineano che il valore attuale dell’uscita  (    ) dipende sia dall’istante di
tempo  (  considerato che da tutto il segnale d’ingresso    .

Esempio 1: Partitore resistivo


Si consideri il circuito elettrico di fig. 2.2a denominato partitore resistivo: l’analisi del circuito
fornisce immediatamente il legame ingresso-uscita per le tensioni:

     

 4 
dunque uscita ed ingresso risultano proporzionali con costante di proporzionalità   
 .
Il partitore resistivo è un sistema continuo.

Esempio 2: Ritardo elementare


Il ritardo elementare di una posizione è il sistema discreto definito dall’equazione

        
2.1. GENERALITÀ SUI SISTEMI 43

    
 


   

Figura 2.3: Diodo ideale:   circuito,  caratteristica,   schema a blocchi.

Esempio 3: Diodo ideale


Il legame ingresso uscita di un diodo è dato dall’equazione che lega la tensione  ai capi
del diodo alla corrente  che fluisce nel diodo stesso ed é rappresentato in Fig. 2.3 per il
caso di diodo ideale. Il diodo ideale é quindi un sistema continuo.
Esempio 4: Moltiplicatore (discreto) per una costante
È il sistema discreto definito dal seguente legame ingresso–uscita:
      
Esempio 5: Filtro RC
Il circuito elettrico di fig. 2.4 prende il nome di filtro RC. Utilizzando le tecniche di analisi dei
circuiti elettrici è semplice verificare che il legame ingresso-uscita è definito dall’equazione

 *4
differenziale:
  (2.1)
La condizione iniziale necessaria per definire univocamente il legame ingresso-uscita la si as-
sume zero (sistema inizialmente a riposo). Risolvendo l’equazione differenziale, a tale legame
si può dare forma esplicita: precisamente, posto

 

   +  (2.2)

risulta
 
 


   
 

È possibile costruire sistemi complessi a partire da sistemi semplici: i tipi di connessione fondamen-
tale sono:
44 Capitolo 2. I SISTEMI NEL DOMINIO DEL TEMPO


 
  



  
Figura 2.4: Filtro RC: a) circuito, b) schema a blocchi.

       
Sistema 1 Sistema 2

  connessione in cascata

    
Sistema 1 Sistema 1

     

Sistema 2 Sistema 2 

 connessione in parallelo  connessione in controreazione

Figura 2.5: Interconnessione di sistemi.

connessione in cascata o serie (fig. 2.5 ) 


connessione in parallelo (fig. 2.5 ) 
connessione in controreazione (feedback) (fig. 2.5  )

La figura si riferisce al caso di due sistemi, ma l’estensione delle connessioni in cascata ed in paral-
lelo al caso di più sistemi è immediata.
Si osservi che la connessione dei sistemi oltre a indicare una strada per la realizzazione di sistemi
complessi, consente anche di riguardare un dato sistema come interconnessione dei suoi componenti.

Esempio 6: Filtro MA
2.1. GENERALITÀ SUI SISTEMI 45

    


ritardo



Figura 2.6: Filtro MA

Si consideri il sistema di fig. 2.6: esso può riguardarsi come la connessione in parallelo di un
moltiplicatore per una costante (Esempio 4) con la cascata di un ritardo elementare (Esem-
pio 3) e di un altro moltiplicatore.
È immediato verificare che il legame ingresso-uscita del sistema complessivo è dato da:
        4       
In altri termini, il valore attuale dell’uscita    è dato dalla somma pesata, con pesi e )
 , del valore attuale    e di quello immediatamente precedente      dell’ingresso, il
che spiega il nome di filtro a media mobile, sinteticamente filtro MA (dall’inglese Moving
Average), dato a tale sistema.
Esempio 7: Filtro interpolante di ordine zero (ZOH)
Il filtro interpolante di ordine zero o sinteticamente filtro ZOH (Zero Order Hold), è il sistema
di fig. 2.7: tale sistema può ottenersi connettendo in cascata il parallelo di un sistema identico

(    ) e di una linea di ritardo (      ) con un integratore. È immediato
verificare che il legame ingresso-uscita del sistema complessivo è dato da:

 
 
  
2 
 

(2.3)

I sistemi vengono usualmente classificati sulla base delle loro proprietà: all’uopo è utile richiamare
le principali definizioni.

2.1.1 Dispersività
Si è gia osservato che l’uscita di un sistema in un determinato istante dipende in genere da tutto il
segnale di ingresso: ciò si esprime dicendo che il sistema è dispersivo o con memoria. Viceversa un
46 Capitolo 2. I SISTEMI NEL DOMINIO DEL TEMPO


 
  







Ritardo T

Figura 2.7: Filtro ZOH.

sistema si dice non dispersivo o senza memoria se il valore  (risp.    ) dell’uscita all’istante 
(risp.  ) dipende solo dal corrispondente valore  (ris.    ) dell’ingresso nello stesso istante ed
eventualmente dall’istante  (risp.  ). È immediato verificare che il partitore resistivo (Esempio 1),
il diodo (Esempio 2) ed il moltiplicatore per una costante (Esempio 4) sono sistemi non dispersivi;
invece il ritardo elementare (Esempio 3), il filtro RC (Esempio 5), il filtro MA (Esempio 6) ed il
filtro ZOH (Esempio 7) sono sistemi dispersivi.

2.1.2 Causalità

Un sistema è causale se il valore dell’uscita  all’istante  (risp.  ) dipende non da tutto l’ingresso
   , ma solo dai valori assunti da    negli istanti di tempo precedenti  (risp.  )  compreso; in
altri termini, per un sistema causale, il valore dell’uscita non dipende dai valori futuri dell’ingresso.
Conseguentemente se due ingressi ad un sistema causale sono identici fino all’istante  (risp.  ), $ 
allora anche le corrispondenti uscite sono uguali fino a tale istante. È immediato verificare che tutti
i sistemi degli esempi 1-7 sono casuali, mentre il filtro MA definito dall’equazione

        4     4    

è un sistema discreto, dispersivo e non causale.
Sebbene i sistemi causali abbiano grande importanza, tuttavia essi non sono gli unici sistemi
d’interesse pratico. Ad esempio la causalità non è una restrizione necessaria nell’elaborazione
d’immagini e, più in generale, ogni qual volta la variabile indipendente non è il tempo. È pari-
menti superfluo imporre il vincolo della causalità per tutte le elaborazioni che non sono effettuate
in tempo reale: cosı̀ ad esempio i segnali geofisici, sismici, metereologici vengono spesso prima
registrati e poi elaborati in tempo differito senza alcun vincolo di causalità. Infine anche nelle elabo-
razioni in tempo reale vengono presi in esame sistemi non causali al fine di valutare la degradazione
dovuta al vincolo di causalità nei sistemi realizzati in pratica.
2.1. GENERALITÀ SUI SISTEMI 47

   Sistema   Sistema      
invertibile inverso

Figura 2.8: Sistema invertibile.

2.1.3 Invertibilità
Un sistema è invertibile se tale è la trasformazione che lo definisce; in altri termini un sistema si dice
invertibile se esiste un altro sistema, detto sistema inverso, tale che la cascata del sistema invertibile
e del suo inverso realizza la trasformazione identica (vedi fig. 2.8). Si consideri ad esempio il sistema
definito dall’equazione:
  
  
 

 

esso realizza la somma corrente dei valori dell’ingresso ed è denominato accumulatore; è immediato
verificare che tale sistema è invertibile e che il suo inverso è il sistema MA definito dall’equazione:

                   (2.4)

detto anche differenza prima e denotato con il simbolo      .

2.1.4 Invarianza temporale


Un sistema è temporalmente invariante se una traslazione dell’ingresso comporta una traslazione
della stessa entità anche dell’uscita: in altri termini si ha:

     2   2


          
    

Verifichiamo ad esempio che il filtro RC è temporalmente invariante: detta  la risposta a  e
2
 la risposta a    , si ha:

  
 

    2     
 

      2       2
   

In maniera analoga è possibile verificare che i sistemi considerati negli esempi 1  7 sono temporal-
mente invarianti.
Consideriamo ora il sistema definito dall’equazione

       
48 Capitolo 2. I SISTEMI NEL DOMINIO DEL TEMPO

La risposta    all’ingresso       


  vale:

    
    
  
 
   
    
    
 
pertanto il sistema non è temporalmente invariante.

2.1.5 Stabilità
Un sistema è stabile se la risposta ad un qualunque ingresso limitato è anch’essa limitata. Tale tipo
di stabilità è detta o anche stabilità BIBO (Bounded Input - Bounded Output).

 
È immediato verificare che i sistemi degli esempi 1  7 sono stabili; cosı̀ per il filtro RC, supposto
 
, si ha:
 
    

 
    

    

    


 


Viceversa il sistema definito dall’equazione

      
non è stabile; infatti la risposta ad un gradino in ingresso, cioè        , è una rampa, cioè +

    
+
  , che non è limitata. Cosı̀ pure non sono stabili, in senso BIBO, l’accumulatore ed il
suo equivalente continuo, l’integratore ideale.

2.1.6 Linearità
Un sistema è lineare se è omogeneo ed additivo, cioè se esso verifica le seguenti condizioni:

Omogeneità : ad un cambiamento di scala per le ampiezze dell’ingresso corrisponde uno stesso


cambiamento di scala delle ampiezza dell’uscita, cioè

            
qualunque sia l’ingresso    e qualunque sia il fattore di scala  .
Additività : la risposta ad un segnale somma è la somma delle singole risposte; cioè

       


     
    4       4   

qualunque siano gli ingressi    e    .


È immediato verificare che il sistema dell’esempio 2 non è lineare, mentre tutti i rimanenti lo sono.
2.2. SISTEMI LINEARI: SOMMA ED INTEGRALE DI SOVRAPPOSIZIONE 49

2.2 SISTEMI LINEARI: SOMMA ED INTEGRALE DI


SOVRAPPOSIZIONE
Come si è visto, la proprietà caratteristica dei sistemi lineari è che se l’ingresso è una combinazione
lineare di segnali
         4      4 

   4 ) )
allora l’uscita è data, per il principio di sovrapposizione, da:

        4      4 

   4 ) )
dove

  è l’uscita corrispondente a

  ,   




) ) .
È dunque conveniente rappresentare un generico ingresso    come sovrapposizione di segnali ele-
mentari di cui sia nota la risposta, cosı̀ da ottenere la risposta complessiva del sistema sovrapponendo
le risposte ai singoli segnali elementari. A questo scopo una efficace decomposizione dei segnali di
ingresso è quella in termini di impulsi introdotta nel capitolo precedente. Nel caso di segnali a tempo
discreto, possiamo esprimere la generica sequenza    come

   




 
      

 


e quindi la risposta a   è data dalla combinazione lineare, con coefficienti   , delle risposte 
 
ai singoli impulsi traslati     . Detta allora  
 la risposta impulsiva in tempo-istante di 
applicazione del sistema, cioè la risposta del sistema all’impulso applicato all’istante 
        
 
allora la risposta a    è data dalla cosiddetta somma di sovrapposizione (in tempo-istante di appli-


cazione) 

  


 
 
 
   (2.5)


In alternativa è possibile esprimere la risposta del sistema a mezzo della risposta impulsiva in tempo-


ritardo 
 
   
   


cioè della risposta, valutata all’istante , ad un impulso applicato  istanti prima, in altri termini
è il ritardo, misurato rispetto all’istante di applicazione   

  , con cui si osserva l’uscita.
Infatti con il cambio di variabile     la (2.5) si riscrive


  



 
 
     

 (2.6)
 
50 Capitolo 2. I SISTEMI NEL DOMINIO DEL TEMPO

ed è detta somma di sovrapposizione in tempo-ritardo.


L’interpretazione della (2.6) è che l’uscita del sistema all’istante  è la somma pesata del valore
attuale    , di quelli passati     
 1
e di quelli futuri     
 dell’ingresso 0
   con pesi pari ai campioni della risposta impulsiva in tempo/ritardo.
L’estensione al caso di sistemi continui è immediata: partendo dalla rappresentazione di un segnale


in termini di impulsi di Dirac


 
 

       

per il principio di sovrapposizione, l’uscita  corrispondente all’ingresso  è data dall’integrale
di sovrapposizione in tempo-istante di applicazione:

 
 

   
  
 

dove 
  è la risposta impulsiva in tempo-istante di applicazione, che rappresenta l’uscita del
sistema all’istante  quando l’ingresso è un impulso applicato all’istante  .
Alternativamente, anche un sistema lineare continuo può essere descritto dalla risposta impulsiva in
tempo-ritardo:



  
 

che rappresenta la risposta all’istante  ad un impulso applicato all’istante    
; essa consente
di esprimere l’uscita come integrale di sovrapposizione in tempo-ritardo:

 
 



   
 


(2.7)

2.3 Sistemi lineari tempo invarianti


I sistemi lineari tempo invarianti (LTI) costituiscono la più importante classe di sistemi, perché
forniscono un modello adeguatamente accurato di moltissimi sistemi reali e perché nel contempo
ammettono metodi di analisi e di sintesi molto potenti.
 
Un sistema lineare è temporalmente invariante se e solo se la risposta impulsiva 

 (ris.  
  )
non dipende dall’istante di osservazione  (risp.  ), ma solo dal ritardo
(risp.  ); L’argomento
irrilevante può essere abolito e quindi il sistema è descritto da una funzione di una sola variabile,
 

 (risp.   ).
Iniziamo col prendere in esame i sistemi discreti. La condizione di invarianza
  
 
    
2.3. Sistemi lineari tempo invarianti 51

consente di esprimere il legame ingresso-uscita nella forma:


    

    

 


 

       (2.8)


Tale somma prende il nome di convoluzione discreta fra    e    , o semplicemente di con-


voluzione se è chiaro che si opera su segnali discreti e, come è implicito nella (2.8), viene denotata
col simbolo       : quindi l’uscita di un sistema LTI è la convoluzione dell’ingresso e della
risposta impulsiva. Notiamo che l’ordine dei due fattori è inessenziale; infatti con cambio di variabile


è immediato verificare che


 
        

 (2.9)
 

 
In altri termini la convoluzione è commutativa
   
          
Analogamente ai sistemi LTI discreti, anche i sistemi LTI continui sono caratterizzabili mediante la

loro risposta impulsiva 
 ; il corrispondente legame ingresso-uscita è

 






  
 







  


 
   
 (2.10)


L’integrale nella (2.10) prende il nome di convoluzione (continua) fra  e  e converge se

almeno uno dei due fattori è sommabile (in particolare converge se il sistema  è stabile e se

 
l’ingresso è limitato). L’interpretazione della (2.10), e in particolare del secondo integrale è la
seguente: siccome è possibile pensare a  come la sovrapposizione di -impulsi traslati  
 ,

, di area 

, allora l’uscita del sistema è la sovrapposizione delle relative
al variare del ritardo
risposte impulsive  
 con gli stessi pesi 

.

Esempio 1: Convoluzione di un gradino ed una sequenza esponenziale


Ci proponiamo di valutare la risposta al gradino        (fig. 2.9  del sistema LTI avente 3+ 
 
risposta impulsiva    
  , con +  (fig. 2.9  . All’uopo occorre costruire 0  0 
il segnale      ribaltando l’ingresso   (fig. 2.9  e traslandolo di  campioni: la 
traslazione è in ritardo, cioè nel verso positivo dell’asse dei tempi se 
  (fig. 2.9  ), o in -
anticipo di  campioni  0
 ). L’uscita, per il dato valore di  , si ottiene poi

 se (fig. 2.9
sommando i valori di   (fig. 2.9  pesati secondo il corrispondente valore di      ,
cioè moltiplicando tra loro i campioni di fig. 2.9  (o di fig. 2.9   e quelli di fig. 2.9 relativi 
allo stesso istante  e poi sommando i vari prodotti. Ovviamente per la commutatività della
convoluzione i ruoli di segnale e risposta impulsiva possono essere scambiati.
52 Capitolo 2. I SISTEMI NEL DOMINIO DEL TEMPO


 
 


   




       0




    
  
-




 
 


  
 





Figura 2.9: Convoluzione di un gradino e di una sequenza esponenziale.


2.3. Sistemi lineari tempo invarianti 53


Dall’esame dei grafici di fig. 2.9 e fig. 2.9  è chiaro che, per  ,      e  0 
 non
si sovrappongono, cioè non sono mai contemporaneamente diversi da zero e quindi    
per  0
. Per 
 1
, il prodotto        vale (vedi fig. 2.9 e fig. 2.9  ): 

  
'  
        altrimenti


Pertanto, per  21
      
 

   
 



 
L’andamento della risposta al gradino (risposta indiciale) è riportato in fig. 2.9 : si noti che
tale risposta ha un asintoto pari a      per  tendente all’infinito.


Esempio 2: Convoluzione di due finestre rettangolari
Siano    e
 
  due finestre rettangolari di lunghezza e  rispettivamente, cioè:
              
 
 

(nelle fig. 2.10a e fig. 2.10b si è supposto  ed    ). Applicando la procedura
precedentemente delineata, è facile verificare che      ha l’andamento trapezoidale
indicato in fig. 2.10c.

 
Dall’esempio precedente risulta che la convoluzione di due sequenze rettangolari di lunghezza
è una sequenza trapezoidale di lunghezza    . Come caso particolare,
  4 
e
  
ponendo , si ricava che la convoluzione di due sequenze rettangolari della stessa
lunghezza è una sequenza triangolare di lunghezza ed ampiezza

 .

Con un piccolo sforzo di generalizzazione è facile rendersi conto che la convoluzione di due
 
  4 
qualsiasi sequenze di lunghezza finita, diciamo

e è una sequenza di lunghezza finita
  . In altri termini se applichiamo una sequenza di lunghezza finita in ingresso



ad un sistema con memoria finita , otteniamo in uscita una sequenza pure di lunghezza finita,
ma più lunga di   campioni per effetto della memoria finita del sistema.
Esempio 3: Filtro ZOH
Il filtro interpolatore di ordine zero precedentemente introdotto è un sistema LTI con risposta
impulsiva (vedi fig. 2.11a):


 
 
   
 
durata 1 
come è immediato verificare; si supponga che anche l’ingresso sia un impulso rettangolare di
(fig. 2.11b), cioè

 3
    

54 Capitolo 2. I SISTEMI NEL DOMINIO DEL TEMPO


  
  

 
 
 


 
4
 3
2
1


Figura 2.10: Convoluzione di due finestre rettangolari.


È facile controllare che la convoluzione di  e  ha andamento trapezoidale (fig. 2.11c) e
la sua durata complessiva è la somma della durata delle due finestre rettangolari: essa diventa
un triangolo se  3 (Figura 2.11d).

Esaminiamo ora le proprietà fondamentali della convoluzione in aggiunta alla commutatività già

     
accennata precedentemente. Anzitutto, si può verificare che la convoluzione è associativa, si ha
cioè:
  
 
           
 
     (2.11)
si noti che in virtù della proprietà associativa l’impiego delle parentesi quadre nella (2.11) è super-
fluo. Tale proprietà può essere interpretata in termini di connessione di sistemi LTI come illustrato


in fig. 2.12: infatti, dalla proprietà associativa, segue che la connessione in serie di due sistemi LTI

aventi
  risposta impulsiva    e     è equivalente a un unico sistema LTI con risposta impulsiva
      . Inoltre, come conseguenza della proprietà associativa in congiunzione con la proprietà
commutativa, la risposta impulsiva globale è indipendente dall’ordine con cui i sistemi sono connessi
in serie. Tale proprietà può essere generalizzata ad un numero arbitrario di sistemi LTI connessi in
serie.
2.3. Sistemi lineari tempo invarianti 55



 
    

  


 
   
  

  4   
 
Figura 2.11: Convoluzione di due finestre rettangolari.

         
 



    
       

         
 

Figura 2.12: Interpretazione delle proprietà associativa e commutativa della convoluzione.


56 Capitolo 2. I SISTEMI NEL DOMINIO DEL TEMPO

   
Una terza proprietà della convoluzione è la proprietà distributiva

  
 
  54 
         
  4      

come è facile verificare. L’interpretazione di tale proprietà è data, in termini di connessione in


parallelo di sistemi LTI, in fig. 2.13: due sistemi LTI in parallelo possono essere sostituiti da un
unico sistema LTI la cui risposta impulsiva è la somma delle loro singole risposte impulsive. Ov-
viamente questa proprietà è generalizzabile al caso di un numero arbitrario di sistemi connessi in
parallelo.

 
 
           



   4   
  

Figura 2.13: Interpretazione della proprietà distributiva della convoluzione.

  
  
È immediato verificare che l’impulso si comporta come l’unità nei confronti della convoluzione,

  
nel senso che si ha
              (2.12)
 
Se si interpreta   come la risposta impulsiva del sistema identico, che è un particolare sistema
LTI, la proprietà (2.12) esprime semplicemente la condizione che ingresso ed uscita di un sistema
identico coincidono.

     
La convoluzione gode anche della proprietà associativa mista, cioè risulta

       
     
 
        
 
       
 
 
Tale proprietà traduce in termini di convoluzione l’omogeneità dei sistemi lineari, ed afferma che
si può indifferentemente scalare l’ampiezza di uno dei due fattori del prodotto di convoluzione o il
risultato del prodotto stesso.

Un’altra proprietà della convoluzione
       il risultato
è l’invarianza temporale. Precisamente, detto
  
della convoluzione fra   e   , il risultato della convoluzione fra    e   è     ,

 
in altri termini si ha

  
 
        
 
 
    
  (2.13)

   come ingresso al sistema e    come risposta impulsiva la (2.13) esprime
Se interpretiamo 
semplicemente la proprietà di invarianza temporale dei sistemi LTI.
La convoluzione continua ha le stesse proprietà della convoluzione discreta; tali proprietà sono sin-
tetizzate nella tabella 2.1 sia con riferimento al caso di segnali a tempo continuo che di sequenze.
2.3. Sistemi lineari tempo invarianti 57

    

        
P1 commutativa           
   
         
          
 

   4     4 
P2 associativa
          
     

         
P3 distributiva                     
  
    
P4 cambiamento di scala                  

2      2 
  
           
 

   
P5 invarianza temporale
          
P6 esistenza dell’unità                 

Tabella 2.1: Proprietà della convoluzione.

Anche nel caso di forme d’onda, tali proprietà si possono interpretare in termini di connessione di
sistemi: la proprietà commutativa equivale ad affermare che i ruoli del segnale di ingresso e della
risposta impulsiva possono essere scambiati; la proprietà associativa implica che la cascata di due
sistemi è equivalente ad un unico sistema la cui risposta impulsiva è la convoluzione delle singole
risposte impulsive; inoltre, la risposta impulsiva globale non dipende dall’ordine di connessione;
infine la proprietà distributiva comporta che il parallelo di due sistemi è equivalente ad un unico
sistema la cui risposta impulsiva è la somma delle singole risposte impulsive.
La procedura per calcolare la convoluzione è abbastanza simile a quella delineata per il caso discreto:
precisamente, per valutare l’uscita per uno specifico valore di  , prima si determina il segnale 

(considerato come funzione di
con  fisso) mediante una riflessione intorno all’asse verticale e una
traslazione (in ritardo se  1 , in anticipo se  0
); si moltiplicano poi i segnali  
 e 
 e
si calcola l’area sottesa dal prodotto; al variare di  si ottiene l’intero segnale di uscita. Ovviamente

i ruoli di  e  possono essere invertiti secondo convenienza.
Le risposta impulsiva caratterizza completamente un sistema lineare, e per tale motivo è una risposta
canonica, conseguentemente le proprietà di un sistema lineare secondo la classificazione del para-
grafo precedente, possono essere espresse in termini della risposta impulsiva. In particolare, si può
effettuare la seguente classificazione:

o non dispersivo, se e solo se    per  


, ovvero se e solo se:

Sistemi LTI senza memoria : Dalla (2.8) segue che un sistema lineare discreto è senza memoria,



      (2.14)

Analogamente, per un sistema continuo la condizione è:




   
 (2.15)
58 Capitolo 2. I SISTEMI NEL DOMINIO DEL TEMPO

Infatti se e solo se le condizioni (2.14) e (2.15) sono verificate, il valore attuale dell’uscita
dipende esclusivamente dal valore dell’ingresso valutato nello stesso istante. Infatti, dalle

(2.14) e (2.15) segue che in tali ipotesi, il sistema effettua semplicemente il prodotto del seg-
nale d’ingresso per una costante . Quando la (2.14) o (2.15) non sono verificate il sistema è
con memoria (dispersivo in tempo).
Sistemi LTI causali : Il concetto di causalità si traduce, per un sistema lineare discreto, nella con-
dizione che: 
     (2.16) 0
per cui la somma di convoluzione (2.6) si scrive

    



      (2.17)




Infatti, se e solo se la condizione (2.16) è verificata, i valori futuri dell’ingresso, cioè i cam-
pioni      con  0
, non danno contributo al valore attuale dell’uscita.
Analogamente la condizione di causalità per un sistema lineare continuo è:


  
0 (2.18)

e il relativo integrale di convoluzione è

 
 

 

 



(2.19)

Se le condizioni (2.16) o (2.18) non valgono il sistema è non causale. Un caso particolare di
sistema non causale è il sistema anticausale definito dalla condizione:

      -

  
-
Sistemi lineari stabili : Anche la condizione di stabilità può essere espressa in termini della risposta
impulsiva. Sia    un ingresso limitato, cioè   

, di un sistema lineare discreto, la
 
corrispondente uscita può essere maggiorata come segue

 
 
  

 
 
   

 
  

  

 

   

quindi l’uscita è limitata se esiste una costante  tale che

 

  
0 

(2.20)
 
2.3. Sistemi lineari tempo invarianti 59

 
il sistema è reale se e solo se   è reale
il sistema è non dispersivo se e solo se

     

il sistema è causale se e solo se      0

il sistema è anticausale se e solo se      -
 

  
 04

il sistema è stabile se e solo se 
 

Tabella 2.2: Condizioni sulla risposta impulsiva per sistemi LTI.

cioè, se la risposta impulsiva è sommabile rispetto ai ritardi e la somma è limitata. Si dimostra


poi che tale condizione è anche necessaria, infatti, consideriamo l’ingresso limitato definito
da: 

        
se   
   altrimenti
 
e assumiamo che la (2.20) non sia verificata; allora l’uscita è data da


  
 



   
   
 

  

       

e pertanto non è limitata.


Con analoghe considerazioni si verifica che condizione necessaria e sufficiente per la stabilità
di un sistema continuo è che esista una costante reale tale che:
   
 
0 


 


Le condizioni cui deve soddisfare la risposta impulsiva di un sistema LTI sono riassunte nella tabella
2.2.
A proposito della connessione in serie dei sistemi, va altresı̀ puntualizzato che l’invarianza della
risposta rispetto all’ordine di connessione vale solo se tutti i sistemi sono sia lineari che tempo
invarianti. Per esempio, è immediato verificare che il sistema che moltiplica per 2 (LTI) non può es-
sere scambiato, nell’ordine di connessione, con il sistema che effettua il quadrato (tempo invariante,
ma non lineare). Analogamente un sistema LTI (per esempio il filtro MA di risposta impulsiva
 
+ + 
           ) non può essere scambiato con un sistema LTV (per esempio il sistema
lineare definito da        ) come si può verificare calcolando la risposta impulsiva delle due

possibili connessioni in cascata.
60 Capitolo 2. I SISTEMI NEL DOMINIO DEL TEMPO

Esempio 3: Accumulatore
È immediato verificare che l’accumulatore precedentemente introdotto è il sistema LTI con

risposta impulsiva     +
   . Tale sistema è invertibile ed il suo inverso è la differenza
 
prima    : infatti la risposta impulsiva della differenza prima è;

                     

   
e effettuando la convoluzione con la risposta impulsiva dell’accumulatore si ottiene:
 
 

   3+            +    2+         

Esempio 4: Sistemi ARMA


Una categoria di sistemi LTI discreti di notevole importanza nelle applicazioni è costituita da
quei sistemi per i quali l’ingresso    e l’uscita    soddisfano un’equazione alle differenze,
lineare, a coefficienti costanti, di ordine , cioè del tipo:

  

 
     
      (2.21)


 


 , tale equazione si riscrive




Iniziamo con l’osservare che, nel caso particolare


  e  

 

 

       


e pertanto definisce un sistema LTI: precisamente tale sistema è il filtro MA con risposta
impulsiva

    

) )
  
   ! "$#$% &'
)(*"$%


Poiché la risposta impulsiva ha durata finita, precisamente è lunga campioni, i filtri MA 


sono anche detti filtri FIR (Finite Impulsive Response). I sistemi descritti dallequazione (2.21)
sono comunemente chiamati sistemi ARMA (Auto Regressive Moving Average) e compren-

 
dono come casi particolari i sistemi MA, corrispondenti, come già osservato, ad
 , ed i sistemi AR, corrispondenti a   e  .
 e
  
Determiniamo la risposta impulsiva del sistema LTI, di tipo AR, definito dall’equazione

       54    (2.22)

con la condizione iniziale    . Essa è ricorsivamente definita da:


 
         4    
  
2.3. Sistemi lineari tempo invarianti 61

da cui si ricava:

    
   54     

     54      
 
       54       
..
.
e quindi  
     
   4     
  1

Analogamente, risolvendo l’equazione rispetto a      , si ha

 

               

     
        
..
.
e quindi  
                
  0
Pertanto, in definitiva  
   +  
ed il sistema LTI è causale e dispersivo; inoltre è stabile se
  0  .

Viceversa se si impone la condizione    , risulta:

     54     
 
       54     
..
.
e quindi  
     
   54    
  1
           
e, analogamente
 
    
 
    
             
..
.
e, quindi  
                   
  
In definitiva si ha
 
    +     
e pertanto il sistema LTI è anticausale e dispersivo; inoltre esso è stabile se
  -  .
62 Capitolo 2. I SISTEMI NEL DOMINIO DEL TEMPO

2.4 LEGAMI INGRESSO USCITA PER LE FUNZIONI DI


CORRELAZIONE
Il problema che ora affrontiamo è quello di determinare i legami tra alcuni gradezze globali, quali la

componente continua e la funzione di autocorrelazione, dell’ingresso e dell’uscita di un sistema LTI
(Fig. 2.14 ). Tali legami si rivelano particolarmente utili se l’ingresso è un segnale aleatorio SSL, in
quanto, in tal caso, consentono di ottenere la caratterizzazione statistica globale dell’uscita da quella
dell’ingresso.
  0      -
  
Iniziamo col valutare la componente continua dell’uscita . Riferendoci, per

   
fissare le idee, ai segnali a tempo discreto, si ha:
   
      
        
 
     
 
   
e quindi

In altri termini la media statistica dell’uscita è la risposta del sistema alla media statistica
   
 
       (2.23)


dell’ingresso (Fig. 2.14 ).

    
 
       
 
  

  
Figura 2.14: Legame ingresso - uscita per la media statistica.

 
Mediando, rispetto alla variabile temporale, entrambi i membri della (2.23) si ha
 

0  - 0 
 .-  0  .-

 
  
              
 
 
   
 

 
quindi, in definitiva, risulta:


 
 
      

(2.24)
 

 

ove si è introdotto il guadagno in continua del sistema pari all’area sottesa dalla risposta
impulsiva, cioè: 

  
 
 
  
2.4. LEGAMI INGRESSO USCITA PER LE FUNZIONI DI CORRELAZIONE 63

   
  
  
 
 
   
 
 

    
  
  
Figura 2.15: Schema per il calcolo del legame tra le mutue correlazioni degli ingressi e delle uscite.

Pertanto, la componente continua in uscita al sistema è proporzionale a quella in ingresso, con


costante di proporzionalità pari al guadagno in continua.
Passiamo ora alle funzioni di autocorrelazione. Precisamente consideriamo la situazione di Fig. 2.15,
da cui, particolarizzando segnali e sistemi, è possibile ricavare i vari casi di interesse. I segnali in
gioco possono essere deterministici o aleatori, di energia o di potenza, a tempo discreto o continuo: a
seconda dei casi le funzioni di correlazione ammettono espressioni diverse, ma in ogni caso possono


essere riguardate come prodotti scalari.
Precisamente, con riferimento alla Fig. 2.15, ci proponiamo di determinare la mutua correlazione
       tra le due uscite in funzione di quella     tra i due ingressi e delle risposte impulsive
 
  e   dei due sistemi LTI.
Riferendoci, per fissare le idee, a segnali e sistemi a tempo discreto, si ha:

   0   
    .-  0  


     

 



       .-
  
 
    


Nella relazione precedente   e   sono degli scalari: conseguentemente, per la proprietà


distributiva del prodotto scalare rispetto alla somma, si ha:

  
 

 


    

 0    
      .-
  



    

 4

il prodotto scalare a secondo membro dell’equazione precedente è la mutua correlazione
 
  , conseguentemente il legame cercato è

  
 


   
 


 
  4   
 
    
 
64 Capitolo 2. I SISTEMI NEL DOMINIO DEL TEMPO

    
 
 
  
 
 

      
 

  
Figura 2.16: Legame ingresso uscita per l’autocorrelazione.

      
Tale legame può essere anche espresso in forma più compatta in termini di convoluzione: si ha infatti

  
 



   

 4  
  



      
  

     
 

 


L’ultimo cambio di variabili   è stato introdotto per evidenziare che la residua sommatoria
 4
è ancora una convoluzione in cui il secondo fattore è       ; poiché inoltre la convoluzione è
commutativa e associativa possiamo scrivere infine
  
     

  

  
 
      
  
 

   

   

essendo
 
  la mutua correlazione delle risposte impulsive.
Una analoga derivazione vale per segnali e sistemi continui, l’unica differenza concerne la proprietà

      
distributiva del prodotto scalare rispetto alla somma che si trasforma, con argomento limite, nella
proprietà distributiva del prodotto scalare rispetto all’integrale. In definitiva risulta
 
                  

(2.25)
   tra le due uscite dei sistemi LTI di Fig. 2.15
       

In altri termini la mutua correlazione si ottiene


 
come l’uscita del sistema LTI di risposta impulsiva    alla mutua correlazione     tra i
due ingressi (Fig. 2.15 ).    

Si osservi che dall’equazione (2.25) segue che se i due ingressi sono incoerenti tali sono anche le due
uscite; in altri termini una elaborazione LTI conserva l’incoerenza. In particolare, in virtù del prin-
cipio di sovrapposizione degli effetti, se in ingresso ad un sistema LTI segnale utile e rumore sono
incoerenti lo sono anche in uscita. Si noti infine che le due uscite possono essere incoerenti anche se
i due ingressi non lo sono: all’uopo è sufficiente che siano incoerenti le due risposte impulsive.
 
    
Particolarizzando lo schema generale di Fig. 2.15 come in Fig. 2.16 è immediato derivare il legame
ingresso-uscita per la funzione di autocorrelazione. In questo caso, dall’equazione (2.25) si ottiene:
  
                 (2.26)
2.4. LEGAMI INGRESSO USCITA PER LE FUNZIONI DI CORRELAZIONE 65


cioè l’autocorrelazione dell’uscita è pari alla convoluzione dell’autocorrelazione dell’ingresso e di
quella della risposta impulsiva: in altri termini, l’autocorrelazione della risposta di un sistema LTI è
pari alla risposta all’ingresso    del sistema avente risposta impulsiva    (Fig. 2.16 ). Si osservi 
inoltre che se l’ingresso del sistema LTI di è stazionario in senso lato, allora, al secondo membro
dell’equazione (2.26), l’autocorrelazione coincide con quella statistica e, quindi, tale affermazione
deve valere anche per il primo membro; inoltre, dall’equazione (2.23) segue che la media statistica
dell’uscita è indipendente dal tempo: dunque, se l’ingresso di un sistema LTI è SSL tale è anche il
corrispondente segnale di uscita. Analogamente, se i due ingressi di Fig. 2.15 sono congiuntamente 
stazionari in senso lato, allora, la loro mutua correlazione, e quindi, per l’equazione (2.25), anche
quella tra le due uscite, coincide con quella statistica: dunque, se i due ingressi sono singolarmente
e congiuntamente SSL tali sono anche i corrispondenti segnali di uscita.

  
Dalla relazione (2.26) segue che, se l’ingresso ha un’autocorrelazione impulsiva, si ha:
     
 
 

               (2.27)
cioè l’uscita ha un’autocorrelazione proporzionale a quella della risposta impulsiva del sistema. Per-
tanto è possibile generare un segnale con una preassegnata autocorrelazione filtrando, con un filtro
LTI, un segnale con autocorrelazione impulsiva, in particolare filtrando rumore bianco. Per ru-
more bianco si intende un segnale aleatorio SSL a media nulla con autocorrelazione impulsiva: una
sequenza di variabili aleatorie a media nulla, identicamente distribuite ed indipendenti, o almeno
incorrelate, fornisce un primo esempio di rumore bianco.
Nel caso di segnali a tempo continuo, un generatore di rumore bianco non è fisicamente realizzabile
in quanto la sua potenza è infinita: tuttavia, anche in tal caso è utile introdurre tale modello quale caso
limite di segnali di potenza SSL con autocorrelazione la cui durata è molto piccola. Le principali
motivazioni dell’impiego di tale modello possono essere cosı̀ riassunte:

i meccanismi fisici che presiedono a tale tipo di rumore sono legati alla struttura della materia
ed hanno pertanto tempi carateristici di evoluzione molto piccoli; ad esempio il rumore ter-
mico, presente in tutti i dispositivi ed apparati eletronici, ha un’autocorrelazione la cui durata,
stimabile con considerazioni di meccanica statistica, è dell’ordine della decina di picosecondi.
gli effetti del rumore sono valutati a valle degli apparati per la trasmissione e/o elaborazione
dei segnali; qualora tali apparati siano schematizzabili come sistemi LTI, l’autocorrelazione
del rumore in uscita è sostanzialmente coincidente con quella della risposta impulsiva del
sistema se quest’ultima ha una durata molto maggiore di quella dell’ingresso; pertanto ai fini
della valutazione degli effetti del rumore in uscita è del tutto lecito modellare il disturbo in
ingresso come rumore bianco.
modellare il disturbo in ingresso come rumore bianco semplifica notevolmente la complessità
dei calcoli.

Si osservi esplicitamente che il filtro LTI necessario per ottenere la correlazione assegnata risulta
individuato solo tramite la funzione di autocorrelazione della sua risposta impulsiva: il prob-
66 Capitolo 2. I SISTEMI NEL DOMINIO DEL TEMPO

    
 
 
    
 
  

     
  
Figura 2.17: Schema di calcolo della mutua correlazione tra uscita ed ingresso.

lema di risalire alla risposta impulsiva a partire dalla conoscenza della sua funzione di autocorre-
 
lazione, cioè al fattore    a partire dal prodotto di convoluzione   

     (fattorizzazione
dell’autocorrelazione), non è di semplice soluzione nel dominio del tempo e, inoltre, non ammette

una soluzione univoca; la non unicità della soluzione può, peraltro, essere utilizzata per imporre che
il filtro cercato sia causale.
L’equazione (2.25) consente anche di ricavare come casi particolari le mutue correlazioni uscita-

    
ingresso e ingresso-uscita. Invero, sulla scorta della Fig. 2.17 , si ha:

    
 
       
 
 
 
  (2.28)

che esprime il legame tra la mutua correlazione fra l’uscita e l’ingresso di un sistema LTI: dunque la

mutua correlazione uscita-ingresso può calcolarsi come risposta del sistema LTI all’autocorrelazione


dell’ingresso (Fig. 2.17 ). In modo analogo si ottiene

  
   

    
Con considerazioni simili a quelle precedentemente svolte, dall’espressioni stabilite per le mutue
correlazioni uscita-ingresso e ingresso  uscita, segue che se il segnale d’ingresso è SSL allora uscita
ed ingresso del sistema LTI sono congiuntamente SSL.
La relazione (2.28) è spesso usata allo scopo di identificare un sistema LTI incognito, intendendo
in questo caso per identificazione del sistema la determinazione della sua risposta impulsiva. La
procedura di identificazione è delineata in Fig. 2.18 per il caso di un sistema a tempo discreto, ma
con le ovvie modifiche, essa è applicabile anche al caso di sistemi continui. Il sistema da identificare
viene sollecitato con rumore bianco    , in pratica con un segnale avente un’autocorrelazione la
cui durata è notevolmente inferiore a quella presunta del sistema da identificare; il correlatore calcola
poi la mutua correlazione tra l’uscita e l’ingresso del sistema LTI, che, per la (2.28), è proporzionale


alla risposta impulsiva incognita del sistema stesso, cioè:

  
   
     

 



ove la costante di proporzionalità è data dalla potenza 
 del rumore bianco utilizzato in ingresso.
2.4. LEGAMI INGRESSO USCITA PER LE FUNZIONI DI CORRELAZIONE 67

  Sistema LTI  
da identificare
 
Correlatore

Figura 2.18: Procedura di identificazione di un sistema LTI.

Tale procedura è applicabile anche a partire da una versione rumorosa

      54    
dell’uscita e dell’ingresso
       4   


(fig. 2.19), purché i disturbi additivi     e   


 siano incoerenti tra di loro nonché col segnale
d’ingresso    . Infatti, in tale ipotesi, si ha

     0   
     .- 
 0     4    
      4        - 
    4    4     4     





    
    


  Sistema LTI
da identificare

 
   
     
Correlatore

   
 


Figura 2.19: Procedura di identificazione di un sistema LTI a partire da dati rumorosi.

Analizziamo ora qualche applicazione di tale procedura.


68 Capitolo 2. I SISTEMI NEL DOMINIO DEL TEMPO



 Mezzo trasmissivo  
non distorcente

Figura 2.20: Modello di propagazione non distorcente.

Esempio 1: Misura dei tempi di propagazione


Si consideri la propagazione attraverso un mezzo non distorcente: in tal caso il segnale
trasmesso  risulta, per effetto della propagazione, ritardato ed attenuato, nonché affetto
dall’aggiunta di un rumore additivo indipendente, come delineato in Fig. 2.20: pertanto il seg-
nale ricevuto  è dato da:
    54  

dove  è il ritardo, supposto incognito, e è l’attenuazione dovuta alla propagazione.  In altri
termini il mezzo non dispersivo si comporta come un sistema LTI di risposta impulsiva  
 
    ; conseguentemente la misura del ritardo incognito  è equivalente alla misura della 
risposta impulsiva a partire da dati rumorosi e pertanto può essere condotta sollecitando il

      
mezzo con rumore bianco secondo quanto precedentemente esposto. Precisamente, nel caso
in esame, la mutua correlazione tra il segnale ricevuto e quello trasmesso vale
 
  
 4  
  
 
   4  

Pertanto, ricordando che l’autocorrelazione ha un massimo nell’origine,  può essere determi-
nato individuando il punto di massimo della funzione di mutua correlazione uscita / ingresso;
come già osservato la misura è tanto più precisa quanto più il termine  dovuto al rumore 

$

è trascurabile e quindi quanto più elevato è l’intervallo di osservazione e quanto più elevata è
la norma del segnale trasmesso  . Si osservi inoltre che, a parità di norma, l’individuazione

del ritardo di propagazione  è tanto più accurata quanto più l’autocorrelazione del segnale
trasmesso è impulsiva.

Poiché     , essendo  la distanza percorsa nel mezzo e  la velocità di propagazione, il

metodo descritto si presta a risolvere problemi di valutazione della distanza (noto c) oppure di
identificazione della velocità di propagazione nel mezzo (noto d).
Esempio 2: Risoluzione di cammini multipli di propagazione
Se la propagazione non distorcente avviene su cammini multipli come delineato in Fig. 2.21,
supposto trasmesso  , il segnale ricevuto vale

4

          (2.29)
 
2.4. LEGAMI INGRESSO USCITA PER LE FUNZIONI DI CORRELAZIONE 69

Cammino N  



   
Cammino N 

..
.

Cammino N 


Figura 2.21: Modello di propagazione non dispersiva su cammini multipli.


ove  e   sono l’attenuazione e il ritardo relativi al cammino  esimo: si pone il problema
di risolvere i singoli cammini, di identificarne cioè il numero e di misurarne i vari ritardi.
Analogamente a quanto visto nell’esempio precedente, il problema può essere considerato
come un problema di identificazione: sollecitando il mezzo col segnale  , la funzione di
mutua correlazione fra segnale trasmesso e quello ricevuto  vale

  
 


 
  
   54 
 
 (2.30)

e pertanto esibisce dei picchi multipli, ognuno in corrispondenza di un ritardo di propagazione,


come mostrato in Fig. 2.22, ove si è supposta triangolare l’autocorrelazione del segnale
trasmesso e, per semplicità, si è ignorato il contributo del rumore in uscita al correlatore.

Si osservi che per risolvere i vari cammini, è necessario che i vari impulsi presenti
nella mutua correlazione non si sovrappongano e, quindi, che il segnale trasmesso abbia
un’autocorrelazione di breve durata; la forma dell’autocorrelazione è inessenziale purché la
durata sia piccola rispetto alla minima differenza di ritardo tra i vari cammini in modo da
garantire che i picchi non si sovrappongano.
Esempio 3: Risoluzione di echi radar
Un problema del tutto analogo a quello della risoluzione dei cammini multipli di propagazione
è quello della risoluzione degli echi radar.
70 Capitolo 2. I SISTEMI NEL DOMINIO DEL TEMPO


  

   
Figura 2.22: Mutua correlazione uscita ingresso in presenza di propagazione multipla.

Un sistema radar sonda lo spazio circostante allo scopo di individuare eventuali bersagli in-
viando con una prefissata cadenza degli impulsi. In presenza di più bersagli il segnale ricevuto
 è, almeno in prima approssimazione, la somma degli echi dovuti ai vari bersagli più ru-
more: pertanto  è dato anche in questo caso dalla (2.29). Precisamente le costanti 
portano in conto, oltre l’attenuazione dell’impulso trasmesso  dovuta alla propagazione,
anche la diversa capacità che hanno i vari bersagli di riflettere il segnale trasmesso, mentre i
ritardi   sono proporzionali alla distanza  dei diversi bersagli dal radar; precisamente, detta
 la velocità di propagazione, si ha:
 
  
ove il fattore 2 tiene conto che la distanza  è percorsa dall’impulso due volte: dal radar al
bersaglio e viceversa.
La mutua correlazione tra il segnale ricevuto e quello trasmesso è, anche in questo, data dalla
(2.30): da tale relazione è evidente che è possibile distinguere i vari echi se gli addendi
della sommatoria a secondo membro dell’equazione precedente non si sovrappongono e se
l’ampiezza di tali echi, proporzionale all’energia dell’impulso trasmesso, è sufficientemente
più grande del contributo di rumore: dunque un radar ha un potere risolutore che dipende dalla
durata dell’autocorrelazione degli impulsi trasmessi.
Tale esigenza può essere banalmente soddisfatta utilizzando degli impulsi di breve durata, ma
ciò contrasta con l’esigenza di avere impulsi di elevata energia in presenza di un vincolo per
la potenza di picco. A ciò si può ovviare utilizzando treni d’impulsi non troppo corti, ma con
autocorrelazione di breve durata (tecnica di compressione degli impulsi). Un esempio di tal

 
fatta sono i cosidetti impulsi codificati di Barker, cioè gli impulsi del tipo

 

      

 
2.4. LEGAMI INGRESSO USCITA PER LE FUNZIONI DI CORRELAZIONE 71

 

4  4  oppure   4 
   4  4   
 

4  4    4  oppure 4  4  4   
   4  4  4    4 
  4  4  4      4   
    4  4  4        4      4   
    4  4  4  4  4      4  4    4    4 

Tabella 2.3: Sequenze di Barker.


ove  è di norma un impulso rettangolare di durata
e la sequenza    , chiamata codice,  
è una sequenza di  e di   di lunghezza , scelta in modo da garantire la desiderata autocor-

  

 
relazione. L’autocorrelazione di tale impulso vale, in ogni caso, nell’origine, ed è nulla
  -  
per valori del ritardo che in modulo eccedono
; scegliendo opportunamente la sequenza
   è possibile ottenere un’autocorrelazione che per

valga al più  del massimo.
Nella Tab. 2.3 sono riportate i valori di     che garantiscono tali proprietà; sfortunatamente
non esistono codici di Barker di lunghezza maggiore di
    . Si osservi che complemen-
tando e/o ribaltando un codice di Barker si ottiene ancora un codice di Barker.
72 Capitolo 2. I SISTEMI NEL DOMINIO DEL TEMPO
Capitolo 3

ANALISI NEL DOMINIO DELLA


FREQUENZA

3.1 FUNZIONE DI TRASFERIMENTO DI UN SISTEMA LTI


Il punto di partenza dell’analisi nel dominio del tempo è la rappresentazione di segnali (continui o
discreti) mediante -impulsi, definita dalla formula di riproducibilità: conseguentemente la risposta
di un sistema LTI ad un ingresso arbitrario si può costruire sovrapponendo le risposte ai segnali
elementari costituenti l’ingresso, cioè mediante convoluzione con la risposta impulsiva. Pertanto la
somma o l’integrale di convoluzione non solo rappresentano un mezzo di calcolo della risposta di
un sistema LTI ad un ingresso arbitrario, ma anche indicano che le caratteristiche di un sistema LTI
sono completamente determinate dalla sua risposta impulsiva e consentono quindi di studiarne le
proprietà attraverso la risposta impulsiva.
In questo capitolo sviluppiamo un metodo alternativo per l’analisi dei sistemi LTI basata sulla rap-
presentazione dei segnali come combinazione lineare di esponenziali complessi. Tale alternativa si
rivela fruttuosa in quanto gli esponenziali complessi consentono di rappresentare un insieme molto
ampio di segnali ed inoltre la risposta di un sistema LTI ad uno di tali segnali di base è proporzionale



al segnale stesso: conseguentemente è immediato ottenere l’uscita come sovrapposizione di espo-
nenziali. Infatti, sia   , con  numero complesso, l’ingresso di un sistema LTI continuo

avente risposta impulsiva  ; allora la corrispondente uscita è:

 

 







 
    
 
  





 
 




  




73
74 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA


LTI

  
 LTI

  

Figura 3.1: Funzione di trasferimento di un sistema LTI.


  
ove si è posto:
  
  
 
(3.1)

Tale relazione definisce al variare di  la funzione di trasferimento del sistema LTI che, quindi, è il
rapporto uscita/ingresso nel dominio del tempo in regime esponenziale (fig. 3.1).
 
Analogamente, nel caso discreto, se il sistema ha risposta impulsiva   , per un ingresso esponen-
ziale      
, con numero complesso, si ha:


    

  





 

   

   







    




   

 

ove:

  

 
 
 

    (3.2)

è la funzione di trasferimento del sistema LTI discreto (fig. 3.1).


Da quanto esposto segue che gli esponenziali complessi sono autofunzioni dei sistemi LTI ; il fattore

complesso di proporzionalità è l’autovalore corrispondente all’autofunzione; l’autovalore dipende
dall’autofunzione nel senso che cambiando  (o ) cambia il fattore di proporzionalità. 
Nel caso dei sistemi continui la funzione di trasferimento è legata alla risposta impulsiva dalla re-
lazione: 

  
 
  

 
 (3.3)

in altri termini essa è la trasformata (bilatera) di Laplace della risposta impulsiva. Analogamente per
i sistemi discreti si ha: 

  

 
    


(3.4)
 


 
e la   è la zeta trasformata della    . Lo studio di tali trasformate esula dallo scopo di queste
 
note, a riguardo ci limitiamo a precisare che    o   è definita per i valori di  (risp. ) per cui  


Data una trasformazione   , una funzione
  si dice autofunzione di
 
se
  
. In tal caso, é l’autovalore
associato all’autofunzione
.
3.1. FUNZIONE DI TRASFERIMENTO DI UN SISTEMA LTI 75

l’integrale (3.3) (risp. la serie (3.4)) converge: tale insieme di valori viene usualmente denominato
regione di convergenza (ROC).
Le due interpretazioni delle funzioni di trasferimento, cioè come rapporto uscita/ingresso nel do-
minio del tempo in regime esponenziale e come trasformata della risposta impulsiva, corrispondono
a due metodi operativamente validi di calcolo. Nel primo dei due metodi, basato sulle relazioni (3.1)
o (3.2), il sistema LTI viene sottoposto a una serie di sollecitazioni di tipo esponenziale, in modo da
 

ricavare per punti la funzione    o   . Nel secondo metodo, basato sulle (3.3) o (3.4), si ricava
innanzitutto la risposta impulsiva e poi la si trasforma con metodi numerici o analitici. Non è raro
peraltro che i legami (3.3) e (3.4) si usino all’inverso, cioè per ricavare le risposte impulsive, note le
funzioni di trasferimento, mediante le corrispondenti formule di antitrasformazione.

Esempio 1: Funzione di trasferimento di un elemento di ritardo


L’elemento di ritardo unitario discreto è definito dal legame ingresso-uscita
        
L’uscita, corrispondente all’ingresso   , è:
          
Quindi la funzione di trasferimento vale:
     


Tale risultato giustifica l’uso del simbolo 


  per indicare gli elementi di ritardo e, analoga-

mente, del simbolo per indicare gli elementi di anticipo.
Nello stesso modo si vede che una linea di ritardo, cioè un sistema continuo definito dal legame
ingresso-uscita
   2



ha una funzione di trasferimento



  
Esempio 2: Funzione di trasferimento di un sistema ARMA


Si consideri il sistema ARMA definito dall’equazione alle differenze
 

  

   54 
 
     


 


   


con condizioni iniziali omogenee. Posto     e quindi     nell’equazione
alle differenze si ottiene  
 
 


  
 
 

  


 
76 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA


Pertanto i sistemi ARMA sono caratterizzati dall’avere una funzione di trasferimento razionale
in
 : in particolare per i filtri FIR (MA)    è un polinomio e per i sistemi AR è il 
reciproco di un polinomio .

3.2 RISPOSTA IN FREQUENZA DI UN SISTEMA LTI


Sebbene in generale le variabili  e  siano complesse, in questo capitolo limiteremo lo studio al

     
caso
 (3.5)
cioè  varia sull’asse immaginario e, rispettivamente, al caso

   
   
(3.6)


cioè varia sulla circonferenza unitaria. Le rispettive restrizioni delle funzioni di trasferimento, se
esistono, si chiamano risposte in frequenza o risposte armoniche. Quindi la risposta in frequenza
per un sistema continuo è:

  
    
    
Comunemente, con abuso di notazione, la risposta armonica si indica con   e   , salvo
quando si vuole esplicitamente mettere in evidenza il legame fra risposte in frequenza e funzioni di
  
 
trasferimento. Notiamo però esplicitamente che le variabili  , , ed non sono variabili mute,
  
 
ma al contrario servono ad indicare la corretta interpetrazione delle notazioni    ,   ,  

e   ; in altri termini tali notazioni anche se hanno in comune il simbolo   stanno ad indicare
funzioni diverse e per passare dall’una all’altra occorre il cambiamento di variabile definito dalla
(3.5). Analogamente la risposta in frequenza di un sistema discreto è:

   
 
    
   
e le notazioni semplificate sono   e  .
Da quanto detto e dalla definizione di funzione di trasferimento segue che la risposta in frequenza

   
può essere definita come:
  
  
  
(3.7)
 
 
nel caso di sistemi continui e rispettivamente
 
  

 
 
 

    
 

per i sistemi discreti. In altri termini la risposta in frequenza è il rapporto uscita/ingresso nel dominio
del tempo in regime fasoriale. Si noti che la (3.7) consente di ricavare la risposta in frequenza dei
circuiti elettrici mediante i classici metodi di analisi degli stessi circuiti in regime permanente.
3.2. RISPOSTA IN FREQUENZA DI UN SISTEMA LTI 77

Il legame ingresso uscita nel dominio della frequenza per un sistema LTI segue immediatamente dal
principio di sovrapposizione: infatti esprimendo l’ingresso  , supposto tempo continuo, come

    " ! 
sovrapposizione di fasori, cioè 

    
 


e ricordando che i fasori sono autofunzioni per i sistemi LTI, si ottiene immediatamente la corrispon-
dente rappresentazione dell’uscita in termini di fasori, cioè

 
 
 
 
   " ! 
  
 
 (3.8)

Un analogo risultato vale per segnali e sistemi discreti. Da tale equazione segue che gli spettri
dell’ingresso e dell’uscita sono legati alla risposta in frequenza del sistema da

      


(3.9)

Dalla (3.9) segue che il legame per gli spettri di ampiezza e di fase è:
 
 
    
   
 

  


  4 


  (3.10)

per la risposta in ampiezza del sistema


 
Pertanto lo spettro d’ampiezza dell’uscita è pari al prodotto dello spettro d’ampiezza dell’ingresso 
   e quello di fase è dato dalla somma dello spettro di

   del sistema.


fase dell’ingresso e della risposta in fase


Il legame ingresso/uscita nel dominio della frequenza evidenzia come i sistemi LTI abbiano un com-
portamento selettivo in frequenza: alcune componenti dell’ingresso sono amplificate, altre attenuate
o eliminate del tutto; tale proprietà è denominata capacità di filtraggio e spiega l’impiego del termine
filtro come sinonimo di sistema.

Esempio 1: Risposta in frequenza di un filtro RC


Con riferimento al filtro RC, per     , si ha: 

     
4        4   


Quindi la risposta armonica di un filtro RC vale:


4    
  
   
  4 
(3.11)


dove


78 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA

  
è la pulsazione di taglio a  

del filtro; il nome è giustificato dal fatto che per   si  
ha
 

     , cioè il rapporto fra le ampiezze di uscita e di ingresso è pari

a  dB; in

 
corrispondenza di tale pulsazione il sistema introduce uno sfasamento di in ritardo. La

cambiamento di variabile 
  
risposta in frequenza   si ottiene da quella in termini di pulsazione (3.11) effettuando il
; si ha pertanto


 
  
 4
con
         

frequenza di taglio a 3dB. La risposta armonica di un filtro RC è riportata in modulo e fase in
fig. 3.2.

Sebbene la definizione di risposta in frequenza faccia riferimento a fasori come segnali d’ingresso
e quindi ad una sollecitazione complessa, è semplice, per sistemi reali, ricavare la risposta in fre-
quenza a partire da un ingresso di tipo sinusoidale. Iniziamo con l’osservare che, per sistemi lineari

  
reali, l’operatore di sistema commuta con l’operazione di parte reale, nonché con quella di parte
immaginaria; in altri termini, se        denota l’operatore che definisce il sistema, si ha:

         

        
      

   
4  
    
4   

Infatti per la linearità del sistema si ha:

                     
da cui uguagliando parte reale e coefficiente dell’immaginario del primo e dell’ultimo membro segue
l’asserto. In modo analogo si dimostra che sussiste anche la relazione

    
    
Si noti che le relazioni precedenti valgono per sistemi lineari e reali, ma non necessariamente tempo-
invarianti. Da tali relazioni, facendo riferimento per esempio a sistemi continui, segue che la risposta
di un sistema LTI al segnale sinusoidale

 
     54   

 

          "!    


           "!    

è data da:

   

   
 
     54 4
  

  
 




3.2. RISPOSTA IN FREQUENZA DI UN SISTEMA LTI 79

1/ √ 2
|H(f)|

−fc 0 fc f

π/4
∠H(f)

−π/4

−fc 0 fc f

Figura 3.2: Risposta in frequenza di un filtro RC passa-basso.


80 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA


   
 
 
cioè la risposta ad una sinusoide di frequenza ampiezza e fase iniziale è ancora una

           4 
sinusoide della stessa frequenza , avente ampiezza e fase iniziale date da:
   


(3.12)

 
    
 
Analogamente nel caso di sistemi discreti, con ovvio significato dei simboli, si ha:
 


    4 
  (3.13)
Le (3.12) e (3.13) definiscono un metodo pratico, e largamente usato, per ricavare sperimentalmente
modulo e fase della risposta in frequenza di un sistema incognito.
Le relazioni (3.10) sono simili alla (3.12) e alla (3.13), ma il loro significato è diverso. Infatti

ad una specifica frequenza



la (3.12) e la (3.13) consentono di ottenere sperimentalmente la risposta in frequenza del sistema


(risp. ) valutando il rapporto fra le ampiezze e lo sfasamento fra
due sinusoidi rispettivamente in uscita e in ingresso al sistema; quindi, se si desidera la risposta in
frequenza a diverse frequenze occorre variare la frequenza delle sinusoidi in ingresso esplorando
tutto il campo desiderato. In altri termini la (3.9) definisce la risposta in frequenza del sistema come
il rapporto tra lo spettro dell’uscita e quello dell’ingresso, cioè
  


   (3.14)
 
Si osservi che tale relazione è sempre formalmente valida, ma non è applicabile per tutte le frequenze
in corrispondenza delle quali si annulla lo spettro dell’ingresso poiché a tali frequenze si annulla
anche lo spettro dell’uscita e la risposta armonica risulta indeterminata. Pertanto, se si vuole valutare
in maniera sufficientemente accurata il comportamento del sistema, questo va sollecitato con un
segnale d’ingresso la cui estensione spettrale sia teoricamente infinita e, in pratica, abbia estensione

in frequenza più grande di quella – nota o prevedibile – di    (banda del sistema). In questo senso
 
il segnale d’ingresso ideale è il  impulso unitario (      identicamente), usando il quale   
è direttamente fornita dallo spettro del segnale d’uscita, come è d’altra parte ovvio considerando che
l’uscita è in questo caso la risposta impulsiva; in pratica i segnali d’ingresso effettivamente usati per
questo scopo sono segnali che approssimano l’impulso di Dirac quali impulsi, o treni di impulsi,
molto corti o, più in generale, a banda larga.
L’equazione (3.9) relaziona lo spettro in uscita a quello in ingresso; qualora si sia interessati
all’andamento temporale del segnale occorre antitrasformare lo spettro, in altri termini, supposti
per esempio i segnali a tempo continuo, occorre valutare l’integrale (3.8); tale inversione non è in
genere un’operazione banale se non in casi estremi.

3.3 TRASFORMATA DI FOURIER


L’analisi dei paragrafi precedenti evidenzia l’utilità di rappresentare i segnali come sovrapposizione
di fasori. Per segnali continui l’equazione che definisce tale rappresentazione (equazione di sintesi)
3.3. TRASFORMATA DI FOURIER 81

è:
 
 
   " !      
  


    
 

 
 (3.15)

e i coefficienti sono dati da (equazione di analisi) :



  
 

     "!  
  
 

     
 

 
 (3.16)

Si noti che, con abuso di notazione, si è denotato con lo stesso simbolo    due funzioni diverse
  
affidando al nome della variabile indipendente, o , l’identificazione della corretta interpretazione.
Non esistono ragioni generali per preferire la notazione in o la notazione in e pertanto le useremo 
più o meno indifferentemente o, casi specifici, secondo convenienza; il passaggio dall’una all’altra
è regolato dal semplice cambiamento di variabile 

.  
Analogamente per segnali discreti l’equazione di sintesi è:
 
       


  
      
 


   

  

(3.17)

e quella di analisi:


  
 


     
 
  




    
   
(3.18)


 

    

Anche in questo caso il passaggio dalla notazione in
La funzione

   , indipendentemente dal parametro frequenziale utilizzato ( , , o ), si chiama
a quella in è regolato dal cambio
 
.

Trasformata di Fourier o spettro del segnale    . Notiamo esplicitamente che lo spettro è una fun-
zione complessa e pertanto è spesso conveniente considerarne la parte reale e la parte immaginaria,
ovvero il modulo e la fase: questi ultimi vengono comunemente denominati spettro d’ampiezza e,
rispettivamente, spettro di fase. Nel seguito, per indicare sinteticamente il legame di trasformazione

secondo Fourier useremo la scrittura:


               

  
ovvero anche:
 
Le formule precedenti mettono in luce un notevole parallelismo nella rappresentazione spettrale di

  
segnali continui e discreti: la principale differenza, che discende dalla periodicità in frequenza del
fasore discreto
  , è che per segnali continui lo spettro   è di norma aperiodico, mentre lo 

 
spettro   di una sequenza è sempre periodico di periodo  (ovvero   è periodico di periodo
   4
 
 
), pertanto è sufficiente considerare   nell’intervallo   
  (ovvero   nell’intervallo
 
 
 ). In altri termini, per ricostruire    si integrano i contributi spettrali nell’intervallo finito
  
  (o  
 ), ma, data la periodicità, un qualunque intervallo di ampiezza pari al periodo
può essere usato alternativamente ed è molto comune anche la scelta degli intervalli 
  o 


. 
82 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA

|X(0)|/ √ 2
|X(f)|

−f0 0 f0 f

π/4
∠X(f)

−π/4

−f0 0 f0 f

Figura 3.3: Spettro di un impulso esponenziale monolatero.

3.4 ESEMPI DI TRASFORMATE


Esempio 1: Impulso esponenziale monolatero continuo
 
  +
Consideriamo un impulso
 esponenziale monolatero di ampiezza e costante di tempo , cioè
il segnale    . Dall’equazione di sintesi si ha:
         "! 

 
  
  
 4     
e quindi:
   +    4
 
     (3.19)

In particolare spettro d’ampiezza e di fase sono dati da:

             


    !# " !( 

 4   




e sono riportati in fig. 3.3. Si noti che lo spettro d’ampiezza è massimo per  e decade
come
   al crescere della frequenza, è cioè concentrato nell’intorno della frequenza nulla
3.4. ESEMPI DI TRASFORMATE 83

        è la frequenza di taglio a 3 dB avendosi


 
(spettro pasabasso); inoltre la frequenza
 

         

 
  ! !  4     ! !   
Definita la banda di un segnale come la gamma di frequenze occupata dalle componenti signi-


ficative dello spettro, per il segnale in esame la banda può essere definita come un opportuno

multiplo della frequenza di taglio a 3 dB. Ad esempio, posto   (banda monolatera),
 
le componenti esterne all’intervallo  
 sono attenuate di almeno 23 dB rispetto a quella
di centrobanda; in altri termini si ha:
 

      1 

 
  - 
 
Si osservi infine che al diminuire della costante di tempo  diminuisce la durata del segnale,
ma aumenta la sua banda.
Esempio 2: Impulso esponenziale bilatero continuo
L’impulso esponenziale bilatero continuo è il segnale

        -
ed il suo spettro vale:


  
          "!        


  4   


     
Pertanto risulta: 
4 
  


Lo spettro   è reale e pari ed è rappresentato in fig. 3.4. Anche l’impulso esponenziale è

un segnale passa-basso ed è la pulsazione di taglio a 6 dB.
Esempio 3: Sequenza esponenziale monolatera
La sequenza esponenziale monolatera è il segnale

    +  
  0 

ed il suo spettro vale:

 

+    
     




 

  
  
 
 

  
In definitiva si ha:
+    

  
84 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA

X(0)

1/2 X(0)
X(f)

−a/2π 0 a/2π f

Figura 3.4: Spettro di un impulso esponenziale bilatero.

ovvero
+  

 
   

 -
 0  -
In fig. 3.5 e in fig. 3.6 sono riportati gli spettri d’ampiezza e fase rispettivamente per
 0
e per . Per la sequenza è un segnale passa-basso, mentre per
è concentrato nell’intorno delle frequenze 



lo spettro
(segnale passa-alto). Il valore di

) )  
regola la rapidità di decadimento della sequenza nel dominio del tempo e la larghezza di
banda nel dominio della frequenza: precisamente al diminuire di la sequenza va sempre
 
più rapidamente a zero mentre la sua banda aumenta.
Esempio 4: Sequenza esponenziale bilatera
Si consideri la sequenza esponenziale bilatera cioè il segnale:

         0 

La sua trasformata vale:


   
             4     
  

  

    4
  

     

 

La prima sommatoria è la serie geometrica di ragione    e la seconda sommatoria è la


serie geometrica di ragione   mancante del primo termine e quindi:


  

  
 

   4  

    
 


   4   
3.4. ESEMPI DI TRASFORMATE 85

1/(1−a)
|X(ν)|

1/(1+a)

−1.0 −.5 .0 .5 ν 1.0

tan−1(a/√(1−a2))
∠X(ν)

−tan−1(a/√(1−a2))

−1.0 −.8 −.6 −.4 −.2 .0 .2 .4 .6 .8 1.0


ν

Figura 3.5: Spettro della sequenza esponenziale monolatera (passa-basso).

1/(1+a)
|X(ν)|

1/(1−a)

−1.0 −.5 .0 .5 ν 1.0

−tan−1(a/√(1−a2))
∠X(ν)

tan−1(a/√(1−a2))

−1.0 −.8 −.6 −.4 −.2 .0 .2 .4 .6 .8 1.0


ν

Figura 3.6: Spettro della sequenza esponenziale monolatera (passa-alto).


86 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA

(1+a)/(1−a)
X(ν)

(1−a)/(1+a)

−1.0 −.5 .0 .5 1.0


ν
Figura 3.7: Spettro della sequenza esponenziale bilatera ( 0  0  ).

In definitiva risulta:
       
 
    4   

  
ovvero 
       
      4   

 0  0  0
Lo spettro della sequenza esponenziale bilatera è reale e pari; inoltre il segnale è passa-basso,
per  , mentre per è passa-alto. Tale trasformata è diagrammata in fig. 3.7 per
0 0  .

Esempio 5: Impulso rettangolare


Consideriamo un impulso rettangolare di ampiezza  e durata 
 
  
 
La sua trasformata è:


  3 
    "!  3

 
 % (       
    % (  
 




Dunque:
         % (  
  (3.20)
3.4. ESEMPI DI TRASFORMATE 87
X(f)

−2/T −1/T 0 1/T 2/T f

Figura 3.8: Spettro dell’impulso rettangolare.

 
Lo spettro dell’impulso rettangolare è reale e pari ed è riportato in fig. 3.8. Tale spettro

esibisce una serie di lobi di larghezza 

, salvo il centrale che è di larghezza , e di

altezza decrescente; in particolare il primo lobo laterale ha ampiezza


volte quella del
lobo principale, corrispondete ad un’attenuazione di

   dB.
Il segnale è passa-basso e come larghezza di banda si può assumere la semiampiezza  
del lobo principale (banda monolatera); in tal caso, le componenti fuori banda sono attenuate

rispetto a quella a frequenza zero di almeno   dB, si ha cioè
 
  

       1       
  1




e il loro inviluppo decade, al crescere della frequenza, come   , pari ad un decremento di
6 dB/ott. = 20 dB/dec.
Esempio 6: Impulso sinc(  )

Consideriamo l’impulso sinc    di ampiezza  e banda , cioè il segnale:

   % ( 

 (3.21)

Ponendo nella trasformata di un impulso rettangolare (3.20)  

, dalle proprietà di dualità
e di linearità segue che:
   
  % ( 
 
     

Lo spettro di tale impulso è illustrato in fig. 3.9.
88 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA

Si osservi che l’impulso sinc    costituisce un primo esempio di segnale a banda rigorosamente

 0
limitata, cioè il suo spettro è identicamente zero al di fuori della gamma di frequenze 
 0
(banda).


 



  
Figura 3.9: Spettro dell’impulso sinc(  ).

Esempio 7: Finestra rettangolare


Si consideri la finestra rettangolare    
    ; il suo spettro vale:
     

 

     
      
 

   


  al numeratore e     al denominatore, si ha:
da cui, mettendo in evidenza  
 

         
(3.22)

      % (             
ove si è introdotta la funzione di Dirichlet:

 

 % (    (3.23)

Gli andamenti dello spettro d’ampiezza e di quello di fase della finestra rettangolare sono
riportati in fig. 3.10: da tale figura si notano alcune analogie, ma anche alcune differenze,
con la trasformata dell’impulso rettangolare continuo. Infatti, poiché la finestra rettangolare è
stata definita in modo non simmetrico rispetto all’origine, la sua trasformata non è puramente
reale, ma presenta una fase lineare a tratti. L’ampiezza  del primo lobo laterale, rapportata  
 -  
  
all’ampiezza del lobo centrale, è leggermente dipendente da , secondo la Tab. 3.1: per

 il rapporto     si può ritenere approssimativamente costante e pari a     ,
tendendo asintoticamente (  ) a   



, cioè al valore che compete all’impulso
rettangolare a tempo continuo.
Esempio 8: Impulsi ideali

Lo spettro del -impulso discreto    vale:


  
 
    


 
  
3.4. ESEMPI DI TRASFORMATE 89

| D N(ν) |

−1.0 −.5 .0 .5 ν 1.0


1/N
∠ D N(ν)

−1.0 −.8 −.6 −.4 −.2 .0 .2 .4 .6 .8 1.0


ν

Figura 3.10: Spettro della finestra rettangolare.


 
3 4 5 10 
   -9,54 -11,30 -12,04 -12,17 -13,26

Tabella 3.1: Valori in dB del rapporto    al variare di


 .

   
e quindi:

Analogamente nel caso dell’impulso ideale continuo si ha:

   

Le corrispondenti equazioni di sintesi forniscono due proprietà degli esponenziali:



   
 



(3.24)

  "! 
e rispettivamente:

 


   
 (3.25)
90 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA


Ovviamente le (3.24) e (3.25) valgono indipendentemente dall’interpretazione di  e  come

tempi e di e come frequenze: in particolare, invertendo i ruoli di  e di nella (3.25)

(dualità) e tenendo conto che l’impulso di Dirac è pari, si ha anche:

      "!
   


 
 (3.26)

La (3.26) è utile perché consente di ottenere la trasformata di Fourier (in senso generalizzato)
di un segnale continuo e costante nel tempo, il quale non è dotato di trasformata di Fourier in

senso ordinario. Infatti, posto   , si può scrivere:

     "!  3     


 


e quindi si ottiene la coppia di trasformate:

    
  
   

 (3.27)

dove l’ultima uguaglianza segue dalla propietà di cambiamento della scala degli impulsi di
Dirac.

A commento dei vari esempi considerati osserviamo che in linea generale segnali lentamente vari-
abili nel tempo presentano uno spettro molto concentrato in frequenza e viceversa segnali rapida-
mente variabili presentano componenti spettrali significative anche a frequenze molto elevate.

3.5 TRASFORMATE DI FOURIER AL LIMITE


L’ultimo esempio considerato mostra come l’impiego delle funzioni generalizzate consenta di ot-
tenere coppie di trasformate di Fourier anche quando le condizioni di Dirichlet o di energia finita
non sono soddisfatte; ciò evidenzia che è possibile definire una rappresentazione spettrale anche per
i segnali di potenza e non solo per quelli di energia. L’estensione della trasformazione di Fourier in
modo rigoroso richiede la Teoria delle distribuzioni, ma tale approccio esula dallo scopo di queste
dispense; nel seguito ci limiteremo ad affrontare tale estensione in modo intuitivo.
Sia  il segnale di cui si vuole ottenere la trasformata e sia  una famiglia di segnali, usual-
mente denominati finestre, che al limite, quando il parametro  tende all’infinito, tende a diventare
identicamente pari ad  , cioè

%& 
  
 
   . Si consideri poi

Esempi di finestre sono l’impulso rettangolare   , e quello triangolare  
il segnale finestrato      che, di norma, è dotato di spettro   in senso ordinario;
3.5. TRASFORMATE DI FOURIER AL LIMITE 91

si definisce trasformata di Fourier di  il limite (in senso generalizzato) di



  
*  
per  .
Ricapitolando la generalizzazione della definizione di spettro per forme d’onda è

         
     

 
Analoga la definizione per sequenze


*  
   
 

                
L’importanza dell’approccio utilizzato nel generalizzare la definizione di spettro è nel suo valore
operativo: infatti lo spettro misurato con un analizzatore di spettro è di norma quello del segnale
finestrato, con una finestra di durata sufficientemente grande.
Allo scopo di chiarire ulteriormente la definizione data consideriamo alcuni esempi.

Esempio 1: Spettro di un segnale costante


Consideriamo un segnale costante  3 ; moltiplicandolo per la finestra rettangolare

 
  
 
e ricordando che:
   
  

       % (  
 

   
da cui, facendo divergere la durata della finestra si ricava
  % &    % (   
 

 

Si osservi che lo spettro di una costante è una riga ( -impulso) a frequenza zero, mentre quello 
del segnale finestrato ha una banda non nulla (dispersione spettrale) tanto più piccola quanto
maggiore è la durata della finestra; per una data durata, la precisione della misura dipende
dal tipo di finestra utilizzato nel senso che, al variare del tipo di finestra utilizzata, variano
la dispersione spettrale (banda) e la rapidità di decadimento a zero dello spettro del segnale
finestrato.
Esempio 2: Sequenza costante

Consideriamo la sequenza costante         , cioè la sequenza :

   
      



 


Il simbolo  viene usato, qui e nel seguito, per indicare la versione periodica del segnale su cui opera.
92 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA



 


1 1 1 1 1


 
   


  







 








  

 
   

Figura 3.11: Spettro di una sequenza costante.



quindi    è una successione d’impulsi unitari, cioè un segnale che vale identicamente uno,
    4
per qualsiasi  . Troncando tra  e (  campioni) ed utilizzando la procedura al
limite, si ottiene


 
 





    
 
 
 


 
  
 
(3.28)
 
 

come mostrato in figura 3.11

3.6 PROPRIETÀ DELLA TRASFORMATA DI FOURIER

In questo paragrafo analizziamo le proprietà della trasformata di Fourier che, per la maggior parte,
valgono indifferentemente sia per le forme d’onda che per le sequenze; pertanto, per evitare inu-
tili duplicazioni, le proprietà saranno espresse (quando possibile) con riferimento ad un argomento
generico, denotato con il simbolo (  ), che può essere specializzato nei vari casi d’interesse. Con-
formemente all’uso adottato sinora, i segnali nel dominio del tempo vengono denotati con la lettera
minuscola e le loro trasformate con le corrispondenti maiuscole. Le proprietà vengono date senza
dimostrazione, l’enfasi essendo piuttosto sulla loro applicazione.
3.6. PROPRIETÀ DELLA TRASFORMATA DI FOURIER 93

3.6.1 Linearità
È immediato verificare che la trasformata di Fourier è lineare, cioè risulta:
     4            4      (3.29)

In altri termini lo spettro di una combinazione lineare di segnali è la combinazione lineare, con gli
stessi coefficienti, dei singoli spettri (principio di sovrapposizione).

3.6.2 Proprietà di simmetria della trasformata di Fourier


È facile controllare che ad una riflessione nel dominio del tempo corrisponde una riflessione nel
dominio della frequenza e viceversa; cioè:

          (3.30)

Pertanto un segnale pari ha spettro pari e viceversa. Inoltre ad una coniugazione in un dominio
corrisponde una coniugazione più una riflessione nell’altro dominio; in altri termini si ha:

                (3.31)

Come conseguenza si ha che se    è reale, cioè        , allora per la (3.31) risulta


        ; una funzione che verifica questa proprietà si dice Hermitiana o coniugata sim-
Hermitiano dello spettro è equivalente alla condizione che 
   sia pari e 

metrica: quindi, in breve, se    è reale, allora    è Hermitiana. Evidentemente il carattere


   sia dis-
pari; ovvero è equivalente alla condizione che lo spettro d’ampiezza sia pari e quello di fase dispari.


Quindi, quando si calcola o si rappresenta la trasformata di Fourier di un segnale reale, parte reale
e immaginaria, ovvero modulo e fase, dello spettro possono essere calcolati o rappresentati solo per
frequenze positive, poiché i valori per frequenze negative sono ricavabili per simmetria coniugata.
Se    oltre che reale è anche pari, allora dalla (3.30) segue che anche lo spettro è pari oltre che
hermitiano e quindi lo spettro è puramente reale: pertanto se    è reale e pari, anche    è reale e
pari.

3.6.3 Cambiamento di scala


Analizziamo l’effetto nel dominio della frequenza di un cambiamento di scala dell’asse dei tempi.


Per segnali a tempo continuo è immediato verificare che si ha:

           (3.32)

La proprietà (3.32) comporta che ad una compressione nel dominio del tempo (  ) corrisponde
  -
un’espansione dello spettro e viceversa. Notiamo anche che oltre al cambiamento della scala delle
94 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA


  

 



   3 6



   

 



   3 6



 

 



   3 6


Figura 3.12: Sequenza originaria    , decimata    ed espansa   per


 (   ).

frequenze si ha anche un cambiamento della scala delle ordinate (ampiezze) in modo che l’area
sottesa dallo spettro resti costante: tale area infatti è pari al valore nell’origine   , che non si
modifica per effetto del cambiamento della scala dell’asse dei tempi.
Nel caso di sequenze, atteso il carattere discreto del tempo, l’operazione di cambiamento di scala va
opportunamente interpretata. Precisamente, supposto il fattore di scala positivo, in quanto, analoga-
mente a quanto si verifica per i segnali a tempo continuo, il segno del fattore di scala tiene conto
di un eventuale ribaltamento in aggiunta al cambiamento di scala vero e proprio, la compressione
dell’asse dei tempi porta a considerare la sequenza         , cioè la sequenza:

) )
    
 
 

 
 

  
) )
ottenuta da    prendendo un campione ogni : tale operazione è detta decimazione per
 
(fig. 3.12). Poiché la decimazione comporta in genere una perdita d’informazione, l’effetto sullo
spettro non è un semplice cambiamento di scala come verrà mostrato piú in seguito.
Consideriamo ora l’espansione dell’asse dei tempi, cioè prendiamo in esame la sequenza   
  
 , con

intero non nullo. La scrittura     
è convenzionale e come debba essere in-
terpretata è chiarito in fig. 3.12: per  multiplo di ,    è il campione della sequenza origi-
naria all’istante  
(ad esempio, con riferimento al caso di fig. 3.12, ove   ,      ,

3.6. PROPRIETÀ DELLA TRASFORMATA DI FOURIER 95



 

   
   1




   
 


   
   1

Figura 3.13: Effetto sullo spettro dell’espansione dell’asse dei tempi (


   ).

 
     e cosı̀ via), mentre viene posto uguale a zero per gli altri valori di  ; in altri termini,
quando il valore dell’argomento  non è intero,  è per convenzione zero; l’impiego delle    
  
parentesi quadre invece delle tonde nel denotare la sequenza espansa, con fattore di espansione ,
e cioè la notazione  ricorda che trattasi di scrittura convenzionale. Trascurando i dettagli


analitici, si ricava 
     


La relazione ottenuta è quindi simile a quella valida per i segnali a tempo continuo, salvo il fatto

che le ampiezze dello spettro non vengono alterate. L’effetto nel dominio della frequenza è illustrato
nella fig. 3.13, sempre per il caso   . Si noti che la trasformata, che originariamente è periodica
di periodo  , dopo il cambiamento di scala diventa periodica di periodo   ; si noti inoltre che l’area 
totale nell’intervallo      
 


resta immutata.
Come applicazione del cambiamento di scala è immediato valutare lo spettro del segnale campiona-
tore ideale discreto di periodo qualsiasi.

Esempio 2: Segnale campionatore ideale discreto di periodo



Il treno campionatore ideale discreto di periodo
 è il segnale:


 
  




   
 
 





esso è cioè un treno d’impulsi discreti di ampiezza unitaria localizzati negli istanti , con
intero relativo (fig. 3.14a). Poiché tale segnale può essere riguardato come un’espansione
96 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA



 
1
 
 


0 1


  



 
 
 


   
 



   0 1

Figura 3.14: Il segnale campionatore discreto e il suo spettro.


della sequenza costante    avendosi:
 
   

  
applicando la proprietà di cambiamento di scala alla coppia segnale-spettro (3.28) si ottiene:

     



 
   

 


    
(3.33)
 
        


 
    



  



cioè lo spettro di un segnale campionatore ideale discreto di periodo è ancora un treno


campionatore ideale, precisamente è un treno periodico di -impulsi di area e periodo entrambi
pari a  (fig. 3.14b). Il fattore d’ampiezza introdotto deriva dalla proprietà di cambiamento

   
di scala degli impulsi di Dirac, e comunque è tale da lasciare inalterata l’area della trasformata
  
nell’intervallo    .

3.6.4 Traslazione nel dominio del tempo


È facile verificare che:
     "! 
 2      
   
    


Quindi un ritardo introduce uno sfasamento lineare con ma non influisce sullo spettro d’ampiezza.
Si osservi che nel caso di segnali discreti è generalmente un numero intero, tuttavia la proprietà
3.6. PROPRIETÀ DELLA TRASFORMATA DI FOURIER 97

rimane formalmente valida anche se



è un generico numero reale. Come applicazione di questa
proprietà consideriamo il seguente importante esempio.

Esempio 3: Segnale campionatore ideale di periodo  


Iniziamo col considerare il segnale campionatore ideale di periodo unitario   , cioè il treno
d’impulsi di Dirac

  




    

(3.34)



Applicando la procedura di trasformazione al limite, si ottiene


  




      
   




 
  
 
 (3.35)
  


cioè ad un treno d’impulsi di Dirac di area e periodo unitari nel tempo corrisponde un treno
d’impulsi di Dirac di area e periodo unitari nella frequenza.

 
Consideriamo ora il segnale campionatore ideale continuo di periodo (fig. 3.15a), cioè un
treno d’impulsi di Dirac di area unitaria localizzati negli istanti   :


  
 


   

 

Poiché tale segnale può ottenersi cambiando la scala sia delle ampiezze che dei tempi del
segnale campionatore ideale di periodo unitario (3.34) avendosi:
   
  


  
applicando la proprietà (3.32) alla coppia segnale-spettro (3.35) si ottiene:


  
 


    

 



(3.36)

        
   

  
 

    


Lo spettro del segnale campionatore ideale di periodo è illustrato in fig. 3.15b. ed è costituito
 

da una successione di righe spettrali, tutte di area , equispaziate in frequenza di .
98 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA


 

1
   

0  

   

  

0  
Figura 3.15: Il segnale campionatore ideale e il suo spettro.

3.6.5 Traslazione nel dominio della frequenza (modulazione)

È immediato verificare che:

   " ! 
 
           
 

 (3.37)

  "!
Esempio 4: Trasformata di un fasore
Un fasore continuo , tenuto conto della proprietà espressa dalla (3.37) e della trasfor-
mata di una costante (3.27), ha come spettro l’impulso di Dirac     ; in altri termini si    
ha (fig. 3.16a):
 
   "!     


Dunque lo spettro di un fasore è una riga alla frequenza  del fasore di ampiezza (area) pari
  discreto    si trasforma traslando in

all’ampiezza del fasore. Analogamente, un fasore
frequenza lo spettro della sequenza costante     , pertanto si ha:

     

     
(3.38)
 

In modo analogo si può valutare lo spettro di un segnale modulato in ampiezza, cioè del prodotto di
un segnale  per una sinusoide (modulazione). Infatti, dalla formula di Eulero e dalla proprietà di
3.6. PROPRIETÀ DELLA TRASFORMATA DI FOURIER 99


 


  


 
 

 

       
 


- -
 
 
 1

Figura 3.16: Spettro di un fasore: a) continuo b) discreto.

linearità, segue facilmente che:

        4    



 
      4 


 4      
Nel contesto della modulazione il segnale  è detto segnale modulante e la sinusoide segnale

banda limitata di tipo passa-basso, cioè    ,


 
portante. L’effetto della modulazione è illustrata nella fig. 3.17 nel caso di un segnale modulante a
, e una frequenza portante  molto   - 

 
maggiore della banda (monolatera) del segnale modulante. Dopo la modulazione lo spettro risulta
concentrato intorno alle frequenze
 4
 e   , quindi il segnale modulato è di tipo passa-banda o,
come anche si dice nel caso di  sufficientemente elevata, a radiofrequenza (RF). Si noti inoltre

che, per effetto della modulazione, l’occupazione totale di banda è raddoppiata, passando da
 
(monolatera) per il segnale modulante a per il segnale RF.

Esempio 5: Scambio di alte e basse frequenze


Consideriamo il segnale modulato    . Poiché la portante     
  può essere equiva-
lentemente riscritta come
   

          
e quindi è un fasore di frequenza

   , dalla proprietà di traslazione in frequenza segue

che:
            


100 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA

   

 
  
   


   4          

 

  4 


 4     4 

  
 
   

Figura 3.17: Spettri del segnale modulante (a) e del segnale modulato (b).

Nell’ipotesi che    sia il segnale passa-basso di fig. 3.18a, il segnale modulato ha lo spettro
passa-alto di fig. 3.18b; viceversa, se    è il segnale passa-alto di fig. 3.18b, il segnale mod-
ulato ha lo spettro passa-basso di fig. 3.18a. In altri termini, se un segnale viene modulato con

una portante di tipo     , il che cambia di segno ai campioni del segnale negl’istanti dispari,
l’effetto in frequenza è di traslare lo spettro periodico del segnale di mezzo periodo, e quindi,
tenendo conto della periodicità, di scambiare fra loro le regioni dello spettro corrispondenti
alle basse ed alle alte frequenze.
Esempio 6: Impulso RF
L’impulso a radiofrequenza con inviluppo rettangolare, cioè il segnale

    
 
     
è illustrato schematicamente in fig. 3.19; dalla (3.20) e dalla proprietà di modulazione segue
che:

             

   % (    
   4     % (    4    
Lo spettro dell’impulso RF è riportato in fig. 3.19; al limite per  4  si ottiene la trasfor-
3.6. PROPRIETÀ DELLA TRASFORMATA DI FOURIER 101


 
 

  1


 



  -
 
 1

Figura 3.18: Scambio alte e basse frequenze.

mata del coseno, cioè due impulsi collocati in



  di area   , risulta pertanto:

           4      4   
    


Esempio 7: L’impulso cosinusoidale


L’impulso cosinusoidale è il segnale:

 
  
   
   
Pertanto, ponendo
   nell’espressione dello spettro dell’impulso RF, si ottiene:

              

   % (     

 4     % (
    4 

ovvero, esplicitando la funzione sinc(  ) e semplificando

             

      "   
    


  
Questa coppia di trasformate è illustrata in fig. 3.20. Rispetto ad un impulso rettangolare di

pari durata la banda (larghezza del lobo principale) è maggiore (  invece di ), ma, in
compenso, i lobi secondari sono attenuati di almeno  

 dB rispetto all’ampiezza del
 , corrispondente

lobo principale, e decadono a zero più rapidamente, precisamente come
a 12 dB/ott.
102 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA

A
x(t)

−A
T t
X(f)

−f 0 f f
c c

Figura 3.19: L’impulso RF e il suo spettro.


3.6. PROPRIETÀ DELLA TRASFORMATA DI FOURIER 103
A

x(t)

t
T
X(f)

3/T f

Figura 3.20: L’impulso cosinusoidale e il suo spettro.

3.6.6 Convoluzione

Questa è una delle proprietà più importanti della trasformata di Fourier, per i suoi riflessi sull’analisi


dei sistemi; la formulazione di tale proprietà, valida sia per sequenze che per segnali continui, è la
seguente:
      
   


(3.39)
In altri termini, alla convoluzione di due segnali nel dominio del tempo corrisponde il prodotto dei
rispettivi spettri nel dominio della frequenza; si osservi che, in virtù della proprietà associativa della
convoluzione e del prodotto, la proprietà è valida anche per un numero di segnali maggiore di due,
ma finito.
La proprietà duale di quella della convoluzione è la proprietà di modulazione generalizzata: tale pro-
prietà afferma che ad un prodotto nel dominio del tempo corrisponde una convoluzione nel dominio
della frequenza. Precisamente per i segnali a tempo continuo risulta:

 

   

      
 




  (3.40)

Tale proprietà è sempre applicabile quando il prodotto nel dominio del tempo è ben definito (quindi
può non essere applicabile quando ambedue i segnali contengono impulsi di Dirac) e quando essi
104 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA

sono separatamente trasformabili, eventualmente anche in senso generalizzato (infatti è comunque


ben definita la convoluzione fra funzioni generalizzate).
Per segnali a tempo discreto la proprietà si enuncia allo stesso modo, ma l’operazione di con-
voluzione è diversa: precisamente è possibile dimostrare che lo spettro del prodotto di due sequenze
è legato a quello delle singole sequenze da:

 
     
   

  



 

 +   2+ 


+ (3.41)

Pertanto nel caso di sequenze la convoluzione degli spettri è l’operazione definita a secondo mem-
bro della (3.41): tale operazione, anche se denotata con lo stesso simbolo della convoluzione, dif-
ferisce da quest’ultima in quanto l’integrale va esteso al periodo e diviso per il periodo stesso: per
sottolineare tale diversità la convoluzione relativa a segnali periodici dello stesso periodo è detta
convoluzione periodica. L’impiego dello stesso simbolo sottolinea però la similitudine tra le due
operazioni, ed invero la convoluzione periodica gode delle stesse proprietà della convoluzione, op-
portuna attenzione però deve essere posta sul fatto che i fattori devono essere segnali periodici dello
stesso periodo, che è anche il periodo della convoluzione.

3.6.7 Replicazione e campionamento


Si definisce la replicazione di periodo  di  il segnale:


  #$
   
 


   

(3.42)



e, analogamente, nel caso di sequenze, si pone:

    #$
      
 



    

(3.43)



Il segnale    che viene replicato è detto segnale generatore.


Si osservi che l’operazione di replicazione non è ben definita per un qualsiasi generatore    come
è immediato verificare utilizzando, per esempio, un segnale    costante o periodico. Affinché
l’operazione abbia senso è sufficiente che il generatore sia un segnale d’energia, ipotesi che riterremo
  impulso

senz’altro verificata nel seguito; tuttavia è di interesse utilizzare come generatore un di
Dirac: in tal caso infatti il segnale replicato è il segnale campionatore ideale,   o

 . 
Notiamo esplicitamente che il segnale    , ottenuto per replicazione, è sempre un segnale periodico
 
con periodo pari a quello di replica, o a seconda del caso. A scopo esemplicativo nella fig. 3.21
sono riportati i segnali ottenuti replicando l’impulso triangolare  di fig. 3.21a con periodo  




(fig. 3.21b), 


(fig. 3.21c) e   (fig. 3.21d).
3.6. PROPRIETÀ DELLA TRASFORMATA DI FOURIER 105


  

 

  

 

  1 2 3 4 5 
   #$
   



  

 

  1 2 3 4 5 
   $#
   




  

 

  1 2 3 4 5 
   #$
   

 

  

 

  1 2 3 4 5 
Figura 3.21: Replicazione di un impulso triangolare.
106 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA




 





 

 

Figura 3.22: Il campionamento ideale di una forma d’onda.

Dato un segnale    , la sua versione campionata (idealmente) è il segnale (cfr. fig. 3.22):

 
 


 
   
   

(3.44)



nel caso di segnali a tempo continuo, mentre nel caso di sequenze si pone (cfr. fig. 3.23):

     


        

(3.45)


 (risp. 


) è detto periodo o passo di campionamento, ed il suo reciproco frequenza o cadenza di


campionamento.
È utile riguardare le operazioni di replicazione e di campionamento come sistemi (fig. 3.24). La
replicazione (fig. 3.24a) può essere realizzata con un sistema LTI in quanto le relazioni (3.42) e (3.43)
possono essere riscritte come convoluzione; precisamente, come già accennato e come è immediato

    
verificare, si ha:

  #$
      

   #$
             (3.46)

cioè la replicazione del segnale    la si ottiene effettuandone la convoluzione con un treno campi-
onatore ideale, che pertanto è la risposta impulsiva. Anche il campionamento è un sistema lineare,
ma temporalmente variante, avendosi
 
                  (3.47)
3.6. PROPRIETÀ DELLA TRASFORMATA DI FOURIER 107


  

 





  

 



Figura 3.23: Il campionamento ideale di una sequenza.

  

        
rep  

  

  
Figura 3.24: La replicazione e il campionamento come sistemi.
108 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA

Usando la proprietà di convoluzione (Eq. 3.40 e Eq. 3.41) e la trasformata del segnale campionatore
ideale (Eq. 3.36 e Eq. 3.33), trasformando la (3.46) si ottiene:

 


      


      
         (3.48)
 

nel caso di segnali continui, e la:





       

    
  
     (3.49)
 

nel caso di sequenze. Le relazioni precedenti si esprimono sinteticamente dicendo che ad una repli-
cazione nel dominio del tempo corrisponde un campionamento in frequenza.
Similmente, trasformando la relazione (3.47) si ottiene:


  

    


 





   
  




 





   
 
     
ovvero:

 

 


 
   
         

 

   
 

nel caso di forme d’onda, e, analogamente nel caso di sequenze, si ha:

  

 

  





 
  
     





 
 
  

3.6.8 SPETTRO DI SEGNALI PERIODICI

Si è osservato che la replicazione    di    è un segnale



 periodico di periodo pari a quello di
replica; d’altra parte un qualunque segnale periodico    può essere sempre considerato come la
replicazione di un  opportuno generatore    : infatti è sufficiente scegliere come generatore   
la restrizione di    ad un periodo. È però importante notare che la corrispondenza cosı̀ istituita
fra segnale periodico e segnale generatore non è biunivoca: precisamente, dato un segnale    , è
univocamente definito il segnale  periodico         , ma, dato un segnale periodico,
 esistono #$
 
diversi generatori   tali che   
     . Ad esempio, il segnale periodico  di fig. 3.25c,
 #$
 
oltre che pensarsi generato dalla replicazione del segnale triangolare di fig. 3.25a, può anche ottenersi
dalla replicazione della sua restrizione al periodo, rappresentata in fig. 3.25b. Dall’esempio ripor-
tato dovrebbe risultare chiaro che la non invertibilità della corrispondenza deriva dalla interazione,
all’interno del periodo principale, delle repliche collocate nei periodi contigui. Tale interazione non
3.6. PROPRIETÀ DELLA TRASFORMATA DI FOURIER 109


 

  
 
 
   #$
    #$
  



    

Figura 3.25: Rappresentazione di un segnale periodico come replicazione.

è evidentemente possibile se imponiamo la condizione che il segnale generatore sia di durata rig-

   
orosamente limitata e minore o uguale al periodo del segnale periodico ed allocato tra e (o tra
 
 e ): con questa restrizione la corrispondenza istituita è dunque invertibile.
L’utilità della rappresentazione (3.42) per una forma d’onda periodica (non importa se invertibile
o meno) sta nel poterne determinare immediatamente lo spettro. Infatti, ricordando che ad una
replicazione nel tempo corrisponde un campionamento in frequenza (3.48), si ha:


   

       
      (3.50)


 


dove   è lo spettro del segnale generatore  . La relazione (3.50) vale qualunque sia il gene-

ratore  di  secondo la (3.42): al variare di  anche   ovviamente varia, ma restano
costanti i suoi valori alle
 sia generatore di
 frequenze    , con  intero, proprio in conseguenza del vincolo che
 .
In maniera analoga, e con le stesse avvertenze, per una sequenza periodica di periodo
 , tenuto
conto che la si può rappresentare nella forma (3.43), dalla (3.49) si ha:

      


      





(3.51)



Dunque lo spettro di un segnale periodico è uno spettro a righe, ogni riga essendo rappresentata da un
110 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA

  

impulso di Dirac, equispaziate in frequenza di  (risp. 

), le cui aree – a meno della costante

di proporzionalità  (risp.  ) – seguono l’inviluppo   (risp.   ); in altri termini, lo
 
spettro di un segnale periodico si ottiene campionando uniformemente in frequenza – con un treno
) – lo spettro   (risp.

  ) di un qualunque


campionatore ideale di periodo  (risp. 
generatore e scalando i campioni secondo il fattore  (risp.  ). 
Esempio 1: Treno di impulsi rettangolari
Si consideri il treno d’impulsi rettangolari di ampiezza , durata , periodo , con    -

  
(fig. 3.26a): tale treno può riguardarsi come la replicazione, con periodo , dell’impulso
  , pertanto si ottiene
  3   

!     % (    
     % ( 

ed il suo spettro vale


  
   % (           



 


Tale spettro, é funzione essenzialmente del rapporto   , il cosiddetto ciclo di servizio (duty
cycle) del treno. Lo spettro del treno d’impulsi rettangolari è riportato nella fig. 3.26b.
3.6. PROPRIETÀ DELLA TRASFORMATA DI FOURIER 111






 
   


 







 


Figura 3.26: Treno di impulsi rettangolari e relativo spettro.
112 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA

Tavola riassuntiva delle trasformate di Fourier


A. Forme d’onda

T. 1 Impulso esponenziale

  +    4   


  

  
  +    4     



T. 2 Impulso esponenziale bilatero

     

4 
  


T. 3 Impulso rettangolare

     
  
   0       % ( 
 
 

 -  
T. 4 Impulso triangolare

   
     
    
 
    % ( 
 
 
  
 1 
T. 5 Impulso bifase

        %  (   

*   % (     % (   
T. 6 Impulso sinc(  )
   
  % ( 
 
     

T. 7 Impulso RF

             

   % (    
   4     % (    4   
T. 8 Impulso cosinusoidale

              

   % (     

 4     % (
    4 

3.6. PROPRIETÀ DELLA TRASFORMATA DI FOURIER 113

             

      "   
    


T. 9 Impulso coseno rialzato o finestra di Hanning



  

  4                   % (  

   
    4     


   
    4  



    % (  54 
      % (    54  % ( 


T. 10 Finestra di Hamming
    4           
   
    4  


      % (  54
         % (    54  % ( 

T. 11 Impulso ideale

   

T. 12 Segnale costante

    
 

     4    
T. 13 Gradino unitario
+   

T. 14 Funzione segno
 
.- 
 %  (    %  (   
 
    
.0 

T. 15 Treno campionatore ideale di periodo unitario



  




      
   




 
  
 

  

114 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA

T. 16 Treno campionatore ideale di periodo 



  




      
                    
  



 





   "!    


T. 17 Fasore
   

T. 18 Segnale sinusoidale

      

       4       4  
 

B. Sequenze
      % (             




 % (   

T. 1 Sequenza esponenziale monolatera


+  

 
   


T. 2 Sequenza esponenziale bilatera

          4  
 
 
 

      % (             
T. 3 Finestra rettangolare
    



 % (   

        
T. 4 Finestra di Hanning 

        



      

    
   4    
   
3.6. PROPRIETÀ DELLA TRASFORMATA DI FOURIER 115

T. 5 Finestra di Hamming
                

 




       

      
    4    4     

T. 6 Finestra di Bartlett (triangolare)


       
     % ( 


      

   
 
 % (  
   


T. 7 Impulso ideale

    

T. 8 Gradino unitario

+    

 4 

   



T. 9 Treno campionatore ideale di periodo unitario (costante)



 
 
 


 
    
 
 
 



  

 

 



T. 10 Treno campionatore ideale di periodo
 

   



   




 



 
  
     

 


  
  
 

      
T. 11 Fasore


   
 


       
T. 12 Sinusoide
 

     
 
54    4    
116 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA

T. 13 Sequenza sinc(  

 #$
   


  % ( 
 
  
 
 

T. 14 Sequenza sinc   

  % (        #$
 
  


 
 

Tavola riassuntiva delle proprietá della trasformata di Fourier

 
 
   " ! 
  

  
 

     "! 
 

 


     
  
   
  




        


    

  

P. 1 Dualità (forme d’onda)

   
     

P. 2 Linearità
     4            4     

P. 3 Riflessione

          

P. 4 Coniugazione

                 



   

  

   

P. 5 Proprietà di simmetria

            


 

            
3.6. PROPRIETÀ DELLA TRASFORMATA DI FOURIER 117

P. 6 Cambiamento di scala

         
  

   
 


P. 7 Traslazione nel dominio del tempo

 2  
      "! 
 
   
      


P. 8 Traslazione nel dominio della frequenza

    " ! 
   
         
 


P. 9 Modulazione

   

54

      
     4 
 4      
   
   4
        
       4 

4      



P. 10 Convoluzione nel dominio del tempo

         


 
P. 11 Convoluzione nel dominio della frequenza

   
 


          



        

 

  
      +   2+  +
 




        

 

  

 

 
     
  



P. 12 Derivazione nel dominio del tempo


  
 
         

     




    


 
P. 13 Derivazione nel dominio della frequenza

  
   
   

  

  
 

118 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA


P. 14 Integrazione

     4 
     
 

 

P. 15 Somma
    



  4    
  
  

    

P. 16 Replicazione nel tempo (campionamento in frequenza)


 


      


    

      
 
 
  
 

     

      
 



     






    










P. 17 Campionamento nel tempo (replicazione in frequenza)

 
 


 
  
     
  
  

   
   

 


 

   



            




 


    
 

P. 18 Valore nell’origine

  
 

   
 
 
 
   

  




     
  
 


    

P. 19 Uguaglianza di Parseval
 

  
 

 
      
  


    
 
  
 

  




    
    
      

 
    
  
    
 


 
3.7. CARATTERIZZAZIONE ENERGETICA DEI SEGNALI 119

3.7 CARATTERIZZAZIONE ENERGETICA DEI SEGNALI

3.7.1 Spettri di energia


Sia  un segnale di energia a tempo continuo; dalla relazione di Parseval si ha:


 

     



 

      



Analogamente per un segnale   



tempo discreto si ha

      
   
  
 


 
  

   



L’importanza di tali relazioni non sta tanto nella possibilità di calcolare l’energia totale (anzi il

funzione
  
calcolo nel dominio del tempo risulta quasi sempre più semplice) quanto nel riconoscere che la
   dà conto della distribuzione in frequenza dell’energia.



Dalla definizione data segue immediatamente che l’ (Energy Spectral Density) è una funzione
 è invariante rispetto a qualsiasi operazione sul segnale che ne lasci immutato lo spettro
reale e non negativa; inoltre essa è pari per segnali reali. Sempre dalla definizione segue anche


che l’
d’ampiezza. Pertanto la corrispondenza


 ( !





 ; analogamente, un ribaltamento seguito da una eventuale coniugazione non ha influenza sullo
non è biunivoca. Ad esempio una traslazione di un segnale nel dominio del tempo non ne altera


l’
spettro di energia di un segnale reale.
 dell’ingresso    e dell’uscita


 


Dalla definizione data segue immediatamente che l’ di un

sistema LTI, di risposta armonica    , sono legate dalla relazione:
           (3.52)

Nello scrivere tale equazione si è implicitamente supposto che i segnali in ingresso ed in uscita al
sistema LTI siano entrambi di energia, ipotesi che, nel seguito, supporremo sempre soddisfatta; ad
esempio tali ipotesi è certamente soddisfatta se il sistema è stabile, o, più in generale, se la sua

   , che relaziona l’ 


risposta in frequenza è limitata. 

La funzione   dell’ingresso e dell’uscita, prende il nome di funzione di


trasferimento dell’energia.
Come accennato in precedenza la banda di un segnale viene valutata in base a considerazioni ener-
getiche: precisamente, per i segnali di energia essa può essere definita come l’intervallo di frequenze
in cui è allocata una determinata frazione dell’energia totale, ad esempio il 90%, il 95%, il 99%, ecc.;
120 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA

inoltre, se i segnali sono reali, comunemente si prendono in esame solo le frequenze positive (banda
monolatera).

le sole frequenze positive (


 1
Una possibile ambiguità nella definizione di tale quantità deriva dal fatto che si possono considerare
per il caso continuo,




per il caso discreto) oppure le  
frequenze positive e negative. Nel primo caso la banda è detta monolatera e, nel secondo, bilatera.
Nel seguito, salvo avviso contrario, ci riferiremo alla banda monolatera, seguendo la convenzione
più comune.
Per i segnali, la banda viene in genere determinata quantificando quali componenti possano es-
sere trascurate rispetto al valore massimo dello spettro d’ampiezza: ad esempio si possono ritenere
trascurabili le componenti che siano di almeno 20dB inferiori al massimo dello spettro d’ampiezza
(componente più significativa). Naturalmente l’adeguatezza della definizione va verificata sperimen-
talmente in relazione alla particolare applicazione.
Per quanto riguarda i sistemi, la banda viene comunemente definita con riferimento alla risposta


d’ampiezza, precisamente è l’intervallo di frequenza nel quale tale risposta si discosta dal valore

assunto ad una frequenza di riferimento al più per una prefissata aliquota. Se tale aliquota è   


, corrispondente a  dB, la banda si dice a 3 dB, ed è questo il caso più comune. In alcune

applicazioni, ad esempio per valutare i sistemi che devono avere particolari caratteristiche di fedeltà

di riproduzione ingresso-uscita, si sceglie un’aliquota maggiore, ad esempio
 , corrispondente
a 1 dB. Nei sistemi passa-basso la frequenza di riferimento per la determinazione della banda è la
frequenza zero. Nei sistemi passa-banda la scelta della frequenza di riferimento non è univoca e
dipende dalle applicazioni.
Ad esempio, se il sistema è destinato a filtrare un segnale modulato da una portante sinusoidale
a una data frequenza, allora questa si sceglie anche come frequenza di riferimento per il sistema,
altrimenti si può scegliere il valore modale della risposta in ampiezza, o il valore baricentrico; la
fig. 3.27 illustra la definizione di banda per sistemi passa-basso e passa-banda.

Esempio 1: Impulso rettangolare


Sia  un impulso rettangolare di ampiezza  e durata ; ricordando che 
         % (  
 


    % (


    
si ottiene immediatamente la seguente espressione per l’ dell’impulso rettangolare

 3
 
 


 


ove  è l’energia di  .


 
 

È interessante valutare la frazione di energia   dell’impulso rettangolare compresa


nell’intervallo di frequenze
    
  ) )

 

 
3.7. CARATTERIZZAZIONE ENERGETICA DEI SEGNALI 121


   !    


 
  
!
!   



1 



  
 

Figura 3.27: Definizione di banda a 3 dB per un sistema passa-basso ( ) e passa-banda ( ).  


122 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA




Integrando l’ si ha:

  


         
   % (      % (
 



Valutando numericamente l’integrale si ha che per k=1, cioè nel lobo principale, la frazione
di energia è pari al 90,3%; includendo anche una coppia di lobi laterali (k=2) la frazione di


energia sale al 95 %, mentre per racchiudere il 99% dell’energia occorre portare in conto nove
coppie di lobi laterali, cioè   . Corrispondentemente la banda (monolatera) al 90% è
   
 , quella al 95% è   e quella al 99%  .  
Esempio 2: Impulso esponenziale
Ricordando che:

 3    "!    



    .4   


si ottiene immediatamente la seguente espressione per l’ESD di un impulso esponenziale:

          
  4  
L’energia



  nella banda 

   
è quindi:



   
             !# " !(  
   4      






  "! .




in particolare ponendo  si ottiene l’energia totale
Noto lo spettro di energia si può calcolare la banda del segnale. Precisamente la banda mono-

latera cui compete la frazione   dell’energia totale si ottiene risolvendo l’equazione

 !# " !(    
 
  

da cui si ricava:
   " !(      



Cosı̀ per esempio la banda al 95% dell’energia vale:

     " !(     




 
3.7. CARATTERIZZAZIONE ENERGETICA DEI SEGNALI 123

3.7.2 Densità spettrale di potenza

 0   
-
Consideriamo ora i segnali di potenza per i quali l’energia è infinita, mentre è finita la potenza
     . Nel seguito faremo riferimento prevalentemente ai segnali a tempo continuo
considerato che le argomentazioni possono essere estese facilmente alle sequenze.
Per introdurre la funzione di densitá spettrale di potenza ( ), e cioè la funzione che dà conto

della distribuzione in frequenza della potenza, conviene riguardare i segnali di potenza come limite
di segnali di energia. Precisamente sia   il segnale troncato all’intervallo  
 e sia     

la sua trasformata, cioè:
 
  

     
Procedendo come per i segnali di energia si ottiene

 


% &            % &            




   

% &                % &             
 

   

 



Da cui, passando al limite sotto il segno di integrale, e portando di nuovo l’operatore di media dentro

l’integrale si ha:
 
     
  % &   

  


 ) o, più semplicemente, spettro di potenza, di  , che è dunque definita da:
pertanto la funzione integranda è interpretabile come densità spettrale di potenza (abbreviazione


   

%& 



   
  
(3.53)


Analogamente, per un segnale a tempo discreto, si pone:

     %&


    4      
  
(3.54)

 
  è lo spettro dellasequenza

dove
membro della definizione di
 sono datroncata, Osserviamo esplicitamente che i limiti a secondo
intendersi in senso generalizzato.
 
La notazione utilizzata, come nel caso di segnali di energia, è    o (    se è chiaro dal contesto a
quale segnale ci si riferisca) essendo implicito nella natura di    di quale densità spettrale, energia

 
o potenza, si tratti.
Si osservi che la funzione di trasferimento dell’energia    di un sistema LTI relaziona anche gli
124 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA

spettri di potenza; in altri termini la (3.52) vale anche con riferimento alle
 . Pertanto si ha:

    %& 

  
 
   
%& 

  
 
  

   

   


     % &   
  
 



        4  con  e   costanti e variabile aleatoria uniformemente
Esempio 2: di una sinusoide a fase aleatoria
Sia  
distribuita in 


 . Utilizzando la trasformata dell’impulso rettangolare e la regola di mod-
ulazione, si ha:
    
  
      54 

        4    % (     4        




     % (    


 di 
 
 come     e mediando su si ha

da cui, valutando l’
 
   
 
    % (           4   % (      4     




onde, passando al limite per  , si ricava:
    

    
   4    4  
Analogamente a quanto visto per i segnali di energia, la consente di definire la banda per i

segnali di potenza in termini energetici come la gamma di frequenze in cui è allocata una prefissata
frazione della potenza totale.
Si osservi infine che le considerazioni svolte con riferimento ai segnali di potenza aleatori valgono
anche per i segnali deterministici, in quanto le definizioni date per i segnali aleatori applicate ad un
segnale di potenza deterministico restituiscono le corrispondenti definizioni introdotte per tali tipi di
segnali.

3.7.3 Spettri mutui di energia e di potenza


Innanzi tutto ricordiamo che se    e    sono due segnali di energia anche la loro somma    4  
lo è ed inoltre l’energia della somma vale


  4 
 

4


 4  4




 

4  
 


3.7. CARATTERIZZAZIONE ENERGETICA DEI SEGNALI 125

 
Anche l’energia mutua può essere analizzata in frequenza, invero dalla relazione di Parseval si ha:





  
   



 


 

 


 
 






 mutua) di    e    . Notiamo esplicitamente che in questa


che porta immediatamente ad interpretare la funzione integranda come spettro di energia mutua o


densità spettrale di energia mutua (


definizione l’ordine dei due segnali è importante, dal momento che il secondo dei due spettri deve




essere coniugato; considerazioni analoghe sussistono per i segnali a tempo discreto. Dunque l’
mutua è la funzione
 
      
 


e ovviamente si ha
 
  
  



 54
 

    è immediato mostrare che l’
 del segnale somma   
Una relazione analoga a quella che esprime l’energia di una somma sussiste anche per l’ 

4
. Invero
 

       

sviluppando è data
da:
      4    4  
  4       4    4     
  (3.55)

potenza mutua
 0
Analogamente per i segnali di potenza ha interesse considerare la distribuzione in frequenza della

-
   
    di    e    nell’ordine. Per ottenere l’analisi spettrale della
potenza mutua occorre troncare i segnali    e    mediante una finestra e poi far divergere la
 . In altri termini si

durata della finestra, cosı̀ come si è fatto nel paragrafo precedente per la
definisce lo spettro di potenza mutua o densità spettrale di potenza mutua di    e    nell’ordine,
     , il limite


e la si denota col simbolo


 
  
 %& 
 
  





(3.56)
 

dove
 
  e   denotano al solito gli spettri dei segnali troncati. Analogamente nel caso di




segnali a tempo discreto, con ovvio significato dei simboli, si pone


  
    % &   4   
 

  




Anche per i segnali di potenza, come è facile verificare, la


 del segnale somma è data dalla
(3.55).
Dovrebbe essere chiaro, data l’omogeneità delle varie definizioni di spettri di energia mutua e di
potenza mutua, che anche le proprietà sono omogenee. In particolare conviene notare che, a dif-
ferenza degli spettri di energia e di potenza trattati nel paragrafo precedente (per distinguerli da
quelli mutui a volte vengono chiamati ”autospettri”), gli spettri mutui in generale non sono pura-
mente reali, nè positivi. Essi esibiscono tuttavia alcune proprietà di simmetria, che qui riassumiamo:
126 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA

P1 Simmetria

  
  
   
P2 Se    e    sono reali, allora

 
  
      

3.7.4 Processi bianchi

 risulta essere una funzione costante della


Il termine processo bianco é utilizzato per descrivere un processo aleatorio in cui tutte le componenti
spettrali hanno la stessa ampiezza, e dunque, la
frequenza. La notevole importanza che i processi bianchi rivestono nelle applicazioni é in gran parte
dovuta al fatto che la densitá spettrale di potenza del rumore termico é sostanzialmente costante in
tutta la banda di frequenze in cui i sistemi si trovano ad operare. D’altra parte, dal punto di vista

 
rigorosamente formale, essendo



    


  
 

 
  (3.57)

il processo non ha rilevanza fisica. Il calcolo della densitá spettrale di potenza del rumore termico


puó essere affrontato utilizzando considerazioni quanto-meccaniche da cui risulta che

     

  ! 
 

  
dove 

  

 Joules s. é la costante di Planck,     Joules/Kelvin é la costante   

   
 !
di Boltzmann e é la temperatura assoluta in gradi Kelvin. Lo spettro tende a zero per    ma
la convergenza é molto lenta. Infatti, per

 , ed 
  risulta 
  

 



per cui, sostituendo nella (3.57) risulta
   
  cost

Quindi, per frequenze minori del terahertz la
approssimazione costante e pari a



.     del rumore termico puó ritenersi con buona

3.7.5 Teorema di Wiener-Kintchine

Consideriamo innanzi tutto due segnali di energia, ricordando la proprietà della trasformata di
            , si
Fourier, per cui ad una coniugazione in un dominio corrisponde una coniugazione più un ribalta-

 


mento nell’altro dominio, antitrasformando lo spettro di energia mutua


ottiene:
          
 
3.7. CARATTERIZZAZIONE ENERGETICA DEI SEGNALI 127

 
In altri termini la funzione di mutua correlazione e lo spettro di energia mutua sono legati fra loro
dalla trasformata di Fourier, si ha cioè:

     
  (3.58)

Da cui, per       , si ha che la funzione di autocorrelazione e la densità spettrale di energia


sono legati fra loro dalla trasformata di Fourier, cioè:
    
  

Il legame tra funzioni di correlazione e spettri di energia è una immediata conseguenza delle pro-
prietà della trasformata di Fourier; la rilevanza del risultato è la sua validità anche per segnali di
potenza, deterministici o aleatori che siano: in altri termini, sussiste il seguente:

Teorema di Wiener-Kintchine: Dati due segnali    e    , il loro spettro di potenza mutua



  
 
è la trasformata di Fourier della loro funzione di mutua correlazione.

Prova: Supposti i segnali a tempo continuo, sviluppando la media statistica a secondo membro
della definizione di spettro mutuo (3.56) si ha:

 
   










  
  

      " ! 
 



  
  
"!
  
        


da cui, scambiando le operazioni di media statistica e di integrazione, si ricava:

 
   





 


   



 
  

 
      
   "!   
       



 


 
   
    
 
      "!       
   

  
     

ed effettuando nell’integrale il cambio di variabile


   

     



si ottiene
 
    
 
   
   



     "!  
       

 
 

da cui, divedendo per  e passando al limite per 




 
, si ha 

              

 

    "! 
  % &   
 


 
 
      

128 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA

Il limite tra parentesi quadre a secondo membro della relazione precedente formalmente differisce
 
dalla media temporale in quanto il prodotto delle due finestre rettangolari di durata

è ancora 
  


non ha effetto (
  
una finestra rettangolare ma di durata


 


; tuttavia, per  la riduzione della durata
) e, conseguentemente, l’espressione tra parentesi quadre è la mutua

correlazione 
 tra i due segnali, onde l’asserto.

Esempio : Segnale telegrafico


Il calcolo dello spettro del segnale telegrafico, considerato nell’ultimo paragrafo del Cap.1, è

tale segnale vale:



immediato grazie al teorema di Wiener-Kinchine; invero ricordando che l’autocorrelazione di


        

e, tenendo presente la trasformata dell’impulso esponenziale, si ha:
     
4     
 
 


 
Pertanto , cioè il doppio della frequenza media di commutazione, è la pulsazione di taglio
a 3dB del segnale.

 mutua è nulla; pertanto non solo l’autocorrelazione di una somma di segnali incoerenti
Si osservi infine che se due segnali sono incoerenti allora, a norma del teorema di Wiener-Kinchine,
la loro
 della somma di segnali incoerenti è la
  
è la somma delle singole autocorrelazioni, ma anche la
somma delle dei singoli addendi.

3.8 SEGNALI PAM


Di notevole interesse per le applicazioni sono i segnali PAM, cioè i segnali del tipo

 



      

  

 
ove    è una sequenza di v.a. SSL, con media  ed autocorrelazione    , detta sequenza
modulante, e  è un segnale impulsivo, cioè un segnale di energia, anche se è utile includere come

caso limite l’impulso ideale  . L’andamento tipico di un segnale PAM è riportato in fig. 3.28:

precisamente nella fig. 3.28 è riportata la sequenza modulante    ed in fig. 3.28  la corrispondente

realizzazione del segnale PAM, con  impulso rettangolare di durata

(fig. 3.28 ).   
Sono, per esempio, di tipo PAM i segnali utilizzati nelle trasmissioni numeriche multilivello: pre-

cisamente in tal caso una sorgente discreta emette, in modo cadenzato, ogni secondi, un simbolo
 
   ed un modulatore di dati, disposto in cascata, genera l’impulso        di ampiezza 
proporzionale al simbolo emesso dalla sorgente (fig. 3.29).
3.8. SEGNALI PAM 129




 

 

  







Figura 3.28: Impulso base   , sequenza modulante   e segnale PAM   .


Per la linearità della media, dall’espressione generale del PAM si ha

 
 

 
   
   



 
 
   $#
  
   

 

pertanto la media di un segnale PAM è periodica di periodo  . Effettuando la media temporale si


ottiene la componente continua del segnale PAM, cioè:

 
   

 
    
   
Pertanto la componente continua è nulla se è nulla la media della sequenza modulante o se è nulla
l’area sottesa dall’impulso  ovvero il suo spettro   a frequenza zero.

130 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA

Sorgente
   
Modulatore
numerica



Figura 3.29: Generazione di segnali PAM.

Al fine di calcolare la
 di un segnale PAM, se ne consideri la versione finestrata

    
        

   
 4   

 
da cui, utilizzando la definizione di potenza per un segnale aleatorio , ed osservando che la lunghezza
del segmento temporale preso in considerazione é pari a  4   , si ottiene

    % & 

  4         


  


Di conseguenza, passando nel dominio della frequenza si ottiene
     %&  4           
 

 (3.59)


   
dove
   "!
       

  



Sostituendo nella (3.59, si ricava
        
      % &  4    

     " !  
 


       (3.60)
  

  
   




                
e quindi


 (3.61)




Pertanto, la
 della sequenza modulante, valutata per  
di un segnale PAM è pari, a meno del fattore di scala
dell’impulso base per la
 , al. Tale
prodotto della
espressione non
3.8. SEGNALI PAM 131

evidenzia però l’eventuale presenza di righe spettrali; invece, esprimendo la della sequenza

 del segnale PAM si riscrive
modulante come somma di quella della sua componente continua e di quella della sua componente


alternativa, la

                    4          



       

 a righe della componente periodica e di quella, di norma continua,




cioè come somma della


della componente aperiodica; la riga a frequenza zero è nulla se è nulla la componente continua del
PAM, mentre la parte a righe dello spettro è identicamente nulla se è nulla la media della sequenza
modulante.

Esempio 1: Segnale binario sincrono


Nella sua versione più semplice il segnale binario sincrono è un segnale PAM  la cui se-
 
quenza modulante    è un processo di Bernoulli di parametro  , che modella l’emissione 
di simboli da parte di una sorgente binaria senza memoria secondo lo schema generale di
fig. 3.29.
In fig. 3.30 è riportato una possibile realizzazione di tale segnale nel caso di impulso rettan-
 
golare di ampiezza e durata . Poiché l’informazione binaria è affidata alla presenza o
meno dell’impulso  nel corrispondente intervallo di bit, tale tecnica di segnalazione viene
chiamata segnalazione ON-OFF.

 , si ha che la  del segnale binario ON-OFF vale


         4

Ricordando che l’autocorrelazione di un processo di Bernoulli è del tipo 


         
 
 






       
  
   4          
   (3.62)


ed il suo spettro di potenza è interamente determinato dallo spettro d’energia dell’impulso


base. In particolare se l’impulso  è un impulso rettangolare tutte le righe spettrali, tranne
 è proporzionale allo spettro di energia dell’impulso. In altri termini lo spettro
quella a frequenza zero, corrispondente alla potenza in continua, si annullano, e la parte con-
tinua della


di potenza del segnale binario sincrono ON-OFF è
                54       % (    



Tale relazione in particolare evidenzia che tale segnale ha una banda sostanzialmente pari
alla cadenza  con cui i simboli sono emessi dalla sorgente.
La presenza nella segnalazione ON-OFF di righe spettrali, in particolare quella dovuta alla
componente continua, costituisce uno spreco di potenza: infatti è possibile dimostrare che
il tasso di simboli errati, dovuti al rumore che si aggiunge al segnale nella trasmissione,
132 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA




 
Impulso base

  

Sequenza modulante




Segnale binario sincrono ON-OFF
Figura 3.30: Segnalazione binaria ON-OFF.
3.9. LEGAMI INGRESSO USCITA PER LE
 133

diminuisce all’aumentare della separazione tra i due livelli del segnale. A ciò si può facil-
mente ovviare eliminando la componente continua dalla sequenza modulante una opportuna

4 

 si ottiene 
codifica dei livelli trasmessi. Precisamente, trasmettendo i livelli 
  invece dei livelli
    3    % (    
4  

Il segnale binario sincrono nelle sue varie forme ha uno spettro passa basso, pertanto per
poterlo trasmettere è necessario un canale che abbia una buona risposta nell’intorno della
frequenza zero. Ma molti canali, in particolare quello telefonico, hanno una cattiva risposta
in bassa frequenza: in tal caso si pone il problema di modificare la distribuzione spettrale
 si evince che tale risultato si può conseguire o
della potenza allo scopo di adattare le caratteristiche spettrali del segnale a quelle del canale.
Dalla espressione generale (3.61) della
cambiando l’impulso base o agendo sulla sequenza modulante; di norma si preferisce questa
seconda strada in quanto perseguibile con tecniche numeriche. In generale, per sagomare
lo spettro è necessario far ricorso ad una codifica con memoria che, introducendo una cor-


 
relazione tra i simboli emessi dalla sorgente senza memoria, consente di ottenere una


radicalmente diversa dalla dell’impulso base (correlative coding).

3.9 LEGAMI INGRESSO USCITA PER LE




 a seconda del tipo di segnali, in ingresso ed in uscita a sistemi LTI semplicemente trasfor-,
Sulla scorta del Teorema di Wiener-Khinchine è immediato stabilire i legami esistenti tra le


o le
 che è il caso di maggiore interesse, anche se le relazioni stabilite, grazie alla simbologia unica
mando gli analoghi legami tra le correlazioni stabiliti nel Cap.2. Nel seguito faremo riferimento alle
 e  , valgono senza alcuna modifica anche per gli spettri di energia.


per

  
Ricordando, ad esempio, che la mutua correlazione tra le uscite di due sistemi LTI (vedi fig. 3.31 )
è data dalla relazione
      

 
     
trasformando secondo Fourier si ha
   
 
         (3.63)
   

 
sostituire i due sistemi con un unico sistema di risposta armonica        sollecitato dalla

In altri termini al fine del calcolo dello spettro di potenza incrociato tra le due uscite è sufficiente

mutua tra i due ingressi, come schematizzato in fig. 3.31 . In modo analogo è possibile stabilire gli 
altri legami di interesse: cosı̀ lo spettro di potenza dell’uscita è legato a quello dell’ingresso dalla
relazione


            (3.64)
 
 dell’uscita
   
cioè la è pari a quella dell’ingresso per la funzione di trasferimento dell’energia,
mentre le mutue uscita-ingresso e ingresso-uscita sono date da
   

 
     
  

 
  
134 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA

   
  
  
 

 
  
     

 
 

      
  

  
Figura 3.31: Legame I/O per le
 mutue:   sistemi effettivi,  sistema euivalente.

I vari legami considerati sono riassunti nella fig. 3.32. Una ulteriore conseguenza della (3.63) è

     
 

 

       
  

   
 
   

   
 

 
 


Figura 3.32: Legami I/O per
 :   sistema effettivo,  sistemi equivalenti.

l’incoerenza di due segnali qualsiasi che non si sovrappongono nel dominio della frequenza: è suf-
 del singolo segnale è non nulla e zero
ficiente infatti osservare che tali segnali restano inalterati per effetto di un filtraggio LTI da parte di
due sistemi le cui risposte armoniche valgano uno ove la
altrove.


La potenza di rumore in uscita ad un filtro LTI quando l’ingresso è rumore bianco è data da:




       



 


ove


 
denota la

del rumore supposto, per fissare le idee, tempo continuo. Introdotta la
banda di rumore (monolatera) del filtro

     
     
 


  

3.9. LEGAMI INGRESSO USCITA PER LE
 135

Filtro
ideale


 
  !   

    
Filtro
ideale

 ! !     
  



  
   
Figura 3.33: Definizione di banda di rumore: sistemi passa-basso   e passa-banda .

l’espressione della potenza si semplifica in


     
  

   


Pertanto la banda di rumore è la banda del filtro ideale avente lo stesso guadagno   di centro
banda e la cui funzione di trasferimento dell’energia sottende la stessa area. Tale interpetrazione è
illustrata in fig. 3.33 sia nel caso di sistemi passa-basso che passa-banda. Dalla relazione di Parseval
segue che la banda di rumore è calcolabile anche a partire dalla risposta impulsiva con la relazione:
      


    
 
 




 
   " !
     

 


Si osservi che la definizione data vale, con ovvie modifiche, anche per sistemi discreti; precisamente,
in tal caso, si ha:
    



 
  
 

     
 
     
  


 
       

 

 


 

   
136 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA

Si osservi infine che, nel definire la banda di rumore si è implicitamente fatto riferimento ai si-
stemi reali, anche se la definizione può essere estesa con ovvie modifiche anche al caso di sistemi
complessi.

3.10 LA DISTORSIONE
Tutte le volte che un segnale viene elaborato il segnale d’uscita non è mai una copia perfetta di quello
d’ingresso a causa delle inevitabili limitazioni di banda, come esemplificato nel paragrafo prece-
dente con riferimento ad un filtro RC. Se il sistema è adoperato per eseguire sul segnale d’ingresso
delle trasformazioni, quali un filtraggio adattato, modulazione, rivelazione, cimatura, ecc., le dif-
ferenze, anche profonde, tra i segnali d’ingresso e uscita sono intenzionali. Invece nel caso di si-
stemi di trasmissione, di amplificatori ecc. si desidera di solito in uscita una copia fedele del segnale
d’ingresso, o, come si dice, indistorta. Peraltro, una trasmissione fedele non implica necessaria-
mente che l’uscita sia identica all’ingresso, ma certe differenze sono senz’altro accettabili e non
vanno considerate distorsioni. Precisamente, dato un segnale d’ingresso  , diremo che il segnale
di uscita  è una versione indistorta di  se ne differisce solo per una costante moltiplicativa ed
un ritardo temporale, in altri termini se
      
allora abbiamo realizzato una trasmissione senza distorsioni (o fedele).
La condizione di non distorsione comporta che lo spettro dell’ingresso e quello dell’uscita siano
relazionati da:


      "!    
Pertanto un sistema non distorcente è necessariamente LTI; inoltre la sua risposta in frequenza deve
essere:
 
      "! 
in altre parole un sistema LTI non distorcente deve avere una risposta in ampiezza costante ed in-
trodurre uno sfasamento proporzionale alla frequenza, a meno di un termine additivo multiplo di ;

          "       .4 
precisamente deve aversi:
      



  



 (3.65)
ove il termine  
tiene conto del segno della costante ; uno sfasamento identicamente nullo rientra
come caso particolare, perché implica un ritardo temporale nullo. Va precisato che è sufficiente che
le condizioni di non distorsione (3.65) siano soddisfatte solo alle frequenze dove il segnale d’ingresso

        4 
ha componenti spettrali significative, cioè nella gamma di frequenze di interesse.
Si osservi che se il segnale d’ingresso è sinusoidale, cioè    , e se il sistema

             
è reale, il corrispondente segnale d’uscita vale
        4  
3.10. LA DISTORSIONE 137

ove si è introdotto il ritardo di fase


 

      


Pertanto un segnale sinusoidale si propaga sempre indistorto attraverso un sistema LTI, come è
ovvio dal momento che tale segnale ha una banda nulla: l’attenuazione e il ritardo subito dal segnale
variano però al variare della frequenza della sinusoide.
Le condizioni (3.65) sono molto restrittive e possono essere soddisfatte in pratica solo approssi-
mativamente. Ad esempio, nel paragrafo precedente si è visto che un filtro RC passa-basso in un
intervallo di frequenze sufficientemente minore della frequenza di taglio a 3dB è non distorcente.


Precisamente avendosi

   



 

 
     



  


il filtro trasmette senza apprezzabile distorsione, con un ritardo   


  , segnali la cui banda sia
sufficientemente inferiore ad  . Ad esempio, le distorsioni subite da un impulso rettangolare di du-
rata sufficientemente
apprezzabili per
   lunga
 .
saranno minime, perché lo spettro di un tale impulso non ha componenti


Tale risultato è generalizzabile ad un arbitrario sistema LTI se ci limitiamo a considerare un intervallo
di frequenze sufficientemente piccolo nell’intorno di  : all’uopo è sufficiente approssimare
 
    , cioè approssimare     come segue
modulo e fase di   con il loro sviluppo in serie di MacLaurin troncato al termine lineare in

     
 
   
   
   
 54   ! 
  

Le distorsioni sono quindi praticamente inevitabili, ma possono essere minimizzate se i sistemi di


trasmissione sono progettati opportunamente. Ci dovremo quindi occupare del grado di distorsione
introdotto da ogni sistema, definendo opportuni parametri che lo caratterizzino quantitativamente.
Parametri di questo tipo che vadano bene in ogni applicazione sono però difficili a definirsi; è preferi-
bile classificare i diversi tipi di distorsione possibili e considerarli separatamente.
I tre tipi principali di distorsione sono:

Distorsione di ampiezza:  
  
       cost;
     . 4  , ovvero          ;
Distorsione di fase (o di ritardo):     

Distorsioni non lineari.

I primi due tipi di distorsione sono presenti nei sistemi LTI, mentre il terzo è caratteristico dei sistemi
non lineari, come anche di quelli lineari, ma temporalmente varianti.
138 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA

Tipo di segnale Servizio Gamma di frequenze


Alta fedeltà (FM) 30 Hz - 15 kHz
Voce e musica Media qualità (AM) 100 - 5.000 Hz
Telefonia 300 - 3.400 Hz
Segnale video Televisione 0 Hz - 5 Mz

Tabella 3.2: Bande impegnate dai segnali di più largo impiego.

3.10.1 Distorsione di ampiezza

La distorsione di ampiezza si descrive agevolmente nel dominio della frequenza: essa comporta
semplicemente che le diverse componenti spettrali del segnale in uscita non sono nelle proporzioni
   
giuste. Nella letteratura tecnica questa distorsione viene anche chiamata a volte distorsione in fre-
quenza (il nome è suggerito dal fatto che questa distorsione si presenta quando   non è costante
con la frequenza).
Le forme più comuni di distorsione di ampiezza consistono in una attenuazione (o amplificazione)
eccessiva delle frequenze più alte o di quelle più basse dello spettro del segnale; un caso meno co-
mune, ma non per questo meno indesiderabile, è la presenza di valori sproporzionati della risposta
di ampiezza a frequenze intermedie dello spettro. Se la descrizione di questi fenomeni nel dominio
della frequenza è immediata, i loro effetti nel dominio del tempo sono molto meno ovvii, tranne che
per segnali molto semplici. Tuttavia giova sottolineare che un segnale sinusoidale non è adeguato
come segnale di prova dal momento che, come già osservato, tali segnali si propagano sempre senza
distorsione attraverso un sistema LTI. Di norma nello studio della distorsione trovano impiego se-
gnali di prova a larga banda quali un treno d’impulsi, un’onda quadra ecc.
Conclusioni precise si possono trarre dallo studio (analitico o sperimentale) di segnali specifici. I
risultati di un tale studio vengono espressi di solito specificando a quali condizioni deve soddisfare la
 
risposta in frequenza di un sistema affinché sia adatta a trasmettere quel tipo particolare di segnale,
e cioè la gamma di frequenze dove la   deve rimanere costante con un certo margine (ad es. 
dB) perché la distorsione di ampiezza rimanga accettabile per quel tipo di segnale. Queste gamme
di frequenze sono riportate nella tabella per i segnali che si incontrano più di frequente nei sistemi
di comunicazione.

3.10.2 Distorsione di fase

Uno sfasamento che sia funzione lineare della frequenza, con ordinata all’origine multipla di ,

introduce un ritardo di tempo costante in tutte le componenti spettrali del segnale; se, inoltre, la
risposta in ampiezza è costante, l’uscita è priva di distorsioni. Se lo sfasamento non è lineare, le
diverse componenti spettrali subiranno ritardi diversi; la distorsione che ne risulta prende il nome di
distorsione di fase o di ritardo.
3.10. LA DISTORSIONE 139


!# " !(       e, in questo caso, avremo
   
 !# " ! (          !# " !(  
Per esempio, per un filtro passa-basso RC

   
 

e le componenti spettrali del segnale d’ingresso aventi frequenza    ,
     e  " 


saranno ritardate di 0,92 RC, 0,79 RC e 0,55 RC rispettivamente.


Più in generale quando il ritardo di fase non è costante con la frequenza, anche in assenza di dis-
torsione d’ampiezza, il segnale risulta profondamente distorto in quanto le componenti spettrali in
uscita, pur essendo nella giusta proporzione, non sono nella corretta relazione di fase. In particolare
i picchi del segnale d’ingresso, dovuti a componenti spettrali che si sommano in fase, possono essere
completamente assenti in uscita per effetto della distorsione di fase che può trasformare interferenze
costruttive in interferenze distruttive e viceversa.
E’ bene sottolineare che un ritardo di fase costante non va confuso con uno sfasamento costante: il
primo è auspicabile, anzi è una condizione da soddisfare se si vogliono evitare distorsioni, il secondo,
al contrario, è causa di distorsioni. Si consideri un sistema con uno sfasamento    
   
 
costante a tutte le frequenze: esso sfaserà in ritardo ogni componente spettrale del segnale d’ingresso
di  cicli della frequenza di quella componente (ed è proprio questo il significato di sfasamento
costante); ma i ritardi temporali saranno diversi, e le diverse componenti spettrali, anziché arrivare

Gli unici sfasamenti costanti accettabili sono   



tutte allo stesso istante, arriveranno con ritardi diversi; il segnale di uscita risulterà pertanto distorto.

e, più in generale,    .
  
Sulla scorta delle considerazioni fatte, è intuitivo che la distorsione di fase può essere molto nociva
nella trasmissioni numeriche di norma realizzate trasmettendo impulsi: in tali sistemi e nei sistemi
per la trasmissione di dati la compensazione del ritardo di trasmissione è un problema che va af-
frontato (e viene affrontato) con molta attenzione. E’ interessante notare d’altra parte che l’orecchio
umano è indifferente a distorsioni di fase: per questa ragione, il problema di compensare il ritardo
non è di regola importante nelle trasmissioni di segnali audio o audio  musicali.

3.10.3 Distorsione non lineare


Una sistema che comprenda elementi non lineari, e/o temporalmente varianti, dà luogo alla distor-
sione da non linearità: nel seguito ci limitiamo a considerare il caso più comune di sistemi non lin-
eari, senza memoria, per i quali esiste una relazione che lega i valori istantanei del segnale d’ingresso
e d’uscita, nota comunemente come caratteristica di trasferimento, del tipo:
     
Quando le escursioni del segnale d’ingresso sono piccole, spesso è possibile linearizzare la caratter-
istica di trasferimento; più in generale è possibile sostituire alla caratteristica di trasferimento la sua
approssimazione polinomiale:
   4    4      4 

 4 
140 Capitolo 3. ANALISI NEL DOMINIO DELLA FREQUENZA

dove sia il numero dei termini sia i valori dei coefficienti vengono scelti opportunamente a seconda
dell’intervallo di variazione del segnale d’ingresso e a seconda della precisione desiderata. Si noti
che in quest’equazione le potenze della  superiori alla prima danno conto del carattere non
lineare, e sono quindi responsabili della distorsione. Dall’equazione precedente, a norma del teorema

     
della convoluzione, lo spettro del segnale d’uscita può essere scritto come segue


     
 4     54      
 54 

   

 54 


Se  è a banda limitata, precisamente ha componenti spettrali solo per , in assenza di 

     
distorsione non lineare il segnale d’uscita ha anch’esso una banda limitata, minore o al più uguale

prende il termine  

a quella dell’ingresso. Viceversa, a causa della distorsione non lineare il segnale  d’uscita com-
  , che
 
,       , che
    
 ha una banda doppia, cioè


ha una banda tripla, cioè  , ecc. Pertanto, il carattere non lineare del sistema comporta che
 
in uscita vi siano delle componenti a frequenze che non sono presenti nel segnale d’ingresso. Per di
   
più, poiché     può anche contenere componenti a frequenze  , questa parte dello
spettro del segnale di uscita si sovrappone a   ; analoghe considerazioni valgono per i termini
  -
di ordine superiore. Con opportune tecniche di filtraggio è senz’altro possibile eliminare le compo-

nenti spettrali aggiuntive aventi frequenze
spettrali aggiuntive aventi frequenze
   0
; non è possibile invece eliminare le componenti
; sono queste componenti spettrali che costituiscono la
distorsione non lineare in senso stretto (cioè non eliminabile).
Una misura quantitativa della distorsione non lineare si può ottenere scegliendo come segnale
d’ingresso una semplice forma d’onda sinusoidale:

 3  
  


       


la corrispondente uscita
  
!
è periodica, di periodo , ma non sinusoidale; in altri termini, per effetto della distorsione non
lineare in uscita sono presenti componenti alle frequenze armoniche di quella dell’ingresso. Una
caratterizzazione quantitativa della distorsione, comunemente impiegata, è la distorsione di ennes-
ima armonica

, definita come il rapporto tra l’ampiezza    di questo termine e quella     
della fondamentale (la frequenza del segnale di ingresso), cioè


  
  
spesso espressa in percentuale.
Di norma la distorsione più rilevante è quella dovuta alla seconda armonica, o alla terza armonica,
mentre le armoniche di ordine più elevato danno luogo ad una distorsione spesso trascurabile; inoltre,
quanto più alta è la frequenza di queste componenti spurie tanto più agevole è la loro eliminazione
mediante filtraggio.
Indice

additivitá per la funzione di autocorrelazione, segnale binario casuale , 38


39 sintesi, equazione di, 81
additivitá per le energie, 32 sistema accumulatore, 47, 48, 60
additivitá per le potenze, 32
analisi, equazione di, 81

CDF congiunta, 17
CDF congiunta di due processi aleatori, 21
CDF congiunta di ordine N, 17
CDF di un processo aleatorio, 16
CDF di un processo di Bernoulli, 22, 23

PDF congiunta del secondo ordine di un pro-

PDF congiunta di

cesso aleatorio, 17
variabili aleatorie gaus-
siane, 26
PDF di un processo aleatorio, 16
PMF di un processo a tempo discreto, 17
PMF di un processo di Bernoulli, 22
PMF di un processo di conteggio di successi,
24

segnale aleatorio, 4, segnale aleatorio33


Bernoulliano, 22, 23
caratterizzazione congiunta di due se-
gnali, 20
caratterizzazione sintetica, 17
caratterizzazione statistica, 16, 17
covarianza, 19
gaussiano, 28
media temporale, 32
potenza, 130
relazioni ingresso uscita, 62

141
142 INDICE

PROPRIETÀ DELLE TRASFORMAZIONI DI FOURIER

3.11 PROPRIETÀ DELLA TRASFORMATA DI FOURIER

 
 
   " ! 
     
  

     "! 
 

 



  
 


 
  
  




      

 


  

P. 1 Dualità (forme d’onda)

  
      

P. 2 Linearità

     4            4     

P. 3 Riflessione

         

P. 4 Coniugazione

               

P. 5 Proprietà di simmetria


 

 

            

 
 

    
 
     

 

  

 


            
3.11. PROPRIETÀ DELLA TRASFORMATA DI FOURIER 143

P. 6 Cambiamento di scala

         
  

  
 

 

           

  


 


P. 7 Traslazione nel dominio del tempo

     "! 
 2      
   
    

P. 8 Traslazione nel dominio della frequenza

    " ! 
  
           
 



P. 9 Modulazione

      54            4
  
 4       
    
       4       4  4      
    

P. 10 Convoluzione nel dominio del tempo

         


P. 11 Convoluzione nel dominio della frequenza

 

   

      
 




 


       

 

  



 

 +   2+ 


+

        

 

  



        

  

144 INDICE

P. 12 Derivazione nel dominio del tempo

  
 

        




        
   


P. 13 Derivazione nel dominio della frequenza

  
   
   

  

  
 


P. 14 Integrazione


 


    4
 


     
P. 15 Somma

    



  4    
  
  

    

P. 16 Replicazione nel tempo (campionamento in frequenza)

 


      


      
        
 

 




         

    
     

     
  
       
  

P. 17 Campionamento nel tempo (replicazione in frequenza)

 




   
       
  
 


   
      
 

 

  
 


    
       

  

 


    
 
3.11. PROPRIETÀ DELLA TRASFORMATA DI FOURIER 145

P. 18 Valore nell’origine

  
 

   
 

 
 
   

  




     
  
 


    

P. 19 Uguaglianza di Parseval

 

  
 

 
      
  


   
 
  
 

  

  
    

 
       
             
   
 



 

P. 20 Formule di Poisson

 


    
 

    
     
 
 





        ! 
  

   
 

    
 

 
 


      


      

   



 

  
 


 
    
   

 


 

  
 
146 INDICE

3.12 PROPRIETÀ DELLA SERIE DI FOURIER


 
 




      




      

   
 
 
   

  

 

 
P. 1 Linearità

    4          4    
 


P. 2 Riflessione dell’asse dei tempi


      


 
P. 3 Coniugazione


    


      


 
  

P. 4 Proprietà di simmetria



       
  

  
  
 
  

  
 
  

       

 



      
  

   
P. 5 Traslazione nel dominio del tempo

  
      


P. 6 Traslazione nel dominio della frequenza


     
     
3.13. PROPRIETÀ DELLA DFS 147


P. 7 Convoluzione nel dominio del tempo


         

 
P. 8 Convoluzione nel dominio della frequenza


 
       


P. 9 Derivazione nel dominio del tempo

   

  
  
     


P. 10 Valore nell’origine

      

 
 

  




  
 

  
  

P. 11 Uguaglianza di Parseval


        


    
 



3.13 PROPRIETÀ DELLA DFS


   
 
      

    


  
 
  
  
 

P. 1 Linearità

      4              4      
148 INDICE

P. 2 Riflessione dell’asse dei tempi


 
 
     
P. 3 Coniugazione
   
           
 


   
 
   

P. 4 Proprietà di simmetria

           

  
   
 
   

 

 
    
 
   

          

          
P. 5 Traslazione nel dominio del tempo


       
  


P. 6 Traslazione nel dominio della frequenza


  
  

  4 

 
P. 7 Convoluzione nel dominio del tempo
  
      
   


 
P. 8 Convoluzione nel dominio della frequenza
  
         

 
P. 9 Valore nell’origine
   
   
         
  
  
  
P. 10 Uguaglianza di Parseval
   
   
      
  
     


  

3.14. PROPRIETÀ DELLA DFT 149

3.14 PROPRIETÀ DELLA DFT


  
  
      
    
  

   
  
 

P. 1 Linearità
     4     

   
 54   
 
P. 2 Dualità