Sei sulla pagina 1di 36

Sapienza Universita’ di Roma

Dispensa per il corso di Segnali Deterministici e Stocastici

Corso di Laurea in Ingegneria Clinica

Spazio dei segnali,


correlazione e spettro
Lorenzo Piazzo

AA 2016/17

Versione del 21/11/2016

Indice
1 Introduzione 2
1.1 Notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Richiami . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2 Spazi di segnali 5
2.1 Spazi vettoriali e lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 Potenza, energia e correlazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3 Spazi di segnali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

3 Correlazione e spettro 13
3.1 Funzione di intercorrelazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2 Funzione di autocorrelazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.3 Spettri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

4 Basi ortonormali 21
4.1 Basi ortonormali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.2 Teorema del Campionamento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.3 Serie e trasformata di Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

5 Appendice 31
5.1 Spazi vettoriali e lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.2 Spazi vettoriali dei segnali di energia e di potenza . . . . . . . . . . . . . . . . . . . . . . . 31
5.3 Funzione di autocorrelazione attraverso sistemi LTI . . . . . . . . . . . . . . . . . . . . . . 32
5.4 Teorema del Campionamento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

1
1 Introduzione

Nel capitolo 2 di questa dispensa introduciamo il concetto di spazio di segnali e l’operazione di correlazio-
ne. Nel capitolo 3 studiamo la funzione di correlazione e le densita’ spettrali. Nel capitolo 4 introduciamo
il concetto di base ortonormale e ne vediamo alcune applicazioni, in particolare al Teorema del Campio-
namento. Ci limitiamo agli aspetti utili per gli scopi del corso senza pretese di completezza e rigore.
Consideriamo solo il caso dei segnali deterministici e sviluppiamo la teoria in parallelo per segnali di
energia e di potenza, discreti e continui.
I concetti di correlazione e spettro sono coperti da qualsiasi libro di testo sulla teoria dei segnali. Al
contrario, gli spazi di segnali e le basi ortonormali vengono considerati solo in alcuni testi, per esempio
[1], dove questi concetti vengono sviluppati in parallelo sia per segnali deterministici che per segnali
aleatori, oppure [2]. In alternativa, si possono trovare su testi di matematica, per esempio [3], oppure in
monografie applicative, per esempio [4].

1.1 Notazioni
Nella dispensa indichiamo le funzioni (reali o complesse) di una variabile reale continua (anche dette
segnali) con la notazione a parentesi tonde, es. f (t). In particolare, consideriamo funzioni definite per t
che va da −∞ a +∞. Inoltre assumiamo che le funzioni siano generalmente continue. Ricordiamo che
una funzione e’ generalmente continua se e’ continua in tutti i punti dell’asse tranne che in un insieme
discreto di punti singolari. Inoltre, il numero di punti singolari deve essere finito in ogni intervallo finito e
nei punti singolari devono esistere finiti il limite destro e sinistro. Per concretezza, pensiamo la variabile
indipendente t come un tempo, ma la trattazione e’ generale. Useremo la funzione seno cardinale, definita
da
sen(πt)
sinc(t) = , (1)
πt
la funzione rettangolare definita come

 1 |t| < 1/2
rect(t) = 1/2 |t| = 1/2 (2)
0 |t| > 1/2

e la funzione triangolare, data da 


1 − |t| |t| ≤ 1
tri(t) = . (3)
0 |t| > 1
Indichiamo le funzioni (reali o complesse) di una variabile intera (anche dette successioni o sequenze
o segnali tempo discreti) con la notazione a pedice o a parentesi quadre, es. fn , f [n], dove n e’ una
variabile intera che va da −∞ a +∞. Useremo la sequenza impulso discreto, definita da

1 n=0
δn = . (4)
0 n 6= 0

Inoltre, useremo una funzione generalizzata, e cioe’ l’impulso di Dirac, indicata con δ(t), che si suppone
nota al lettore.

2
Per sommatorie od integrali estesi da −∞ a +∞, omettiamo gli estremi, cioe’ poniamo
Z Z ∞ X ∞
X
f (t)dt = f (t)dt fn = fn .
−∞ n n=−∞

Indichiamo con ℜ l’insieme dei numeri reali, con ℑ l’insieme dei numeri interi e con C l’insieme dei numeri
complessi. Indichiamo con [a, b] l’insieme dei numeri reali (intervallo) compresi fra a e b. Dato un numero
complesso a, con a∗ indichiamo il complesso coniugato, con |a| il modulo e con Re{a} la parte reale.
Altre notazioni e funzioni verranno introdotte quando serviranno.

1.2 Richiami
Nella dispensa, usiamo alcuni concetti e strumenti che si suppongono noti al lettore e che vengono qui
riassunti.
Trasformate. Dato un segnale x(t), si chiama la sua trasformata di Fourier (FT), indicata con X(f )
oppure con F T {x(t)}, la seguente funzione della frequenza
Z
X(f ) = F T {x(t)} = x(t)e−j2πf t dt.

Analogamente, data una sequenza xn , ed indicata con T la durata di un campione e con F = 1/T la
frequenza dei campioni, la sua trasformata di Fourier tempo discreto (DTFT), indicata con X(f ) =
F T {xn }, e’ data da X
X(f ) = F T {xn } = xn e−j2πf nT
n

e risulta una funzione periodica con periodo F . In alternativa si puo’ considerare la DTFT normalizzata,
che si ottiene ponendo T = F = 1.
Nella dispensa useremo diverse proprieta’ delle trasformate e alcune trasformate notevoli che si
suppongono note al lettore.
Supporto e banda. Data una generica funzione f (x), di una variabile continua x, il suo supporto
e’ l’insieme dei valori di x per cui risulta |f (x)| > 0. Dato un segnale x(t) funzione del tempo, il suo
supporto e’ un insieme dell’asse dei tempi. La durata del segnale e’ la dimensione (misura) del supporto,
e si esprime in secondi. Dato un segnale x(t) con trasformata X(f ), la banda del segnale e’ il supporto di
X(f ) ed e’ quindi un insieme dell’asse delle frequenze. La larghezza di banda del segnale e’ la dimensione
(misura) della banda, e si esprime in Hz.
Notiamo che per segnali tempo discreti, le definizioni precedenti si estendono in modo ovvio. Inoltre,
quando nelle funzioni sono presenti impulsi di Dirac, per convenzione, si assume che la funzione sia diversa
da zero nei punti dove e’ applicato l’impulso, che quindi fanno parte del supporto della funzione.
Sistemi lineari tempo invarianti. Un sistema lineare tempo invariante (LTI) continuo e’ un sistema
con un ingresso x(t) ed una uscita y(t). Il sistema e’ completamente descritto dalla sua risposta impulsiva
h(t). In particolare, l’uscita e’ pari alla convoluzione (continua) dell’ ingresso con la risposta, e cioe’
Z Z
y(t) = x(t) ∗ h(t) = x(τ )h(t − τ )dτ = x(t − τ )h(τ )dτ

dove il simbolo ∗ indica appunto la convoluzione. Analogamente, un sistema LTI discreto e’ un sistema
con un ingresso xn ed una uscita yn . Il sistema e’ completamente descritto dalla sua risposta impulsiva
hn . In particolare, l’uscita e’ pari alla convoluzione (discreta) dell’ ingresso con la risposta, e cioe’
X X
y n = x n ∗ hn = xk hn−k = xn−k hk .
k k

3
Si noti che il simbolo ∗ indica sia la convoluzione continua che discreta: il significato sara’ chiarito dal
contesto. Nella dispensa useremo diverse proprieta’ della convoluzione e alcune convoluzioni notevoli che
si suppongono note al lettore.
Sia nel caso discreto che continuo, il legame ingresso uscita puo’ essere equivalentemente specificato
in frequenza, usando le trasformate dei segnali. In particolare, indicando con H(f ) la trasformata della
risposta impulsiva, detta la risposta in frequenza del sistema, e con X(f ) e Y (f ) le trasformate dell’
ingresso e dell’ uscita, risulta
Y (f ) = X(f )H(f )
sia nel caso discreto che continuo.

4
2 Spazi di segnali

2.1 Spazi vettoriali e lineari


Uno spazio vettoriale e’ una struttura algebrica che si suppone nota al lettore e che verra’ qui descritta
solo a grandi linee. Per una descrizione piu’ completa, si veda per esempio [3] o [5].
Dato un insieme V , supponiamo che siano assegnate due operazioni sui suoi elementi. La prima e’
l’addizione di due elementi di V (somma vettoriale), indicata con x + y per x, y ∈ V . La seconda e’ la
moltiplicazione di un elemento di V per un numero complesso (moltiplicazione per uno scalare) indicata
con a · x oppure ax per a ∈ C e x ∈ V . Se le operazioni verificano le proprieta’ S1-S10 riportate in
appendice 5.1, la terna < V, +, · > si dice uno spazio vettoriale sui numeri complessi, gli elementi di V si
chiamano vettori e i numeri complessi si chiamano scalari. Le proprieta’ S1-S10 servono sostanzialmente
a garantire che il risultato delle due operazioni sia ancora un elemento di V (chiusura rispetto a V ) e che
valgano le normali proprieta’ di queste operazioni, per esempio associativa, commutativa e distributiva.
Inoltre, garantiscono che siano definiti degli elementi neutri rispetto alle due operazioni (vettore nullo,
che indicheremo con 0̄, e scalare unitario). In alternativa, e’ possibile sostituire i numeri complessi coi
numeri reali: in questo modo si ottiene uno spazio vettoriale sui numeri reali.

Esempio 1 L’esempio piu’ immediato di uno spazio vettoriale e’ quello dei vettori reali a n elementi.
In questo spazio, l’insieme dei vettori e’ indicato con ℜn ed e’ costituito da n-uple ordinate di numeri
reali. L’addizione e’ la normale addizione fra vettori e cioe’ quella fatta per elemento per elemento. La
moltiplicazione e’ la normale moltiplicazione di un vettore per un numero reale, che si fa’ moltiplicando
ogni elemento per il numero. Il vettore nullo e’ un vettore con elementi tutti nulli.
Come caso particolare, ℜ2 e’ lo spazio dei vettori nel piano. Gli elementi di questo spazio sono vettori
di due elementi che si possono interpretare come coordinate in un piano cartesiano. Quindi i vettori si
possono associare ai punti del piano e rappresentare con frecce che collegano il punto all’origine, come
illustrato in figura 1. In particolare, in figura mostriamo il vettore x = (1, 1), il vettore y = (1, 2), il
vettore somma z = x + y = (2, 3) e il vettore w = 2x = (2, 2). 

Considerato uno spazio vettoriale, supponiamo che sia definita una ulteriore operazione, che associa
ad ogni coppia x e y di elementi di V un numero complesso, indicato con x ⊙ y. Se questa operazione
verifica le proprieta’ S11-S14 riportate in appendice si dice che e’ un prodotto interno. Queste proprieta’
stabiliscono alcune regole di associazione, distribuzione e commutazione. Quando uno spazio vettoriale
e’ fornito anche di un prodotto interno, la corrispondente struttura algebrica, indicata con < V, +, ·, ⊙ >,
si chiama uno spazio lineare. La notazione < V, +, ·, ⊙ > e’ precisa ma puo’ essere pesante e quando non
c’e’ pericolo di confusione diremo semplicemente che V e’ uno spazio lineare, dando per sott’intese le tre
operazioni.

Esempio 2 Nello spazio vettoriale ℜn il prodotto interno si puo’ definire come il prodotto scalare fra
vettori, cioe’ come la somma dei prodotti degli elementi con lo stesso indice. Per esempio, considerando
i vettori dell’ esempio 1, il prodotto scalare fra x = (1, 1) e y = (1, 2) e’ x ⊙ y = 1 · 1 + 1 · 2 = 3. 

Lunghezza, distanza. In uno spazio lineare e’ possibile introdurre concetti geometrici, basati sulle
proprieta’ S1 − S14. In primo luogo, gli elementi di V si possono pensare come punti in uno spazio e si

5
Figura 1: Esempi di vettori nel piano.

puo’ introdurre il concetto di lunghezza di un vettore x, che e’ un numero reale maggiore di o uguale a
zero, indicato con l(x). In particolare, la lunghezza al quadrato e’ definita come

l2 (x) = x ⊙ x. (5)

Inoltre
l(x) = 0 se e solo se x = 0̄. (6)
dove 0̄ e’ il vettore nullo.
In secondo luogo, e’ possibile definire la distanza fra due vettori x e y, indicata con d(x, y), come la
lunghezza della loro differenza. Quindi, la distanza al quadrato e’

d2 (x, y) = (x − y) ⊙ (x − y). (7)

La distanza e’ un numero reale maggiore di o pari a zero, d(x, y) ≥ 0. Inoltre d(x, y) = d(y, x) e

d(x, y) = 0 se e solo se x = y. (8)

Esempio 3 Consideriamo
√ ancora lo spazio lineare ℜ2 ed i√vettori dell’ esempio 1. La lunghezza di
x = (1, 1) e’ l(x) = p2. La lunghezza di z = (2, 3) e’ l(z) = 22 + 33 . La distanza fra i vettori x e z e’
d(x, z) = l(x − z) = (1 − 2)2 + (1 − 3)2 . 

Disuguaglianza triangolare e di Schwartz. Sui vettori di uno spazio lineare vale la disuguaglianza
triangolare
l(x + y) ≤ l(x) + l(y).
Vale inoltre la disuguaglianza di Schwartz

|x ⊙ y|2 ≤ (x ⊙ x)(y ⊙ y),

ovvero, in forma equivalente


|x ⊙ y| ≤ l(x)l(y),
dove l’uguaglianza vale se e solo se x = ay per qualche numero complesso a.

6
Esempio 4 Nello spazio lineare ℜ2 la disuguaglianza triangolare dice, appunto, che la lunghezza di un
lato di un triangolo e’ minore o uguale alla somma delle lunghezze degli altri due. La disuguaglianza
di Schwartz e’ ovvia. Infatti, dati due vettori x e y, le loro lunghezze sono pari ai moduli, l(x) = |x| e
l(y) = |y|. Inoltre, il loro prodotto interno e’ il prodotto scalare, che e’ pari al prodotto dei moduli per
il coseno dell’angolo α fra i vettori: x ⊙ y = |x||y|cos α. Allora la disuguaglianza segue immediatamente
dal fatto che |cos α| ≤ 1. 

Somiglianza, ortogonalita’. Sulla base della disuguaglianza di Schwartz, il prodotto interno fra x e
y puo’ essere interpretato come un indice di somiglianza fra i due vettori, che misura quanta parte di x
puo’ essere ottenuta scalando y opportunamente. Per approfondire questo punto, supponiamo di voler
approssimare il vettore x con una copia scalata del vettore y, data da cy dove c e’ un numero complesso.
Naturalmente, in generale, cy sara’ diverso da x e possiamo quantificare questa differenza calcolando
la distanza fra x e cy, indicata con E = d(x, cy) = l(x − cy), che fornisce una misura dell’errore di
approssimazione. Usando le proprieta’ di appendice, con alcuni passaggi1 si ricava che

E 2 = l2 (x − cy) = l2 (x) + |c|2 l2 (y) − 2Re{c∗ (x ⊙ y)}. (9)

Come si vede, l’errore dipende da c e per trovare la migliore approssimazione, possiamo scegliere c
in modo da rendere l’errore minimo. A questo punto consideriamo due casi particolari. Come primo
caso supponiamo che il modulo del prodotto interno fra i vettori sia massimo: in questo caso, dalla
disuguaglianza di Schwartz, risulta che x = ay per qualche numero complesso a. Allora, scegliendo c = a,
risulta y = x e l’errore e’ nullo. In questo senso, quando il prodotto interno e’ massimo, i vettori sono
massimamente simili. Come secondo caso supponiamo che il prodotto interno fra i due vettori sia pari a
zero. In questo caso i vettori si dicono ortogonali e si scrive

x⊥y se x ⊙ y = 0.

Quando i vettori sono ortogonali, dall’ espressione dell’errore riportata sopra, si vede che il valore di c che
rende minimo l’errore e’ c = 0. Quindi, la migliore approssimazione di x che si puo’ ottenere scalando y
e’ il vettore nullo. In questo senso, nessuna parte di x puo’ essere approssimata con y ed i vettori sono
massimamente diversi.

Esempio 5 L’interpretazione del prodotto interno come misura di somiglianza e’ facile da visualizzare
considerando lo spazio dei vettori su ℜ2 . In questo caso il prodotto interno coincide col prodotto scalare
ed e’ proporzionale al coseno dell’angolo fra i due vettori. Alcuni casi sono considerati in figura 2.
Nel disegno a sinistra, i vettori x e y sono paralleli, il prodotto e’ massimo, e x si ottiene scalando y
opportunamente. Nel secondo disegno i vettori x e y sono ortogonali, e nessuna parte di x puo’ essere
ricostruita con y. Negli altri disegni sono mostrati casi intermedi e viene anche mostrato il vettore cy con
c tale da rendere minima la distanza da x. Si vede che finche’ il prodotto scalare e’ vicino al massimo, x
puo’ essere ben approssimato da cy e che l’approssimazione peggiora quando il prodotto diminuisce. 

Somma di vettori ortogonali. Consideriamo due vettori x e y e la loro somma x + y. Usando la (9)
con c = −1 si ricava che
l2 (x + y) = l2 (x) + l2 (y) + 2Re{x ⊙ y}.
Allora, quando x e y sono ortogonali, risulta

l2 (x + y) = l2 (x) + l2 (y) (10)


1 Usando le S1-14, possiamo scrivere
l2 (x − cy) = (x − cy) ⊙ (x − cy) = x ⊙ x + (cy) ⊙ (cy) − (cy) ⊙ x − x ⊙ (cy) =
= l2 (x) + cc∗ (y ⊙ y) − c(x ⊙ y)∗ − c∗ (x ⊙ y) = l2 (x) + |c|2 l2 (y) − 2Re{c∗ (x ⊙ y)}.

7
Figura 2: Somiglianza ed ortogonalita’ dei vettori del piano.

che e’ l’estensione del Teorema di Pitagora ad uno spazio lineare.


Isomorfismo. Siano dati due spazi lineari, < V, +, ·, ⊙ > e < V̂ , +̂,ˆ·, ⊙ ˆ >. Supponiamo sia stabilita una
corrispondenza biunivoca fra gli elementi di V e V̂ , che ad ogni elemento di V associa uno ed uno solo
degli elementi di V̂ e vice versa. Consideriamo due elementi di V , siano v e w, e la loro somma z = v + w.
Se per gli elementi corrispondenti in V̂ risulta che ẑ = v̂ +̂ŵ allora la corrispondenza si dice isomorfa sulla
somma vettoriale. Se risulta v ⊙ w = v̂ ⊙ ˆ ŵ, la corrispondenza si dice isomorfa sul prodotto interno. Dato
un numero complesso a e considerato il vettore z = a · v, se risulta ẑ = a ˆ· v̂, la corrispondenza si dice
isomorfa sul prodotto per uno scalare. Se la corrispondenza verifica tutte e tre queste proprieta’, si dice
un isomorfismo fra gli spazi e gli spazi si dicono isomorfi. Quando due spazi sono isomorfi, le operazioni
(e i ragionamenti) basati sulla somma e sui prodotti possono essere svolte indifferentemente in entrambi
gli spazi e portano allo stesso risultato. Questo e’ un vantaggio, perche’ si puo’ scegliere lo spazio dove
risultano piu’ facili da visualizzare o calcolare.

2.2 Potenza, energia e correlazione


Dato un segnale x(t) od una sequenza xn si definisce la sua energia, indicata con Ex , come
Z +∞ +∞
X
Ex = |x(t)|2 dt Ex = |xn |2 (11)
−∞ n=−∞

e la sua potenza, indicata con Px , come

T N
1 1 X
Z
Px = lim |x(t)|2 dt Px = lim |xn |2 . (12)
T →+∞ 2T −T N →+∞ 2N
n=−N

Le definizioni precedenti sono valide per segnali e sequenze reali o complessi. Visto che le quantita’
integrate o sommate sono valori reali e maggiori di o uguali a zero, risulta che l’ energia e la potenza sono
quantita’ reali e maggiori di o uguali a zero.
Energia e potenza possono essere nulle, finite o infinite a seconda del segnale. E’ utile classificare i
segnali sulla base di queste quantita’. In particolare diremo che un segnale o una sequenza e’ di energia
quando risulta
0 < Ex < +∞ (13)
mentre si dice che un segnale o una sequenza e’ di potenza quando risulta

0 < Px < +∞. (14)

8
Queste due classi identificano segnali e sequenze di natura sostanzialmente diversa e che devono essere
trattati con strumenti analitici differenti. Piu’ precisamente, possiamo considerare quattro insiemi di
segnali e i relativi simboli: l’insieme dei segnali di energia, ΣE , dei segnali di potenza, ΣP , delle sequenze
di energia, ∆E , e delle sequenze di potenza, ∆P .
Osservando gli integrali ci si rende conto che i segnali di energia hanno potenza nulla e che i segnali
di potenza hanno energia infinita. Quindi queste classi sono disgiunte. Inoltre, i segnali di energia hanno
durata finita o comunque tendono a zero per |t| → ∞, mentre i segnali di potenza hanno durata infinita
e non tendono a zero. Quindi, i segnali prodotti dai sistemi fisici sono di energia mentre i segnali di
potenza sono una astrazione matematica. In particolare, i segnali di potenza sono utili per descrivere le
caratteritiche di lungo termine (permanenti) di un sistema fisico, mentre quelli di energia modellano le
caratteristiche di breve termine (transitorie). Le stesse osservazioni si ripetono per le sequenze.
Correlazione. La correlazione (intercorrelazione) e’ una operazione che assegna un numero complesso
a una coppia di segnali. In particolare, dati due segnali x(t) e y(t), definiamo la correlazione continua di
energia (CE) e la correlazione continua di potenza (CP) come
Z +∞ Z T
∗ 1
Rxy = x ⊙ y = x(t)y (t)dt Rxy = x ⊙ y = lim x(t)y ∗ (t)dt.
−∞ T →+∞ 2T −T

Analogamente, date due sequenze xn e yn , definiamo la correlazione discreta di energia (DE) e la


correlazione discreta di potenza (DP) come
+∞ N
X 1 X
Rxy = x ⊙ y = xn yn∗ Rxy = x ⊙ y = lim xn yn∗ .
N →+∞ 2N
n=−∞ n=−N

Si noti che oltre alle operazioni abbiamo introdotto anche due simboli per indicarle. Il primo, R con a
pedice i segali coinvolti, e’ il piu’ compatto. Il secondo, ⊙ preceduto e seguito dai segnali coinvolti, e’ piu’
comodo in alcuni casi e mette l’accento sul fatto che la correlazione e’ una operazione binaria. Si noti
che usiamo lo stesso simbolo per indicare quattro operazioni diverse, il che e’ comodo per semplificare le
scritture: sara’ chiaro dal contesto a quale delle quattro operazioni il simbolo si riferisce. Notiamo anche
che ⊙ e’ lo stesso simbolo che abbiamo usato per indicare il prodotto interno in uno spazio lineare: il
perche’ di questa scelta sara’ chiaro fra poco.
Formalmente, le operazioni di correlazione sono definite per qualsiasi segnale o sequenza, ma il loro
risultato puo’ essere identicamente nullo oppure infinito a seconda dei segnali coinvolti, nel qual caso
l’operazione non ha utilita’. Una trattazione matematica completa di questo punto e’ fuori dai nostri
scopi: ci limiamo ad alcune considerazioni. E’ facile verificare2 che le correlazioni di energia e di potenza
sono sempre ben definite quando entrambi i segnali sono di energia o di potenza, rispettivamente. Questo
e’ il caso che ci interessa e che assumiamo implicitamente in tutta la dispensa: quindi, se non specificato
altrimenti, se x e y sono di energia si intende che Rxy e’ la correlazione di energia, se x e y sono di potenza
si intende che Rxy e’ la correlazione di potenza. Anche la correlazione di energia fra un segnale di energia
ed uno di potenza e’ di norma finita e quindi utile. Negli altri casi le correlazioni sono nulle o infinite.
Come caso particolare, dato un segnale x, possiamo considerare la sua autocorrelazione, e’ cioe’ la
correlazione con se stesso: Rxx = x ⊙ x, che si indica anche come Rx . Confrontando le definizioni, sia nel
caso discreto che continuo, si vede facilmente che l’autocorrelazione di energia coincide con l’energia del
segnale, mentre quella di potenza coincide con la potenza. Quindi possiamo scrivere

Ex se x di energia
Rx =
Px se x di potenza .
2 Infatti per qualsiasi coppia di numeri complessi x e y vale la seguente disuguaglianza: |xy ∗ | ≤ |x|2 + |y|2 . Allora, per

la correlazione continua di energia, abbiamo


Z Z Z
|x ⊙ y| = | x(t)y ∗ (t)dt| ≤ |x(t)y ∗ (t)|dt ≤ |x(t)|2 + |y(t)|2 dt = Ex + Ey ,

che mostra che la correlazione e’ finita. Per le correlazioni discrete e di potenza si procede nello stesso modo.

9
2.3 Spazi di segnali
In sezione 2.2 abbiamo introdotto gli insiemi dei segnali e delle sequenze di energia e di potenza, indicati
con ΣE , ΣP , ∆E , e ∆P . Su questi insiemi e’ possibile definire una operazione di somma, che coincide
con la normale operazione di somma fra due funzioni o successioni. Inoltre e’ possibile definire una
operazione di moltiplicazione per uno scalare, che coincide con la normale operazione di moltiplicazione
di una funzione o sequenza per un numero complesso. Inoltre e’ facile vedere che, aggiungendo a questi
insiemi un elemento nullo3 , e cioe’ una funzione o una sequenza identicamente nulla, gli insiemi risultano
spazi vettoriali. Infatti le operazioni di somma e prodotto appena considerate verificano le proprieta’
S1-10, come mostrato in appendice 5.2.
Come passo ulteriore, e’ possibile dotare questi spazi di un prodotto interno. In particolare, come
prodotto interno, si puo’ usare l’operazione di correlazione definita nella sezione precedente. Piu’ preci-
samente, per segnali di energia si deve usare la correlazione CE, per quelli di potenza la CP, per sequenze
di energia la DE, per sequenze di potenza la DP. Infatti e’ facile verificare che la correlazione verifica le
proprieta’ S11-14 ed e’ quindi un prodotto interno. In questo modo gli spazi divengono spazi lineari e
vengono anche detti gli spazi dei segnali e delle sequenze di energia e di potenza.
Proprieta’ geometriche. Organizzare e pensare i segnali come elementi di uno spazio e’ utile. In primo
luogo, permette di pensare i segnali come punti di uno spazio (vettori) e di sviluppare un ragionamento
di tipo geometrico. In secondo luogo, possiamo applicare a questi spazi tutti i risultati che abbiamo
visto per gli spazi lineari. Per esempio, dato un segnale x, possiamo considerare la sua lunghezza. In
particolare, la lunghezza al quadrato e’ data dalla (5) e risulta

2 Ex se x di energia
l (x) = x ⊙ x = Rx =
Px se x di potenza.

A parole, le relazioni precedenti mostrano che l’energia o la potenza di un segnale sono pari al quadrato
della lunghezza di quel segnale, quando pensato come elemento di uno spazio lineare, e dunque sono una
indicazione dell’entita’ del segnale. Possiamo anche introdurre il concetto di distanza fra due segnali. In
particolare, la distanza al quadrato e’ data dalla (7). Allora, considerando i segnali continui di energia,
la distanza fra x e y e’ Z
d2 (x, y) = (x − y) ⊙ (x − y) = |x(t) − y(t)|2 dt (15)

e cioe’ si ottiene integrando il modulo quadro della differenza dei segnali. Se la distanza e’ zero, i segnali
sono coincidenti. Analoghe formule si possono ottenere negli altri tre casi.
Somiglianza, ortogonalita’. Negli spazi di segnali, valgono le disuguaglianze triangolari e di Schwartz.
Quest’ultima, si scrive cosi’ p
|Rxy | ≤ Ex Ey se x, y di energia (16)
p
|Rxy | ≤ Px Py se x, y di potenza (17)
sia nel caso discreto che nel caso continuo e dove il simbolo di uguaglianza vale se e solo se x = ay per
qualche numero complesso a (naturalmente, la correlazione nelle formule qui sopra e’ quella di energia o di
potenza, discreta o continua, a seconda del segnale). Sulla base delle relazioni precedenti, la correlazione
puo’ interpretarsi come una misura di somiglianza fra i segnali. In particolare, quando la correlazione
e’ massima, risulta x = ay e cioe’ che i segnali o le sequenze hanno la stessa forma. Al contrario, se la
correlazione e’ minima e pari a zero, i segnali o le sequenze si dicono ortogonali e sono massimamente
diversi nel senso visto in sezione 2.1. Sempre estendendo i risultati di quella sezione, quando i segnali x
e y sono ortogonali vale il teorema di Pitagora, e per il segnale z = x + y risulta

Ez = Ex + E y se x, y di energia e x ⊥ y
3 Continueremo ad usare gli stessi simboli per indicare gli insiemi, con o senza l’elemento nullo.

10
Pz = Px + Py se x, y di potenza e x ⊥ y.
A parole le relazioni precedenti affermano che l’energia/potenza della somma di due segnali ortogonali e’
pari alla somma delle energia/potenze. Notiamo che questo non e’ vero se i segnali non sono ortogonali.
Un’altro strumento utile, e’ il coefficiente di correlazione fra due segnali, che altro non e’ che la
correlazione opportunamente normalizzata. In particolare, il coefficiente di correlazione fra x e y, indicato
con ρxy e’ definito come
Rxy
ρxy = p se x, y di energia
Ex Ey
Rxy
ρxy = p se x, y di potenza
Px Py
sia per segnali che per sequenze. Questo coefficiente e’ ancora una misura di somiglianza fra i segnali. In
particolare, usando le (16,17), si vede che
|ρxy | ≤ 1
e che quando |ρxy | = 1 i due segnali hanno la stessa forma, mentre se ρxy = 0 i segnali sono ortogonali.

Osservazione 1 Uguaglianza per segnali di potenza. Notiamo che negli spazi di segnali di potenza,
continui o discreti, due segnali devono essere considerati uguali se la loro differenza e’ un segnale di
potenza nulla. Per capire meglio questo punto consideriamo due segnali di potenza, x e y, tali che la
loro differenza z = x − y sia un segnale di energia e quindi a potenza nulla. Calcolando la distanza fra
questi due segnali nello spazio dei segnali di potenza, e’ facile verificare che risulta d(x, y) = 0. Infatti
d2 (x, y) coincide con la potenza di z, che e’ pari a zero. Allora, sulla base della (8), risulta x = y, anche
se sappiamo che i segnali sono in effetti diversi. Questo paradosso si risolve applicando l’osservazione
fatta prima e cioe’ rendendosi conto che il simbolo di uguaglianza che compare nella (8) indica che la
differenza dei segnali ha potenza nulla.
Formalizzando il ragionamento precedente, possiamo dire che per segnali di potenza, sia discreti che
continui, oltre all’uguaglianza in senso stretto, che prevede la coincidenza dei segnali istante per istante
o campione per campione, dobbiamo considerare una seconda forma di uguaglianza, che si indica ancora
col simbolo =, e che considera uguali due segnali se la loro differenza e’ a potenza nulla. Questa seconda
forma di uguaglianza puo’ dirsi uguaglianza in potenza ed e’ quella da usare quando si opera negli spazi
di potenza. Inoltre, negli spazi di potenza, tutti i segnali di potenza nulla (per esempio quelli di energia)
devono essere considerati equivalenti al vettore nullo.
L’uguaglianza in potenza e’ naturalmente una condizione meno forte dell’uguaglianza in senso stretto,
ma e’ adeguata quando si analizzano segnali di potenza. Infatti, come abbiamo detto, questi segnali
vengono usati per rappresentare le caratteristiche permanenti di un sistema fisico, che non sono alterate
da segnali di potenza nulla. 

Sottospazi. Consideriamo uno spazio lineare < V, +, ·, ⊙ > ed un sottoinsieme W ⊂ V . Se le operazioni


di somma e prodotto sono chiuse rispetto a questo sottoinsieme, e cioe’ se sommando o moltiplicando
per uno scalare elementi di W si ottiene ancora un elemento di W , allora anche < W, +, ·, ⊙ > e’ uno
spazio lineare e si dice che e’ un sottospazio dello spazio originale. Il concetto di sottospazio e’ utile,
perche’ molti sviluppi di interesse teorico o pratico si semplificano usando sottospazi opportuni. Infatti,
di norma, i vettori del sottospazio verificano delle condizioni, che appunto li identificano come vettori del
sottospazio, e che spesso permettono una semplificazione dei calcoli o dei ragionamenti. Qui di seguito
vediamo un esempio.
Segnali periodici. Assegnato un periodo T , consideriamo tutti i segnali di periodici di periodo T ,
cioe’ quelli per cui risulta x(t) = x(t + T ) per qualsiasi t, ed indichiamo il loro insieme con ΣR . Questi
segnali sono tutti di potenza e quindi ΣR ⊂ ΣP . Inoltre e’ facile verificare che sommando due segnali
periodici oppure moltiplicando un segnale periodico per una costante complessa si ottiene ancora un

11
segnale periodico. Allora, < ΣR , +, ·, ⊙ > e’ un sottospazio lineare. In questo sottospazio il calcolo della
correlazione si semplifica. Infatti, dati due segnali x, y ∈ ΣR e’ facile verificare che la loro correlazione di
potenza si puo’ anche calcolare come
T
1
Z
Rxy =x⊙y = x(t)y ∗ (t)dt, (18)
T 0

e cioe’ integrando il prodotto dei segnali solo su un periodo.


Analogamente, assegnato un intero positivo N , posiamo considerare l’insieme di tutte le sequenze
periodiche di periodo N , cioe’ quelle per cui risulta xn = xn+N per qualsiasi n, e verificare che questo
insieme, indicato con ∆R , e’ un sottospazio delle sequenze di potenza. Anche in questo caso il calcolo della
correlazione si semplifica. Infatti, date due sequenze x, y ∈ ∆R e’ facile verificare che la loro correlazione
di potenza si puo’ anche calcolare come
N −1
1 X
Rxy = x ⊙ y = xn yn∗
N n=0

e cioe’ sommando solo su un periodo.

12
3 Correlazione e spettro

3.1 Funzione di intercorrelazione


Le operazioni di correlazione introdotte in sezione 2.2 possono essere usate per assegnare una funzione
complessa a una coppia di segnali. La funzione risultante viene detta la funzione di correlazione (intercor-
relazione) fra i segnali. In particolare, dati due segnali x(t) e y(t), definiamo la funzione di correlazione
continua di energia (CE) come
Z +∞
Rxy (t) = x(t) ⊙ y(t) = x(τ + t)y ∗ (τ )dτ
−∞

e la funzione di correlazione continua di potenza (CP) come


T
1
Z
Rxy (t) = x(t) ⊙ y(t) = lim x(τ + t)y ∗ (τ )dτ.
T →+∞ 2T −T

Osservando gli integrali, si nota che la funzione di correlazione e’ semplicemente la correlazione fra il
segnale x traslato di t e il segnale y e risulta una funzione della variabile t: infatti negli integrali (in cui
abbiamo usato τ come variabile di integrazione) la variabile t e’ libera e non viene saturata nell’operazione
di integrazione. In altre parole, non abbiamo scritto un integrale, ma una infinita’ di integrali, uno per
ogni possibile valore di t. Si nota anche che, per indicare questa funzione, abbiamo usato gli stessi
simboli gia’ usati per indicare la correlazione, e cioe’ ⊙ e Rxy , ma abbiamo lasciato indicata la variabile
indipendente per marcare la differenza. Inoltre, la stessa simbologia viene usata per la correlazione di
energia o di potenza: il significato e’ chiarito dal contesto.
Analogamente, date due sequenze xn e yn , definiamo la funzione di correlazione discreta di energia
(DE)
+∞
X
Rxy [n] = xn ⊙ yn = xk+n yk∗
k=−∞

e la funzione di correlazione discreta di potenza (DP)


N
1 X
Rxy [n] = xn ⊙ yn = lim xk+n yk∗ .
N →+∞ 2N
k=−N

Per queste funzioni, possiamo ripetere le considerazioni gia’ fatte nel caso continuo. In particolare,
osservando le definizioni, si nota che la funzione di correlazione e’ semplicemente la correlazione fra la
sequenza x traslata di n passi e la sequenza y. Inoltre, il risultato e’ funzione della variabile n: infatti
nelle sommatorie (in cui abbiamo usato k come variabile di sommatoria) la variabile n e’ libera e non
viene saturata nell’operazione. Quindi, nel caso discreto, la funzione di correlazione e’ una sequenza.
Anche se, formalmente, le funzioni di correlazione sono definite per qualsiasi segnale o sequenza,
possono essere identicamente nulle oppure infinite a seconda dei segnali coinvolti, nel qual caso non hanno
utilita’. Una trattazione matematica completa di questo punto e’ fuori dai nostri scopi: ci limitiamo ad
alcune considerazioni. A questo fine notiamo che la traslazione di un segnale non altera la sua energia
o potenza. Quindi, per esempio, se x(t) e’ di energia, lo sara’ anche x(τ + t). Sulla base di questa
osservazione, possiamo ripetere esattamente le considerazioni gia’ fatte sulla correlazione in sezione 2.2.

13
In particolare, le funzioni di correlazione di energia e di potenza sono sempre ben definite quando entrambi
i segnali sono di energia o di potenza, rispettivamente. Questo e’ il caso che ci interessa e che assumiamo
implicitamente in tutta la dispensa: quindi, se non specificato altrimenti, se x e y sono di energia si
intende che Rxy (t) o Rxy [n] e’ la funzione di correlazione di energia, se x e y sono di potenza si intende
che Rxy (t) o Rxy [n] e’ la correlazione di potenza. Per gli altri casi vale quanto detto in sezione 2.2.
Inoltre, quando x(t) e y(t) sono funzioni generalmente continue, la funzione di correlazione Rxy (t) risulta
continua.
Significato e utilita’. Circa il significato e l’utilita’ della funzione di correlazione, questi possono capirsi
ricordando che la correlazione fra segnali e’ una misura della loro somiglianza, nel senso chiarito in sezione
2.1. Allora, osservando le definizioni, si vede che la funzione di correlazione misura la somiglianza fra
il segnale y ed una copia traslata del segnale x, di t secondi nel caso continuo e di n passi nel caso
discreto. Questa informazione e’ piu’ completa di quella fornita dalla semplice correlazione e permette
di confrontare i segnali a meno di una traslazione arbitraria. Questa informazione e’ spesso utile. Per
esempio, permette di identificare la traslazione che rende i due segnali piu’ simili, che e’ quella per cui
il modulo della funzione di correlazione raggiunge il massimo. In particolare, ricordando che energia e
potenza sono invarianti ad una traslazione, dalla disuguaglianza di Schwartz segue che, per segnali e
sequenza di energia p p
|Rxy (t)| ≤ Ex Ey |Rxy [n]| ≤ Ex Ey (19)
mentre nel caso di potenza
p p
|Rxy (t)| ≤ Px Py |Rxy [n]| ≤ Px Py (20)

dove il segno uguale vale se e solo se x(τ +t) = ay(τ ) oppure xk+n = ayk per qualche numero complesso a.
Le relazioni precedenti mostrano che la funzione di correlazione e’ limitata e il suo modulo e’ al massimo
pari alla radice del prodotto delle energie o delle potenze. Inoltre, se per un certo t o n raggiunge il
massimo valore, i due segnali hanno la stessa forma quando uno dei due e’ traslato di quel t o n.

Esempio 6 Consideriamo le funzioni x(t) = rect(t − T ) e y(t) = rect(t). Questi sono due segnali con
energia unitaria, come si vede facilmente. Nell’esempio 7 faremo vedere che la loro funzione di correlazione
e’ pari a Rxy (t) = tri(t − T ). I segnali e la funzione di correlazione sono riportati in figura 3. Dalla figura
si vede che la funzione di correlazione ha un massimo, pari a uno e cioe’ alla radice del prodotto delle
energie, per t = T , il che indica, correttamente, che i due segnali sono uguali a meno di una traslazione
di T secondi. 

Legame fra correlazione di energia e convoluzione. Consideriamo due funzioni, x(t) e z(t), e
calcoliamo la funzione di correlazione di energia fra la prima funzione e la seconda ribaltata sull’asse dei
tempi e coniugata, e cioe’ x(t) ⊙ z ∗ (−t). Per valutare la correlazione, definiamo un segnale y(t) = z ∗ (−t),
cosi’ che x(t) ⊙ z ∗ (−t) = x(t) ⊙ y(t). A questo punto valutiamo la funzione di correlazione fra x e y
usando la definizione. Risulta:
Z +∞ Z +∞
x(t) ⊙ z ∗ (−t) = x(t) ⊙ y(t) = x(τ + t)y ∗ (τ )dτ = x(τ + t)z(−τ )dτ.
−∞ −∞

Ora, effettuando la sostituzione τ = −η, si ottiene


Z −∞ Z +∞
x(t) ⊙ z ∗ (−t) = − x(t − η)z(η)dη = x(t − η)z(η)dη = x(t) ∗ z(t).
+∞ −∞

L’ equazione precedente mostra che esiste un legame fra la funzione di correlazione di energia e la con-
voluzione, che discende dalla somiglianza fra gli intergali di definizione. La stessa relazione si ricava fra
la funzione di correlazione di energia discreta e la convoluzione discreta. Invece, la relazione precedente

14
Figura 3: Esempio di funzione di correlazione.

non vale nel caso di correlazioni di potenza, come si vede subito. Inoltre, la relazione si puo’ scrivere
in forma diversa. Infatti, usando ancora y(t) = z ∗ (−t) (oppure, nel caso discreto, yn = z−n∗
), cosi’ che

z(t) = y (−t), e sotituendo nell’ultima equazione (e nella sua estensione al caso discreto) si ottiene

x(t) ⊙ y(t) = x(t) ∗ y ∗ (−t) ∗


xn ⊙ yn = xn ∗ y−n . (21)

La relazione precedente dice che, sia nel caso continuo che discreto, la funzione di correlazione di energia
fra due segnali x e y e’ pari alla convoluzione di x con una versione di y coniugata e ribaltata sull’ asse
dei tempi.

Esempio 7 Consideriamo le funzioni x(t) = rect(t − T ) e y(t) = rect(t) e calcoliamo la loro funzione
di correlazione. I segnali sono entrambi di energia, e quindi possiamo usare la (21) per trasformare la
correlazione in una convoluzione. Inoltre, y(t) e’ reale e pari, quindi y(t) = y ∗ (−t), ed abbiamo:

x(t) ⊙ y(t) = x(t) ∗ y ∗ (−t) = x(t) ∗ y(t) = rect(t − T ) ∗ rect(t) = tri(t − T )

dove nell’ultimo passaggio abbiamo usato il fatto che rect(t) ∗ rect(t) = tri(t) e che nella convoluzione,
quando si trasla uno dei segnali, il risultato subisce la stessa traslazione. 

Per concludere, notiamo che la funzione di correlazione gode di simmetrie e proprieta’ che pero’
non approfondiamo. Notiamo anche che spesso la funzione di correlazione si chiama, semplicemente, la
correlazione fra i segnali. Questo crea una ambiguita’ con la correlazione definita in sezione 2.2, che viene
risolta valutando il contesto.

3.2 Funzione di autocorrelazione


Considerato un segnale x e’ possibile associare a questo segnale una funzione, detta la funzione di au-
tocorrelazione, che e’ pari alla funzione di intercorrelazione del segnale con se stesso. Naturalmente, si

15
deve usare la correlazione di energia o di potenza, discreta o continua a seconda della natura del segnale.
Questa funzione e’ quindi pari a Rxx (t) o a Rxx [n] nei casi continuo e discreto e si puo’ indicare in forma
piu’ compatta indicando x una sola volta, e cioe’ scrivendo Rx (t) o a Rx [n]. Allora, nei quattro casi che
stiamo considerando, la funzione di autocorrelazione, esplicitamente, si scrive cosi’:
+∞ T
1
Z Z
Rx (t) = x(t) ⊙ x(t) = x(τ + t)x∗ (τ )dτ Rx (t) = x(t) ⊙ x(t) = lim x(τ + t)x∗ (τ )dτ.
−∞ T →+∞ 2T −T

+∞ N
X 1 X
Rx [n] = xn ⊙ xn = xk+n x∗k Rx [n] = xn ⊙ xn = lim xk+n x∗k .
N →+∞ 2N
k=−∞ k=−N

Proprieta’ e significato. Come si verifica facilmente4 , la funzione di autocorrelazione gode di simmetria


Hermitiana e cioe’
Rx (t) = Rx∗ (−t) Rx [n] = Rx∗ [−n].
Inoltre, se x e’ reale, la funzione di autocorrelazione e’ reale e pari. Un’altra relazione utile e’ che, per
segnali di energia,
Rx (0) = Ex Rx [0] = Ex
ed analogamente, per segnali di potenza,

Rx (0) = Px Rx [0] = Px .

Questi fatti seguono immediatamente valutando l’integrale o la sommatoria di autocorrelazione per t o


n pari a zero e confrontandolo con la definizione di energia o potenza. A parole, le espressioni precedenti
dicono che l’autocorrelazione valutata in zero e’ pari alla potenza o all’energia del segnale. Infine, dalle
(19) e (20), segue che, per segnali di energia,

|Rx (t)| ≤ Ex = Rx (0) |Rx [n]| ≤ Ex = Rx [0]

e per segnali di potenza

|Rx (t)| ≤ Px = Rx (0) |Rx [n]| ≤ Px = Rx [0]

Le ultime relazioni mostrano che la funzione di autocorrelazione e’ limitata ed ha un massimo in zero.


La funzione di autocorrelazione, valutata in t o n, misura la somiglianza di un segnale con una copia
del segnale stesso traslata di t o n. Come abbiamo visto, il massimo si ottiene, naturalmente, per una
traslazione pari a zero. Per segnali di energia, che hanno un supporto limitato, all’aumentare della
traslazione, i supporti delle due copie si sovrappongono sempre di meno e la funzione tende a zero. Per
segnali di potenza, se non sono presenti componenti periodici o costanti, all’aumentare della traslazione la
somiglianza tende a diminuire, e quindi la funzione di autocorrelazione tende verso lo zero. Ma questo non
e’ vero per segnali periodici, per i quali e’ facile verificare che l’autocorrelazione e’ essa stessa periodica,
con lo stesso periodo. Anche nel caso di un segnale costante, l’autocorrelazione e’ una costante e non
tende a zero.

Esempio 8 Autocorrelazione della funzione rettangolare. Consideriamo il segnale x(t) = rect(t) e


calcoliamone l’autocorrelazione. Il segnale e’ di energia, reale e pari e quindi possiamo scrivere

rect(t) ⊙ rect(t) = rect(t) ∗ rect∗ (−t) = rect(t) ∗ rect(t) = tri(t).


4 Basta ragionare sugli integrali e le sommatorie che compaiono nella definizione. La dimostrazione viene lasciata come
esercizio.

16
Esempio 9 Autocorrelazione dell’esponenziale complesso. Consideriamo il segnale x(t) = aej(2πf0 t+φ) ,
cioe’ un esponenziale complesso di ampiezza reale a, frequenza f0 e fase φ, e calcoliamone l’autocorrela-
zione. Il segnale e’ di potenza e quindi usiamo la correlazione di potenza. Abbiamo
Z T
1
Rx (t) = lim aej[2πf0 (τ +t)+φ] a∗ e−j(2πf0 τ +φ) dτ =
T →+∞ 2T −T

T
1
Z
2
= a lim ej(2πf0 τ +φ) ej2πf0 t e−j(2πf0 τ +φ) dτ
T →+∞ 2T −T
T
1
Z
= a2 ej2πf0 t lim dτ = a2 ej2πf0 t .
T →+∞ 2T −T

A parole, la autocorrelazione di un esponenziale complesso di ampiezza a, frequenza f0 e fase φ e’ un


esponenziale complesso di ampiezza a2 , frequenza f0 e fase zero. 

Sistemi LTI. Consideriamo un sistema Lineare Tempo Invariante (LTI) continuo, con risposta impulsiva
h(t), e assumiamo che h(t) sia un segnale di energia, come e’ vero in tutti i sistemi fisici. Supponiamo
di mandare nel sistema un segnale x(t) e indichiamo con y(t) l’uscita. Ci chiediamo come sono legate
le autocorrelazioni del segnale di ingresso e di uscita. In appendice 5.3 facciamo vedere che, sia per la
funzione di correlazione di energia che per quella di potenza, risulta

Ry (t) = Rx (t) ∗ Rh (t). (22)

L’ ultima relazione, a parole, dice che l’autocorrelazione dell’uscita e’ pari alla convoluzione dell’autocor-
relazione dell’ ingresso con l’autocorrelazione della risposta impulsiva. Questo e’ un legame semplice e
facile da ricordare, visto che e’ molto simile al legame che esiste fra i segnali di ingresso e uscita di un
sistema LTI. Notiamo che nella relazione di sopra, le correlazioni Rx e Ry sono entrambi di energia o di
potenza, mentre la correlazione Rh e’ sempre di energia. Inoltre, la convoluzione e’ ovviamente quella
continua.
Le stesse considerazioni possono ripetersi nel caso discreto. In particolare, dato un sistema LTI
discreto con risposta impulsiva hn di energia, la relazione fra le autocorrelazioni dell’ ingresso e dell’
uscita e’
Ry [n] = Rx [n] ∗ Rh [n] (23)
dove le correlazioni Rx e Ry sono entrambi di energia o di potenza, mentre la correlazione Rh e’ sempre
di energia. Inoltre, la convoluzione e’ ovviamente quella discreta.

3.3 Spettri
Dato un segnale o una sequenza di energia x, si chiama il suo spettro di densita’ di energia (spettro di
energia), indicato con Ex (f ), la trasformata di Fourier dell’ autocorrelazione:

Ex (f ) = F T {Rx (t)} Ex (f ) = F T {Rx [n]}.

Analogamente, dato un segnale o una sequenza di potenza x, si chiama il suo spettro di densita’ di
potenza (spettro di potenza), indicato con Px (f ), la trasformata di Fourier dell’ autocorrelazione:

Px (f ) = F T {Rx (t)} Px (f ) = F T {Rx [n]}.

Visto che l’autocorrelazione gode di simmetria Hermitiana, gli spettri sono funzioni reali della frequenza
e non complesse. In particolare, se il segnale e’ reale e pari, lo spettro e’ reale e pari. Inoltre, come
verificheremo in seguito, gli spettri sono non negativi. Notiamo anche che, per il caso discreto, la DTFT
puo’ essere normalizzata o meno: si ottiene uno spettro normalizzato o meno. Nel seguito della dispensa

17
consideriamo il caso di una DTFT non normalizzata, e indichiamo con T la durata di un campione e con
F = 1/T la frequenza di campionamento, che coincide col periodo della trasformata. Il caso normalizzato
si ottiene ponendo T = F = 1.
Significato, proprieta’. Per comprendere il significato di queste funzioni, ricordiamo che la funzione
di autocorrelazione valutata in zero e’ pari all’energia o alla potenza, a seconda del segnale. Allora,
applicando la proprieta’ dei valori nell’origine5 nel caso continuo si ricava
Z Z
Ex (f )df = Ex Px (f )df = Px

e nel caso discreto


F/2 F/2
1 1
Z Z
Ex (f )df = Ex Px (f )df = Px .
F −F/2 F −F/2

Le equazioni precedenti, a parole, dicono che integrando lo spettro di energia o di potenza si ottiene
l’energia o la potenza del segnale. Questo fatto giustifica il nome dato a queste funzioni. Infatti, visto
che il differenziale df che compare negli integrali e’ misurato in Hz, e che dall’integrale si ottiene una
energia o una potenza, queste funzioni danno l’energia o la potenza del segnale per Hz, e cioe’ la densita’
di energia e potenza per unita’ di frequenza. Quindi, per un segnale fisico, per il quale le energie sono
misurate in Joule e le potenze in W att, lo spettro di densita’ di energia si misura in Joule/Hz e quello
di potenza in W att/Hz.
Legame fra spettro di densita’ di energia e trasformata. Usando la (21), per l’autocorrelazione
di un segnale di energia si puo’ scrivere,

Rx (t) = x(t) ⊙ x(t) = x(t) ∗ x∗ (−t) Rx [n] = xn ⊙ xn = xn ∗ x∗−n .

Ora notiamo che F T {x∗ (−t)} = X ∗ (f ) e che F T {x∗−n } = X ∗ (f ), come si verifica facilmente6 . Inoltre,
sia nel caso continuo che discreto vale la proprieta’ di convoluzione, e cioe’ che la trasformata della
convoluzione di due segnali e’ pari al prodotto delle trasformate. A questo punto, facendo la trasformata
delle ultime due relazioni si ottiene, sia per il caso continuo che per quello discreto,

Ex (f ) = X(f )X ∗ (f ) = |X(f )|2 . (24)

A parole la precedente relazione dice che lo spettro di densita’ di energia e’ pari al modulo quadro della
trasformata di Fourier del segnale o della sequenza. A sua volta, il modulo della trasformata alla frequenza
f e’ pari all’ampiezza della componente armonica di x(t) a quella frequenza. Quindi, dallo spettro di
energia si puo’ ricostruire in modo esatto il modulo della trasformata ovvero l’ampiezza delle componenti
armoniche, ma si perde completamente l’informazione sulla fase.

Esempio 10 Autocorrelazione e spettro del seno cardinale. Consideriamo il segnale x(t) = sinc(t) e
calcoliamone l’autocorrelazione. Innanzi tutto notiamo che il segnale e’ di energia7 e quindi vale la (24).
5 Dato
R
un segnale x(t) con trasformata X(f ), la proprieta’ dei valori nell’origine dice che x(0) = X(f )df . Allora,
considerando per esempio lo spettro di energia Ex (f ) = F T {Rx (t)}, abbiamo
Z
Ex (f )df = Rx (0) = Ex

e lo stesso ragionamento si ripete per lo spettro di potenza. Nel caso discreto, data una sequenza xn con trasformata X(f ),
R F/2
risulta x0 = F1 −F/2 X(f )df , e si possono ripetere i ragionamenti gia’ fatti per il caso continuo.
6 La dimostrazione e’ lasciata come esercizio.
7 Infatti la funzione sinc(t) e’ reale e simmetrica e quindi possiamo scrivere
Z Z ∞ Z 1 Z ∞
Esinc = sinc2 (t)dt = 2 sinc2 (t)dt = 2 sinc2 (t)dt + 2 sinc2 (t)dt.
0 0 1
Ora notiamo che il primo integrale e’ sicuramente finito, perche’ e’ l’integrale di una funzione limitata su un intervallo
limitato. Ma anche il secondo integrale e’ finito, perche’ per t ∈ [1, ∞], risulta sinc2 (t) ≤ 1/x2 . Quindi la funzione
integranda e’ limitata da 1/x2 , che e’ una funzione sommabile nell’ intervallo [1, ∞], e l’integrale sara’ finito.

18
Allora, visto che la trasformata di sinc(t) e’ rect(f ), possiamo scrivere lo spettro di energia come

Esinc (f ) = |rect(f )|2 = rect(f ).

Quindi lo spettro della sinc e’ una rect. Per ottenere l’autocorrelazione basta calcolare la trasformata
inversa dello spettro. Procedendo in questo modo, si ricava

Rsinc (t) = IF T {rect(f )} = sinc(t)

Quindi la sinc ha come autocorrelazione la sinc. Inoltre, possiamo calcolare l’energia, integrando lo
spettro oppure valutando la correlazione per t = 0. Usando il secondo metodo si ricava

Esinc = sinc(0) = 1

e cioe’ che la sinc ha energia unitaria.


Visto che ci sara’ utile in futuro, notiamo che, procedendo in modo simile, e’ facile verificare che, dato
il segnale x(t) = sinc(t/T ), e cioe’ una sinc scalata sull’asse dei tempi, per l’autocorrelazione risulta

Rx (t) = T sinc(t/T ). (25)

Esempio 11 Spettro di un esponenziale complesso. Consideriamo il segnale x(t) = aej(2πf0 t+φ) , cioe’
un esponenziale complesso di ampiezza reale a, frequenza f0 e fase φ, e calcoliamone lo spettro. Come
abbiamo visto nell’esempio 9, l’autocorrelazione di questo segnale e’ Rx (t) = a2 ej2πf0 t . Allora per lo
spettro:
Px (f ) = F T {Rx (t)} = F T {a2 ej2πf0 t } = a2 δ(f − f0 ).
Lo spettro e’ quindi un impulso di Dirac, di area a2 e centrato sulla frequenza f0 . La potenza del segnale
si ottiene integrando lo spettro, oppure valutando la correlazione in t = 0. Quindi Px = Rx (0) = a2 . 

Sistemi LTI. Consideriamo un sistema Lineare Tempo Invariante (LTI) continuo, con ingresso x(t),
uscita y(t), risposta impulsiva h(t) di energia e risposta in frequenza H(f ) = F T {h(t)}. Abbiamo gia’
studiato come sono legate le funzioni di autocorrelazione dell’ingresso x e dell’uscita y. Vediamo ora come
sono legati gli spettri. Il legame si ottiene facilmente, calcolando la trasformata della (22). In particolare,
trasformando e applicando la proprieta’ di convoluzione otteniamo

F T {Ry (t)} = F T {Rx (t)}F T {Rh (t)}.

Ora notiamo che, essendo h(t) di energia, abbiamo che F T {Rh (t)} = Eh (f ) = |H(f )|2 . Inoltre, se Rx
ed Ry sono autocorrelazioni di energia, la trasformata fornisce lo spettro di energia, mentre se sono di
potenza si ottiene lo spettro di potenza. Quindi

Ey (f ) = Ex (f )|H(f )|2 Py (f ) = Px (f )|H(f )|2 . (26)

A parole, le formule precedenti dicono che lo spettro dell’uscita si ottiene da quello dell’ingresso mol-
tiplicandolo per il modulo quadro della risposta in frequenza. Nel caso discreto, calcolando la DTFT
della (23) e procedendo nello stesso modo, si ottiene esattamente lo stesso risultato. Quindi le relazioni
precedenti valgono anche nel caso discreto.
Interpretazione e non negativita’. Consideriamo un segnale x(t) di potenza che attraversa un filtro
passabanda, con risposta in frequenza H(f ) data da

1 f0 ≤ f ≤ f1
H(f ) =
0 altrove

19
ed indichiamo con y(t) l’uscita. Come e’ noto, la trasformata del segnale di uscita, Y (f ) e’ legata a quella
di ingresso dalla relazione Y (f ) = X(f )H(f ). Allora, dato il filtro passabanda che stiamo considerando,
risulta che nel segnale di uscita sono presenti tutte e sole le componenti armoniche del segnale di ingresso
comprese nell’intervallo di frequenze (banda) [f0 , f1 ]. Di conseguenza, la potenza del segnale di uscita
puo’ essere interpretata come la potenza del segnale di ingresso in questa banda. Calcolando la potenza
si ricava: Z Z Z f1
Py = Py (f )df = Px (f )|H(f )|2 df = Px (f )df.
f0

A parole, la formula precedente dice che la potenza di x(t) nella banda [f0 , f1 ] si ottiene integrando lo
spettro di densita’ di potenza nella stessa banda. Quindi lo spettro di un segnale si puo’ interpretare
come la distribuzione della potenza di quel segnale in frequenza. Notiamo anche che la potenza e’ una
quantita’ non negativa, e quindi Py ≥ 0 qualsiasi sia la banda [f0 , f1 ]. Allora, supponiamo che Py (f ) sia
negativa per una certa frequenza f2 : scegliendo f0 = f2 − ǫ e f1 = f2 + ǫ, quando ǫ → 0 l’integrale qui
sopra avrebbe un valore negativo, il che non puo’ essere: quindi Py (f ) ≥ 0 per ogni f , e cioe’ a parole, lo
spettro di densita’ di potenza e’ non negativo. Esattamente le stesse considerazioni si possono ripetere
nel caso di segnali di energia oppure nei casi discreti.
Banda. Come detto in sezione 1.2 la banda di un segnale x(t) e’ pari al supporto della sua trasformata
di Fourier X(f ). Ci chiediamo se, nella valutazione della banda, possiamo sostituire la trasformata con lo
spettro. Per segnali di energia, questo e’ possibile. Infatti, per segnali di energia risulta Ex (f ) = |X(f )|2
e quindi lo spettro e la trasformata hanno lo stesso supporto. Valutare la banda a partire dallo spettro
e’ possibile anche per segnali di potenza, ma occorre fare qualche precisazione. Per chiarire questo
punto consideriamo un esempio: supponiamo che il segnale sia x(t) = 1 + sinc(t). La trasformata di
questo segnale e’ X(f ) = δ(f ) + rect(f ) il cui supporto e’ l’intervallo di frequenze [−1/2, 1/2]. Invece,
lo spettro, che si calcola facilmente valutando l’autocorrelazione di potenza e facendone la trasformata,
e’ Px (f ) = δ(f ), il cui supporto e’ costituito dalla sola origine dell’asse delle frequenze. Dall’esempio si
vede che il supporto dello spettro e’ in generale diverso da quello della trasformata e quindi produce una
diversa banda. D’altra parte, questo fatto va’ interpretato alla luce dell’osservazione 1. In particolare
notiamo che nello spettro di potenza non rimane traccia della parte transitoria del segnale (in questo caso
la sinc) ma solo della parte permanente (la costante unitaria). Ma se il segnale e’ di potenza, la parte
transitoria non ha interesse. In questo senso, la banda puo’ essere valutata a partire dallo spettro anche
per segnali di potenza.
Cross-spettro. Dati due segnali x e y, si chiama il loro cross-spettro la trasformata di Fourier della
loro funzione di intercorrelazione. Naturalmente esistono quattro diversi cross-spettri, di energia o di
potenza, continui o discreti. Il cross-spettro gode di simmetrie e proprieta’ che pero’ non approfondiamo.
Ci limitiamo a notare che, per il caso di energia, dalla (21) e dal fatto che F T {y ∗ (−t)} = Y ∗ (f ) e

che F T {y−n } = Y ∗ (f ), usando la proprieta’ di convoluzione si ottengono le seguenti espressioni per i
cross-spettri
Exy (f ) = X(f )Y ∗ (f ) Exy [n] = X(f )Y ∗ (f ).

20
4 Basi ortonormali

4.1 Basi ortonormali


Come considerazione preliminare, notiamo che il concetto di base ortonormale, che vedremo fra poco,
puo’ essere introdotto in modo astratto, lavorando su un generico, non specificato, spazio lineare. Invece,
per concretezza, introdurremo il concetto lavorando su uno spazio preciso, ed in particolare quello dei
segnali di energia. In seguito, estenderemo il concetto agli spazi di potenza e discreti.
Spazio generato da un insieme di funzioni. Supponiamo assegnato un insieme di N segnali di
energia, indicati con fn (t) per n = 0, ..., N −1. Assegnati N coefficienti complessi an , possiamo considerare
il segnale che si ottiene dalla combinazione lineare delle funzioni pesate con i coefficienti e cioe’
N
X −1
x(t) = an fn (t). (27)
n=0

Notiamo che il segnale x(t) e’ completamente specificato dai coefficienti an , che diremo i coefficienti
associati al segnale, ovvero dal vettore a = (a0 , ..., aN −1 ) ∈ C N . Possiamo ora considerare l’insieme di
tutti i segnali che si ottengono facendo variare i coefficienti in tutte le maniere possibili. Questo insieme,
indicato con Γ, contiene tutti e soli i segnali che si possono scrivere nella forma data dalla (27). Visto
che sommando segnali di energia si ottiene un segnale di energia, Γ e’ un insieme di segnali di energia.
Inoltre, e’ facile verificare8 che Γ e’ un sottospazio dello spazio vettoriale dei segnali di energia. Questo
spazio si dice generato dalle funzioni fn .
Base ortonormale. Un caso notevole e’ quello in cui le N funzioni verificano le seguenti condizioni
Z 
1 se i = j
fi ⊙ fj = fi (t)fj∗ (t)dt = i, j = 0, ..., N − 1.
0 se i 6= j

A parole, le condizioni precedenti dicono che presi due segnali diversi (i 6= j), questi hanno correlazione
nulla e sono quindi ortogonali. Inoltre, visto che fi ⊙ fi e’ pari all’energia del segnale, dicono anche che
tutte le funzioni fn hanno energia unitaria. Se le funzioni verificano le condizioni precedenti, l’insieme
delle funzioni si dice una base ortonormale (continua di energia). Notiamo anche che, usando la sequenza
δn , cioe’ l’impulso discreto di (4), le condizioni di ortonormalita’ si possono scrivere in forma piu’ compatta
(e piu’ pratica nei calcoli) come
Z
fi (t)fj∗ (t)dt = δi−j i, j = 0, ..., N − 1. (28)

Spazio generato da una base ortonormale. Supponiamo assegnata una base ortonormale e conside-
riamo lo spazio Γ generato dalla base. Come sappiamo, dato un vettore a = (a0 , a1 , ..., aN −1 ), da questo
si ottiene un segnale di Γ, usando la (27). Inoltre, quando le fn sono ortonormali, per ogni segnale di Γ
8 Bastaverificare che Γ sia chiuso rispetto alle operazioni di somma e prodotto per uno scalare. Per la somma, dati
x, y ∈ Γ associati ai vettori a, b ∈ C n , si vede subito che la loro somma z = x + y, e’ associata al vettore c = a + b ed e’
quindi un elemento di Γ. Per il prodotto si ragiona in modo analogo.

21
e’ facile calcolare i coefficienti associati. Infatti, dato x(t) ∈ Γ, si verifica9 che
Z
an = x(t)fn∗ (t)dt n = 0, ..., N − 1. (29)

Notiamo che le (27) e (29) permettono di passare da un segnale al vettore associato e vice versa. In
particolare, la (29) permette di passare da un segnale ai coefficienti e puo’ essere considerata come
una operazione di trasformazione del segnale in un vettore, mentre la (27) effettua il passaggio inver-
so ed e’ quindi una anti-trasformazione (ricostruzione). Queste due relazioni quindi stabiliscono una
corrispondenza biunivoca fra i segnali di Γ e i vettori di C N .
Come abbiamo visto, lo spazio Γ generato da una base ortonormale e’ in corrispondenza biunivoca
con i vettori complessi C N . Ma in realta’ vale un risultato piu’ forte. Infatti sappiamo che sia Γ che
C N possono essere usati per costruire degli spazi lineari, usando le opportune definizioni di somma fra
vettori, prodotto per uno scalare e prodotto interno. Ebbene, e’ possibile verificare che i due spazi lineari
cosi’ ottenuti sono isomorfi10 . Di questa isomorfia non approfondiamo tutti gli sviluppi, per brevita’, e
ci limitiamo a discutere alcuni aspetti.
L’isomorfia fra lo spazio generato da una base ortonormale e lo spazio dei vettori complessi e’ utile.
Gia’ sappiamo che i segnali di uno spazio possono essere pensati come punti e vettori, ma in questo caso
il risultato e’ piu’ forte: infatti i segnali dello spazio possono essere associati a punti precisi di C N e non
genericamente pensati come punti. Inoltre, l’isomorfia degli spazi, permette di spostare completamente
l’analisi dai segnali ai vettori complessi, dove normalmente i problemi sono piu’ facili da visualizzare e
risolvere. In particolare, molte operazioni sui segnali possono essere svolte equivalentemente sui vettori
associati e risultano piu’ semplici. Per fare un esempio, consideriamo un segnale x ∈ Γ, associato ad un
vettore a ∈ C N . E facile verificare11 che per l’energia del segnale, Ex , risulta
Z N
X −1
Ex = |x(t)|2 dt = |ai |2 . (30)
i=0

La relazione precedente mostra che l’energia di x, che in generale richiede la valutazione di un integrale,
si riduce alla valutazione di una sommatoria, piu’ facile da calcolare. Semplificazioni analoghe si hanno
su tutte le altre operazioni definite negli spazi lineari.

Esempio 12 Base delle funzioni rettangolari. Consideriamo un intervallo sull’asse dei tempi di durata
T , per esempio quello che va da t = 0 a t = T , che si indica come [0, T ]. Suddividiamo, questo intervallo in
9
PN −1
Consideriamo un segnale x ∈ Γ. Questo segnale si puo’ scrivere come x(t) = k=0 ak fk (t). Ora valutiamo
R
x(t)fn∗ (t)dt. Sostituendo l’espressione di x(t) e usando l’ortonormalita’ della base abbiamo
Z Z NX
−1 N
X −1 Z N
X −1
x(t)fn∗ (t)dt = ak fk (t)fn∗ (t)dt = ak fk (t)fn∗ (t)dt = ak δk−n = an
k=0 k=0 k=0

come volevamo verificare.


10 L’isomorfia rispetto alla somma vettoriale e al prodotto scalare e’ ovvia. Per quanto riguarda il prodotto interno, dati

x(t) e y(t) e i loro vettori associati a e b, possiamo scrivere:


Z Z "NX−1
# "N −1
X
# N
X −1 N
X −1 Z
x⊙y = x(t)y ∗ (t)dt = an fn (t) b∗m fm

(t) dt = ∗
an b∗m fn (t)fm (t)dt.
n=0 m=0 n=0 m=0

Usando le condizioni di ortonormalita’ nell’ultimo integrale ricaviamo


N
X −1 N
X −1 N
X −1
x⊙y = an b∗m δn−m = an b∗n = a ⊙ b
n=0 m=0 n=0

il che prova l’isomorfia.


11 La relazione (30) si puo’ anche scrivere come

Ex = x ⊙ x = a ⊙ a
e discende dall’ isomorfia del prodotto interno nei due spazi.

22
Figura 4: Le funzioni della base rettangolare, per N = 5.

N sottointervalli, di uguale durata D = T /N . Indichiamo questi sotto-itervalli con In per n = 0, ..., N − 1


e cioe’ poniamo In = [nD, (n + 1)D]. Ora consideriamo N funzioni rettangolari definite cosi’
(
√1 t ∈ In
fn (t) = D
0 t∈/ In

Queste funzioni sono mostrate in figura 4, dove si vede che la n-esima funzione e’ una funzione rettangolare,
diversa da zero in In e nulla altrove. Queste funzioni sono tutte di energia ed in particolare hanno tutte
energia unitaria, come e’ facile controllare. Inoltre, e’ facile verificare che la correlazione (CE) fra due
generiche funzioni diverse e’ pari a zero, perche’ le funzioni hanno supporti disgiunti ed il loro prodotto
e’ la funzione identicamente nulla. Quindi queste funzioni verificano le condizioni (28) e sono una base
ortonormale.
Lo spazio Γ generato dalla base di funzioni rettangolari che abbiamo appena introdotto comprende
tutti i segnali che si scrivono come in (27), usando le funzioni rettangolari ed un qualsiasi vettore a. Un
esempio e’ mostrato in figura 4 dove si vede che questi segnali sono diversi da zero nell’intervallo [0, T ] e
sono costanti a tratti, negli intervalli In , con punti di discontinuita’ agli estremi degli intervalli. 

Proiezione ortogonale. Consideriamo una base ortonormale e lo spazio generato Γ. Consideriamo un


segnale y(t) di energia, non necessariamente compreso in Γ. Anche se non e’ compreso in Γ, il segnale
y(t) puo’ essere approssimato con uno dei segnali di Γ. Per scegliere il segnale approssimante possiamo
calcolare la distanza d(x, y), definita in (15), al variare di x su Γ e scegliere il segnale che risulta a distanza
minima da y. Questo segnale viene detto la proiezione ortogonale12 di y su Γ. Il concetto di proiezione
12 Si puo’ verificare che i coefficenti an associati alla proiezione ortogonale sono dati da
Z
an = y(t)fn∗ (t)dt,

23
Figura 5: Approssimazione di un segnale con la base rettangolare.

ortogonale e’ utile in molte situazioni di interesse pratico e si presta a diversi sviluppi che, per brevita’,
non vediamo. Ci limitiamo a fare un esempio.
Esempio 13 Approssimazione con la base rettangolare. Consideriamo ancora la base rettangolare in-
trodotta nell’ esempio 14 e lo spazio generato Γ. Supponiamo che sia assegnato un segnale y(t) diverso
da zero solo nell’intervallo [0, T ]. Un esempio di proiezione ortogonale di y in Γ e’ mostrata in figura
5. Come si vede, la proiezione ortogonale e’ un segnale costante a tratti, che approssima y. Notiamo
che, nella base rettangolare, sia T che N sono parametrici e possono essere aumentati a piacere. Allora,
aumentando N , l’ approssimazione migliora e la differenza con y puo’ essere ridotta a piacere, come si
vede in figura. Inoltre aumentando T , sempre piu’ segnali possono essere approssimati. In pratica, con
T e N opportunamente grandi, qualsiasi segnale y puo’ essere ben approssimato con un segnale di Γ. 

Costruzione di una base ortonormale. Supponiamo assegnato un insieme di M segnali di energia,


indicati con gm (t) per m = 0, ..., M − 1, non necessariamente ortonormali. Come abbiamo visto, questi
segnali generano un sottospazio Γ. Una circostanza che non approfondiamo ma che e’ utile segnalare, e’
che e’ sempre possibile trovare una base ortonormale per questo spazio. Ovvero, che esiste un insieme
di N ≤ M segnali di energia ortonormali, indicati con fn (t) per n = 0, ..., N − 1, tali che lo spazio
generato dai segnali f coincide con quello generato dai segnali g. In particolare, la base ortonormale si
puo’ ricavare a partire dalle funzioni g applicando la procedura di Grahm-Schmid [4, 5].
Basi di potenza e discrete. Oltre alle basi ortonormali composte da funzioni continue di energia,
che abbiamo considerato fino ad ora, e’ naturalmente possibile considerare basi ortonormali composte da
funzioni di potenza oppure da sequenze di energia o di potenza. Per queste basi, e’ possibile ripetere lo
sviluppo che abbiamo fatto praticamente senza modifiche. Naturalmente, e’ necessario usare il prodotto
interno adeguato al tipo base (e cioe’ la correlazione continua o discreta, di energia o di potenza). In
particolare, si possono scrivere le condizioni di ortonormalita’ e le formule di trasformazione diretta e
inversa, introdurre il concetto di proiezione ortogonale e mostrare che lo spazio generato dalla base e’
isomorfo allo spazio lineare dei vettori complessi. Una analisi completa e’ inutile, data la somiglianza col
caso di energia, e non verra’ svolta. Ci limitiamo a fare un esempio.
Esempio 14 Base degli esponenziali complessi. Per un assegnato N , consideriamo i seguenti segnali:
fn (t) = ej2πnt n = 0, ..., N − 1.
cioe’ si ottngono applicando la formula di trasformazione ad y.

24
Come si vede, fn (t) e’ un esponenziale complesso di frequenza n e periodo 1/n. Visto che sono periodici
con un periodo sottomultiplo di uno, i segnali sono anche tutti periodici di periodo 1 e sono segnali di
potenza. Calcoliamo la correlazione CP fra due generici segnali dell’ insieme, fi e fj con i 6= j. Visto che
i segnali sono periodici di periodo 1, per la correlazione possiamo usare la forma semplificata di (18) con
T = 1. Allora, ponendo k = i − j 6= 0, abbiamo
Z 1 Z 1 Z 1 Z 1
j2πti −j2πtj j2πtk
e e dt = e dt = cos(2πtk)dt + j sin(2πtk)dt = 0
0 0 0 0

visto che negli ultimi due integrali la funzione integranda e’ sinusoidale ed e’ integrata su un multiplo del
periodo. Ora calcoliamo l’autocorrelazione del segnale fi . Abbiamo
Z 1 Z 1
j2πti −j2πti
e e dt = dt = 1.
0 0

Le ultime due relazioni possono essere scritte in forma compatta come segue
Z 1
fi (t)fj∗ (t)dt = δi−j i, j = 0, ..., N − 1. (31)
0

e l’ultima relazione mostra che gli esponenziali complessi che abbiamo considerato formano una base
ortonormale (continua, di potenza). 

Basi a dimensione infinita. Le basi che abbiamo discusso fino ad ora, erano tutte composte da
un numero finito e pari a N di funzioni. D’altra parte, e’ possibile considerare anche il caso di basi
ortonormali composte da un numero infinito di funzioni, fn (t) per n = −∞, ..., +∞. Per le basi infinite
valgono molti dei risultati che abbiamo visto, ma non tutti. Una analisi completa e’ al di fuori dei nostri
scopi e ci limitiamo ad alcuni commenti.
Consideriamo prima il caso in cui le funzioni della base sono di energia. In questo caso, le condizioni di
ortonormalita’ sono identiche a quelle per il caso finito con la sola differenza che scompare la limitazione
sugli indici e valgono per i, j = −∞, ..., ∞:
Z
fi (t)fj∗ (t)dt = δi−j . (32)

Anche in questo caso la base produce uno spazio, indicato con Γ, e composto da tutti i segnali che si
ottengono da una combinazione lineare delle funzioni della base, e cioe’ come
X
x(t) = an fn (t), (33)
n

al variare in tutti i modi dei coefficienti. Si noti che il segnale x(t) e’ associato ad una sequenza an
per n = −∞, ..., ∞ e non piu’ ad un vettore, come succedeva nel caso finito. Anche in questo caso,
dato x ∈ Γ, e’ possibile ottenere13 la sequenza associata con una formula identica alla (29), valutata per
n = −∞, ..., ∞ : Z
an = x(t)fn∗ (t)dt. (34)

Quindi, come per il caso finito, la base stabilisce una corrispondenza biunivoca fra i segnali di Γ e le
sequenze. Una differenza importante rispetto al caso finito e’ che lo spazio generato dalla base non
contiene solo segnali di energia, ma anche segnali di potenza o di potenza infinita. Per questo motivo Γ
e’ uno spazio vettoriale ma non uno spazio lineare, poiche’ non si riesce a definire un prodotto interno
adeguato per tutti i segnali che contiene.
Naturalmente, e’ possibile considerare basi di dimensione infinita composte da segnali di potenza
oppure da sequenze di energia o di potenza. Per questi casi si possono estendere le formule gia’ viste nel
caso di segnali energia, usando la correlazione appropriata.
13 La verifica e’ identica a quella di nota 9.

25
4.2 Teorema del Campionamento
Dato un segnale x(t) con trasformata di Fourier X(f ), se la trasformata e’ identicamente nulla al di
fuori della banda [−F/2, F/2], si dice che il segnale e’ limitato in banda con banda F . Come e’ noto
dal Teorema del Campionamento, un segnale limitato in banda puo’ essere ricostruito a partire da una
sequenza ottenuta campionando il segnale con un passo di campionamento T = 1/F ovvero con una
frequenza F . Piu’ precisamente, indicando la sequenza dei campioni col simbolo14 xn , il campione
n-esimo della sequenza e’ pari al valore del segnale x(t) per t = nT , e quindi

xn = x(nT ). (35)

Cio’ posto, vale la seguente formula di interpolazione


 
X t − nT
x(t) = xn sinc (36)
n
T

dove la funzione sinc e’ il seno cardinale definito dalla (1). Si noti che il Teorema stabilisce una corri-
spondenza biunivoca fra l’insieme dei segnali limitati in banda, che indicheremo con Λ, e l’insieme delle
sequenze, che indicheremo con ∆. In particolare, la (35) permette di passare dal segnale alla sequenza
mentre la (36) effettua il passaggio inverso.
La formula di interpolazione data dal Teorema del Campionamento puo’ essere inquadrata nello
sviluppo geometrico che abbiamo introdotto nelle sezioni precedenti, cosa che faremo nel seguito di
questa sezione. Come vedremo, questo approccio arricchisce la comprensione del Teorema e permette di
ricavare in modo relativamente semplice diversi risultati utili.
Base delle funzioni seno cardinale. Consideriamo un insieme numerabile di funzioni indicate con
fn (t) e date da  
t − nT
fn (t) = sinc n = −∞, ..., ∞.
T
Come si vede dalla definizione, la n-esima funzione e’ semplicemente una funzione sinc(t/T ) centrata
sull’istante nT . Alcune di queste funzioni sono mostrate in figura 6. Come abbiamo visto nell’esempio
10, sinc(t/T ) e’ una funzione di energia, con energia pari a T . Visto che una traslazione non cambia
l’energia di un segnale, risulta che tutte le funzioni fn sono di energia ed hanno energia T . Inoltre, come
e’ facile verificare15 queste funzioni sono mutuamente ortogonali (in energia). Questi fatti si scrivono in
forma compatta come segue
   
t − iT t − jT
Z Z

fi (t)fj (t)dt = sinc sinc dt = T δi−j . (37)
T T
14 Sinoti che usiamo lo stesso simbolo, x, per indicare il segnale e la sequenza dei suoi campioni: sara’ chiaro dal contesto
e dalla variabile indipendente a quale dei due il simbolo si riferisce.
15 Ricordiamo che nell’esempio 10 abbiamo calcolato la funzione di correlazione del seno cardinale scalato. In particolare,

indicando il seno scalato con x(t) = sinc(t/T ) avevamo ricavato la (25) che riscriviamo qui sotto:
 
t
Rx (t) = T sinc .
T
Valutando l’ultima equazione per t = (j − i)T dove i, j sono interi e ricordando che sinc(t) si annulla nei punti interi tranne
in zero dove vale uno abbiamo
Rx [(j − i)T ] = T sinc(j − i) = T δj−i .
Dall’ultima relazione, scrivendo esplicitamente la funzione di autocorrelazione di energia ed usando δj−i = δi−j ricaviamo
 
τ + (j − i)T τ 
Z
Rx [(j − i)T ] = sinc sinc dτ = T δi−j .
T T
Infine effettuando la sostituzione τ = t − jT nell’integrale otteniamo
   
t − iT t − jT
Z
sinc sinc dt = T δi−j .
T T
che coincide con la (37).

26
Figura 6: La base seno cardinale.

Le equazioni precedenti sono analoghe alle (32) e mostrano che queste funzioni costituiscono una base
ortonormale, di dimensione infinita. L’unica differenza, irrilevante, con le (32) e’ il fatto che le sinc sono
una base con energia T e non unitaria: quindi valgono ancora tutti i risultati basati sulle condizioni di
ortonormalita’, a patto di scalarli opportunamente per tenere conto dell’ energia non unitaria.
Spazio generato dalla base. Lo spazio generato dalla base seno cardinale e’ quello di tutti i segnali che
si possono scrivere come in (36) e quindi coincide con l’insieme dei segnali limitati in banda Λ. Notiamo
anche che, dato un segnale x(t) ∈ Λ, e’ naturalmente possibile applicare la (34) per ricavare la sequenza
associata. D’altra parte, come indicato dal Teorema, e’ anche possibile ricavare la sequenza associata
campionando il segnale e cioe’ usando la (35). Questa e’ una soluzione piu’ semplice, che vale per la base
seno cardinale, grazie al fatto che sinc(t/T ) si annulla nei multipli di T .
L’insieme dei segnali limitati in banda, Λ, e’ uno spazio vettoriale, perche’ chiuso rispetto alle opera-
zioni di somma a prodotto, come e’ facile verificare. Invece, non e’ uno spazio lineare. Infatti, contiene
segnali di energia, di potenza e anche di potenza infinita e non si riesce a definire un prodotto interno
adeguato per tutti. Possiamo pero’ introdurre due sottoinsiemi di Λ ed in particolare quello dei segnali
limitati in banda di energia, indicato con ΛE , e quello dei segnali limitati in banda di potenza, indicato
con ΛP . Questi due insiemi, usando come prodotto interno le correlazioni di energia o di potenza, sono
spazi lineari.
Correlazione. Consideriamo due segnali limitati in banda x(t) e y(t) e le corrispondenti sequenze di
campioni xn e yn . Naturalmente, possiamo calcolare le funzioni di correlazione fra i segnali, Rxy (t), e
fra le sequenze Rxy [n], sia di energia che di potenza. Inoltre, come mostrato in appendice 5.4 usando
l’ortonormalita’ della base, le correlazioni dei segnali e delle sequenze associate sono legate. In particolare,
per la correlazione di energia risulta

Rxy (kT ) = T Rxy [k] R di energia (38)

27
e per quella di potenza
Rxy (kT ) = Rxy [k] R di potenza. (39)
A parole, queste equazioni dicono che la funzione di correlazione delle sequenze si ottiene campionando
la funzione di correlazione fra i segnali. Le due relazioni precedenti sono utili sia in pratica che in teoria.
Di seguito, vediamo alcune conseguenze.
Energia e potenza. Consideriamo un segnale limitato in banda x(t) e la corrispondente sequenza di
campioni xn . Ponendo nella (38) y = x e k = 0 si ottiene

Rxx (0) = T Rxx [0].

L’ultima relazione dice che la funzione di autocorrelazione (di energia) del segnale valutata in 0 e’ pari
a T volte la funzione di autocorrelazione (di energia) della sequenza valutata in zero. Ma valutando la
funzione in zero, come sappiamo, il risultato e’ l’energia del segnale, che indichiamo con E(x) o della
sequenza, che indichiamo con E[x] . Allora, l’ultima relazione si puo’ scrivere cosi’

E(x) = T E[x] (40)

e dice che l’energia del segnale e’ pari a T volte l’energia della sequenza. Nel caso della correlazione di
potenza, ponendo nella (39) y = x e k = 0 e ripetendo il ragionamento si ottiene

P(x) = P[x] (41)

e cioe’ che il segnale e la sequenza hanno la stessa potenza. Le relazioni precedenti sono utili e permettono
di calcolare energia e potenza del segnale a partire da quelle delle sequenza o vice versa. Inoltre mostrano
che nella corrispondenza biunivoca fra segnali e sequenze stabilita dalla base seno cardinale, segnali di
energia vengono associati a sequenze di energia e segnali di potenza a sequenze di potenza. Infatti se il
segnale ha energia o potenza nulle, finite o infinite lo stesso vale per la sequenza associata. Quindi la
base seno cardinale stabilisce una corrispondenza biunivoca fa i segnali di ΛE e le sequenze di ∆E e fra i
segnali di ΛP e le sequenze di ∆P . In realta’ come vediamo subito, vale un risultato piu’ forte.
Isomorfie fra segnali e sequenze. Consideriamo gli insiemi ΛE e ∆E . Come sappiamo, questi insiemi
divengono spazi lineari usando come prodotto interno la correlazione di energia, continua o discreta,
rispettivamente. Ora consideriamo due segnali di energia limitati in banda x(t) e y(t) e le corrispondenti
sequenze di campioni xn e yn . E’ facile verificare16 che la correlazione di energia fra i segnali e’ pari a T
volte quella fra le sequenze. Analogamente, se i segnali e le sequenze sono di potenza, si verifica che la
correlazione di potenza fra i segnali e’ uguale a quella fra le sequenze. Allora, data questa isomorfia fra
le correlazioni (e quella, ovvia, fra le operazioni di somma vettoriale e prodotto scalare), si vede che la
base seno cardinale crea un isomorfismo fra gli spazi lineari ΛE e ∆E e fra gli spazi ΛP e ∆P . In altre
parole, le operazioni sui segnali possono essere svolte, equivalentemente, sulle sequenze associate. Questo
e’ un risultato utile perche’ le operazioni sulle sequenze si prestano bene ad essere implementate su un
calcolatore mentre cio’ non e’ vero per le operazioni sui segnali tempo continui.
Convoluzione. Supponiamo assegnati due segnali limitati in banda, x(t) e h(t), e le rispettive sequenze
di campioni xn = x(nT ) e hn = h(nT ). Consideriamo il segnale

y(t) = x(t) ∗ h(t)


16 Basta notare che la funzione di correlazione fra due segnali valutata in zero e’ pari alla correlazione fra i due segnali.

Allora i fatti seguono dalle relazioni (38) e (39), valutandole per k = 0.

28
Figura 7: Conversione di un sistema LTI continuo in uno discreto.

che si ottiene dalla convoluzione dei due segnali. Il segnale y(t) sara’ limitato in banda17 e quindi e’
associato alla sequenza yn = y(nT ). Sulla base della (38), e’ possibile verificare18 che esiste una relazione
diretta fra le sequenze ed in particolare risulta

yn = T (xn ∗ hn ). (42)

Le relazioni precedenti mostrano che i campioni di un segnale ottenuto per convoluzione di altri due
segnali, si ottengono dalla convoluzione fra le sequenze dei campioni degli altri due segnali. Le relazioni
sono molto utili in pratica, come vediamo nel prossimo esempio.

Esempio 15 Conversione di un sistema LTI continuo in uno discreto. Consideriamo un sistema LTI
continuo con risposta impulsiva h(t), mostrato in figura 7. Indichiamo con x(t) l’ingresso e con y(t)
l’uscita. Supponiamo che ingresso e risposta impulsiva siano limitati in banda: di conseguenza lo sara’
anche l’uscita. Inoltre, come e’ noto, l’uscita e’ pari alla convoluzione fra la risposta impulsiva e l’ingresso:
y(t) = x(t) ∗ h(t). Questo sistema e’ continuo e quindi deve essere realizzato in elettronica analogica.
D’altra parte il sistema puo’ essere convertito in un sistema discreto, usando la (42), come mostrato
nella seconda parte della figura. In particolare, il primo blocco, noto come ADC (Analog to Digital
Converter), campiona il segnale di ingresso per produrre la sequenza xn = x(nT ). Questa sequenza puo’
essere introdotta in un sistema discreto, che implementa una somma di convoluzione con una risposta
impulsiva ottenuta campionando quella del sistema analogico, hn = h(nT ) (e realizzato, per esempio da
un programma che gira su un processore). Come indicato dalla (42), scalando per T l’uscita del sistema
si ottiene la sequenza dei campioni del segnale y. Il segnale y(t) puo’ quindi essere ottenuto facendo
passare la sequenza yn in un blocco, noto come DAC (Digital to Analog Converter), che implementa la
(36). 

Spettri. Ricordiamo un risultato che useremo fra poco: dato un segnale s(t) con trasformata S(f ) e
considerata la sequenza dei suoi campioni a passo T = 1/F , indicata con sn = s(nT ), per la DTFT di
17 La trasformata di y e’ il prodotto delle trasformate di x e h. Allora la banda di y e’ l’intersezione delle bande di x e y

e y e’ limitato in banda.
18 Introduciamo il segnale z(t) = h∗ (−t). Questo segnale e’ una copia ribaltata e coniugata di h(t). E’ limitato in banda

e i suoi campioni sono zn = h∗−n . Allora, usando la (21), per y(t) possiamo scrivere
y(t) = x(t) ∗ h(t) = x(t) ∗ z ∗ (−t) = x(t) ⊙ z(t) = Rxz (t).
Quindi, per i campioni di y(t) abbiamo
yn = y(nT ) = Rxz (nT ).
Infine, usando la (38) e di nuovo la (21), possiamo scrivere
yn = Rxz (nT ) = T Rxz [n] = T (xn ⊙ zn ) = T (xn ⊙ h∗−n ) = T (xn ∗ hn ).

29
sn , che indichiamo con S[f ] per distinguerla dalla trasformata del segnale, risulta
X
S[f ] = F S(f − kF ). (43)
k

Consideriamo un segnale x(t) di potenza limitato in banda, con campioni xn e spettro Px (f ). La


sequenza xn sara’ di potenza ed avra’ uno spettro di densita’ di potenza che indichiamo con Px [f ], per
distinguerlo da quello di x(t). Per studiare come sono collegati gli spettri, notiamo che sostituendo y con
x nelle (39) si ottiene la seguente relazione fra le funzioni di autocorrelazione

Rx (nT ) = Rx [n].

Ora calcoliamo la DTFT dell’ultima relazione. La trasformata di Rx [n] e’ Px [f ]. La sequenza Rx (nT ) e’


la sequenza dei campioni di Rx (t), che ha come trasformata Px (f ). Allora la trasformata della sequenza
Rx (nT ) e’ data dalla (43) con S(f ) sostituito da Px (f ). In conclusione abbiamo
X
Px [f ] = F Px (f − kF ) (44)
k

L’ ultima formula esprime il legame fra gli spettri del segnale e della sequenza, che e’ analogo a quello che
esiste fra le trasformate dato dalla (43). In particolare, si vede che lo spettro della sequenza e’ la somma
di infinite repliche dello spettro del segnale, centrate sulle frequenze kF e scalate di un fattore F .
Nel caso in cui il segnale x(t) sia di energia, esiste un legame del tutto simile, che coinvolge gli spettri
di energia e che si ottiene dalla (38). In particolare risulta
X
Ex [f ] = F 2 Ex (f − kF ). (45)
k

Per lo spettro di energia si puo’ anche dare una seconda espressione. Infatti, usando la (43) possiamo
P
calcolare la DTFT della sequenza come X[f ] = F n X(f − nF ) e usando la (24) ricaviamo
X
Ex [f ] = |F X(f − nF )|2 .
n

Notiamo che quest’ultima espressione e’ piu’ generale della (45), perche’ vale anche se il segnale x(t) non
e’ limitato in banda, mentre cio’ non e’ vero per le (44) e (45), visto che le abbiamo ottenute a partire
dalle (38) e (39), che sono valide solo per segnali limitati in banda.

4.3 Serie e trasformata di Fourier


Citiamo il fatto che le operazioni di trasformata e di serie di Fourier possono essere inquadrate nello
sviluppo che abbiamo presentato. In particolare possono essere pensate come corrispondenze biunivoche
fra spazi di segnali stabilite da una base ortonormale di esponenziali complessi. Questo aspetto sara’
approfondito in una versione futura della dispensa.

30
5 Appendice

5.1 Spazi vettoriali e lineari


Consideriamo un insieme V in cui sono definite due operazioni sui suoi elementi. La prima e’ l’addizione
di due elementi di V (somma vettoriale), indicata con x + y per x, y ∈ V . La seconda e’ la moltiplicazione
di un elemento di V per un numero complesso (moltiplicazione per uno scalare) indicata con ax per a ∈ C
e x ∈ V . Se le operazioni verificano le proprieta’ S1-S10 riportate qui sotto l’insieme V si dice uno spazio
vettoriale sui numeri complessi.

S1: x + y ∈ V per tutti gli x, y ∈ V (proprieta’ di chiusura della somma vettoriale).


S2: ax ∈ V per tutti gli x ∈ V e a ∈ C (proprieta’ di chiusura della moltiplicazione per uno scalare).
S3: x + y = y + x per ogni x, y ∈ V (proprieta’ commutativa della somma vettoriale).
S4: (x + y) + z = x + (y + z) per ogni x, y, z ∈ V (proprieta’ associativa della somma vettoriale).
S5: Esiste un elemento 0̄ ∈ V tale che x + 0̄ = x per ogni x ∈ V (vettore nullo).
S6: Per ogni x ∈ V , esiste un elemento (−x) ∈ V tale che x + (−x) = 0̄ (esistenza dell’inverso per la
somma).
S7: (ab)x = a(bx) per tutti gli a, b ∈ C ed ogni x ∈ V (un’altra proprieta’ associativa).
S8: a(x + y) = ax + ay per a ∈ C e tutti gli x, y ∈ V (proprieta’ distributiva della moltiplicazione per
uno scalare).
S9: (a + b)x = ax + bx per tutti gli a, b ∈ C e ogni x ∈ V (proprieta’ distributiva della somma vettoriale).
S10: 1x = x per ogni x ∈ V (identita’ rispetto alla moltiplicazione scalare).

Consideriamo uno spazio vettoriale V su cui e’ definita una ulteriore operazione binaria, che associa
ad ogni coppia ordinata x, y di vettori un numero complesso indicato con x ⊙ y. Se questa operazione
verifica le proprieta’ riportate qui sotto, l’operazione si dice un prodotto interno e lo spazio si dice uno
spazio lineare

S11: per ogni x ∈ V , x ⊙ x e’ reale, con x ⊙ x ≥ 0, e x ⊙ x = 0 se e solo se x = 0̄.


S12: (ax) ⊙ y = a(x ⊙ y) per tutti gli a ∈ C e x ∈ V .
S13: x ⊙ (y + z) = x ⊙ y + x ⊙ z per tutti gli x, y, z ∈ V .
S14: x ⊙ y = (y ⊙ x)∗ per tutti gli x, y ∈ V .

5.2 Spazi vettoriali dei segnali di energia e di potenza


La verifica che le operazioni di somma e prodotto soddisfano le proprieta’ S2-S10 e’ immediata in tutti e
quattro gli spazi. Per verificare S1, e cioe’ la chiusura della somma, si noti che, dati due numeri complessi

31
x e y vale19 la seguente disuguaglianza

|x + y|2 ≤ 3|x|2 + 3|y|2 .

Allora, consideriamo due segnali di energia x(t) e y(t) e la loro somma z(t) = x(t) + y(t). Per l’energia
di z abbiamo Z Z
Ez = |x(t) + y(t)|2 dt ≤ 3|x(t)|2 + 3|y(t)|2 dt = 3Ex + 3Ey ,

che mostra che z ha energia finita ed e’ quindi un segnale di energia. Allo stesso modo si procede nel
caso discreto o di potenza.

5.3 Funzione di autocorrelazione attraverso sistemi LTI


Consideriamo un sistema LTI con risposta h(t) di energia e supponiamo che l’ingresso sia x(t). L’uscita
del sistema e’ Z
y(t) = x(t) ∗ h(t) = x(t − τ )h(τ )dτ.

Calcoliamo la funzione di autocorrelazione di potenza di y(t). Abbiamo


T
1
Z
Ry (t) = lim y(τ + t)y ∗ (τ )dτ
T →∞ 2T −T

Sostituendo l’espressione di y(t) risulta


Z T Z  Z ∗
1
Ry (t) = lim x(τ + t − τ0 )h(τ0 )dτ0 x(τ − τ1 )h(τ1 )dτ1 dτ =
T →∞ 2T −T

" Z T #
1
Z Z
∗ ∗
= h(τ0 )h (τ1 ) lim x(τ + t − τ0 )x (τ − τ1 )dτ dτ0 dτ1
T →∞ 2T −T

Nell’ integrale interno effettuiamo, per chiarezza, la sostituzione τ = τ2 , per ottenere


" Z T #
1
Z Z
∗ ∗
Ry (t) = h(τ0 )h (τ1 ) lim x(τ2 + t − τ0 )x (τ2 − τ1 )dτ2 dτ0 dτ1
T →∞ 2T −T

Ora, sempre nell’integrale interno, effettuiamo la sostituzione τ2 = τ + τ1 . Si ottiene


" Z T #
1
Z Z
∗ ∗
Ry (t) = h(τ0 )h (τ1 ) lim x(τ + τ1 + t − τ0 )x (τ )dτ dτ0 dτ1 .
T →∞ 2T −T

Nell’ integrale interno si puo’ riconoscere la correlazione di potenza di x(t), valutata in τ1 + t − τ0 . Allora
Z Z
Ry (t) = h(τ0 )h∗ (τ1 )Rx (τ1 + t − τ0 )dτ0 dτ1 .

Effettuando la sostituzione τ0 = τ + τ1 otteniamo


Z Z
Ry (t) = h(τ + τ1 )h∗ (τ1 )Rx (t − τ )dτ dτ1 =
Z Z 
= h(τ + τ1 )h∗ (τ1 )dτ1 Rx (t − τ )dτ

19 Infatti

|x + y|2 = |x|2 + |y|2 + 2Re{xy ∗ } ≤ |x|2 + |y|2 + 2|xy ∗ | ≤ |x|2 + |y|2 + 2(|x|2 + |y|2 ) = 3|x|2 + 3|y|2 .

32
e riconoscendo la correlazione di h(t) nell’integrale interno possiamo scrivere
Z
Ry (t) = Rh (τ )Rx (t − τ )dτ = Rx (t) ∗ Rh (t)

che dimostra la (22) nel caso di segnali di potenza. Per la correlazione di energia la dimostrazione si
ripete, eliminando il limite e la divisione per T . Anche nel caso delle sequenze di energia o di potenza la
dimostrazione si ripete, usando sommatorie al posto degli integrali.

5.4 Teorema del Campionamento

Energia. Cominciamo a considerare il caso dei segnali di energia, che e’ piu’ semplice, e dimostriamo
la (38). La dimostrazione puo’ essere divisa in due passi. Nel primo passo consideriamo due segnali di
energia limitati in banda x(t) e y(t) e le corrispondenti sequenze di campioni xn e yn , indichiamo con
R(xy) la correlazione di energia fra i segnali e con R[xy] la correlazione di energia fra le sequenze e facciamo
vedere che vale la seguente equazione
R(xy) = T R[xy] . (46)
Nel secondo passo, sulla base dell’equazione precedente verifichiamo la correttezza della (38).
Passo 1. Scriviamo esplicitamente le correlazioni coinvolte nella (46). Queste sono
Z X
R(xy) = x(t)y ∗ (t)dt R[xy] = xn yn∗ .
n

Sviluppiamo la correlazione fra i segnali. Visto che i segnali sono limitati in banda, usando la (36), la
correlazione si puo’ scrivere cosi’:
   
t − nT t − mT
Z XX

R(xy) = x n ym sinc sinc dt.
n m
T T

Portando l’integrale dentro la sommatoria ed usando le condizioni di ortogonalita’ (37) si ottiene


   
t − nT t − mT
XX Z XX
∗ ∗
R(xy) = x n ym sinc sinc dt = T x n ym δn−m .
n m
T T n m

Notando che per n 6= m risulta dn−m = 0 mentre per m = n risulta dn−m = δ0 = 1, si ricava
XX X

R(xy) = T x n ym δn−m = T xn yn∗ = T R[xy]
n m n

e cioe’ la (46).
Passo 2. La funzione di correlazione fra x(t) e y(t) e’
Z
Rxy (t) = x(τ + t)y ∗ (τ )dτ.

Valutandola in kT si ha Z
Rxy (kT ) = x(τ + kT )y ∗ (τ )dτ.

Introducendo il segnale z(t) = x(t + kT ), che ha campioni zn = xn+k , risulta


Z
Rxy (kT ) = z(τ )y ∗ (τ )dτ = R(zy) .

Infine, applicando la (46) ai segnali z(t) e y(t), possiamo scrivere


X X
Rxy (kT ) = T R[zy] = zn yn∗ = xn+k yn∗ = Rxy [k]
n n

33
e cioe’ la (38).
Potenza. Consideriamo ora il caso dei segnali di potenza e dimostriamo la (39). Anche in questo caso,
la dimostrazione puo’ essere divisa in due passi. Nel primo passo consideriamo due segnali di potenza
limitati in banda x(t) e y(t) e le corrispondenti sequenze di campioni xn e yn , indichiamo con R(xy) la
correlazione di potenza fra i segnali e con R[xy] la correlazione di potenza fra le sequenze e facciamo
vedere che vale la seguente equazione
R(xy) = R[xy] . (47)
Nel secondo passo, sulla base dell’equazione precedente verifichiamo la correttezza della (39).
Passo 1. Una dimostrazione rigorosa della (47) e’ impegnativa e non verra’ presentata. Ci accontentiamo
di una dimostrazione intuitiva. Come prima cosa, scriviamo esplicitamente le correlazioni20 coinvolte nella
(47), che sono

τ N
1 1 X
Z
R(xy) = lim x(t)y ∗ (t)dt R[xy] = lim xn yn∗ .
τ →∞ 2τ −τ N →∞ 2N
n=−N

Ora sviluppiamo la correlazione fra i segnali. Per prima cosa, facciamo tendere τ verso infinito in passi
discreti, di ampiezza pari al passo di campionamento T . In altre parole poniamo τ = N T e riscriviamo
la correlazione come Z NT
1
R(xy) = lim x(t)y ∗ (t)dt.
N →∞ 2N T −N T

Visto che i segnali sono limitati in banda, usando la (36), la correlazione si puo’ sviluppare cosi’:
Z NT X X    
1 ∗ t − nT t − mT
R(xy) = lim x n ym sinc sinc dt.
N →∞ 2N T −N T T T
n m

Ora portiamo l’integrale dentro la sommatoria e spezziamo la sommatoria e il limite in due, separando i
termini con n 6= m da quelli con n = m:
Z NT    
1 X ∗ t − nT t − mT
R(xy) = lim x n ym sinc sinc dt+
N →∞ 2N T −N T T T
n6=m

Z NT  
1 X t − nT
+ lim xn yn∗ sinc2 dt.
N →∞ 2N T −N T T
n

Nell’espressione qui sopra la correlazione e’ calcolata come la somma di due termini. Nel primo termine
compare l’integrale da −N T a N T di due funzioni sinc centrate su istanti diversi. Come sappiamo queste
funzioni sono ortogonali. Quindi quando N → ∞, tutti gli integrali tendono a zero e lo stesso succede
per l’ intero primo termine. Nel secondo termine la situazione e’ diversa e compare l’integrale da −N T a
N T di due funzioni sinc centrate sullo stesso istante nT . Allora al variare dell’indice di sommatoria n,
se nT e’ compreso nell’intervallo di integrazione [−N T, N T ], l’integrale coinvolge il lobo principale della
sinc e puo’ essere approssimato come pari all’energia della sinc e cioe’ posto pari a T . Al contrario, se
nT cade al di fuori dell’intervallo [−N T, N T ], il lobo principale della sinc cade fuori dall’intervallo di
integrazione e l’integrale puo’ essere approssimato con zero. Usando queste approssimazioni si vede che
per |n| > N il termine della sommatoria e’ nullo, mentre per |n| ≤ N l’integrale puo’ essere approssimato
con T . Allora ricaviamo
N N
1 X 1 X
R(xy) = lim T xn yn∗ = lim xn yn∗ = R[xy]
N →∞ 2N T N →∞ 2N
n=−N n=−N

20 Nella
correlazione usiamo τ e non T come variabile di limite perche’ in questo contesto T indica gia’ il passo di
campionamento.

34
e cioe’ la (47).
Passo 2. Per il secondo passo si puo’ ripetere il ragionamento gia’ fatto nel caso dei segnali di energia,
sostituendo le correlazioni di energia con quelle di potenza ed usando la (47) al posto della (46).

35
Riferimenti bibliografici
[1] E. Conte, Lezioni di teoria dei segnali. Liguori, Napoli, 1996.

[2] M. Gherardelli, M. Fossi, Appunti di teoria dei segnali, Esculapio, Bologna, 2015

[3] G. C. Barozzi, Matematica per l’ingegneria dell’informazione, Zanichelli, Bologna, 2004.

[4] J. G. Proakis, Digital Communications. McGraw-Hill, 1995.

[5] C. D. Meyer, Matrix analysis and applied linear algebra, SIAM, 2000.

36

Potrebbero piacerti anche