Sei sulla pagina 1di 74

Segnali Deterministici

Introduzione
Numeri complessi
Numero formato da una parte reale e immaginaria

z = x + jy Forma cartesiana
La forma cartesiana può diventare polare e viceversa
z = A cos θ + j sin θ = Aejθ Forma polare
x = A cos θ y = A sin θ
arctan xy

p se a > 0
A= x2 + y 2 θ=
π − arctan xy se a < 0

Classificazione dei segnali


I segnali si dividono in deterministici e aleatori. Dei primi si conosce esattamente
la funzione che li descrive, mentre dei secondi no.
Un’altra classificazione è quella in segnali tempo-continui e tempo-discreti. I primi
hanno la cardinalità del continuo, i secondi sono definiti su un dominio temporale
discreto.
I segnali analogici sono sia tempo-continui che ad ampiezza continua, i segnali
numerici sono sia tempo-discreti che ad ampiezza discreta.

Periodicità nei segnali tempo-continui


Un segnale tempo-continuo periodico è tale se
x(t) = x(t + T0 ) ∀t
La funzione periodica più semplice è una funzione costante. In questo caso T0
assume tutti i valori ∈ R

Esempio
x1 (t) = x1 (t + T1 ) ∀t x2 (t) = x2 (t + T2 ) ∀t
x(t) = ax1 (t) + bx2 (t)
Quale sarà il nuovo periodo?

x(t + T0 ) = ax1 (t + T0 ) + bx2 (t + T0 ) = x(t) = ax1 (t) + bx2 (t)

Se questo è verificato allora il nuovo periodo sarà

T0 = mT1 = nT2

Il nuovo periodo dovrà essere multiplo di entrambi gli altri periodi, per cui se
T1 n
= ∈Q
T2 m
il nuovo segnale sarà periodico di periodo T0

Periodicità dei segnali tempo-discreti


Un segnale tempo-discreto periodico è tale se

x[n] = x[n + N0 ] ∀n
Caso particolare
x[n] = cos (2πf0 n)
Si parte dallo stesso segnale in forma tempo-continua e lo si campiona ad un
frequenza nT
x(t) = cos (2πF0 t)
x(nt) = cos (2πnF0 T ) = cos (2πf0 n) F0 T = f 0
   
x[n + N0 ] = cos 2πf0 (n + N0 ) = cos 2πf0 n + 2πf0 N0
Si deve imporre che 2πf0 N0 = 2πk → f0 N0 = k k 6= 0

Aperiodicità
Un segnale è aperiodico quando è impossibile trovare un T0 | x(t) = x(t + T0 ).
La stessa regola vale per i segnali tempo-discreti

Energia di un segnale
Questa definizione vale per segnali reali
Z +∞
E= x2 (t) dt
−∞

Per segnali complessi la formula diventa


Z +∞
x(t) 2 dt

E=
−∞

La definizione di energia è valida se e solo se l’integrale converge. Ad esempio, non


è possibile usarla per segnali periodici

Potenza di un segnale
La potenza è un parametro utile a capire se l’integrale dell’energia converge o
meno
1 T /2 2
Z
Px = lim x (t) dt
T →∞ T −T /2

P (t) = x2 (t) Potenza istantanea per


2 un segnale reale
P (t) = x(t)
Potenza istantanea per
Dalla potenza si ricava il valore efficace come un segnale complesso
p
xef f = Px

Valor medio
Z T /2
1
xm = lim x(t) dt
T →∞ T −T /2

Per un segnale ad energia finita xm = 0 e si dimostra come

y(t) = x(t) − xm
Z T /2 Z T /2
1 1 2
y 2 (t) dt = lim

Py = lim x(t) − xm dt
T →∞ T −T /2 T →∞ T −T /2
Z T /2
1  2
x (t) − 2xm x(t) + x2m dt

Py = lim
T →∞ T −T /2
Z T /2 Z T /2 Z T /2
1 2 1 1
Py = lim x (t) dt − 2xm lim x(t) dt + x2m lim dt
T →∞ T −T /2 T →∞ T −T /2 T →∞ T −T /2

Py =Px −2x2m − x2m Px = 0 perché ad


energia finita
Py = −x2m
Se xm 6= 0 si avrebbe Py < 0, ma una potenza negativa è impossibile e quindi
per forza xm = 0

Caso particolare
Per un segnale sinusoidale come, ad esempio, x(t) = A cos (2πf0 t + θ), la potenza

A2
Px =
2

Analisi di Fourier di segnali periodici tempo-continui


Approssimazione di un segnale
In un sistema lineare e stazionario, l’uscita relativa ad una somma di oscillazioni in
ingresso è uguale alla somma delle uscite ai singoli ingressi. Supponendo di avere
un segnale periodico in ingresso e di approssimarlo, lo si può scrivere come
N
X
x(t) = x(t + T0 ) x(t) ≈ A0 + 2 Ak cos (2πfk t + θk )
k=1

Le frequenze dell’oscillazione della sommatoria vengono scelte in modo tale che


siano multipli interi della frequenza f0
 
1 T0
fk = k · = kf0 → Tk =
T0 k
N
X
xN (t) = A0 + 2 Ak cos (2πkf0 t + θk )
k=1

La bontà dell’approssimazione si valuta studiando la differenza di ampiezza tra la


funzione di partenza e quella approssimata

εN (t)= x(t) − xN (t) Errore assoluto

Errore quadratico medio


L’errore quadratico medio si definisce come
Z Z
1 εN (t) 2 dt = 1

x(t) − xN (t) 2 dt

T0 [T0 ] T0 [T0 ]

Minimizzare l’errore assoluto conduce a risultati diversi rispetto a minimizzare


l’errore quadratico medio. Si parte dal presupposto che il segnale sia ad energia
finita e si riscrive il termine approssimante partendo da presupposto di Eulero
jα −jα
cos α = e +e 2

N
" #
X ej(2πkf0 t+θk ) + e−j(2πkf0 t+θk )
xN (t) = A0 + 2 Ak
2
k=1

N
X N
X
xN (t) = A0 + Ak ej(2πkf0 t+θk ) + Ak e−j(2πkf0 t+θk )
k=1 k=1
N
X −1
X
xN (t) = A0 + Ak ej(2πkf0 t) ejθk + A−k ej(2πkf0 t) e−jθ−k
k=1 k=−N

X0 = A0 , Xk = Ak ejθk per k > 0, Xk = A−k e−jθ−k per k < 0


N
X −1
X
xN (t) = x0 + Xk ej2πkf0 t + Xk ej2πkf0 t
k=1 k=−N

N
X
xN (t) = Xk ej2πkf0 t
k=−N
xN (t) è stata riscritta in funzione di Xk ∈ C e compare il segnale complesso
ej2πkf0 t = cos (2πkf0 t)+j sin (2πkf0 t) L’errore quadratico medio si potrà calcolare
in base ai parametri X−N , ..., XN
Z
 2
min x(t) − xN (t) dt
X−N ,...,XN [T0 ]

Equazione di analisi
Equazione che produce coefficienti per il segnale x(t) che minimizzano l’errore
quadratico medio Z
1
Xk = x(t)e−j2πkf0 t dt
T0 [T0 ]
L’integrale nel periodo è possibile riscriverlo in funzione di λ, scegliendo il parametro
in modo da semplificare i calcoli
Z λ+T0
1
Xk = x(t)e−j2πkf0 t dt
T0 λ

Al crescere di N l’approssimazione NON peggiora, può migliorare o non variare


Z
1 2
lim εN dt = 0
N →∞ T0 [T ]
0

L’errore quadratico medio tende a 0 per N che tende a ∞ Questo vuol dire che
xN (t) → x(t) per N → ∞
Z
1 x(t) − xN (t) 2 dt = 0

lim
N →∞ T0 [T ]
0

L’integrale può fare zero anche se x(t)−xN (t) 6= 0. È sufficiente che le due funzioni
differiscano su insiemi di misura nulli.
I coefficienti calcolati con l’equazione di analisi tendono a 0 per k → ∞ e la velocità
con cui tendono a zero dipende dalle proprietà di Xk
+∞
X
x(t) = Xk ej2πkf0 t = lim xN (t)
N →∞
−∞

Questo indica che xN (t) converge a x(t) e non che xN (t) = x(t)

Equazione di sintesi
È l’equazione che permette di ricostruire x(t) a partire da Xk
+∞
X
x(t) = Xk ej2πkf0 t
−∞

Dimostrazione equazione di analisi


L’equazione di analisi si giustifica a partire da quella di sintesi
+∞
X
x(t) = Xk ej2πkf0 t
−∞

+∞
X +∞
X
x(t)e−j2πmf0 t = e−j2πmf0 t Xk ej2πkf0 t = Xk ej2π(k−m)f0 t
−∞ −∞
Z Z +∞
X +∞ Z
X
x(t)e−j2πmf0 t dt = Xk ej2π(k−m)f0 t dt = Xk ej2π(k−m)f0 t dt
[T0 ] [T0 ] −∞ −∞ [T0 ]
Z 
Xk ej2π(k−m)f0 t dt = T0 per k = m
0 6 m
per k = ej2π(k−m)f0 t =
[T0 ]
cos [2π(k − m)f0 t] +
j sin [2π(k − m)f0 t]
Della sommatoria resta solo il termine per k = m
Z
x(t)e−j2πmf0 t dt = T0 Xm
T0
Z
1
Xm = x(t)e−j2πmf0 t dt
T0 T0

Questa dimostrazione non è formalmente corretta a causa dello scambio tra inte-
grale e sommatoria, ma è un buon esempio

Base di Fourier
+∞
X
x(t) = Xk ej2πkf0 t
k=−∞

1
Sk (t) = ej2πkf0 t √
T0
L’insieme delle Sk (t) con k ∈ Z è una base di Fourier.
x(t) è una combinazione lineare a coefficienti Xk della base di Fourier.
La base è ortonormale
Z 

Sk (t) · Sm (t) dt = 1 per k = m
[T0 ] 0 per k 6= m

Proprietà di simmetria Hermitiana


x(t) segnale reale

Xk = X−k ∀k

Dimostrazione
Z
1
Xk = x(t)e−j2πkf0 t dt
T0 [T0 ]
Z Z Z  ∗
1 1 1
X−k = x(t)e−j2π(−k)f0 t dt = x(t)ej2πkf0 t dt = x(t)∗ ej2πkf0 t dt
T0 [T0 ] T0 [T0 ] T0 [T0 ]
 Z ∗
1
X−k = x(t)∗ ej2πkf0 t dt = Xk∗
T0 [T0 ]

Valore di X0
Z Z
1 −j2πkf0 t 1
X0 = x(t)e dt = x(t) dt
T0 [T0 ] T0 [T0 ]

X0 è il valor medio di x(t)

Significato della somma degli Xk


Si parte dall’equazione di sintesi per t = 0
X X
x(0) = Xk ej2πkf0 ·0 = Xk
k k

Questa dimostrazione vale solo se x(t) è continua in 0

Forma reale polare


Una delle forme in cui si può rappresentare una serie di Fourier è quella reale
polare. Per ricavarla si parte dall’equazione di sintesi

X −1
X +∞
X
x(t) = Xk ej2πkf0 t = Xk ej2πkf0 t + X0 + Xk ej2πkf0 t =
k k=−∞ k=1

+∞
X +∞
X
= X−k e−j2πkf0 t + X0 + Xk ej2πkf0 t = Cambio di indice da k a
k=1 k=1 −k
+∞ 
X 
−j2πkf0 t j2πkf0 t
= X0 + X−k e + Xk e =
k=1

Xm = Am ejθm
∞ 
X 
Am = |Xm |
= A0 + A−k ejθ−k e−j2πkf0 t + Ak ejθk ej2πkf0 t = θm = arctan Xm
k=1

x(t) reale =⇒
Simmetria Hermitiana
∞ 
X  ∞
X
−jθ−k −j2πkf0 t jθk j2πkf0 t
= A0 + A−k e e +Ak e e = A0 +2 Ak cos (2πkf0 t + θk )
k=1 k=1


X
x(t) = A0 + 2 Ak cos (2πkf0 t + θk ) Forma reale polare
k=1

Forma reale rettangolare


Si ricava a partire dalla forma reale polare utilizzando le formule di addizione del
coseno
cos α + β = cos α cos β − sin α sin β

X  
x(t) = A0 + 2 Ak cos (θk ) cos (2πkf0 t) − sin (θk ) sin (2πkf0 t) =
k=1

X   ∞
X  
= A0 + Ak cos (θk ) cos (2πkf0 t) − 2 Ak sin (θk ) sin (2πkf0 t) = A0 = a 0
k=1 k=1 Ak cos θk = ak
∞ ∞
Ak sin θk = bk
X X
x(t) = a0 + 2 ak cos (2πkf0 t) − 2 bk sin (2πkf0 t)
k=1 k=1

Funzione sinc
La funzione sinc è della anche funzione seno cardinale
 sin (πx)
per x 6= 0
sinc (x) = πx
1 per x = 0

Questa funzione si annulla per x ∈ Z − {0} e tende a 0 per x → ∞

sinc x

x
-4 -3 -2 -1 0 1 2 3 4

Segnale regolare a tratti


Segnale periodico che, osservato su un periodo, ha un numero finito di discontinuità
di prima specie. Le stesse condizioni devono valere per la derivata del segnale
N
(
X
j2πkf0 t
x(t)  nei punti in cui x(t) è continuo
lim Xk e = 1
N →∞ 2 lim x→x + + lim
x→x − nei punti di discontinuità
k=−N i i
Proprietà coefficienti Xk
1.
x(t) = x(t + T0 ) ∀t
 
T0
y(t) = x(at) = y t + ∀t
a

Dimostrazione

x(t) = x(t + T0 ) y(t) = x(at)


y(t + T00 ) = x a(t + T00 ) = x at + aT00 = x(at + T0 ) = x(at) = y(t)
  
aT00 = T0
 
T0
y(t) = y(t + T00 ) =y t+
a

Gli Yk si calcolano con il teorema del cambiamento di scala



Yk = Xk per a > 0 = X
k·sgn(a)
X−k per a < 0

Comprimere o espandere il segnale non modifica gli Xk

Dimostrazione

x(t) = x(−t) Segnale reale e pari



Xk = X−k Simmetria Hermitiana
Xk = X−k x(t) pari

La combinazione di queste proprietà fa in modo che Xk sia reale

2. x(t) continua a tratti


Z T0 /2
1
Xk = x(t)e−j2πkf0 t dt =
T0 −T0 /2

Z T0 /2 Z T0 /2
1 1
= x(t) cos (2πkf0 t) dt − j x(t) sin (2πkf0 t) dt
T0 −T0 /2 T0 −T0 /2

x(t) = x(−t)
Z T0 /2 Z T0 /2
1 2
Xk = x(t) cos (2πkf0 t) dt + 0 = x(t) cos (2πkf0 t) dt
T0 −T0 /2 T0 0

X
x(t) = a0 + 2 ak cos (2πkf0 t)
k=1

I coefficienti per un segnale reale e pari sono a loro volta reali e pari. La
forma rettangolare è la somma di una parte pari e una dispari
3.
x(t) = x(t + T0 ) x(t) = −x(−t) x(t) ∈ R
Se x(t) è reale e dispari, i coefficienti Xk saranno puramente immaginari e
dispari
Dimostrazione
 ∗
Xk = X−kSimmetria Hermitiana
Xk = −X−k
Dispari
∗ Somma membro a

2Xk = − X−k − X−k = −2jIm(X−k )
membro delle
conduzioni
Xk = −jIm(X−k )
Z T0 /2
1
Xk = x(t)e−j2πkf0 t dt =
T0 −T0 /2
Z T0 /2  
1
x(t) cos (2πkf0 t) − j sin (2πkf0 t) dt =
T0 −T0 /2
Z T0 /2  
1
= x(t) − j sin (2πkf0 t) dt
T0 −T0 /2
Z T0 /2
1
Xk = −2j x(t) sin (2πkf0 t) dt
T0 0

X
x(t) = −2 bk sin (2πkf0 t)
k=1

Treno di impulsi triangolari


 
2t
x(t) = x(t + T0 ) ∀t x(t) = x(−t) x(t) = A 1 −
T0

x(t)

t
−T0 /2 T0 /2

X0 = A/2 Il termine di ordine 0 è


il valor medio
Z T0 /2
2A T0 /2
Z  
2 2t
Xk = x(t) cos (2πkf0 t) dt = 1− cos (2πkf0 t) dt =
T0 0 T0 0 T0
2A 0
Z    Z 1
T0 T0 h i 2t
= τ cos 2πkf0 (1 − τ ) − dτ =A τ cos πk(1 − τ ) dτ = 1− =τ
T0 1 2 2 0 T0

Z 1 Z 1
=A τ cos (πk) cos (πkτ ) dτ = A cos (πk) τ cos (πkτ )dτ =
0 0
h i
Z 1 (−1)k − 1
= A(−1)k τ cos (πkτ ) dτ = A(−1)k · cos (πk) = (−1)k
0 (πk)2

(A
2 per k = 0
Xk = A
h
k
i
(πk)2 1 − (−1) 6 0
per k =

X
x(t) = a0 + 2 ak cos (2πkf0 t)
k=1
Con un numero armoniche finito N si ha che, al crescere di N , tende a 0 non
solo l’errore quadratico medio, ma anche quello assoluto. Questo può accadere
perché non sono presenti discontinuità di prima specie

x(t) ∼
= xN (t) lim |x(t) − xN (t)| = 0
N →∞

Segnali periodici e alternativi


 
T0
x(t) = x(t + T0 ) ∀t x(t) = −x t −
2
I coefficienti Xk dei segnali periodici avranno componenti pari nulle

Dimostrazione
Z T0 /2 Z 0 Z T0 /2
1 −j2πkf0 t 1 −j2πkf0 t 1
Xk = x(t)e dt = x(t)e dt+ x(t)e−j2πkf0 t dt =
T0 −T0 /2 T0 −T0 /2 T0 0

1
Z T0 /2  
T0 −j2πkf0 (τ −T0 /2) 1
Z T0 /2 T0
= x τ− e dτ + x(t)e−j2πkf0 t dt = τ =t+
T0 0 2 T0 0 2

T0 /2 Z T0 /2
(−1)k
Z  
T0 −j2πkf0 t 1
= x t− e dt + x(t)e−j2πkf0 t dt = Cambio simbolo di τ
T0 0 2 T0 0 con t

Z T0 /2
  
1 T0
= k
x(t) + (−1) x t − e−j2πkf0 t dt =
T0 0 2
Z T0 /2   
T0

1
= 1 − (−1)k x(t)e−j2πkf0 t dt = −x(t) = x t −
T0 0 2

T0 /2
1 − (−1)k
Z
Xk = x(t)e−j2πkf0 t dt
T0 0
k
Per k pari 1 − (−1) = 0 e quindi Xk = 0

Ogni segnale quindi si può dividere in due componenti, una non alternativa e una
alternativa. Soltanto quando la prima è nulla il segnale sarà alternativo
X X
x(t) = X2m ej4πmf0 t + ej2πf0 t X(2m+1) ej4πmf0 t
m m

x(t) = XN A (t) + XA (t) Parte non alternativa


Parte alternativa
La parte non alternativa contiene tutte le armoniche di ordine pari, quella alter-
nativa contiene le armoniche dispari.
I segnali alternativi godono anche della proprietà di linearità

Proprietà di linearità
x(t) = x(t + T0 ) ∀t → Xk
y(t) = y(t + T00 ) ∀t → Yk
z(t) = ax(t) + by(t) → Zk = aXk + bYk
Onda quadra
1
Segnale reali, pari, alternativo con coefficienti XK che tendono a zero come k a
causa delle discontiniutà di prima specie

x(t)

−T0 /2 T0 /2
t

x(t)
-A y(t)
z(t)

È possibile calcolare i coefficienti senza dover risolvere integrali considerando il


segnale come combinazione lineare di un treno di impulsi con δ = 0.5 e di un
segnale costante
x(t) = y(t) − z(t)
  
k
Yk = 2Aδ · sinc (kδ) = A sinc Zk = A per k = 0
2 6 0
0 per k =

0  per k = 0
Xk = Yk − Zk =
A sinc k2 per k 6= 0
I coefficienti saranno reali e pari perché la sinc è reale e pari, gli Xk → 0 come k1
sempre per le proprietà della sinc e i coefficienti di ordine pari sono nulli perché
la sinc si annulla per valori interi di k2 . L’onda quadra è un treno di impulsi
rettangolari traslato verticalmente

Segnali complessi coniugati


x(t) ⇐⇒ Xk y(t) = x∗ (t) ⇐⇒ Yk = X−k

x(t) = x(t + T0 ) y(t) = y(t + T0 )

Dimostrazione
Z Z
1 −j2πkf0 t 1
Yk = y(t)e dt = x∗ (t)e−j2πkf0 t dt =
T0 [T0 ] T0 [T0 ]
 Z ∗
1 j2πkf0 t ∗
= x(t)e dt = X−k
T0 [T0 ]

Segnale a simmetria e antisimmetria coniugata


Ogni segnale si può riscrivere come somma di due componenti, una a simmetria
coniugata e una ad antisimmetria coniugata
x(t) x(t) x(t) x∗ (−t) x(t) x∗ (−t)
x(t) = 2 + 2 = 2 + 2 + 2 − 2 y(t) z(t)
y(t) = y ∗ (−t) z(t) = −z ∗ (−t)
Xk = Yk + Zk
1 1
Yk = Xk + Xk∗ → Yk = Re{Xk }
2 2
1 1 ∗
Zk = Xk − Xk → Zk = j Im{Xk }
2 2
Se x(t) è reale y(t) sarà pari

x(t) + x∗ (−t) x(t) + x(−t)


y(t) = =
2 2
y(t) = y ∗ (−t) → y(t) = y(−t)
Teorema del ritardo
x(t) = x(t + T0 ) ⇐⇒ Xk
y(t) = x(t − τ ) ⇐⇒ Yk = Xk e−j2πkf0 τ

Dimostrazione
Z Z
1 −j2πkf0 t 1
Yk = y(t)e dt = x(t − τ )e−j2πkf0 t dt =
T0 [T0 ] T0 [T0 ]

Z Z
1 1
= x(α)e−j2πkf0 (α+τ ) dα = e−2πkf0 t x(α)e−j2πkf0 α dα = t−τ =α
T0 [T0 ] T0 [T0 ]

Yk = e−j2πkf0 t Xk
Le armoniche ottenute per traslazione avranno frequenza diversa rispetto al cor-
rispettivo del segnale non traslato
Z
1
Yk = x(t)e−j2π(k−m)f0 t dt
T0 [T0 ]

Zk sarà uguale al coefficiente di x(t) di m posizioni indietro rispetto a k

Teorema della modulazione


x(t) = x(t + T0 ) ⇐⇒ Xk
ejθ e−jθ
y(t) = x(t) cos (2πmf0 t + θ) ⇐⇒ Yk = Xk−m + Xk+m
2 2
ejθ e−jθ
z(t) = x(t) sin (2πmf0 t + θ) ⇐⇒ Zk = Xk−m − Xk+m
2j 2j

Teorema di integrazione
x(t) = x(t + T0 ) ∀t ⇐⇒ Xk
(
t Xk
per k 6= 0
Z
j2πkf0
y(t) = x(α) dα ⇐⇒ Yk = P Xm ej2πmf0 α
a − m6=0 j2πmf0 per k = 0

Dimostrazione
X
x(t) = X0 + Xk ej2πkf0 t
k6=0
Z t X  Z t Z tX
j2πkf0 α
y(t) = X0 + Xk e dα = X0 dα + Xk ej2πkf0 α dα =
a k6=0 a a k6=0

" #t
t
ej2πkf0 α
X Z X
j2πkf0 α
= X0 (t − α) + Xk e dα = X0 (t − α) + Xk
a j2πkf0
k6=0 k6=0 a
j2πkf0 t j2πkf0 a
X e X e
y(t) = X0 (t − α) + Xk − Xk
j2πkf0 j2πkf0
k6=0 k6=0

y(t) =yL (t) + yP (t) + yC (t) Lineare non periodico


Periodico di periodo T0
Affichè y(t) sia periodico, la componente lineare deve essere nulla e quindi X0 = 0. Continua
Nel calcolo dei coefficienti Yk si considera la componente continua come l’armonica
di ordine zero, mentre la componente periodica come la somma di tutte le restanti
armoniche

Caso particolare
Z t Z t
y1 = x(α) dα y2 = x(α) dα a2 < a1 < t
a1 a2
Z a1 Z t Z a1
y2 (t) = x(α) dα + x(α) dα = x(α) dα + y1 (t)
a2 a1 a2

I due segnali differiscono per una costante continua e indipendente dal tempo. Se
a1 e a2 differiscono per un multiplo intero del periodo, la costante è nulla
Z a1
x(α) dα = N · xm = 0 per a1 − a2 = N T0 Valore medio nullo
a2 perché relativo ad un
segnale ad energia finita

Esempio
È possibile calcolare i coefficienti di un treno di impulsi triangolare a partire da
un’onda quadra e dal teorema di integrazione

x(t)
A
2A/T0

T0 /2
t
−T0 /2

−2A/T0
x(t)
y(t)

(
dy(t) 2A
T0 per −T2 ≤t≤0
0

= −2A
= x(t)
dt T0 per 0 ≤ t ≤ T20
Z t
y(t) = x(α) dα
−T0 /2
(
Xk
j2πkf0 per k 6= 0
Yk = P Xm ejπm
− m6=0 j2πmf0 per k = 0
Z
1 Area y(t) in un periodo A
Y0 = y(t) dt = =
T0 [T0 ] T0 2
1
I coefficienti di x(t) si calcolano a partire da un’onda quadra traslata di 4 di
periodo A
sinc k2

per k dispari z(t) onda quadra non
Z k = T0
0 per k pari traslata

 
T0
x(t) = z t + ⇐⇒ Xk = Zk ej2πkf0 (T0 /4) = Zk ejπk/2
4
 2A
sinc k2 ejπk/2 per k dispari

Xk = T 0

0 per k pari
 
 2A k jπk/2
T0 sinc 2 e
Yk = j2πkf0 per k 6= 0 = A [1 − (−1)k ]
A per k = 0 π2 k2
2

È possibile utilizzare derivata e teorema di integrazione in questo modo solo per


funzioni continue
Teorema di derivazione
Z t
x(t) = x(t + T0 ) y(t) = y(t + T0 ) = x(α) dα
a
(
Xk
j2πkf0 per k 6= 0
Yk = P Xm j2πmf0 a
− m6=0 j2πmf0 e per k = 0
Xk = j2πkf0 Yk

Proprietà


 x(t) Segnale continuo
x(1) Segnale continuo


x(2) Segnale continuo

 ..
.


x(M ) Primo segnale con discontinuità di 1a specie
1
I coefficienti di x(M ) tenderanno a zero come k (come un’onda quadra). I coeffi-
cienti di x(M −1) tenderanno a zero come k12 .
(M ) (M −1) M
Xk = j2πkf0 Xk = · · · = j2πkf0 Xk
1
Di conseguenza i coefficienti si x(t) tenderanno a zero come kM +1

Teorema del prodotto


x(t) = x(t + T0 ) ⇐⇒ Xk y(t) = y(t + T0 ) ⇐⇒ Yk
z(t) = x(t)y(t) z(t) = z(t + T0 ) ⇐⇒ Zk
X X
Zk = Ym X(k−m) oppure Zk = Xm Y(k−m)
m m

Il teorema della modulazione è un caso particolare del teorema del prodotto

Dimostrazione
Z Z
1 −j2πkf0 t 1
Zk = z(t)e dt = x(t)y(t)e−j2πkf0 t dt =
T0 [T0 ] T0 [T0 ]
Z Z
1 X
−j2π(k−m)f0 t
X 1
= Ym x(t)e dt = Ym x(t)e−j2π(k−m)f0 t dt =
T0 T0
X
[T0 ] m m [T0 ] y(t) = Ym ej2πkf0 t
X X m
Zk = Ym X(k−m) oppure Zk = Xm Y(k−m)
m m

Teorema della convoluzione


Definizione di convoluzione
Si definisce la convoluzione tra due segnali periodici tempo-continui come

x(t) = x(t + T0 )
y(t) = y(t + T0 )
Z
1
z(t) = x(t) ⊗ y(t) = x(α)y(t − α) dα
T0 [T0 ]
Z Z
1 1
z(t + T0 ) = x(α)y(t + T0 − α) dα = x(α)y(t − α) dα
T0 [T0 ] T0 [T0 ]
z(t) = z(t + T0 )

Proprietà della convoluzione


1. Proprietà commutativa

x(t) ⊗ y(t) = y(t) ⊗ x(t)


Dimostrazione
Z Z
1 1
x(t)⊗y(t) = x(α)y(t−α) dα = y(β)x(t−β) dβ = y(t)⊗x(t) t−α=β
T0 [T0 ] T0 [T0 ]

2. Proprietà associativa

[x(t) ⊗ y(t)] ⊗ z(t) = x(t) ⊗ [y(t) ⊗ z(t)] = y(t) ⊗ [x(t) ⊗ z(t)]

3. Proprietà distributiva

[x(t) + y(t)] ⊗ z(t) = x(t) ⊗ z(t) + y(t) ⊗ z(t)

4. Traslazione temporale
z(t) = x(t) ⊗ y(t)
s(t) = y(t − τ )
x(t) ⊗ s(t) = z(t − τ )

5. Convoluzione tra segnali pari

x(t) = x(−t) y(t) = y(−t)

z(t) = x(t) ⊗ y(t) z(t) = z(−t)

Dimostrazione
Z
1
z(t) = x(t) ⊗ y(t) = x(α)y(t − α) dα
T0 [T0 ]
Z −T0 /2 Z T0 /2
1 1
z(−t) = x(−α)y(t + α) dα = x(β)y(t − β) dβ β = −α
T0 T0 /2 T0 −T0 /2

z(t) = z(−t)

6. Convoluzione tra segnali dispari

x(t) = −x(−t) y(t) = −y(−t)

z(t) = x(t) ⊗ y(t) z(t) = z(−t)

7. Convoluzione tra segnali pari e dispari

x(t) = −x(−t) y(t) = y(−t)

z(t) = x(t) ⊗ y(t) z(t) = −z(−t)

8. Convoluzione tra segnale alternativo e non alternativo


   
T0 T0
x(t) 6= −x t − y(t) = −y t −
2 2
 
T0
z(t) = x(t) ⊗ y(t) z(t) = −z t −
2

Dimostrazione
  Z   Z
T0 1 T0 1
z t− = x(α)y t − − α dα = − x(α)y(t − α) dα
2 T0 [T0 ] 2 T0 [T0 ]
 
T0
z t− = −z(t)
2
Premesso ciò si definisce il teorema della convoluzione

x(t) = x(t + T0 ) ⇐⇒ Xk y(t) = y(t + T0 ) ⇐⇒ Yk

z(t) = x(t) ⊗ y(t) = y(t) ⊗ x(t) ⇐⇒ Zk = Xk Yk

Dimostrazione
Z Z  Z 
1 −j2πkf0 t 1 1
Zk = z(t)e dt = x(α)y(t − α) dα e−j2πkf0 t dt =
T0 [T0 ] T0 [T0 ] T0 [T0 ]
Z  Z  Z
1 1 −j2πkf0 t 1
= x(α) y(t − α)e dt dα = x(α)Yk e−j2πkf0 α dα = Yk e−j2πkf0 α deriva dal
T0 [T0 ] T0 [T0 ] T0 [T0 ]
teorema del ritardo per
y(t − α)
Z
1
= Yk x(α)e−j2πkf0 α dα = Yk Xk
T0 [T0 ]

Teorema di Parseval
x(t) = x(t + T0 ) ⇐⇒ Xk y(t) = y(t + T0 ) ⇐⇒ Yk
Z
1 X
x(t)y ∗ (t) dt = Xk Yk∗
T0 [T0 ]
k

Dimostrazione
z(t) = x(t)y ∗ (t)
Z
1 X

Z0 = z(t) dt Zk = Xm Ym−k Zk deriva dal teorema
T0 [T0 ] m del prodotto
Z
1 X
x(t)y ∗ (t) dt = Z0 = Xm Ym∗ ∗
Ym∗ = Ym−k per k = 0
T0 [T0 ] m

Z
1 X
x(t)y ∗ (t)e−j2πkf0 t dt = ∗
Xm Ym−k
T0 [T0 ] m

Dualità dei domini


1. Convoluzione
x(t) ⇐⇒ Xk y(t) ⇐⇒ Yk
z(t) = x(t) ⊗ y(t) ⇐⇒ Zk = Xk Yk

2. Traslazione

x(t) ⇐⇒ Xk y(t) = x(t − τ ) ⇐⇒ Yk = Xk e−j2πkf0 τ

x(t) ⇐⇒ Xk y(t) = x(t)ej2πmf0 t ⇐⇒ Yk = Xk−m

3. Identità
x(t) = y(t)
Z Z
1 1
x(t)y ∗ (t) dt = |x(t)|2 dt = Px
T0 [T0 ] T0 [T0 ]
Z
1 X
Px = |x(t)|2 dt = |Xk |2
T0 [T0 ]
k
Analisi di Fourier di segnali aperiodici
Equazione di analisi
Se nei segnali periodici, le oscillazioni avevano frequenza multipla della frequenza
fondamentale, nei segnali aperiodici la frequenza è variabile e quindi i coefficienti
sono definiti su un dominio f continuo. L’equazione di analisi quindi diventa
Z +∞
X(f ) = x(t)e−j2πf t dt
−∞

Esempio

x(t)

t
−T0 /2 −T /2 T /2 T0 /2

xp (t)
x(t)

x(t) è uguale a xp (t) (segnale periodico) su un solo periodo. È possibile ricavare


il segnale aperiodico a partire da quello periodico
Z
X 1
xp (t) = Xk ej2πkf0 t Xk = xp (t)e−j2πkf0 t dt
T0 [T0 ]
k

x(t) = lim xp (t)


T0 →∞

Xk ej2πkf0 t = T0 Xk ej2πkf0 t T10 = j2πkf0 t 1


P P P
xp (t) = k k k X̃k e T0
T0 Xk = X̃k
Z T0
2
X̃k = xp (t)e−j2πkf0 t dt
T
− 20
X 1 X
x(t) = lim X̃k ej2πkf0 t = lim X̃k ej2πkf0 t f0
T0 →∞ T0 f0 →0
k k

Il tendere di f0 a zero implica che le aree dei rettangoli utilizzati per approssimare
la funzione tendono a zero, proprio come succede in un integrale
X Z +∞
lim X̃k ej2πkf0 t f0 = X(f )ej2πf t df
f0 →0 −∞
k

X Z +∞
j2πkf0 t
x(t) = lim xp (t) = lim X̃k e f0 = X(f )ej2πf t df
T0 →∞ f0 →0 −∞
k
Z +∞
x(t) = X(f )ej2πf t df
−∞

Si è ricavata cosı̀ l’equazione di sintesi per un segnale tempo-continuo aperiodico

Equazione di sintesi
Z +∞
x(t) = X(f )ej2πf t df
−∞

Come per i segnali tempo-continui, l’equazione di sintesi genera una funzione che
tende a minimizzare l’errore quadratico medio
Z +ν
x(t) = lim X(f )ej2πf t df
ν→∞ −ν
x(t) = lim xν (t) x(t̄) 6= lim xν (t̄)
ν→∞ ν→∞

Supponendo che x(t) sia ad energia finita (e quindi a quadrato integrabile), si ha


che Z +∞
lim |x(t) − xν (t)|2 dt = 0
ν→∞ −∞

Esempio
Prendendo un segnale aperiodico, regolare a tratti con discontinuità di prima specie
si nota come l’errore quadratico tende ad annullarsi, mentre l’errore assoluto per-
siste

x(t)

t
−T /2 T /2

x(t)

1
  1
 per |α| < 2
t 1
x(t) = A rect rect α = 0 per |α| > 2
T 1
 1
2 per |α| = 2
1
Per |α| = 2 si ha il punto di discontinuità
Z +∞
X(f )ej2πf t df
−∞

L’integrale converge a x(t) nei punti in cui x(t) è continua, mentre converge alla
semisomma di limite destro e sinistro nei punti di discontinuità. Facendo tendere
ν → ∞ l’errore quadratico tende ad annullarsi, mentre quello assoluto persiste.
Nel caso di un segnale continuo anche l’errore assoluto tenderà ad annullarsi

Funzione rect
x(t)

t
−T0 /2 T0 /2

x(t)

  Z +∞
t
x(t) = A rect X(f ) = x(t)e−j2πf t dt
T −∞
Z +∞
X(0) = x(t) dt = AT X(0) è l’area del
−∞
rettangolo
Z +∞   Z +T /2
t Gli estremi di
X(f ) = A rect e−j2πf t dt = Ae−j2πf t dt
−∞ T −T /2 integrazione sono
limitati a [ −T T
2 ; 2]
T /2 perché la funzione è
e−j2πf t A  −j2πf T /2  nulla al di fuori di
X(f ) = A = e − ej2πf T /2 = quell’intervallo
−j2πf −j2πf

−T /2

A   A h i A sin (πf T )
= e−jπf T − ejπf T = − 2j sin (πf T ) = =
−j2πf −j2πf πf
sin (πf T )
= AT = AT sinc (f T )
πf T
X(f ) = AT sinc (f T )
La sinc si annulla per f T = k con k ∈ Z − {0} e quindi per f = Tk . La trasformata
è reale e pari se la funzione di partenza è anch’essa reale e pari.

lim X(f ) = 0
|f |→0

1
La trasformata tenderà a zero come f, cioè in modo analogo al treno di impulsi
rettangolare

Esponenziale monolatero
x(t)

t
x(t)

x(t) = Ae−t/τ u(t) con A > 0, τ > 0



X(f ) =
1 + j2πf τ
1
Essendoci una discontinuità di prima specie, il segnale tenderà a zero come f

Dimostrazione trasformata
Z +∞ Z +∞ Z +∞
X(f ) = x(t)e−j2πf t dt = Ae−t/τ u(t)e−j2πf t dt = A e−(j2πf +1/τ )t dt =
−∞ −∞ 0
+∞
e−(j2πf 1/τ )t Aτ
A   =
− j2πf + 1 1 + j2πf τ
τ 0

X(f ) = X ∗ (−f )
Questo segnale gode di simmetria Hermitiana
Simmetria Hermitiana per segnali aperiodici
x(t) ∈ R ⇐⇒ X(f )
X(f ) = X ∗ (−f )

Dimostrazione
Z +∞
X(f ) = x(t)e−j2πf t dt
−∞
Z +∞
X(−f ) = x(t)ej2πf t dt
−∞
Z +∞ ∗ Z +∞
X ∗ (−f ) = x(t)ej2πf t dt = x∗ (t)e−j2πf t dt =
−∞ −∞
Z +∞
= x(t)e−j2πf t dt = X(f )
−∞

Trasformata del complesso coniugato


x(t) ⇐⇒ X(f ) y(t) = x∗ (t) ⇐⇒ Y (f ) = X ∗ (−f )

Dimostrazione
Z +∞ Z +∞ Z +∞ ∗
−j2πf t ∗ −j2πf t
Y (f ) = y(t)e dt = x (t)e dt = x(t)e j2πf t
dt = X ∗ (−f )
−∞ −∞ −∞

Trasformata del ribaltato sull’asse delle ascisse


x(t) ⇐⇒ X(f ) y(t) = x(−t) ⇐⇒ Y (f ) = X(−f )

Dimostrazione
Z +∞ Z +∞
−j2πf t
Y (f ) = y(t)e dt = x(−t)e−j2πf t dt =
−∞ −∞
Z −∞ Z +∞
j2πf α
x(α)e (−dα) = x(α)ej2πf α dα = X(−f ) −t = α
+∞ −∞

Proprietà trasformata di un segnale pari


x(t) = x(−t) ⇐⇒ X(f ) = X(−f )

Dimostrazione

x(t) ∈ R =⇒ X(f ) = X ∗ (−f ) =⇒ X ∗ (−f ) = X(−f )
x(t) = x(−t) =⇒ X(f ) = X(−f )

Proprietà trasformata di un segnale reale e pari


Z +∞
x(t) = x(−t) x(t) ∈ R ⇐⇒ X(f ) = 2 x(t) cos (2πf t) dt
0
La trasformata sarà pari

Dimostrazione
Z +∞ Z 0 Z +∞
X(f ) = x(t)e−j2πf t dt = x(t)e−j2πf t dt + x(t)e−j2πf t dt =
−∞ −∞ 0
Z +∞ Z +∞ Z +∞  
= x(−t)ej2πf t dt+ x(t)e−j2πf t dt = x(−t)ej2πf t +x(t)e−j2πf t dt =
0 0 0
Z +∞   Z +∞
= x(t) ej2πf t + e−j2πf t dt = 2 x(t) cos (2πf t) dt x(t) = x(−t)
0 0

La trasformata sarà reale e pari

Proprietà trasformata di un segnale dispari


x(t) = −x(−t) ⇐⇒ X(f ) = −X(−f )
La trasformata sarà dispari

Proprietà trasformata segnale reale e dispari


x(t) = −x(−t) x(t) ∈ R
Z +∞
X ∗ (−f ) = −X(−f ) X(f ) = −2j x(t) sin (2πf t) dt
0
La trasformata sarà immaginaria pura e dispari

Dimostrazione
Si parte dall’equazione di analisi calcolata per la trasformata reale e pari
Z +∞   Z +∞  
= x(−t)ej2πf t + x(t)e−j2πf t dt = − x(t)ej2πf t + x(t)e−j2πf t dt =
0 0
Z +∞   Z +∞
=− x(t) ej2πf t − e−j2πf t dt = −2j x(t) sin (2πf t) dt −x(t) = x(−t)
0 0

Proprietà di linearità
x(t) ⇐⇒ X(f ) y(t) ⇐⇒ Y (f )
z(t) = ax(t) + by(t) ⇐⇒ Z(f ) = aX(f ) + bY (f )

Teorema del ritardo


È detto anche teorema della traslazione temporale

x(t) ⇐⇒ X(f ) y(t) = x(t − τ ) ⇐⇒ Y (f ) = X(f )e−j2πf τ

Il modulo rimane invariato, mentre la fase cambia

|Y (f )| = |X(f )e−j2πf τ | = |X(f )|

∠Y (f ) = ∠X(f ) − 2πf τ

Segnali a simmetria coniugata


x(t) ⇐⇒ X(f ) x(t) = x∗ (−t)

Caso x(t) reale


x(t) = x∗ (−t) = x(−t)
x(t) pari

Caso generale
x∗ (t) ⇐⇒ X ∗ (−f ) x∗ (−t) ⇐⇒ X ∗ (f )
X(f ) = X ∗ (f ) ⇒ Im{X(f )} = 0
La trasformata sarà reale
Segnali ad antisimmetria coniugata
x(t) = −x∗ (−t) ⇐⇒ X(f ) = −X ∗ (−f ) ⇒ Re{X(f )} = 0
La trasformata sarà immaginaria pura

Dimostrazione
x(t) x(t) x(t) x∗ (−t) x(t) x∗ (−t)
x(t) = + = + + −
2 2 2 2 2 2
x(t) x∗ (−t)
x(t) = y(t) + z(t) ⇐⇒ X(f ) = Y (f ) + Z(f ) y(t) = 2 + 2
x(t) x∗ (−t)
z(t) = 2 − 2
y(t) = y ∗ (−t) z(t) = −z ∗ (−t)
Im{Y (f )} = 0 Re{Z(f )} = 0
Re{X(f )} = Re{Y (f )} + Re{Z(f )} = Re{Y (f )} = Y (f )
Z(f )
Im{X(f )} = Im{Y (f )} + Im{Z(f )} = Im{Z(f )} =
j
Ogni segnale si può scrivere come somma di una parte a simmetria coniugata e
una ad antisimmetria coniugata

Teorema del cambiamento di scala


x(t) ⇐⇒ X(f ) y(t) = x(at) a ∈ R − {0}
 
1 f
Y (f ) = X
|a| a

Dimostazione
• Caso a > 0
Z +∞ Z +∞
Y (f ) = y(t)e−j2πf t dt = x(at)e−j2πf t dt =
−∞ −∞
Z +∞ Z +∞  
−j2πf τ /a dτ 1 −j2π fa τ 1 f
= x(τ )e = x(τ )e dτ = X τ = at
−∞ a a −∞ a a

• Caso a < 0
a = −|a|
z(t) = x(|a|t)
 
1 f
Z(f ) = X
|a| |a|
   
1 −f 1 f
y(t) = z(−t) ⇐⇒ Y (f ) = Z(−f ) = X = X
|a| |a| |a| a

Codice binario
Il codice binario si trasmette come impulsi rettangolari. Un impulso di ampiezza A
e durata T indica un 1, mentre un impulso di ampiezza −A e durata T rappresenta
uno 0. La velocità di trasmissione è di T1 bit/s

x(t)

1
t
T 2T
0

-A
Teorema di dualità
x(t) ⇐⇒ X(f ) y(t) = X(t) ⇐⇒ Y (f ) = x(−f )

Dimostrazione
Z +∞
x(t) ⇐⇒ X(f ) = x(t)e−j2πf t dt
−∞
Z +∞
y(t) = X(t) = Y (f )ej2πf t df
−∞
Z +∞ Z +∞
X(t) = x(f )e−j2πf t df = x(−f )ej2πf t df f = −f
−∞ −∞

Z +∞ Z +∞
y(t) = X(t) ⇒ Y (f )ej2πf t df = x(−f )ej2πf t df ⇐⇒ Y (f ) = x(−f )
−∞ −∞

Questo teorema vale solo se il dominio del segnale e quello della trasformata sono
entrambi continui e quindi vale per segnali aperiodici

Esempio
A
x(t) = ⇐⇒ X(f )
t 2

1+ T
2Bτ
y(t) = Be−|t|/T ⇐⇒ Y (f ) =
1 + (2πf τ )2
2Bτ
Y (t) = ⇐⇒ y(−f ) = Be−|f |/T
1 + (2πtτ )2
1
2Bτ = A 2πτ = ⇒ B = πAT
T
y(−f ) = X(f ) = πAT e−|f |2πT

Teorema della traslazione in frequenza


Questo teorema è il duale del teorema del ritardo (traslazione temporale)

x(t) ⇐⇒ X(f )

y(t) = x(t)ej2πf0 t ⇐⇒ Y (f ) = X(f − f0 )

Dimostrazione
Z +∞ Z +∞
Y (f ) = y(t)e−j2πf t dt = x(t)ej2πf0 t e−j2πf t dt =
−∞ −∞
Z +∞
= x(t)e−j2π(f −f0 )t dt = X(f − f0 )
−∞

Teorema della modulazione


x(t) ⇐⇒ X(f )
1 jθ 1
y(t) = x(t) cos (2πf0 t + θ) ⇐⇒ Y (f ) = e X(f − f0 ) + e−jθ X(f + f0 )
2 2

Dimostrazione
1 j(2πf0 t+θ) 1 −j(2πf0 t+θ)
cos (2πf0 t + θ) = e + e
2 2
1 jθ 1
y(t) = e x(t)ej2πf0 t + e−jθ x(t)e−j2πf0 t
2 2
1 jθ 1
= e X(f − f0 ) + e−jθ X(f + f0 ) x(t)ej2πf0 t = X(f − f0 )
2 2
x(t)e−j2πf0 t = X(f +f0 )
per il teorema della
modulazione
Casi particolari
• Caso θ = 0
1 1
y(t) = x(t) cos (2πf0 t) ⇐⇒ Y (f ) = X(f − f0 ) + X(f + f0 )
2 2

• Caso θ = −π
2
 
π
y(t) = x(t) cos 2πf0 t − = x(t) sin (2πf0 t)
2

1 1
Y (f ) = X(f − f0 ) − X(f + f0 )
2j 2j

Teorema della convoluzione


x(t) y(t)
Z +∞
z(t) = x(t) ⊗ y(t) = x(α)y(t − α) dα
−∞

Le operazioni fatte sono le stesse per segnali periodici e aperiodici, come anche le
proprietà

Proprietà
1. Proprietà commutativa

x(t) ⊗ y(t) = y(t) ⊗ x(t)

2. Proprietà associativa

[x(t) ⊗ y(t)] ⊗ z(t) = x(t) ⊗ [y(t) ⊗ z(t)]

3. Proprietà distributiva

[x(t) + y(t)] ⊗ z(t) = x(t) ⊗ z(t) + y(t) ⊗ z(t)

Esempio

s(t) = x(t − t0 ) y(t)


z(t) = x(t) ⊗ y(t)

s(t) ⊗ y(t) = x(t − t0 ) ⊗ y(t) = z(t − t0 ) GIUSTO


x(t − t0 ) ⊗ y(t − t0 ) = z(t − t0 ) NO!!! SBAGLIATO!!!

Esempio

s(t) = x(−t) v(t) = y(−t)


z(t) = x(t) ⊗ y(t)
s(t) ⊗ v(t) = z(−t)

4. Durata della convoluzione



x(t) = 0 per t < 0 e t > Dx
y(t) = 0 per t < 0 e t > Dy

z(t) = x(t) ⊗ y(t) ⇒ {z(t) = 0 per t < 0 e t > Dz


Dz = Dx + Dy
Lo stesso risultato si ottiene con durate generiche di x(t) e y(t)

x(t) = 0 per t < τx e t > Dx + τx
y(t) = 0 per t < τy e t > Dy + τy
I due segnali saranno gli stessi del caso precedente, ma traslati di τx e τy

s(t) = x(t − τx ) ⊗ y(t − τy ) = z(t − τx − τy )

Ds = Dz
Se Dx = ∞ oppure Dy = ∞ anche Dz = ∞

Trasformata della convoluzione


x(t) ⇐⇒ X(f ) y(t) ⇐⇒ Y (f )
z(t) = x(t) ⊗ y(t) ⇐⇒ Z(f ) = X(f )Y (f )

Dimostrazione
Z +∞ "Z #
Z +∞ +∞
Z(f ) = z(t)e−j2πf t dt = x(α)y(t − α) dα e−j2πf t dt =
−∞ −∞ −∞
"Z #
Z +∞ +∞ Z +∞
= x(α) y(t − α)e−j2πf t dt dα = x(α)Y (f )e−j2πf α dα = Teorema del ritardo
−∞ −∞ −∞
Z +∞
= Y (f ) x(α)e−j2πf α dα = X(f )Y (f )
−∞

Trasformata notevole
   
|t| t
z(t) = A 1 − rect
T 2T
Z(f ) = AT sinc2 (T f )

Convoluzione e causalità
x(t) = Ae−t/τ u(t) per τ > 0
Z +∞
y(t) = x(t) ⊗ x(t) = Aeα/τ u(α)Ae(−t+α)/τ u(t − α) dα =
−∞
Z +∞ Z +∞
= A2 e−t/τ e−α/τ u(α)eα/τ u(t − α) dα = A2 e−t/τ u(α)u(t − α) dα
−∞ −∞

1. Per t < 0
u(α)u(t − α) = 0 ⇒ y(t) = 0

2. Per t > 0 
u(α)u(t − α) = 1
per 0 < α < t
per α > t0
Z +∞ Z t
u(α)u(t − α) dα = dα = t
−∞ 0
2 −t/τ
y(t) = A te u(t)
y(t) sarà causale perché nullo per t < 0. La convoluzione tra due segnali
causali origina un segnale causale

Convoluzione tra segnale causale e segnale non causale


z(t) = x(t) ⊗ x(−t)
Il segnale non sarà causale
Z +∞ Z +∞
z(t) = x(α)x(α − t) dα = Ae−α/τ u(α)Ae(−α+t)/τ u(α − t) dα =
−∞ −∞
Z +∞
A2 et/τ e−2α/τ u(α)u(α − t) dα
−∞
1. Per t < 0 Z +∞
τ
z(t) = A2 et/τ e−2α/τ dα = A2 et/τ
0 2

2. Per t > 0 
u(α)u(α − t) = 1 per α < t = u(α − t)
0 per α > t
+∞
A2 τ −t/τ
Z
τ
z(t) = A2 et/τ e−2α/τ dα = A2 et/τ e−2t/τ = e
t 2 2
z(t) sarà un esponenziale bilatero

Calcolo delle trasformate con il teorema della convoluzione


Facendo riferimento a x(t), y(t) e z(t) del paragrafo precedente, si calcolano le
trasformate utilizzando il teorema della convoluzione
 2

Y (f ) = X(f )X(f ) =
1 + j2πf τ

(Aτ )2
Z(f ) = X(f )X(−f ) = X(f )X ∗ (f ) = |X(f )|2 =
1 + (2πf τ )2
|Y (f )| = |Z(f )|
Il modulo di una funzione viene detto spettro di ampiezza, la fase viene detta
spettro di fase
θ(f ) = arctan X(f )
θy (f ) = −2 arctan (2πf τ ) θz (f ) = 0

Teorema del prodotto


x(t) ⇐⇒ X(f ) y(t) ⇐⇒ Y (f )
z(t) = x(t)y(t) ⇐⇒ Z(f ) = X(f ) ⊗ Y (f )

Dimostrazione
X(t) ⇐⇒ x(−f ) Y (t) ⇐⇒ y(−f ) Teorema di dualità
s(t) = X(t) ⊗ Y (t)
S(f ) = x(−f )y(−f ) Teorema della
convoluzione
s(−t) ⇐⇒ S(−f ) = x(f )y(f ) Proprietà della
trasformata
s(−t) = X(−t) ⊗ Y (−t)
X(−t) ⊗ Y (−t) ⇐⇒ x(f )y(f )
z(t) = x(t)y(t) ⇐⇒ S(f ) Teorema di dualità

s(t) = X(f ) ⊗ Y (f )

Teorema di Parseval
Z +∞ Z +∞
x(t)y ∗ (t) dt = X(f )Y ∗ (f ) df
−∞ −∞

Dimostrazione
z(t) = x(t)y ∗ (t) ⇐⇒ Z(f ) = X(f ) ⊗ F y ∗ (t)
 

F y ∗ (t) = Y ∗ (−f )
 

Z +∞
Z(f ) = X(f ) ⊗ Y ∗ (−f ) = X(ν)Y ∗ (ν − f ) dν
−∞
Z +∞ Z +∞
x(t)y ∗ (t) dt = z(t) dt = z(0)
−∞ −∞
Z +∞ Z +∞
z(0) = X(ν)Y ∗ (ν) dν = x(t)y ∗ (t) dt
−∞ −∞

Caso particolare
y(t) = x(t)
Z +∞ Z +∞
x(t)x∗ (t) dt = |x(t)|2 dt = Ex
−∞ −∞
Z +∞ Z +∞
Ex = |x(t)|2 dt = |X(f )|2 df
−∞ −∞

Teorema della derivata


d
x(t) ⇐⇒ X(f ) y(t) = x(t) ⇐⇒ Y (f ) = j2πf X(f )
dt

Dimostrazione
Z +∞ Z +∞ 
−j2πf t d
Y (f ) = y(t)e dt = x(t) e−j2πf t dt =
−∞ −∞ dt
 +∞ Z +∞  
−j2πf t d −j2πf t
= x(t)e − x(t) e = Risoluzione per parti
−∞ −∞ dt
Z +∞  
−j2πf t
= lim x(t) − x(t) − j2πf e dt =
t→±∞ −∞
Z +∞ Il limite nullo è una
= j2πf x(t)e−j2πf t dt = j2πf X(f ) condizione che deve
−∞
essere verificata da x(t)
Ordine di derivabilità
x(t) ⇐⇒ X(f ) con X(f ) derivabile M − 1 volte
(M )
X esiste, ma presenta discontinuità

x(t) ⇐⇒ X(f )

x(1) (t) ⇐⇒ (j2πf )X(f )




 (2)
x (t) ⇐⇒ (j2πf )2 X(f )
...


x(M −1) (t) ⇐⇒ (j2πf )M −1 X(f )




 (M )
x (t) ⇐⇒ (j2πf )M X(f )
1 1
F xM (t) → 0 come
 
⇒ X(f ) → 0 come
f f M +1

Teorema di integrazione incompleto


y(t) ⇐⇒ Y (f )
Z t
Y (f )
x(t) = y(α) dα ⇐⇒ X(f ) =
−∞ j2πf

Dimostrazione
d Y (f )
y(t) = x(t) ⇐⇒ Y (f ) = j2πf X(f ) ⇒ X(f ) =
dt j2πf
Condizione necessaria
Z t Z +∞
lim x(t) = lim y(α) dα = y(α) dα = 0
t→∞ t→∞ −∞ −∞

Se limt→∞ x(t) 6= 0 allora il teorema di integrazione nella forma incompleta non


si può applicare. È possibile utilizzare una condizione equivalente
Z +∞
Y (0) = y(t) dt = 0
−∞

Teoria delle distribuzioni


Delta di Dirac

t
t0
δ(t)

  Z +∞
1 t
δε (t) = rect ⇒ δ(t) = lim δε (t) δ(t) dt = 1
ε ε ε→0 −∞

d
δ(t) =
u(t)
dt
La δ(t) non è una funzione, ma una distribuzione. Se fosse una funzione, l’integrale
scritto prima divergerebbe a +∞ e sarebbe matematicamente sbagliato. Inoltre
la derivata è nulla in ogni punto tranne in t0 , in cui però ha valore infinito. È
possibile trattare la delta come un funzionale, cioè come un oggetto matematico
che associa ad una funzione un numero (l’integrale è un funzionale)
Z +∞
δ(t)φ(t) dt = φ(0) ⇒ δ[φ(t)] = φ(0)
−∞

La delta è un funzionale che associa ad ogni funzione il proprio valore in 0.


Ci sono alcune operazioni che non si possono fare su funzioni ordinarie, ma che
la teoria delle distribuzioni permette di fare, come, ad esempio, la derivata di una
funzione discontinua.
È anche possibile applicare la teoria delle distribuzioni per il calcolo delle trasfor-
mate continue di Fourier di segnali periodici
Z +∞  
1 t
δε (t)φ(t) dt δε (t) = rect
−∞ ε ε
+∞
1 ε/2
Z   Z  
1 t t
lim rect φ(t) dt = lim rect φ(t) dt = Gli estremi di
ε→0 ε −∞ ε ε→0 ε −ε/2 ε
integrazione si riducono
all’intervallo in cui la
1
Z ε/2 rect 6= 0. In quello
= lim φ(t) dt = stesso intervallo
ε→0 ε −ε/2
rect = 1
Applicando il teorema della media integrale si ha φ(t) = εφ(tε ) e quindi si ottiene
una funzione dipendente da una nuova variabile
1  
= lim εφ(tε ) = lim φ(tε ) = φ lim tε = φ(0)
ε→0 ε ε→0 ε→0
δε (t) definisce una successione di distribuzioni e il limε→0 di tali distribuzioni
è δ(t). In questo modo è possibile giustificare l’area unitaria della delta

φ(t) = 1 funzione costante


Z +∞ Z +∞ Z +∞
δ[φ(t)] = φ(0) = δ(t)φ(t) dt = δ(t) · 1 = δ(t) dt = φ(0) = 1
−∞ −∞ −∞

Proprietà della delta di Dirac


1. Area unitaria Z +∞
δ(t) dt = 1
−∞

2. Traslazione temporale

δ(t − t0 ) ⇒ δ[φ(t − t0 )] = φ(t0 )

Dimostrazione
Z +∞ Z +∞
δ(t − t0 )φ(t) dt = δ(α)φ(α + t0 ) dα = t − t0 = α
−∞ −∞
Z +∞
δ(α)ψ(α) dα = ψ(0) = φ(0 + t0 ) = φ(t0 ) φ(α + t0 ) = ψ(α)
−∞

3. Moltiplicazione per una costante

aδ(t)
Z +∞ Z +∞
aδ(t)φ(t) dt = a δ(t)φ(t) dt = aφ(0)
−∞ −∞

4. Moltiplicazione per una funzione

x(t)δ(t)
Z +∞ Z +∞ Z +∞
x(t)δ(t)φ(t) dt = δ(t)[x(t)φ(t)] dt = x(0)φ(0) = x(0) δ(t)φ(t) dt
−∞ −∞ −∞

x(t)δ(t) = x(0)δ(t) SI!


x(t)δ(t) = x(0) NO!
x(t)δ(t − t0 ) = x(t0 )δ(t − t0 )

5. Moltiplicazione del tempo per una costante

δ(at) a ∈ R − {0}
Z +∞ Z +∞  
τ dτ
δ(at)φ(t) dt = δ(τ )φ τ = at
−∞ −∞ a a

• a>0
Z +∞
1 +∞
  Z    
τ dτ τ 1 0 1
δ(τ )φ = δ(τ )φ dτ = φ = φ(0)
−∞ a a a −∞ a a a a
• a < 0 ⇒ a = −|a|
τ = at = −|a|t
Z −∞   Z +∞  
τ dτ 1 τ 1
δ(τ )φ = δ(τ )φ dτ = φ(0)
+∞ a −|a| |a| −∞ a |a|
In generale si riassume come
1
δ(at) = δ(t)
|a|

6. Limite del dominio


Z b Z +∞   
t − (a + b)/2 se a < 0 ∧ b > 0
δ(t)φ(t) dt = δ(t)φ(t) rect dt = φ(0)
a −∞ b−a 0 altrimenti
Più in generale si può definire
Z b 
δ(t − t0 )φ(t) dt = φ(0) se a < t0 < b
a 0 altrimenti

7. Elemento neutro della convoluzione

x(t) ⊗ δ(t) = x(t)

Dimostrazione
Z +∞ Z +∞
y(t) = x(t) ⊗ δ(t) = x(α)δ(t − α) dα = δ(α)x(t − α) dα = x(t)
−∞ −∞

Si può anche dimostrare come


Z +∞
y(t) = x(t) ⊗ δ(t) = lim δε (t) ⊗ x(t) = lim δε (α)x(t − α) dα =
ε→0 ε→0 −∞

+∞
1 +ε/2
Z   Z
α1
= lim x(t − α) dα = lim
rect x(t − α) dα =
ε→0 −∞ εε ε→0 ε −ε/2

1  
= lim εx(tε ) = lim x(tε ) = x lim tε = x(t)
ε→0 ε ε→0 ε→0

8. Derivata Z +∞
δ 0 (t)φ(t) dt = −φ0 (0)
−∞

Dimostrazione
Z +∞ +∞ Z +∞
δ 0 (t)φ(t) dt = δ(t)φ(t) − δ(t)φ0 (t) dt = 0 − φ0 (0) = −φ0 (0)

−∞ −∞ −∞

Più in generale Z +∞
δ (M ) (t)φ(t) dt = −φ(M ) (0)
−∞

Trasformata della delta di Dirac


Z +∞
x(t) = δ(t) ⇐⇒ X(f ) = δ(t)e−j2πf t dt = e−j2π0 = 1
−∞

δ(t) ⇐⇒ 1

Applicazione trasformata della delta


x(t) = A segnale costante
y(t) = Aδ(t) ⇐⇒ Y (f ) = A
Y (t) = x(t) ⇐⇒ y(−f ) = X(f ) = Aδ(−f ) = Aδ(f ) La δ(t) è pari

x(t) = A ⇐⇒ X(f ) = Aδ(f )


Spettro a righe
x(t) = x(t + T0 ) ∀t
Z
X 1
x(t) = Xk ej2πkf0 t Xk = x(t)e−j2πkf0 t dt
T0 [T0 ]
k
X
F[x(t)] = Xk δ(f − kf0 ) Spettro a righe
k

X0

t
−f2 −f1 −f0 0 f0 f1 f2

Trasformata della derivata della delta


x(t) ⇐⇒ X(f ) x0 (t) ⇐⇒ j2πf X(f )
δ(t) ⇐⇒ 1 δ 0 (t) ⇐⇒ j2πf

Trasformata della rampa


1 0
x(t) = t ⇐⇒ X(f ) = − δ (t)
j2π

Dimostrazione
y(t) = δ 0 (t) ⇐⇒ Y (f ) = j2πf
Y (t) = j2πt ⇐⇒ y(−f ) = δ 0 (−f )
Y (t) δ 0 (−f ) δ 0 (f )
x(t) = t = ⇐⇒ X(f ) = =− δ 0 (−f )dispari
j2π j2π j2π

Esempio
x(t) ⇐⇒ X(f ) y(t) = tx(t)
0
δ (f )
Y (f ) = − ⊗ X(f )
j2π
Z +∞ Z +∞
0 0
δ (f ) ⊗ X(f ) = δ (ν)X(f − ν) dν = − δ 0 (ν)Z(ν) dν = −Z 0 (0) Z 0 (ν) = −X 0 (f − ν)
−∞ −∞

d
δ 0 (f ) ⊗ X(f ) = X 0 (f ) = X(f )
df
1 d
Y (f ) = − X(f )
j2π df
Derivata del gradino unitario

1 1

t t
0 0
u(t) u0 (t)

È possibile derivare un gradino unitario anche se è presente una discontinuità


considerando la discontinuità di prima specie come una δ(t) di ampiezza opportuna

d
δ(t) = u(t)
dt

Esempio

x(t)

t
−T /2 0 T /2
x(t)

   
d
y(t) = x(t) = lim x(t) − lim − x(t) − lim + x(t) − lim − x(t)
dt t→−T /2+ t→−T /2 t→T /2 t→T /2

   
T T
y(t) = Aδ t + − Aδ t −
2 2
 
Y (f ) = Ae−j2πf (−T /2) − Ae−j2πf (+T /2) = A ejπf T − e−jπf T = A2j sin (πf T )

Y (f ) A2j sin (πf T ) AT sin (πf T )


X(f ) = = = = AT sinc (f T )
j2πf j2πf πf T

Trasformata della funzione segno


x(t)

t
0

−1

sign (t)

1 per t > 0
x(t) = sign (t) = −1 per t < 0

0 per t = 0
1
X(f ) =
jπf

Dimostrazione
x(t) = sign (t) y(t) = e−t/τ u(t) − y(−t) = −et/τ u(t)

t
0

x(t)
-1
y(t)
−y(−t)

All’aumentare di τ , le funzioni y(t) e −y(−t) si avvicinano agli asintoti orizzontali

x(t) = lim [y(t) − y(−t)]


τ →∞

X(f ) = lim [Y (f ) − Y (−f )] = lim [Y (f ) − Y ∗ (f )] = lim 2jIm{Y (f )} y(t) ∈ R


τ →∞ τ →∞ τ →∞
Y (−f ) = Y ∗ (f )

τ τ − j2πf τ 2
Y (f ) = =
1 + j2πf τ 1 + (2πf τ )2
2πf τ 2
Im{Y (f )} = −
1 + (2πf τ )2
2πf τ 2 j 1
X(f ) = lim −2j =− =
τ →∞ 1 + (2πf τ )2 πf jπf

1
Trasformata di t
1
x(t) = ⇐⇒ X(f ) = −jπ sign (f )
t

Dimostrazione
j
y(t) = sign (t) ⇐⇒ Y (f ) = −

π j π 1
X(t) ⇐⇒ x(−f ) = Y (f ) =− =−
j fπ j f
π π
X(t) = y(t) = sign (t) = −jπ sign (t)
j j
X(f ) = −jπ sign (f )

Trasformata del gradino unitario


 
1 1 1
x(t) = u(t) = 1 + sign (t) = + sign (t)
2 2 2
1 1
X(f ) = δ(f ) +
2 j2πf
Teorema di integrazione completo
Rispetto alla versione incompleta, cade la condizione X(0) = 0
x(t) ⇐⇒ X(f )
Z t
1 Y (f )
y(t) = x(α) dα ⇐⇒ Y (f ) = X(f )δ(f ) +
−∞ 2 j2πf

Dimostrazione
Z t
x(α) dα = x(t) ⊗ u(t)
y(t) =
−∞
 
1 1 X(f ) X(f )
Y (f ) = X(f )F[u(t)] = X(f ) δ(f ) + = δ(f ) +
2 j2πf 2 j2πf
X(0) X(f )
Y (f ) = δ(f ) +
2 j2πf
Se X(0) = 0 si ha il caso del teorema incompleto
0 X(f ) X(f )
Y (f ) = δ(f ) + =
2 j2πf j2πf

Da segnale aperiodico a segnale periodico


Prodotto tra segnale periodico e aperiodico
x(t) = x(t + T0 ) ⇐⇒ Xk
y(t) aperiodico ⇐⇒ Y (f )
X
z(t) = x(t)y(t) aperiodico ⇐⇒ Z(f ) = Xk Y (f − kf0 )
k

Dimostrazione
Z +∞
Z(f ) = X(f ) ⊗ Y (f ) = X(ν)Y (f − ν) dν
−∞
X
X(f ) = Xk δ(f − kf0 )
k
Z +∞ X  X Z +∞
Z(f ) = Xk δ(ν −kf0 ) Y (f −ν) dν = Xk δ(ν −kf0 )Y (f −ν) dν
−∞ k k −∞
X
Z(f ) = Xk Y (f − kf0 )
k
Questo risultato è una generalizzazione del teorema della modulazione

Periodicizzazione di un segnale aperiodico


Segnale aperiodico
xa (t) ⇐⇒ Xa (f )
X
x(t) = xa (t − mT0 ) x(t) = x(t + T0 )
m
1
Xk =
Xa (kf0 )
T0
La periodicizzazione consiste nel sommare il segnale aperiodico all’infinito traslan-
dolo di multipli del periodo. Nel caso di un impulso triangolare si ha

xa (t)
xa (t − T0 )
xa (t + T0 )

t
−T0 − T0 0 T0 T0
2 2
Il teorema è valido anche per segnali di durata non finita, come ad esempio un
esponenziale decrescente

xa (t)
xa (t − T0 )
xa (t + T0 )

t
−T0 T0

Dimostrazione
 
1 k 1
Xk = Xa = Xa (kf0 ) Relazione di
T0 T0 T0 campionamento in
frequenza
Z T0 Z T0 X 
1 1
Xk = x(t)e−j2πkf0 t dt = xa (t − mT0 ) e−j2πkf0 t dt =
T0 0 T0 0 m

1 X T0
Z
= xa (t − mT0 )e−j2πkf0 t dt =
T0 m 0

1 X −(m−1)T0
Z
= xa (β)e−j2πkf0 (β+mT0 ) dβ = t − mT0 = β
T0 m −mT0

1 X −(m−1)T0
Z
= xa (β)e−j2πkf0 β e−j2πkf0 mT0 dβ =
T0 m −mT0

1 X −(m−1)T0
Z
= xa (β)e−j2πkf0 β dβ = e−j2πkm = 1
T0 m −mT0

Gli intervalli di integrazione sono disgiunti (intersezione nulla) e la loro unione è


uguale all’insieme R
Z +∞
1 1
= xa (β)e−j2πkf0 β dβ = Xa (kf0 )
T0 −∞ T0

Formula di somma di Poisson


X 1 X
xa (t − mT0 ) = Xa (kf0 )ej2πkf0 t
m
T0
k

Dimostrazione
X 1 X 1
x(t) = Xk ej2πkf0 t = Xa (kf0 )ej2πkf0 t Xk = Xa (kf0 )
T0 T0
k k

Periodicizzazione segnali alternativi


xa (t) ⇐⇒ Xa (f ) Segnale aperiodico
X
x(t) = (−1)m xa (t − mT0 ) x(t) = x(t + 2T0 )
m
Sistemi
Sistemi tempo-continui
Un sistema tempo-contiuo è un apparato che associa ad uno o più ingressi, una o
più uscite su un dominio continuo

x(t) Ingresso y(t) Uscita


h i h i
y(t) = T x(t) = T x(α); Ti (t) ≤ α ≤ Tf (t)

L’uscita può dipendere solo dall’ingresso ad un certo istante t̄, oppure può dipen-
dere anche da ciò che è successo al sistema in istanti precedenti. Ti e Tf possono
variare con il tempo o essere costanti

Sistemi lineari
Un sistema si dice lineare se

x1 (t) x2 (t) Ingressi


h i h i
y1 (t) = T x1 (t) y2 (t) = T x2 (t) Uscite

x(t) = ax1 (t) + bx2 (t) ⇒ y(t) = ay1 (t) + by2 (t) ∀a, b, x1 , x2

Condizione necessaria per la linearità


h i
x(t) = 0 ⇒ y(t) = T x(t) = 0

Questa condizione è necessaria, ma non sufficiente

Esempio
y(t) = x2 (t)
x(t) = 0 ⇒ y(t) = 0
La condizione necessaria è verificata, ma il sistema non è lineare

Sistemi stazionari o tempo-invarianti


Un sistema è stazionario se, applicando uno stesso impulso in tempi diversi, ottengo
la stessa uscita h i
x(t) y(t) = T x(t)
h i
s(t) : x(t − t0 ) z(t) = T s(t)

z(t) = y(t − t0 )

Sistemi causali
Un sistema si dice causale se la risposta ad un certo istante t̄ dipende dall’ingresso
agli istanti t < t̄ h i
y(t) = T x(α); Ti (t) ≤ α ≤ Tf (t)

Tf (t) ≤ t

Sistemi stabili in senso BIBO


La stabilità in senso BIBO (Bounded Input Bounded Output) implica che per un
ingresso limitato anche l’uscita sarà limitata
h i
|x(t)| ≤ M < ∞ ⇒ y(t) = T x(t) ≤ k ∀t
Esempio
x(t) = u(t) |x(t)| ≤ 1
Z t
y(t) = x(α) dα = tu(t)
0

@ k ∈ R | y(t) ≤ k ∀t

Sistemi istantanei
Un sistema è istantaneo se l’uscita dipende solo dall’istante di applicazione dell’ingresso

Ti (t) = Tf (t) = t

Risposta impulsiva per SLS


Il sistema è caratterizzato da un segnale h(t) detto risposta impulsiva, cioè la
risposta del sistema ad un impulso unitario

y(t) = x(t) ⊗ h(t)

x(t)

t
x(t)
ε x(nε)

ε
− nε t−
X   X
2
x(t) ≈ x(nε) rect = x(nε)δε (t − nε)ε
n
ε n
X
x(t) = lim x(nε)δε (t − nε)ε
ε→0
n
X h i X h i
yε (t) = x(nε)T δε (t − nε)ε = x(nε)hε (t − nε)ε T δε (t − nε) =
n n
hε (t − nε)
yε (t) sarà lineare e stazionario

lim yε (t) = y(t)


ε→0

X Z
lim x(nε)hε (t − nε)ε = −−∞+∞ x(α)h(t − α) dα
ε→0
n
h i h i h i
h(t) = lim hε (t) = lim T δε (t) = T lim δε (t) = T δ(t)
ε→0 ε→0 ε→0

La risposta impulsiva si calcola solo per sistemi lineari

Causalità per SLS


Un sistema è causale solo se dipende, al più, dagli istanti precedenti. Tutti i
sistemi reali sono causali. Se questa condizione non fosse rispettata il sistema
sarebbe influenzato da eventi futuri
Z +∞ Z t Z +∞
y(t) = x(t)⊗h(t) = x(α)h(t−α) dα = x(α)h(t−α) dα+ x(α)h(t−α) dα
−∞ −∞ t
Z +∞
x(α)h(t − α) dα = 0 ⇐⇒ il sistema è causale ∀x(t), h(t), t
t
Questa condizione è sufficiente e necessaria

Stabilità in senso BIBO per SLS


Un sistema lineare stazionario è stabile in senso BIBO se e solo se
Z +∞
|h(t)| dt < ∞
−∞

Quindi h(t) deve essere assolutamente integrabile

Dimostrazione
Z +∞
y(t) = x(t) ⊗ h(t) = x(α)h(t − α) dα
−∞
Z Z
+∞ +∞
|y(t)| = x(α)h(t − α) dα ≤ |x(α)h(t − α)| dα =

−∞ −∞
Z +∞ Z +∞ Z +∞
= |x(α)||h(t − α)| dα ≤ M |h(t − α)| dα = M |h(t − α)| dα =
−∞ −∞ −∞
Z +∞
=M |h(β)| dβ = M H < ∞ β =t−α
−∞

Questa è una condizione sufficiente. Un altro modo per dimostrarlo è partire da


un ingresso specifico
x(t) = sign [h(−t)]
Z +∞ Z +∞
y(t) = x(α)h(t − α) dα = sign [h(−α)]h(t − α) dα
−∞ −∞
Z +∞ Z +∞ Z +∞
y(0) = sign [h(−α)]h(−α) dα = |h(−α)| dα = |h(α)| dα
−∞ −∞ −∞

Se questo integrale diverge, anche y(0) divergerà per un ingresso limitato

Esempio
x(t) = Aej2πf0 t y(t) = BAej2πf0 t ejθ = Bx(t)ejθ
L’uscita avrà ampiezza e fase diverse, ma stessa oscillazione dell’ingresso
Z +∞ Z +∞
y(t) = x(t) ⊗ h(t) = x(t − α)h(α) dα = Aej2πf0 (t−α) h(α) dα =
−∞ −∞
Z +∞
= Aej2πf0 t h(α)e−j2πf0 α dα = ej2πf0 t H(f0 )
−∞

y(t) = x(t)H(f0 )
H(f0 ) è un termine che racchiude costante e fase

Esempio
x(t) = A cos (2πf0 t) y(t) = A|H(f0 )| cos (2πf0 t + ∠H(f0 ))

Esempio
X X
x(t) = x(t + T0 ) = Xk ej2πkf0 t y(t) = Xk ej2πkf0 t H(kf0 )
k k

Esempio
Z +∞ Z +∞
x(t) = X(f )ej2πf t df y(t) = X(f )ej2πf t H(f ) df
−∞ −∞
Z +∞ Z +∞
Y (f ) = X(f )H(f ) y(t) = Y (f )ej2πf t df = X(f )H(f )ej2πf t df
−∞ −∞
Caratterizzazione di un SLS
Nel dominio del tempo un sistema lineare stabile è caratterizzato da h(t), men-
tre nel dominio della frequenza è caratterizzato da una H(f ) detta risposta in
frequenza

Definizioni della risposta in frequenza


1.
H(f ) = F[h(t)]

2.
x(t) = ej2πf0 t y(t) = x(t)H(f0 )

y(t)
H(f0 ) =
x(t) x(t)=ej2πf0 t
y(t) = |H(f0 )| cos (2πf0 t + ∠H(f0 ))
H(f0 ) = |H(f0 )|ej∠H(f0 )

3.
y(t) = x(t) ⊗ h(t) Y (f ) = X(f )H(f )
Y (f )
H(f ) = per X(f ) 6= 0
X(f )

Risposta in ampiezza e risposta in fase


A(f ) = |H(f )| θ(f ) = ∠H(f )

Esempio
R

x(t) C y(t)

1 1
x(t) = δ(t) ⇒ H(f ) = =
1 + j2πf τ 1 + j2πf RC
H(f ) in questo caso si può calcolare con un partitore di tensione

x(t) = ej2πf t y(t) = H(f )ej2πf t


1 −t/τ
h(t) = F −1 [H(f )] = e u(t)
τ

SLS in cascata

δ(t) h1 (t) h2 (t) h(t)

Ponendo δ(t) in ingresso a due SLS in cascata, la h(t) all’uscita sarà

h(t) = δ(t) ⊗ h1 (t) ⊗ h2 (t) = h1 (t) ⊗ h2 (t)

H(f ) = H1 (f )H2 (f )
SLS in parallelo

h1 (t)

δ(t) h(t)

h2 (t)

h(t) = h1 (t) + h2 (t)


H(f ) = H1 (f ) + H2 (f )

Criterio di Paley-Wiener

R +∞) ≥20
A(f

−∞
A (f ) df < ∞
R +∞ | ln A(F )| df < ∞

−∞ 1+f 2

Se tutte queste condizioni sono rispettate, A(f ) può essere lo spettro di ampiezza
di una funzione causale e, di conseguenza, A(f )ejθ(f ) è la trasformata di un segnale
causale.
A(f ) sarà lo spettro di infiniti segnali causali. Se si trasla il segnale a destra, si
avrà un segnale causale con spettro di ampiezza A(f )

Filtro
Un filtro è un sistema lineare stazionario che presenta selettività in frequenza

H(f )

f
-B 0 B

Una risposta in frequenza di questo tipo rappresenta un filtro ideale e non realiz-
zabile fisicamente, poiché il sistema non è causale

h(t) = sinc (...) La sinc non è un segnale causale

Non si può realizzare un sistema causale con A(f ) = |H(f )| perché, anche traslan-
dolo, h(t) ha come dominio (−∞, +∞). Utilizzando il teorema di Paley-Wiener,
si nota come venga violata la terza condizione poiché A(f ) si annulla su insiemi
di misura non nulla

Banda di un segnale
Equivalente nel dominio della frequenza del concetto di durata nel dominio del
tempo. Misura l’estensione frequenziale di un segnale
X(f )

f
-B 0 B

X(f ) = 0 per |f | > B


La banda viene misurata solo per f > 0 perché vengono presi in considerazione
segnali reali.
Una banda come quella in figura non può esistere per segnali causali, poiché, un
segnale causale, non può avere banda che si annulla su interi intervalli frequenziali.
Di conseguenza non può esistere neanche un SLS con questo spettro.

Banda per un esponenziale decrescente

Livello banda X(f )

f
-B B

Per un segnale che si estende per tutto il dominio frequenziale, la banda si


sceglie in modo tale che le componenti frequenziali più significative siano racchiuse
in quell’intervallo

Misura di una grandezza in dB


In ambito frequenziale, si è soliti esprimere le grandezze in deciBel definendole
come
|G|
G|dB = 10 log10
G0
Dove G è la grandezza da misurare in dB e G0 è un fattore di normalizzazione
che spesso coincide con il massimo valore dello spettro di ampiezza. La funzione
quindi si può riscrivere in funzione del modulo come

A2 (f )
A|dB = 10 log10
A2 (0)

È possibile misurare una qualsiasi grandezza in deciBel, ma si può risalire al valore


nell’unità di misura originaria solo se si conosce il valore di riferimento.
Banda a −3dB

X(f )
A0 Livello −3dB


A0 / 2

f
−B B

Considerando un filtro fisicamente realizzabile, si sceglie una quantità molto simile


alla banda dei filtri ideali. Di solito si sceglie la Banda a −3dB definita come
1
A(f ) = √ A0
2
Questo valore si ricava da

A(f ) = |X(f )| A0 = A(0) → Max della funzione

È possibile misurare il modulo quadro dello spettro in deciBel

A2 (f )
10 log10 = −3dB
A20

A2 (f ) 3
log10 2 =
A0 10
A2 (f )
= 10−3/10
A20
1
A2 (f ) = A20 · 3−3/10 ≈ A20
2
1
A(f ) = √ A0
2

Banda di un sistema
La banda di un sistema si definisce come l’intervallo frequenziale che il sistema fa
passare in ingresso

Esempio

Filtro reale A2 (f )
Filtro ideale
X1 (f )
X2 (f )

f
0

x(t) = x1 (t) + x2 (t)


Nel sistema sono presenti due ingressi ed è necessario far passare solo x1 (t). Si
utilizza quindi un filtro passa-basso, ovvero un filtro che permette il passaggio solo
di frequenze minori di un certo valore. Idealmente questo filtro blocca totalmente
i segnali a frequenza maggiore e lascia passare inalterati i segnali a frequenza
minore. Realmente i segnali a frequenza maggiore non vengono bloccati, ma solo
attenuati e i segnali a frequenza minore vengono distorti.
Una squadra RC è assimilabile ad un low-pass filter
1 −t/τ 1 −t/RC 1 1
h(t) = e u(t) = e u(t) ⇐⇒ H(f ) = =
τ RC 1 + j2πf τ 1 + j2πf RC
1
A2 (f ) = |H(f )|2 =
1 + (2πf RC)2
È possibile calcolare il livello a −3dB
s
1
A(0) = =1
1 + (2π0RC)2

A2 (f ) 1 1
2
= 2
=
A (0) 1 + (2πf τ ) 2
1
2πf τ = 1 ⇒ f = = Banda a − 3dB
2πτ
Si nota come, aumentando τ , diminuisca la banda e quindi aumenti la selettività
del filtro

Filtri di Butterworth
|H(ω)| N =1
N =2
N =8
11

√1
2

f /f0
0 1 2 3 4

I filtri di Butterworth sono caratterizzati da una risposta in frequenza del tipo


1
A2 (f ) =  2N B−3 = f0 ∀N
f
1+ f0

Per N = 1 si ha una risposta simile ad una squadra RC. All’aumentare di N le


proprietà filtranti migliorano e ci si avvicina ad un filtro passa-basso ideale

Banda per un filtro passa-banda reale

A(f ) Filtro reale


Filtro ideale

A0

2

f
f1 f2
A0 = A(f0 )
A(f ) 1
= √ → Risolvendola si trovano f1 e f2
A0 2
B−3dB = f2 − f1

Banda per un filtro passa-alto reale

A(f ) Filtro reale


Filtro ideale

0 f
B

A(f ) 1
=√
A0 2
A0 = lim A(f )
f →∞

Un filtro passa-alto è assimilabile ad una squadra LR

Densità spettrale di energia


Z +∞
x(t) ⇒ |x(t)|2 dt < ∞
−∞

Ex (f ) = |X(f )|2 densità spettrale di energia

Proprietà della densità spettrale di energia


1.
Ex (f ) ≥ 0

2. Per segnali pari


Ex (f ) = Ex (−f )

3. Z +∞
Ex (f ) df = Ex
−∞

4. Energia tra f1 e f2
Z f2
Ex (f ) df
f1

Verifica delle proprietà


1.
Ex (f ) = |X(f )|2 ≥ 0

2.
Ex ∈ R → Simmetria Hermitiana
|X(f )|2 = |X ∗ (−f )|2 = |X(−f )|

3. Z +∞ Z +∞
|X(f )|2 df = |x(t)|2 dt = Ex Teorema di Parseval
−∞ −∞
X(f )

f
0 f1 f0 f2

4.
y(t) = x(t) ⊗ h(t) ⇐⇒ Y (f ) = X(f )H(f )
Z +∞ Z +∞ Z +∞ Z +∞
2 2 2 2
Ey = |y(t)| dt = |Y (f )| df = |X(f )| |H(f )| df = |X(f )|2 df
−∞ −∞ −∞ −∞

∆f ∆f
f1 = f0 − f2 = f0 +
2 2
Z f0 + ∆f
2
|X(f )|2 df ≈ ∆f · Ex (f0 )
f0 − ∆f
2

∆f · Ex (f0 ) = Ey
Ey
Ex (f0 ) =
∆f

Funzione di autocorrelazione
Dalla densità di energia spettrale si ricava la funzione di autocorrelazione definita
come Z +∞
rx (τ ) = x(τ ) ⊗ x(−τ ) = x(t)x(t − τ ) dt
−∞

Proprietà funzione di autocorrelazione


1.
rx (0) = Ex ≥ 0

2.
rx (τ ) = rx (−τ )

3.
|rx (τ )| ≤ rx (0)

4. Teorema di Wiener-Khintchin
h i
Ex (f ) = F rx (τ )

Densità di spettrale di potenza


Considerando un segnale con P < ∞ si definisce la densità spettrale di potenza
come
    
1 2 t
Sx (f ) = lim |XT (f )| con XT (f ) = F x(t) rect
T →∞ T T

Proprietà della densità spettrale di potenza


1.
Sx (f ) ≥ 0
2.
Sx (f ) = Sx (−f )

3. Z +∞
Sx (f ) df = Px
−∞

4. Potenza tra f1 e f2
Z f2
Sx (f ) df
f1

Funzione di autocorrelazione
Come per la densità spettrale di energia, anche in questo caso si ricava la funzione
di autocorrelazione come
 Z +T /2 
1
rx (τ ) = lim x(t)x(t − τ ) dt
T →∞ T −T /2

Proprietà funzione di autocorrelazione


1.
rx (0) = Px ≥ 0

2.
rx (τ ) = rx (−τ )

3.
|rx (τ )| ≤ rx (0)

4. Teorema di Wiener-Khintchin
h i
Sx (f ) = F rx (τ )

Densità spettrali di energia e potenza per SLS


Nei sistemi lineari stazionari è possibile legare ingresso e uscita tramite la risposta
in frequenza in funzione delle densità spettrali di energia e potenza

x(t) H(f ) y(t)


Ex Eh Ey

Ey (f ) = Ex (f )|H(f )|2
|H(f )|2 = Eh (f )
ry (τ ) = rx (τ ) ⊗ rh (τ )

x(t) H(f ) y(t)


Sx Sh Sy

Sy (f ) = Sx (f )|H(f )|2
|H(f )|2 = Sh (f )
ry (τ ) = rx (τ ) ⊗ rh (τ )
Distorsioni lineari
Filtro reale A2 (f )
Filtro ideale
X1 (f )
X2 (f )

f
0

Il filtro ideale lascia passare solo x1 (t) inalterato e blocca completamente x2 (t).
Questo tipo di sistema è irrealizzabile e diverso da un filtro reale che smorza
soltanto x2 (t) e altera x1 (t). Considerando un sitema non distorcente si ha

y(t) = Ax(t − t0 ) replica fedele di x(t)

Y (f ) = X(f )H(f ) ⇒ Y (f ) = AX(f )e−j2πf t0


H(f ) = Ae−j2πf t0 ⇐⇒ h(t) = Aδ(t − t0 )

|A(f )|

f
0

|H(f )|
∠H(f )

Esempio
x(t) = A1 cos (2πf1 t + θ1 ) + A2 cos (2πf2 t + θ2 )
y(t) = AA1 cos (2πf1 t + θ1 + ϕ1 ) + AA2 cos (2πf2 t + θ2 + ϕ2 )
2πf1 t + ϕ1 = 2πf1 (t + t1 )
2πf2 t + ϕ2 = 2πf2 (t + t2 )
ϕ1 ϕ2
t1 = t2 =
2πf1 2πf2
t1 = t2 = t0 condizione necessaria affinché il sistema non sia distorcente
ϕ1 = 2πf1 t0 ϕ2 = 2πf2 t0
I due sfasamenti non sono uguali in modulo, ma sono sfasati allo stesso modo in
maniera linearmente dipendente alla frequenza.
Un sistema non distorcente avrà una risposta in ampiezza piatta e uno sfasamento
lineare. Se una delle due condizioni viene a mancare, il sistema distorcerà gli
ingressi
Ci sono sistemi, sempre ideali, che non distorcono una singola parte di un
segnale

f
0

|H(f )|
∠H(f )
X(f )

Esempio

|H(f )|
X(f )

f
−f0 0 f0

x(t) = A0 cos (2πf0 t)


In questo sistema, anche se |H(f )| non è costante nei punti in cui è presente
X(f ), l’ingresso non è distorto poiché, essendoci una sola componente frequenziale,
quest’ultima non è trattata in modo diverso dalle altre componenti
Per un sistema distorcente si avrà

x(t) y(t)
h(t)

y(t) = Ax(t − t0 )+d(t) Distorsione

Il sistema è meno distorcente tanto più d(t) → 0.


È possibile calcolare l’energia del disturbo come
Z +∞
|d(t)|2 dt
−∞

L’effetto che la distorsione avrà sul segnale è tanto più grande, più è grande
l’energia del disturbo rispetto a quella del segnale. Si può calcolare un parametro
che misura l’effetto della distorsione
R +∞
−∞
|d(t)|2 dt
R +∞
−∞
A2 |x(t − t0 )|2 dt
Distorsioni non lineari

x(t) y(t)
g(·)

g:R→R y(t) = g[x(t)]


Si consideri un sistema istantaneo/senza memoria (dipende solo dall’istante a cui
è applicato l’ingresso). Si ha una caratteristica ingresso uscita g(·)

Esempio
 
t
g(x) = x2 x(t) = sinc
T
 
2 t 2
y(t) = x (t) = sinc ⇐⇒ Y (f ) = X(f ) ⊗ X(f )
T

X(f )
Y (f )

f
−1/T −1/2T 0 1/2T 1/T

Il segnale di uscita ha delle componenti frequenziali non presenti nel segnale di


ingresso. Un sistema lineare non ha mai un comportamento del genere.
Per misurare le distorsioni su un sistema non lineare si ipotizza che x(t) sia un
ingresso particolare
x(t) = A cos (2πf0 t)
1
Se x(t) è periodico lo sarà anche y(t) sempre di periodo T0 = f0
X
y(t) = A0 + 2 Ak cos (2πkf0 t + θk )
k

Le distorsioni dipendono solo da g(·) e dall’ampiezza di x(t)

yid (t) = 2A1 cos (2πf0 t + θ1 ) Uscita ideale, senza


distorsioni

X
d(t) = 2 Ak cos (2πkf0 t + θk )
k=2
s
(2Ak )2 /2 Ak |Xk |
Dk = = = Coefficiente di
(A1 )2 /2 A1 |X1 |
distorsione di k-esima
armonica


X
y(t) = A0 + yid (t) + d(t) = A0 + 2A1 cos (2πf0 t + θ1 ) + 2 Ak cos (2πkf0 t + θk )
k=2

Il termine ideale non aggiunge componenti frequenziali non presenti nell’ingresso


s s P pP∞
r ∞ 2
Pd Py − A20 − 2A21 2 k=2 A2k k=2 Ak
D= = = = La potenza passa dal
Pid 2A21 2A21 A1
tempo alla frequenza
per Parseval
Esempio

g(x)

x
-1 0 1

-1

Caratteristica di un amplificatore in saturazione



−1 per x < −1
g(x) = x per |x| < 1

1 per x > 1

x(t) y(t)
g(·)

x(t) = A cos (2πf0 t)


• |A| < 1
|x(t)| = |A|| cos (2πf0 t)| ≤ |A| < 1
Se l’ingresso assume valori compresi tra −1 e 1, l’uscita sarà identica all’ingresso

y(t) = g[x(t)] = x(t)

• A=2

x(t)
y(t)
2

1
t
−T0 /2−T0 /4 0 T0 /4.T0 /2
-1

-2

|Y4 |
Si calcola il coefficiente di distorsione di quarta armonica D4 = |Y 1|
.
y(t) è alternativo come x(t) e quindi i coefficienti di ordine pari saranno nulli
0
D4 = =0 ⇒ D2n = 0
|Y1 |

g(x) è dispari e quindi il segnale in uscita può essere alternativo


 
T0
g(x) = g(−x) x(t) = −x t −
2
       
T0 T0 T0
y(t) = g[x(t)] = g − x t − = −g x t − = −y t −
2 2 2
Segnali tempo-discreti
I segnali tempo-discreti, o sequenze, sono segnali definiti da Z → R oppure da
Z → C, che molto spesso derivano dal campionamento di segnali tempo-continui.
Le successioni sono un esempio di segnali tempo-discreti

Periodicità
x(t) = x(t + T0 ) ∀t T0 ∈ R Tempo-continui
x[n] = x[n + N0 ] ∀n N0 ∈ Z Tempo-discreti
Il segnale periodico più semplice è quello costante
x[n]

n
-3 -2 -1 0 1 2 3

x[n] = A x[n] = x[n + N0 ] ∀n


Il periodo di questa funzione è un qualsiasi intero
M N0 con M ∈ Z

Segnali sinusoidali
x(t) = cos (2πf0 t) x[n] = cos (2π f¯0 n)
Nel segnale tempo-continuo f0 è misurato in Hertz, nel segnale tempo-discreto f¯0
è adimensionale. Inoltre, il secondo segnale non sempre è periodico. Per far si che
x[n] sia periodico f¯0 ∈ Q

Dimostrazione
x[n] = cos (2π f¯0 n) = cos [2π f¯0 (n + N0 )] = cos [2π f¯0 n + 2π f¯0 N0 ]
k
2π f¯0 N0 = 2πk → f¯0 = ∈Q
N0
Se k e N0 sono primi tra loro, il denominatore sarà il periodo

Segnali causali
x(t) = 0 per t < 0 tempo-continui
x[n] = 0 per n < 0 tempo-discreti

Energia
Z +∞
Ex = |x(t)|2 dt tempo-continui
−∞
X
Ex = |x[n]|2 tempo-discreti
n

Potenza
Z +T /2
1
Px = lim x(t) dt tempo-continui
T →∞ T −T /2
N
1 X
Px = lim x[n] tempo-discreti Per Ex < ∞ si ha
N →∞ 2N + 1
n=−N mx = 0
Sequenze assolutamente sommabili
X
|x[n]| < ∞ Condizione necessaria e
n sufficiente
Una sequenza assolutamente sommabile è ad energia finita, ma non sempre un
segnale ad energia finita è assolutamente sommabile

Dimostrazione condizione necessaria e sufficiente


X
|x[n]| ≤ A < ∞
n
X 2 X XX XX
|x[n]| = |x[n]|2 + |x[n]||x[m]| = Ex + |x[n]||x[m]|
n n n m6=n n m6=n
X 2
Ex < |x[n]| ≤ A2 < ∞
n

Dimostrazione del contrario



0 per n ≤ 0
x[n] = 1
n per n ≥ 1

X X 1
|x[n]|2 = 2
<∞
n n=1
n

X X 1
|x[n]| = divergente
n n=1
n

Delta di Kronecker
Duale della delta di Dirac per segnali tempo-discreti. Non si ottiene campionando
δ(t) perché la delta non è un segnale fisico. δ[n] si può ricavare campionando
infiniti segnali, come ad esempio la sinc o la sinc2

sinc x
δ[n]

n
-4T -3T -2T -1T 0 1T 2T 3T 4T

Si campiona la sinc con periodo di campionamento T e si ottiene δ[n]

Gradino unitario

u[n] = 1 per n ≥ 0
0 per n < 0
Gode delle stesse proprietà di u(t)
N N
1 X 1 X 1 1
Px = lim |x[n]|2 = lim 1 = lim (N +1) =
N →∞ 2N + 1 N →∞ 2N + 1 N →∞ 2N + 1 2
n=−N n=0

Z t n
X 0 per n < 0
u(t) = δ(α) dα u[n] = δ[k] = 1 per n = 0
−∞ 
k=−∞ 1 per n > 0
δ[n] = u[n] − u[n − 1]

u[n]

n
-3 -2 -1 0 1 2 3

Segnale esponenziale
x[n] = an u[n] esponenziale monolatero
Il segnale è causale poiché nullo per n < 0 e le sue proprietà dipendono dal valore
di a

a=1 u[n]
0<a<1
a>1

1
n
-3 -2 -1 0 1 2 3

0 < a < 1 segnale ad energia finita e potenza nulla
a = 1 segnale ad energia infinita e potenza finita
a>1 segnale ad energia e potenza infinite
Per 0 < a < 1 si può calcolare l’energia come
∞ ∞ ∞ ∞
X X X X X 1 1
Ex = |x[n]|2 = |an |2 = a2n = (a2 )n = qn = = P∞ 1
q n = q i 1−q
n n=0 n=0 n=0 n=0
1−q 1 − a2 n=i

Convoluzione tra sequenze


Convoluzione periodica

x(t) = x(t + T0 )
y(t) = y(t + T0 )
Z
1
z(t) = x(t) ⊗ y(t) = x(α)y(t − α) dα
T0 [T0 ]
Convoluzione aperiodica
x(t) y(t)
Z +∞
z(t) = x(t) ⊗ y(t) = x(α)y(t − α) dα
−∞
Convoluzione tra segnali tempo-discreti, aperiodici ad energia finita

x[n] y[n]
+∞
X
z[n] = x[n] ⊗ y[n] = x[k]y[n − k]
k=−∞

Proprietà convoluzione
1. Commutativa
x[n] ⊗ y[n] = y[n] ⊗ x[n]

2. Associativa

x[n]⊗y[n]⊗z[n] = (x[n]⊗y[n])⊗z[n] = x[n]⊗(y[n]⊗z[n]) = (x[n]⊗z[n])⊗y[n]

3. Distributiva

(x[n] + y[n]) ⊗ z[n] = x[n] ⊗ z[n] + y[n] ⊗ z[n]

4. Durata
x[n] → Nx y[n] → Ny
z[n] = x[n] ⊗ y[n] → Nz = Nx + Ny − 1

5. Trasalzione temporale

x[n] y[n] z[n] = x[n] ⊗ y[n]

s[n] = x[n − nx ] s[n] ⊗ y[n] = z[n − nx ]


v[n] = y[n − ny ] s[t] ⊗ v[t] = z[n − nx − ny ]

6. Segno
z[n] = x[n] ⊗ y[n]
s[n] = x[−n] v[n] = y[−n]
s[n] ⊗ v[n] = z[−n]

7. Elemento neutro
x[n] δ[n]
x[n] ⊗ δ[n] = x[n]

Dimostrazione
X
x[n] ⊗ δ[n] = x[k]δ[n − k] = x[n] δ[n − k] 6= 0 solo per kn
k

Calcolo convoluzione
X
z[n] = x[n]⊗y[n] = x[k]y[n−k] = · · ·+x[−1]y[n+1]+x[0]y[n]+x[1]y[n−1]+· · ·
k

Analisi di Fourier di sequenze aperiodiche


1
x(t) = ej2πf0 t = cos (2πf0 t) + j sin (2πf0 t) T0 =
f0
¯
x[n] = ej2πf0 n = cos (2π f¯0 n) + j sin (2π f¯0 n) periodico se f¯0 ∈ Q
1
x[n] si ottiene per campionamento di x(t) alla frequenza fs = Ts
Campionamento uniforme
x[n] = x(nTs ) = ej2πf nTs = ej2πf Ts n f Ts = f¯0
Si può ricavare x[n] da una x(t) a qualsiasi frequenza se si impone f Ts = f¯0 Un
segnale x[n] è possibile rappresentarlo in tre forme equivalenti

x[n] = ej2πf0 Ts n
¯
x[n] = ej2πf0 n
j ω̄0 n

x[n] = e

A differenza dei segnali tempo-continui, due sequenze possono essere uguali anche
se hanno frequenza diversa se le due frequenze differiscono per un intero

x1 (t) = ej2πf1 t x2 (t) = ej2πf2 t

f1 6= f2 ⇐⇒ x1 (t) 6= x2 (t)
¯ ¯
x1 [n] = ej2πf1 n x2 [n] = ej2πf2 n
f¯1 6= f¯2
¯ ¯
x1 [n] = x2 [n] ⇐⇒ ej2πf1 n = ej2πf2 n
¯ ¯
ej2π(f1 −f2 )n = 1 ⇐⇒ 2π(f¯1 − f¯2 ) = 2πk → f¯1 − f¯2 = k ∈ Z
Il range di frequenze necessario per generare tutte le oscillazioni complesse tempo-
discrete distinguibili è f¯ = [0, 1)

f¯1 ∈ [0, 1) f¯2 ∈ [0, 1) f¯1 6= f¯2 ⇒ x1 [n] 6= x2 [n]

f¯1 ∈ [0, 1) f¯2 = f¯1 + k f¯1 6= f¯2 ⇒ x1 [n] = x2 [n]


Ogni frequenza può essere riscritta come somma di una parte intera e di una parte
frazionaria. Se due frequenze hanno parte frazionaria diversa genereranno segnali
diversi, se hanno parte frazionaria uguale, indipendentemente dalla parte intera,
genereranno segnali uguali

f¯ = k + r r ∈ [0, 1)

Un segnale scritto in funzione della frequenza avrà un intervallo unitario diverso


rispetto ad un segnale scritto in funzione della pulsazione

x[n] = ej ω̄n ω̄ = 2π f¯ [0, 2π)

Alta e bassa frequenza


Per segnali tempo-continui si ha l’alta frequenza per f → 0 e la bassa frequenza
per f → ∞.
Per segnali tempo-discreti le frequenze sono uguali se differiscono per un intero,
quindi se f = 0 sarà bassa frequenza, anche f = 0 + M (con M ∈ Z grandissimo)
sarà bassa frequenza

f¯ = 0
f¯ = 12
A

n
0

-A

La velocità di variazione massima si avrà al centro dell’intervallo frequenziale, cioè


per f¯ = 12
f¯ = 0 → x[n] = ej2π0n = 1 velocità di variazione nulla
1 1
f¯ = → x[n] = ej2π 2 n = (−1)n velocità di variazione massima
2
Due oscillazioni tempo-discrete possono avere stesso periodo, ma frequenze diverse
1 51
f¯1 = f¯2 = f¯1 6= f2
100 100
N1 = 100 N2 = 100

Trasformata di Fourier tempo-discreta


DTFT: Discrete Time Fourier Transform Si ricorda il concetto di oscillazione disc-
reta
¯
x[n] = ej2πf n = cos (2π f¯n) + j sin (2π f¯n)
Considerando x[n] come campionamento di x(t) si ha

x(t) = ej2πf t x[n] = x(nTs ) = ej2πf nTs


¯
f¯ = f Ts x[n] = ej2πf n = ej ω̄n
¯
x[n] sarà combinazione lineare di segnali del tipo ej2πf n
Z +∞ Z +∞
x(t) = X(f )e j2πf t
df X(f ) = x(t)e−j2πf t dt
−∞ −∞
Z    
¯ ¯ ¯
x[n] = X ej2πf ej2πf n df¯ X ej2πf = X(f¯) Equazione di sintesi
[1]
Z Z
  dω̄ 1  
x[n] = X ej ω̄ ej ω̄n = X ej ω̄ ej ω̄n dω
[2π] 2π 2π [2π]

Equazione di sintesi
Come per i segnali tempo-discreti, anche l’equazione di sintesi avrà tre forme
diverse equivalenti
  
¯ ¯
x[n] = [1] X ej2πf ej2πf n df¯
R



  
1
X ej ω̄ ej ω̄n dω̄
R
x[n] = 2π [2π] 

 
x[n] = 1 j2πf Ts
ej2πf Ts n df
R
X e

fs [fs ]

Equazione di analisi
Z +∞
X(f ) = x(t)e−j2πf t dt per segnali tempo-continui
−∞

  +∞
¯ ¯
X
X ej2πf = x[n]e−j2πf n per segnali tempo-discreti
n=−∞

Dimostrazione equazione di sintesi


Z   Z +∞
¯ ¯
X
X ej2πf ej2πn̄ df¯ = x[m]e−j2πf m ej2πn̄ df¯ =
[1] [1] m=−∞

+∞ Z
¯
X
= x[m] e−j2πf (n−m) df¯ = x[m] ¯
ej2πf (n−m) = 1 per
[1]
m=−∞ m=n
¯
ej2πf (n−m) = 0 per
m 6= n
Come l’equazione di sintesi, anche l’equazione di analisi ha 3 versioni equiv-
alenti    P
j2π f¯ ¯
 X e = x[n]e−j2πf n
   P n


X ej ω̄ = n x[n]e−j ω̄n

  
X ej2πf Ts = P x[n]e−j2πf Ts n

n

Periodicità dei segnali tempo-discreti


  X
¯ ¯
X ej2πf = x[n]e−j2πf n
n
    
j2π f¯ j2π(f¯+1)


 X e = X e periodico di periodo 1
    
X ej ω̄ = X ej(ω̄+2π) periodico di periodo 2π

    
X e j2πf T j2π(f +f )T
s
=X e s s
periodico di periodo Ts

Analogia con i segnali tempo-continui


(
Xk = T10 [T0 ] x(t)e−j2πkf0 t dt
R
Analisi tempo-continua
x(t) = k Xk ej2πkf0 t
P
Sintesi tempo-continua
  
X ej2πf¯ = P x[n]e−j2πf¯n Analisi tempo-discreta
 n 
¯ ¯
X ej2πf ej2πf n df¯
R
x[n] = Sintesi tempo-discreta
[1]

I domini delle equazioni di sintesi e di analisi si scambiano passando da segnali


tempo-continui a segnali tempo-discreti

Esempio

x[n] = δ[n] = 1 per n = 0
0 6 0
per n =
  X
¯ ¯
X ej2πf = x[n]e−j2πf n = 1 costante
n

 
¯
X ej2πf


0

Questa trasformata è periodica per ogni periodo

Nucleo di Dirichlet

rn [n]

n
· · · -4 -3 -2 -1 01 2 3 · · ·N − 1

rn [n] = 1 per 0 ≤ n ≤ N − 1
0 altrimenti
  N −1 N −1  n
j2π f¯ −j2π f¯n −j2π f¯n −j2π f¯
X X X
X e = x[n]e = e = e =
n n=0 n=0
¯ ¯ ¯ ¯ ¯
1 − qN 1 − e−j2πf N ejπf N (ejπf N − e−jπf N ) −jπ f¯(N −1) 2j sin (π f N )
= = = = e =
1−q 1 − e−j2πf¯ ¯ ¯ ¯
e−jπf (ejπf − e−jπf ) 2j sin (π f¯)
¯ sin (π f¯N ) −jπ f¯(N −1) sin (π f¯N )
= e−jπf (N −1) = e N
sin (π f¯) N sin (π f¯)
sin (π f¯N )
DN (f¯) = Nucleo di Dirichlet
N sin (π f¯)
Il nucleo di Dirichlet è periodico di periodo 1 e la trasformata sarà periodica di
periodo 1 per N dispari, periodica di periodo 2 per N pari. Questa funzione è
l’equivalente della sinc nel dominio della frequenza

N =4 |DN (f )|

f
0 1 1 3 1
4 2 4

Si annulla per multipli di N1 tranne per N = 0. Il segnale è un passa-basso più


selettivo al crescere di N . Il modulo di DN (f ) è sempre periodico di periodo 1

Proprietà DTFT
1. Segnale reale
x[n] ∈ R

Dimostrazione
   
¯ ¯
X ej2πf = X ∗ e−j2πf
   
X ej ω̄ = X ∗ e−j ω̄

2. Segnale pari    
x[n] = x[−n] ⇐⇒ X ej ω̄ = X e−j ω̄
  X X X  
X ej ω̄ = x[n]e−j ω̄n = x[−n]e−j ω̄n = x[m]ej ω̄m = X e−j ω̄ m = −n
n n n

3. Segnale reale e pari


x[n] = x[−n] ∈ R
 
X ej ω̄ Reale e pari

4. Segnale reale e dispari


x[n] = −x[−n] ∈ R
 
X ej ω̄ Immaginario puro e dispari
5. Linearità    
y[n] ⇐⇒ Y ej ω̄
x[n] ⇐⇒ X ej ω̄
     
z[n] = ax[n] + by[n] ⇐⇒ Z ej ω̄ = aX ej ω̄ + bY ej ω̄

6. Teorema del ritardo  


x[n] ⇐⇒ X ej ω̄
   
y[n] = x[n − n0 ] ⇐⇒ Y ej ω̄ = X ej ω̄ e−j ω̄n0

Dimostrazione
  X X X
Y ej ω̄ = y[n]e−j ω̄n = x[n − n0 ]e−j ω̄n = x[m]e−j ω̄(m+n0 ) = n − n0 = m
n n m

X X  
= x[m]e−j ω̄m e−j ω̄n0 = e−j ω̄n0 x[m]e−j ω̄m = X ej ω̄ e−j ω̄n0
m m

7. Traslarione frequenziale  
x[n] ⇐⇒ X ej ω̄
   
y[n] = x[n]ej ω¯0 n ⇐⇒ Y ej ω̄ = X ej(ω̄−ω¯0 )

8. Teorema della modulazione


 
x[n] ⇐⇒ X ej ω̄

y[n] = x[n] cos (ω̄0 n)


 1 
  1  
Y ej ω̄ = X ej(ω̄−ω̄0 ) + X ej(ω̄+ω̄0 )
2 2
z[n] = x[n] sin (ω̄0 n)
  1   1  
Z ej ω̄ = X ej(ω̄−ω̄0 ) − X ej(ω̄+ω̄0 )
2j 2j
9. Teorema del ribaltamento delle ascisse
 
x[n] ⇐⇒ X ej ω̄
   
y[n] = x[−n] ⇐⇒ Y ej ω̄ = X e−j ω̄

10. Periodicità della trasformata


  X
X ej2πf Ts = x[n]e−j2πf Ts n
n
  X
X ej2π(f +fs )Ts = x[n]e−j2π(f +fs )Ts n =
n
X X  
−j2πf Ts n −j2πfs Ts n
= e e = x[n]e−j2πf Ts n · 1 = X ej2πf Ts
n n

11. Teorema del prodotto  


x[n] ⇐⇒ X ej ω̄
 
y[n] ⇐⇒ Y ej ω̄

z[n] = x[n]y[n]
Z
      1    
Z ej ω̄ = X ej ω̄ ⊗Y e j ω̄
= X ej ω̄ Y ej(ω̄−α) dα
2π [2π]
12. Teorema di convoluzione
 
x[n] ⇐⇒ X ej ω̄
 
y[n] ⇐⇒ Y ej ω̄
X
z[n] = x[n] ⊗ y[n] = x[k]y[n − k]
k
    

Z ej ω̄ = X ej ω̄ Y ej ω̄

13. Teorema di Parseval  


x[n] ⇐⇒ X ej ω̄
 
y[n] ⇐⇒ Y ej ω̄
Z
X
∗ 1    
x[n]y [n] = X ej ω̄ Y ∗ ej ω̄ dω̄
n
2π [2π]

Campionamento di segnali tempo-continui

xc (t)
x[n]

−3Ts−2Ts−1Ts 0 1Ts 2Ts 3Ts

xc (t) ⇐⇒ Xc (f )
A partire da un segnale tempo-continuo, si ottiene un segnale tempo-discreto ef-
fettuando un campionamento ad una frequenza fs

x[n] = xc (nTs )

Idealmente un campionatore si comporta come un tasto che si apre e si chiude con


frequenza pari a quella di campionamento e non introduce distorsioni nel campione

xc (t) x[n]

Ts

Z +fs /2
1  
x[n] = X ej2πf Ts ej2πf Ts n df
fs −fs /2
Z +∞ XZ + f2s +kfs
j2πf Ts n
x[n] = xc (nTs ) = Xc (f )e df = Xc (f )ej2πf nTs df = Gli estremi di
−∞ k − f2s +kfs integrazione sono
intervalli disgiunti che
XZ +fs /2 coprono tutto R
= Xc (ν + kfs )ej2π(ν+kfs )Ts n dν = f = ν + kfs
k −fs /2

XZ +fs /2 XZ +fs /2
= Xc (ν+kfs )ej2πνTs n ej2πkfs Ts n dν = Xc (f +kfs )ej2πf Ts n df =
k −fs /2 k −fs /2
+fs /2
1 +fs /2  j2πf Ts  j2πf Ts n
Z hX i Z
= Xc (f + kfs ) ej2πf Ts n df = X e e df
−fs /2 fs −fs /2
k

1  j2πf Ts  X
X e = Xc (f + kfs )
fs
k
  X
X ej2πf Ts = fs Xc (f + kfs )
k

Esempio
  X
f =0 ⇒ X ej0 = fs Xc (kfs )
k
  X
f0 ⇒ X ej2πf0 Ts = fs Xc (f0 + kfs )
k

L’ampiezza dell’oscillazione tempo-discreta si ottiene sommando le ampiezze di


tutte le oscilaizoni tempo-continue che la compongono

Esempio

xc (t) Xc (f )

t
f
−3 −2 −1 0 1 2 3
B B B B B B −B B
0

   
2 |f | f
xc (t) = B sinc Bt Xc (f ) = 1 − rect
B 2B
1
fs = B Ts =
B
 
X ej2πf Ts

f
−B 0 B

   
n n
x[n] = xc (nTs ) = xc = B sinc2 B = B sinc2 (n) = Bδ[n]
fs B
Usando come frequenza di campionamento la banda del segnale non si riesce a
ricostruire il segnale di partenza a partire da quello campionato
Analogia con la prima formula di somma di Poisson
xa (t) Xa (f ) Periodicizzazione di un segnale aperiodico
X 1 1
x(t) = xa (t − mT0 ) Xk = Xa (kf0 ) f0 =
m
T 0 T 0

X X 1 1 X X
x(t) = Xk ej2πkf0 t = Xa (kf0 )ej2πkf0 t = Xa (kf0 )ej2πkf0 t = xa (t−mT0 )
T0 T0 m
k k k

In questo caso si periodicizza nel dominio del tempo e si campiona nel dominio
della frequenza. Nel caso di segnali tempo-discreti si campiona nel dominio del
tempo e si periodicizza nel dominio della frequenza
X 1 X 1 X
Xc (f − kf0 ) = xc (nTs )e−j2πnTs f = x[n]e−j2πnTs f
fs n fs n
k

X 1  j2πf Ts 
Xc (f − kfs ) = X e
fs
k

Esempio

xc (t) Xc (f )

t
f
−3 −2 −1 0 1 2 3
B B B B B B −B B
0

   
2 |f | f
xc (t) = B sinc Bt Xc (f ) = 1 − rect
B 2B

1
fs = 2B Ts =
2B

k=0
k=1
k = −1

f
−2B −B 0 B 2B

Con fs = 2B le repliche non si sovrappongono e quindi è possibile ricostruire il


segnale.
Frequenza di campionamento
Per evitare sovrapposizioni di repliche, la frequenza di campionamento deve essere
almeno il doppio della massima frequenza assunta dal segnale

fs ≥ 2fH

Questa è detta condizione di Nyquist.


Se la banda coincide con la massima frequenza si può dire

fs ≥ 2B

In certe condizioni la frequenza di campionamento può essere inferiore a questo


valore, ma sono solo casi particolari.
In ottime condizioni fs = 2B.
Se fs < 2B ci sarà sicuramente sovrapposizione delle armoniche.
Se fH → ∞ il segnale non sarà ricostruibile

Campionamento pratico
Prima di campionare il segnale lo si fa passare in un filtro anti-aliasing. Idealmente
questo filtro è un passa-basso con banda fs

HAAF (f )
Xc (f )
Yc (f )

− f2s 0 fs
2

La massima frequenza in uscita sarà f2s e campionando a fs si ha fH = f2s verifi-


cando la condizione di non sovrapposizione delle repliche.
Da Yc (f ) si ricostruisce yc (t) che però è diverso da xc (t) perché il filtro anti-aliasing
distorce il segnale. Il filtro, anche se distorce il segnale, serve a limitare la massima
frequenza di un segnale ad un valore finito in modo tale che sia ricostruibile senza
sovrapposizioni.
I filtri sono dispositivi che prendono in ingresso segnali tempo-continui e fanno
uscire segnali tempo-continui. Nel caso della ricostruzione serve un sistema ibrido
che faccia entrare segnali tempo-discreti e faccia uscire segnali tempo-continui.
Questo dispositivo è l’interpolatore

x[n] φ(t) x̂(t)


Interpolatore

X
x̂c (t) = x[n]φ(t − nTs ) p(t − nTs ) = φ(t − nTs )
n

P (f ) = F[p(t)]
X X
X̂c (t) = x[n]P (f )e−j2πf nTs = P (f ) x[n]e−j2πf nTs
n n P (f )e−j2πf nTs =
  F[p(t − nTs )]
X̂c (f ) = P (f )X ej2πf Ts

Le equazioni che caratterizzano un interpolatore sono


( P
x̂c (t) = nx[n]φ(t −  nTs ) tempo
j2πf Ts
X̂c (f ) = X e P (f ) frequenza
Interpolatore cardinale
Tipo di interpolatore che elimina il contributo delle repliche ..
  X X
X̂c (f ) = P (f )X ej2πf Ts = P (f )fs Xc (f −kfs ) = P (f )fs Xc (f )+fs P (f ) Xc (f +kfs )
k k6=0
(
P (f ) = 0 per |f | > B
P (f ) = f1s per |f | < B

La P (f ) deve essere rettangolare


   
1 f 1 f
P (f ) = rect = rect fs = 2B
fs 2B fs fs
 
t
φ(t) = sinc (fs t) = sinc
Ts
L’interpolatore è detto cardinale perché è descritto dalla funzione seno cardinale

Esempio

−fs − B fs − B f
−fs −B 0 B fs

fs ≥ 2B
La P (f ) potrà avere ampiezza da B a fs − B (simmetrico rispetto alle ordinate)
perché in quella zona le repliche sono nulle

Esempio

x̂c (t)
x[n] x[2] x[3]
x[1]
x[0]
x[−1]
x[−2]
x[−3]

−3Ts−2Ts−1Ts 0 1Ts 2Ts 3Ts

X
x[n]p(t − nTs )
n

Con un interpolatore cardinale si sommano delle sinc traslate e soppesate da co-


efficienti che sono i campioni del segnale. Ogni sinc ha valore diverso da zero solo
per il campione a cui si riferisce. In tutti gli altri campioni le sinc si annullano.
Dal momento che le sinc si estendono da −∞ a +∞ questo interpolatore è pura-
mente ideale
Interpolatore reale

Xc (f )
Xc (f − fs )
Xc (f + fs )
Interpolatore
1

f
-B 0 B

Un interpolatore reale non elimina completamente le repliche, ma le attenua e


distorce il segnale.
Se fs = 2B l’ampiezza dell’interpolatore è obbligata, se fs > 2B è possibile
scegliere l’ampiezza in un certo range di frequenze

Interpolatore a mantenimento

x̂c (t)
x[n] x[2] x[3]
x[1]
x[0]
x[−1]
x[−2]
x[−3]

t
−3Ts−2Ts−1Ts 0 1Ts 2Ts 3Ts

L’interpolatore a mantenimento mantiene costante il valore del punto campi-


onato fino al campione successivo. La funzione che lo descrive è una rect
 
t − Ts /2
p(t) = rect
Ts
X
x̂c (t) = x[n]p(t − nTs )
n
−j2πf Ts /2
P (f ) = Ts sinc (f Ts )e = Ts sinc (f Ts )ejπf Ts
Questo tipo di interpolatore non sempre permette la ricostruzione perfetta del seg-
nale.
La qualità della ricostruzione aumenta all’aumentare della frequenza di campiona-
mento

|P (f )|
X̂c (f )

−B B

f
−3fs−2fs−1fs 0 1fs 2fs 3fs

In questo caso il segnale non si può ricostruire perfettamente anche con fs = 2B


Interpolatore lineare

x̂c (t)
x[n] x[2] x[3]
x[1]
x[0]
x[−1]
x[−2]
x[−3]

t
−3Ts−2Ts−1Ts 0 1Ts 2Ts 3Ts

La ricostruzione avviene per segmenti tra due campioni successivi


   
|t| t
p(t) = 1 − rect
Ts 2Ts

P (f ) = Ts sinc2 (f Ts )

p(t)

t
−Ts 0 Ts

Anche in questo caso la ricostruzione migliora all’aumentare di fs

Analisi di Fourier di sequenze periodiche


Serie di Fourier discrete periodiche
Le serie di Fourier discrete periodiche sono anche dette Discrete Fourier Series
(DFS)
x[n] = x[n + N0 ] ∀n N0 6= 0
¯ 1 k
ej2πfk n ⇒ f¯0 = f¯k = periodico se N0 ∈ Q
N0 N0
k1 k2
f¯k1 = f¯k2 =
N0 N0
¯ ¯
f¯k2 = f¯k1 + mN0 se mN0 ∈ Z allora ej2πfk1 n = ej2πfk2 n
Se i due indici differiscono per multipli del periodo, le due oscillazioni saranno
uguali. Per questo motivo non si devono considerare infinite armoniche, ma solo
quelle diverse tra loro.
L’insieme delle oscillazioni distinte è {k0 , k0 + 1, · · · , k0 + N0 − 1}

Equazione di sintesi
0 −1
NX
k
x[n] = X[k]ej2π N0 n
k=0
Equazione di analisi
N0 −1
1 X k
X[k] = x[n]e−j2π N0 n
N0 n=0

Dimostrazione
Si ottiene a partire dall’equazione di sintesi
0 −1
NX
k
x[n] = X[k]ej2π N0 n
k=0

0 −1
NX
m k
x[n]e−j2π N0 n = X[k]ej2π N0 (n−m)
k=0

0 −1
NX 0 −1  N
NX 0 −1 
m k
x[n]e−j2π N0 n =
X
X[k]ej2π N0 (n−m)
n=0 n=0 k=0

0 −1
NX 0 −1
NX 0 −1
 NX 
m
−j2π N n j2π Nk (n−m) PN0 −1 k
x[n]e 0 = X[k] e 0
n=0 ej2π N0 (n−m) =
n=0 k=0 n=0 N0
se k − m = lN0
0 −1
NX 0 altrimenti
m
x[n]e−j2π N0 n = N0 X[m]
n=0
N0 −1
1 X m
X[m] = x[n]e−j2π N0 n
N0 n=0

Esempio

x[n]

n
-3 -2 -1 0 1 2 3

x[n] = A ∀n
Con questo segnale è possibile scegliere un periodo qualsiasi
N0 −1 N0 −1
1 X k A X k
X[k] = x[n]e−j2π N0 n = e−j2π N0 n =
N0 N0
k=0 k=0

k
A 1 − e−j2π N0 N0 A 1 − e−j2πk

A N0 per k = lN0
= k = =
N0 1 − e−j2π N0 N0 1 − e−j2π Nk0 N0 0 altrimenti
Periodicità della trasformata
N0 −1
1 X k
X[k] = x[n]e−j2π N0 n
N0 n=0
N0 −1 N0 −1
1 X (k+N0 ) 1 X k
X[k + N0 ] = x[n]e−j2π N0 n = x[n]e−j2π N0 n e−j2πn =
N0 n=0 N0 n=0
N0 −1
1 X k
= x[n]e−j2π N0 n = X[k]
N0 n=0

Esempio
x[n] = A cos (2π f¯0 n + θ)
f¯0 deve essere un numero razionale affinché la funzione sia periodica
m
f¯0 = 0 ≤ m ≤ N0 − 1
N0
A h j(2πf¯0 n+θ) ¯
i Ah
¯ ¯
i
x[n] = e + e−j(2πf0 n+θ) = ej2πf0 n ejθ + e−j2πf0 n e−jθ =
2 2
A m A m
= ej2π N0 n ejθ + e−j2π N0 n e−jθ
2 2
Riscrivendo il segnale con le formule di Eulero si ha
0 −1
NX
k
x[n] = X[k]ej2π N0 n =
k=0

0 −1
NX
m N0 −m l
= X[m]ej2π N0 n + X[N0 − m]ej2π N0 n
+ X[k]ej2π N0 n = l 6= 0
l l 6= m
m N0 −m l 6= N0 − m
= X[m]ej2π N0 n + X[N0 − m]ej2π N0 n
=
N0 −m
m m A jθ ej2π N0 n
m
= e−j2π N0 n
= X[m]ej2π N0 n + X[N0 − m]e−j2π N0 n = e
2

Esempio

x[n] x[n]

n
− N02−1 − M2−1 0 M −1
2
N0 −1
2

x[n] = x[n + N0 ]
M
δ= N0 dispari, M dispari
N0
N0 −1
2
1 X k 1 k
x[n]e−j2π N0 n = x[n]e−j2π N0 n =
X
X[k] =
N0 N0 N0 +1
[N0 ] n=− 2
M −1 M −1
k
1 2
−j2π Nk n A 2
k A jπ Nk (k−1) 1 − e−j2π N0 n
e−j2π N0 n =
X X
= Ae 0 = e 0
k =
N0
n=− M2−1
N0
n=− M2−1
N0 1 − e−j2π N0
   
πkM πkM
A sin N0 AM sin N0
=   =   = AδDM (f¯0
N0 sin πk N0 M sin πk
N0 N0

Proprietà della trasformata


1. Linearità
x[n] = x[n + N0 ] ⇐⇒ X[k]
y[n] = y[n + N0 ] ⇐⇒ Y [k]
z[n] = ax[n] + bx[n] ⇐⇒ Z[k] = aX[k] + bX[k]

2. Teorema del ritardo


x[n] ⇐⇒ X[k]
k
y[n] = x[n − m] ⇐⇒ Y [k] = X[k]e−j2π N0 m

3. Traslazione frequenziale
x[n] ⇐⇒ X[k]
k0
y[n] = x[n]ej2π N0 n ⇐⇒ Y [k] = X[k − k0 ]

4. Simmetria Hermitiana
x[n] ∈ R
X[k] = X ∗ [−k]

5. Segnale pari
x[n] = x[−n]
X[k] = X[−k]

6. Segnale reale e pari


x[n] ∈ R x[n] = x[−n]
X[k] = X[−k] X[k] ∈ R

7. Segnale dispari
x[n] = −x[−n]
X[k] = −X[−k]

8. Segnale reale e dispari

x[n] = −x[−n] x[n] ∈ R

X[k] = −X[−k] Re{X[k]} = 0

9. Segnale alternativo  
N0
x[n] = −x n − ∀n
2
N0
N0 pari perché 2 ∈Z
10. Teorema di dualità
x[n] ⇐⇒ X[k]
y[n] = X[n] ⇐⇒ Y [k] = x[−k]
Il teorema di dualità vale solo se segnale e trasformata sono definiti sullo
stesso dominio e se equazione di analisi e sintesi hanno la stessa forma
11. Teorema della convoluzione

x[n] ⇐⇒ X[n + N0 ]

y[n] ⇐⇒ Y [n + N0 ]
N0 −1
1 X
z[n] = x[n] ⊗ y[n] = x[m]y[n − m]
N0 m=0

Z[k] = X[k]Y [k]

Esempio
 
1
sin 3π
3 7 n
x[n] =   N0 = 7
sin π7 n
 
1 5π
5 sin 7 n
y[n] =   N0 = 7
π
sin 7 n

z[n] = x[n] ⊗ y[n]


M
r[n] segnale rettangolare centrato in 0 con δ = N0
 
AM πk
N0 sin N0 M
R[k] =  
πk
M sin N0

7
X[k]Y [k] = X[k] = Z[k]
5
7
z[n] = x[n]
5

X[k]

7
3

7
5

-3 -2 -1 0 1 2 3

Periodicizzazione di un segnale aperiodico


  Segnale e trasformata
xa [n] Xa ej ω̄
aperiodica

X
x[n] = xa [n − mN0 ] Periodicizzazione
m

1 k
X[k] = Xa (ej2π N0 )
N0

Dimostrazione
0 −1
NX
X 1 k k
x[n] = xa [n − mN0 ] = Xa (ej2π N0 )ej2π N0 n Prima formula di
N0
m k=0 somma di Poisson
N0 −1 N0 −1  X 
1 X k 1 X k
X[k] = x[n]e−j2π N0 n = xa [n − mN0 ] e−j2π N0 m=
N0 N0 m
k=0 k=0

N0 −1 −mNX
0 +N0 +1
1 X X k 1 X k
= xa [n − mN0 ]e−j2π N0 n = xa [l]e−j2π N0 (l+mN0 ) = n − mN0 = l
N0 m n=0 N0 m
l=−mN0

−mNX
0 +N0 −1 −mNX
0 +N0 −1
1 X −j2π Nk l −j2πkm 1 X k
= xa [l]e 0 e = xa [l]e−j2π N0 l =
N0 m N0 m
l=−mN0 l=−mN0

+∞
1 X k 1 k
= xa [l]e−j2π N0 l = Xa (ej2π N0 ) f¯ = k
N0
N0 N0
l=−∞

Trasformata discreta di Fourier (DFT)


x[n] n ∈ {0, 1, · · · , N − 1}
X[k] k ∈ {0, 1, · · · , N − 1}
N −1
1 X k
x[n] = X[k]ej2π N n
N
k=0
N −1
k
X
X[k] = x[n]e−j2π N m
n=0

Sono le stesse formule della DFS, ma con il numero di campioni al posto del
periodo.
Molto spesso queste equazioni sono espresse in forma matriciale
   
x[0] X[0]
#»  x[1]  #»  X[1] 
x = .. 
 X=  .. 

. .
x[N − 1] X[N − 1]
#» # »
X = W · #»
x
 
1 1 1 ··· 1(N −1)
1 e−j2π N ··· e−j2π N 
# »  .. .. .. 
W =. . ··· . (N −1) 
1 e−j2π Nk

··· e−j2πk N 
.. .. ..
. . ··· .

La matrice W ∈ CN ×N ed è invertibile
#» 1 #» #»
W −1 = W H W H è la simmetria
N Hermitiana della
matrice

Fast Fourier Transform (FFT)


Algoritmo efficiente per calcolare una DFT

x[n] 0≤n≤N −1
N −1
k
X
X[k] = x[n]e−j2π N n
n=0

Per calcolare X[k] servono N moltiplicazioni complesse e N − 1 somme comp-


lesse il tutto per k = N valori. In tutto si avrebbero circa 2N 2 operazioni senza
utilizzare gli algoritmi, mentre con gli algoritmi si hanno solo 2N log2 N operazioni
Dimostrazione
N = 2ν ν = log2 N
È comodo descrivere l’algoritmo con N potenza di 2
N −1
k k k
X X X
X[k] = x[n]e−j2π N n = x[n]e−j2π N n + x[n]e−j2π N n =
ciascuna delle due
n=0 n pari n dispari
somme è fatta su
N/2 = N −1 termini
N N
2−1 −1
2
k(2m+1)
−j2π k2m
X X
= x[2m]e N + x[2m + 1]e−j2π N = n = 2m per sommatoria
m=0 m=0 pari
n = 2m + 1 per
N
−1 N
−1
sommatoria dispari
2 2
km km km
−j2π N/2
x[2m + 1]e−j2π N/2 e−j2π
X X
= x[2m]e + N =
m=0 m=0
N N
−1
2 2 −1
km km
−j2π N/2 −j2π km
x[2m + 1]e−j2π N/2 =
X X
= x[2m]e +e N

m=0 m=0
P [k] parte pari
X[k] = P [k] + D[k] D[k] parte dispari
N
Si riscrive la DFT di ordine N come somma di due DFT di ordine 2. Le due
DFT di ordine N/2 saranno periodiche di periodo N/2
   
N N
P [k] = P k + D[k] = D k +
2 2

Si divide il calcolo di X[k] in due parti: nella prima si calcolano i coefficienti per
k = [0, 1, · · · , N2 ], nella seconda si calcolano i coefficienti per k = k 0 + N2 con
k 0 = [0, 1, · · · , N2 − 1]
     
0 N 0 N (k0 +N/2
0 N k0
X[k] = X k + =P k + +e j2π N D k + = P [k 0 ] − e−j2π N D[k 0 ]
2 2 2

I valori di P [k 0 ] e D[k 0 ] sono gli stessi calcolati per k e quindi non devono essere
fatte altre operazioni
   
N N
Mc (N ) = 2Mc +N Sc (N ) = 2Sc +N Numero di somme e
2 2
moltiplicazioni
complesse per DFT di

N N

N
 ordine N in funzione
Mc = 2Mc + della DFT di ordine
2 4 2
    N/2
N N N
Sc = 2Sc +
2 4 2
   
N N
Mc (N ) = 4Mc + 2N = 4Mc + log2 4 · N
4 4
   
N N
Sc (N ) = 4Sc + 2N = 4Sc + log2 4 · N
4 4
Iterando N volte si avrà
 
N
Mc (N ) = N Mc + log2 N · N = 0 + N log2 N
N
 
N Una DFT di ordine 1
Sc (N ) = N Sc + log2 N · N = 0 + N log2 N
N non richiede operazioni
Quindi se senza algoritmo servivano Mc = N 2 e Sc = N 2 , ora serviranno solo
Mc = N log2 N e Sc = N log2 N
Esempio
N = 213 = 8192 ν = log2 N = 13
2 26
N =2 N log2 N = 213 · 13
N2 N 213 213
= = > = 29 = 512
N log2 N log2 N 13 16
Senza FFT ci sarebbero più di 512 volte le operazioni fatte con l’algoritmo

Applicazione FFT
xa [n] ya [n]
xa [n] = 0 per n < 0 o n > Nx − 1 Nx durata xa [n]
ya [n] = 0 per n < 0 o n > Ny − 1 Ny durata ya [n]
X
za [n] = xa [n] ⊗ ya [n] = xa [m]ya [n − m] Nz = Nx + Ny − 1 durata za [n]
m

za [n] = 0 per n < 0 o n > Nz − 1


Per calcolare i campioni di za [n] 6= 0 serviranno Mc = Nx Ny e
Sc = (Nx − 1)(Ny − 1) ≈ Nx Ny . Utilizzando la DFT si ha un modo più semplice
e veloce per calcolare la convoluzione. Si definiscono le operazioni che è possibile
fare su sequenze di durata finita

Trasposizione circolare
Si consideri una sequenza xa [n] definita per ogni n. Si definisce l’operazione gener-
ica di trasposizione come
ya [n] = xa [−n]

xa [n]
ya [n]

n
-3 -2 -1 0 1 2 3

Il risultato sarà il segnale di partenza ribaltato rispetto all’asse delle ordinate.


Ora si ripete la stessa operazione, ma per un segnale di durata finita n. In questo
caso non si può semplicemente ribaltare la funzione perché non sarebbe più limitata
allo stesso intervallo temporale. In questo caso si esegue una traslazione circolare

x[n] y[n] = x[−n]

x[n]
y[n]

n
-3 -2 -1 0 1 2 3
y[n] = x[(−n)N ]
y[0] = x[(−0)4 ] = x[0]
y[1] = x[(−1)4 ] = x[3]
y[0] = x[(−2)4 ] = x[2]
y[0] = x[(−3)4 ] = x[1]
Il risultato della trasposizione è sempre limitato nello stesso intervallo

Traslazione circolare
xa [n] ya [n] = xa [n − n0 ]
N =4 n0 = 1

xa [n]
ya [n]

n
-2 -1 0 1 2 3 4

In questo caso xa [n] è definito su [0, 3], mentre ya [n] è definito su [1, 4]. Per
un segnale di durata finita anche la trasposizione deve essere limitata allo stesso
dominio di partenza

x[n]
y[n]

n
-2 -1 0 1 2 3 4

y[n] = x[(n − n0 )N ]
y[0] = x[(0 − 1)4 ] = x[(−1)4 ] = x[3]
y[1] = x[(1 − 1)4 ] = x[(0)4 ] = x[0]
y[0] = x[(2 − 1)4 ] = x[(1)4 ] = x[1]
y[0] = x[(3 − 1)4 ] = x[(2)4 ] = x[2]
Il risultato della traslazione è sempre limitato nello stesso intervallo

Convoluzione circolare
Combinando trasposizione circolare e traslazione circolare si ottiene la convoluzione
circolare

x[n] 6= 0 per 0 ≤ n ≤ N − 1 y[n] 6= 0 per 0 ≤ n ≤ N − 1


N
X −1
z[n] = x[n] ⊗ y[n] = x[m]y[(n − m)N ] z[n] 6= 0 per 0 ≤ n ≤ N − 1
m=0

Le operazioni sulla sequenza di durata finita x[n] si possono pensare fatte su una
sequenza periodica x̃[n] ottenuta per periodicizzazione di x[n] con periodo N . x[n]
sarà quindi uno spezzone di x̃[n]

ỹ[n] = x̃[−n] = x[(−n)N ] = y[n] per n ∈ [0, N − 1]

ỹ[n] = x̃[n − n0 ] = x[(n − n0 )N ] = y[n − n0 ] per n ∈ [0, N − 1]


Allo stesso modo si può definire la convoluzione circolare

x̃[n] = x̃[n + N ] ∀n

ỹ[n] = ỹ[n + N ] ∀n
N −1
1 X
z̃[n] = x̃[n] ⊗ ỹ[n] = x̃[n]z̃[n − m]
N m=0

z̃[n] = z̃[n + N ]
Considerando z̃[n] nell’intervallo [0, N − 1] si ha

z[n] = x[n] ⊗ y[n] = N z̃[n] per n ∈ [0, N − 1]

Considerando ora x[n] e y[n] come delle DFT si ottiene


1
Z[k] = X[k]Y [k]
N

Applicazione FFT alla convoluzione circolare


xa [n] 6= 0 per n < 0 ∧ n > Nx − 1 → Nx campioni
ya [n] 6= 0 per n < 0 ∧ n > Ny − 1 → Ny campioni
za [n] = xa [n]⊗ya [n] 6= 0 per n < 0∧n > Nz −1 → Nz = Nx + Ny − 1 campioni
Senza algoritmi, il calcolo della convoluzione ha complessità Nx Ny . Con l’algoritmo
di Decimation In Time, la complessità di calcolo si riduce. Si definiscono due se-
quenze di durata finita

x[n] = xa [n] per 0 ≤ n ≤ Nx − 1

y[n] = ya [n] per 0 ≤ n ≤ Ny − 1


Si esegue una operazione di Zero-Padding che permette di aggiungere degli zero
alle sequenze finite

Potrebbero piacerti anche