Sei sulla pagina 1di 54

Teoria dei segnali

Analisi di Fourier per segnali periodici a tempo continuo


Un segnale risulta periodico se soddisfa la relazione:
𝑥(𝑡) = 𝑥(𝑡 + 𝑇0 )
E risulta dotato di potenza media e valor medio definiti dalle formule ricavate sopra:
1 𝑇0 /2 1 𝑇0 /2
𝑃𝑥 = ∫ |𝑥(𝑡)|2 𝑑𝑡 𝑥𝑚 = ∫ 𝑥(𝑡) 𝑑𝑡
𝑇0 −𝑇0 /2 𝑇0 −𝑇0 /2
Tramite l’analisi di Fourier un segnale periodico qualsiasi può essere espresso come somma di
oscillazioni sinusoidali di ampiezza, frequenza e fase opportune, cioè in una forma:
𝑥(𝑡) = 𝑎0 + 𝑎1 cos(2𝜋𝑓1 𝑡 + 𝜙1 ) + 𝑎2 cos(2𝜋 𝑓2 𝑡 + 𝜙2 ) + ⋯
In particolare, le frequenze di oscillazione includono in generale la frequenza zeresima relativa al
termine costante e sono multiple intere della frequenza fondamentale 𝑓0 . Le varie componenti 𝑎0 , … , 𝑎𝑘
che riproducono il segnale originario possono essere raggruppate in una dicitura che assume le
sembianze di una sommatoria, detta serie di Fourier. Il criterio di Dirichlet riassume le condizioni
necessarie affinché una serie di Fourier converga e quindi fornisca una schematizzazione accurata del
segnale originario scomposto in numerose armoniche. In particolare, le condizioni risultano essere:
1. Se il segnale 𝑥(𝑡) è assolutamente integrabile sul periodo 𝑇0 e cioè se:
𝑇0 /2
∫ |𝑥(𝑡)| 𝑑𝑡 < ∞
−𝑇0 /2
2. Se il segnale 𝑥(𝑡) è continuo o presenta in un periodo un numero finito di discontinuità a salto
di prima specie;
3. Se il segnale 𝑥(𝑡) è derivabile rispetto al tempo nel periodo, escluso al più un numero finito di
punti nei quali esistono finite la derivata destra e la derivata sinistra, cioè se il segnale presenta
un numero finito di massimi e minimi;
Allora la serie di Fourier converge al valore assunto dalla funzione 𝑥(𝑡) nei punti in cui questa è continua,
e alla semisomma dei limiti destro e sinistro nei punti in cui 𝑥(𝑡) presenta le eventuali discontinuità di
prima specie. Ricordiamo subito le famose formule di Eulero utili per passare dalla forma trigonometrica
a quella esponenziale e viceversa:
𝑒 𝒿𝑥 + 𝑒 −𝒿𝑥 𝑒 𝒿𝑥 − 𝑒 −𝒿𝑥
cos(𝑥) = sin(𝑥) =
2 2𝒿
Esistono varie rappresentazioni della serie di Fourier, tra cui ricordiamo:
1. Lo sviluppo in serie di Fourier in forma polare:

𝑥(𝑡) = 𝐴0 + 2 ∑ 𝐴𝑘 cos(2𝜋𝑘𝑓0 𝑡 + 𝜙𝑘 )
𝑘=1
2. Lo sviluppo in serie di Fourier in forma complessa, senza dubbio la più usata:
1 𝑇0 /2
∞ 𝑋0 = 𝑥𝑚 = ∫ 𝑥(𝑡) 𝑑𝑡
𝑇0 −𝑇0 /2
𝒿2𝜋𝑘𝑓 𝑡
𝑥(𝑡) = ∑ 𝑋𝑘 𝑒 0 →
1 𝑇0 /2
𝑘=−∞ 𝑋𝑘 = ∫ 𝑥(𝑡) 𝑒 −𝒿2𝜋𝑘𝑓0𝑡 𝑑𝑡
{ 𝑇 0 −𝑇0 /2
3. Lo sviluppo in serie di Fourier in forma rettangolare:
1 𝑇0 /2
∞ 𝑎𝑘 = ℝe{𝑋𝑘 } = ∫ 𝑥(𝑡) cos(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡
𝑇0 −𝑇0 /2
𝑥(𝑡) = 𝑎0 + 2 ∑[𝑎𝑘 cos(2𝜋𝑘𝑓0 𝑡) + 𝑏𝑘 sin(2𝜋𝑘𝑓0 𝑡)] →
1 𝑇0 /2
𝑘=1 𝑏𝑘 = 𝕀m{𝑋𝑘 } = ∫ 𝑥(𝑡) sin(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡
{ 𝑇0 −𝑇0 /2
In particolare le ultime due rappresentazioni sono le più usate. Grazie a questi calcoli integrali è
possibile dunque scrivere l’espressione esatta delle componenti di un segnale originario come somme
di una costante e di una serie il cui 𝑘 −esimo termine abbia una certa ampiezza e una certa fase.
Esistono inoltre alcune particolari simmetrie che semplificano la formulazione degli integrali relativi al
calcolo dei coefficienti di Fourier:
1. Per un segnale dotato di simmetria pari, e cioè 𝑥(𝑡) = 𝑥(−𝑡), i coefficienti di Fourier sono
proporzionali ad una oscillazione cosinusoidale del tipo:
2 𝑇0 /2
𝑋𝑘 = ∫ 𝑥(𝑡) cos(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡
𝑇0 −𝑇0 /2
2. Per un segnale dotato di simmetria dispari, e cioè 𝑥(𝑡) = −𝑥(−𝑡), la serie di Fourier può essere
espressa come una serie di soli seni e i coefficienti di Fourier si ricavano come:
2𝒿 𝑇0 /2
𝑋𝑘 = − ∫ 𝑥(𝑡) sin(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡
𝑇0 −𝑇0 /2
3. Per un segnale alternativo, vale a dire che verifica la relazione 𝑥(𝑡 + 𝑇0 /2) = −𝑥(𝑡), i coefficienti
di Fourier si calcolano seguendo la formula:
0 per 𝑘 pari
𝑇0 /2
{2
∫ 𝑥(𝑡) 𝑒 −𝒿2𝜋𝑘𝑓0 𝑡 𝑑𝑡 per 𝑘 dispari
𝑇0 0
I coefficienti di Fourier godono infine di due importanti proprietà che elenchiamo qua sotto:
1. Simmetria Hermitiana:
|𝑋𝑘 | = |𝑋−𝑘 |
{
𝜙(𝑋𝑘 ) = −𝜙(𝑋−𝑘 )
2. Linearità, in quanto un segnale 𝑧(𝑡) = 𝑎𝑥(𝑡) + 𝑏𝑦(𝑡) ammette coefficienti di Fourier:
𝑍𝑘 = 𝑎𝑋𝑘 + 𝑏𝑌𝑘
Ricapitolando, ogni segnale che soddisfi il criterio di Dirichlet può essere rappresentato con lo sviluppo
in serie di Fourier, dove le due equazioni regine risultano essere:

1 𝑇0 /2
𝑥(𝑡) = ∑ 𝑋𝑘 𝑒 𝒿2𝜋𝑘𝑓0𝑡 𝑋𝑘 = ∫ 𝑥(𝑡) 𝑒 −𝒿2𝜋𝑘𝑓0 𝑡 𝑑𝑡
𝑇0 −𝑇0 /2
𝑘=−∞
In particolare, la seconda delle due è un’equazione di analisi, che permette cioè di stabilire quale sia il
contenuto in termini di oscillazioni armoniche del segnale, mentre la prima delle due è un’equazione di
sintesi, che permette cioè una volta note le ampiezze e fasi delle varie armoniche, di ricostruire il segnale
dato a partire proprio dalle componenti frequenziali. Condizione necessaria alla convergenza della serie
è che l’ampiezza |𝑋𝑘 | delle armoniche tenda a zero quando 𝑘 tenda all’infinito. Questo ha come
conseguenza il fatto che le armoniche più significative ai fini della sintesi del segnale sono in numero
limitato e, in pratica, la serie può essere sostituita da una sommatoria di un numero finito di termini. La
relazione tra sintesi e analisi ci permette di stabilire una corrispondenza:
𝑥(𝑡) ↔ 𝑋𝑘
Dunque la conoscenza dell’andamento del segnale in ambito temporale 𝑥(𝑡) è assolutamente
equivalente alla conoscenza della successione dei coefficienti di Fourier 𝑋𝑘 in ambito frequenziale. La
sequenza 𝑋𝑘 rimane comunque complessa, e per analizzarla risulta necessario tracciare sia lo spettro di
fase che lo spettro di ampiezza, entrambi in funzione dell’ordine 𝑘 del coefficiente. Gli spettri di
ampiezza e di fase sono a righe, cioè discreti, in quanto sono definiti solo in corrispondenza delle
frequenze armoniche, che formano appunto una successione discreta. Quando si fa l’analisi di un segnale
periodico elementare si dispongono di alcuni strumenti importanti, che menzioniamo qua sotto:
1. Un oscillatore, o generatore di forme d’onda elementari, che possono essere l’onda sinusoidale,
l’onda quadra, l’onda triangolare o l’onda a dente di sega;
2. Un oscilloscopio, cioè un dispositivo in grado di riprodurre in un grafico la curva dell’oscillazione
periodica in rapporto all’asse dei tempi;
3. Un analizzatore di spettro, ovvero un dispositivo incaricato di eseguire l’analisi di Fourier di un
segnale e di riprodurre su un diagramma l’ampiezza del modulo dei coefficienti di Fourier in
relazione ad una certa armonica o frequenza.
Vediamo d’ora in poi come calcolare i coefficienti di Fourier per alcuni segnali elementari.
Introduciamo il grafico della funzione 𝐫𝐞𝐜𝐭(𝜶), che viene definita come:
1 |𝛼 | < 1/2
rect(𝛼) = { 1/2 |𝛼 | = 1/2
0 |𝛼 | > 1/2
Che ha grafico:

Allora i coefficienti di Fourier diventano:


1 𝑇0 /2 𝑡 𝑎 𝑇/2 𝑎 1 𝑇/2
𝑋𝑘 = ∫ 𝑎 rect ( ) 𝑒 −𝒿2𝜋𝑘𝑓0 𝑡 𝑑𝑡 = ∫ 𝑒 −𝒿2𝜋𝑘𝑓0 𝑡 𝑑𝑡 = (− ) [𝑒 −𝒿2𝜋𝑘𝑓0𝑡 ]−𝑇/2
𝑇0 −𝑇0 /2 𝑇 𝑇0 −𝑇/2 𝑇0 𝒿2𝜋𝑘𝑓0
E cioè:
𝑎 1 𝑒 −𝒿𝜋𝑘𝑓0 𝑇 − 𝑒 𝑗𝜋𝑘𝑓0 𝑡 𝑎 sin 𝜋𝑘𝑓0 𝑇 sin 𝜋𝑘𝑓0 𝑇
𝑋𝑘 = (− ) =− (− sin 𝜋𝑘𝑓0 𝑇) = 𝑎 = 𝑎𝑓0 𝑇 ( )
𝑇0 𝜋𝑘𝑓0 2𝒿 𝜋𝑘 𝜋𝑘 𝜋𝑘𝑓0 𝑇
In cui l’ultimo risultato ottenuto può essere tradotto in termini della funzione seno cardinale:
𝑇 𝑘𝑇
𝑋𝑘 = 𝑎 sinc ( )
𝑇0 𝑇0
Introducendo invece il duty-cycle, definito come il rapporto tra la durata 𝑇 del segnale e il periodo 𝑇0 :
𝑇
𝛿=
𝑇0
La relazione di sopra si semplifica ancora una volta come:
𝑋𝑘 = 𝑎𝛿 sinc(𝑘𝛿)
Abbiamo dunque messo in relazione la funzione rettangolo con la funzione seno cardinale mediante la
corrispondenza:
𝑎 rect(𝛿) ↔ 𝑎𝛿 sinc(𝑘𝛿)
Consideriamo adesso la funzione onda quadra asimmetrica:

Sfruttiamo il fatto che il segnale ha simmetria dispari, dunque usiamo la formula per il calcolo dei
coefficienti di Fourier:
𝑇0 𝑇0
2𝒿 2 2𝒿 0 2𝒿 2
𝑋𝑘 = − ∫ 𝑥(𝑡) sin(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡 = − ∫ 𝑎 sin(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡 − ∫ 𝑎 sin(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡
𝑇0 − 0
𝑇 𝑇0 − 0
𝑇 𝑇0 0
2 2
Da cui svolgiamo l’integrale del seno:
𝑇0
2𝑎𝒿 1 2𝑎𝒿 1
𝑋𝑘 = − (− ) [cos 2𝜋𝑘𝑓0 𝑡]0 𝑇0 − (− ) [cos 2𝜋𝑘𝑓0 𝑡]02
𝑇0 2𝜋𝑘𝑓0 −2 𝑇0 2𝜋𝑘𝑓0
Che diventa:
𝑎𝒿 𝑎𝒿 2𝑎𝒿 2𝑎
𝑋𝑘 = − (cos 0 − cos 𝜋𝑘) − (cos 𝜋𝑘 − cos 0) = − =
𝜋𝑘 𝜋𝑘 𝜋𝑘 𝒿𝜋𝑘
Proviamo a visualizzare un’onda quadra fatta in tal modo. Nel nostro generatore di forme d’onda
selezioniamo una forma d’onda di tipo “square wave” e impostiamo una frequenza a piacere:

In cui si vede che è possibile, per altro, variare il fattore di scala, l’ampiezza (il parametro 𝑎 che abbiamo
utilizzato per i calcoli), la forma d’onda, il duty-cycle (impostato qui al 50%) e la componente continua
DC offset, che chiameremo in seguito anche valore medio. In particolare, quello che andiamo a regolare
quando variamo la manopola del DC-offset non è altro che:
1 𝑇0 /2
𝑥𝑚 = DC − offset = ∫ 𝑥(𝑡) 𝑑𝑡
𝑇0 −𝑇0 /2
Apriamo dunque l’oscilloscopio per visualizzare la nostra onda quadra, e vediamo apparirci una
schermata del tipo:
In cui sono presenti varie funzioni per stabilizzare il segnale (trigger), alcuni pin per selezionare il canale
di provenienza della forma d’onda e alcuni fattori di scala, ad esempio il comando “sec/div”, che ci
fornisce il numero di divisioni per secondo. In particolare, variando questa regolazione, ad esempio
raddoppiandola, visualizzeremo una scala temporale rimasta immutata ma un numero di intervalli
raddoppiato, il che porta a vedere:

La forma d’onda visualizzata non è altro che la stessa che abbiamo analizzato poco sopra nel suo grafico.
Abbiamo però anche ricavato la corrispondenza che associa all’onda quadra asimmetrica l’espressione
per i coefficienti di Fourier:
2𝑎
𝑋𝑘 =
𝒿𝜋𝑘
Che dipende dal parametro 𝑘 in maniera inversamente proporzionale. Vediamo come visualizzarla sul
video. Colleghiamo l’analizzatore di spettro al canale di uscita del generatore di forma d’onda e vediamo
che ci apparirà una finestra del tipo:

Che rappresenta l’analisi di Fourier per il segnale che abbiamo studiato prima. Ogni picco ha una certa
ampiezza che decresce con l’inverso dell’armonica mano a mano che aumenta il parametro 𝑘.
Studiamo ora i coefficienti di Fourier per un’onda triangolare fatta come in figura:

Introduciamo la formula semplificata per il calcolo dei coefficienti di Fourier, dato che si tratta di una
funzione pari. Dunque scriviamo:
2 𝑇0 /2 2 𝑇0 /2 4𝑡
𝑋𝑘 = ∫ 𝑥(𝑡) cos(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡 = ∫ 𝑎 (1 − ) cos(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡
𝑇0 −𝑇0 /2 𝑇0 0 𝑇0
Dunque svolgiamo l’integrale. Avremo:
2𝑎 𝑇0 /2 2𝑎 𝑇0 /2 4𝑡
𝑋𝑘 = ∫ cos(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡 + ∫ − cos(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡
𝑇0 0
⏟ 𝑇0 0 𝑇0
0
Il secondo integrale si fa per parti:
𝑇0
𝑇0
8𝑎 2 2𝐴
𝑋𝑘 = − 2 [𝑡sin
⏟ 2𝑘𝜋𝑓0 𝑡]02 + ∫ cos(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡 = 2 2 [1 − (−1)𝑘 ]
𝑇0 0 𝜋 𝑘
0
Dunque si vede che la corrispondenza dello sviluppo di Fourier all’onda triangolare è:
2𝐴
𝑋𝑘 = 2 2 [1 − (−1)𝑘 ]
𝜋 𝑘
Visualizziamo sull’oscilloscopio la forma d’onda relativa all’onda triangolare, periodica e a tempo
continuo. Per rappresentarla centrata con il picco sull’asse delle ordinate, accendiamo il bottone
“delayed base time” e impostiamo la regolazione dello sfasamento di un quarto di periodo verso destra:
A questo punto accendiamo l’analizzatore di spettro e visualizziamo i coefficienti di Fourier in funzione
della frequenza:

Visualizziamo adesso affiancati i grafici di spettro dell’onda quadra e dell’onda triangolare:

Si nota che il grafico dell’analisi dello spettro dell’onda triangolare decresce molto più velocemente
rispetto al segnale dell’onda quadra. In effetti, avevamo già visto che i coefficienti dell’onda quadra e
dell’onda triangolare erano:
quad 2𝑎 1 2𝐴 1
𝑋𝑘 = ∝ 𝑋𝑘tria = 2 2 [1 − (−1)𝑘 ] ∝ 2
𝒿𝜋𝑘 𝑘 𝜋 𝑘 𝑘
Questo accade perché l’onda quadra è una funzione che presenta alcune marcate discontinuità di prima
specie, ovvero ha bisogno di alte frequenze nello spettro del segnale, mentre l’onda triangolare, che non
ha discontinuità di questo tipo e che presenta maggiori “sicurezze” in termine di derivabilità (i punti
angolosi sono pur sempre più “trattabili” dei punti a derivata infinita), ha componenti frequenziali più
basse necessarie a descrivere il segnale di partenza.
Analisi di Fourier per segnali aperiodici a tempo continuo
Molti segnali che si osservano nei fenomeni naturali, a differenza di quelli analizzati sopra, non sono
periodici. Possiamo comunque introdurre l’analisi di Fourier anche a questa grande categoria di segnali,
ricorrendo ad una strategia particolare: partiamo, in pratica, dallo studio di un segnale periodico, e lo
rendiamo periodico operando un passaggio al limite e cioè facendo tendere il periodo all’infinito e
compattando enormemente la frequenza. Per far questo, partiamo allora dalle nozioni a noi già chiare.
Un segnale periodico ha come equazione di sintesi:
∞ 𝑇0 /2
𝑥𝑃 = ∑ 𝑋𝑘 𝑒 𝒿2𝜋𝑘𝑓0 𝑡 dove 𝑋𝑘 = ∫ 𝑥𝑃 (𝑡)𝑒 −𝒿2𝜋𝑘𝑓0 𝑡 𝑑𝑡
𝑘=−∞ −𝑇0 /2
Stando a quanto detto poco sopra, ricostruiremo il segnale aperiodico operando un passaggio al limite:
𝑥(𝑡) = lim 𝑥𝑃 (𝑡)
𝑇→∞
Osserviamo subito che aumentando il periodo 𝑇0 di ripetizione si riduce la frequenza fondamentale 𝑓0 e
quindi si riduce la differenza tra due frequenze armoniche consecutive. Ciò determinerà sicuramente un
infittimento dello spettro del segnale e inoltre l’ampiezza dei coefficienti tenderà a ridursi mano a mano
che il periodo cresce. Per ovviare a quest’ultimo problema, introduciamo un coefficiente di Fourier
modificato, definito come:
𝑋(𝑘𝑓0 ) = 𝑇0 𝑋𝑘
Allora, l’espansione in serie di Fourier del segnale 𝑥𝑃 sarà:

𝑥𝑃 = ∑ 𝑋(𝑘𝑓0 )𝑒 𝒿2𝜋𝑘𝑓0 𝑡 ∙ 𝑓0
𝑘=−∞
A questo punto eseguiamo il limite che avevamo in mente sopra per ottenere la nuova equazione di
sintesi per un segnale aperiodico a tempo continuo:

𝑥(𝑡) = lim 𝑥𝑃 (𝑡) 𝑥(𝑡) = lim ∑ 𝑋(𝑘𝑓0 )𝑒 𝒿2𝜋𝑘𝑓0 𝑡 ∙ 𝑓0


𝑇→∞ 𝑓0 →0
𝑘=−∞
Si nota che la serie nella formula è una somma di valori di una funzione valutata sui punti discreti
equispaziati 𝑘𝑓0 , moltiplicati per il valore di una distanza che, passando al limite, diventa infinitesima.
La serie diventa allora per definizione un integrale, detto anche antitrasformata di Fourier:

𝑥(𝑡) = ∫ 𝑋(𝑓)𝑒 𝒿2𝜋𝑓𝑡 𝑑𝑓
−∞
Dove i coefficienti 𝑋(𝑓) si ricavano passando al limite anche per i coefficienti, e cioè:
𝑇0 /2
𝑋(𝑓) = lim ∫ 𝑥𝑃 (𝑡)𝑒 −𝒿2𝜋𝑘𝑓0 𝑡 𝑑𝑡
𝑇0 →∞ −𝑇 /2
0
Che ha come risultato la trasformata continua di Fourier:

𝑋(𝑓) = ∫ 𝑥(𝑡)𝑒 −𝒿2𝜋𝑓𝑡 𝑑𝑡
−∞
Le due equazioni cardinali per l’analisi di Fourier di un segnale aperiodico a tempo continuo sono
dunque le due appena ricavate, e cioè, nell’ordine, l’antitrasformata continua di Fourier e la trasformata
continua di Fourier:
∞ ∞
𝑥(𝑡) = ∫ 𝑋(𝑓)𝑒 𝒿2𝜋𝑓𝑡 𝑑𝑓 𝑋(𝑓) = ∫ 𝑥(𝑡)𝑒 −𝒿2𝜋𝑓𝑡 𝑑𝑡
−∞ −∞
Se per un segnale periodico quest’ultimo viene rappresentato mediante componenti sinusoidali a
frequenze in relazione armonica, cioè tutte multiple di un’unica frequenza fondamentale nonché di
ampiezza finita, nel caso del segnale aperiodico, l’antitrasformata di Fourier permette allo stesso modo
di rappresentare il segnale 𝑥(𝑡) come somma di componenti sinusoidali, ma questa volta di ampiezza
infinitesima e di frequenza variabile con continuità su tutto l’asse reale. Il segnale aperiodico, in pratica
e come ipotizzato a inizio pagina, è visto come un segnale periodico, ma di periodo “illimitato” e quindi
con frequenza fondamentale “infinitamente piccola”. La corte discreta di armoniche della serie degenera
quindi nell’insieme continuo di componenti tipico dell’integrale inverso di Fourier (antitrasformata).
Come al solito, la prima equazione quadrettata rappresenta per noi un’equazione di sintesi, che
permette di rappresetnare il segnale come sovrapposizione di segnali elementari; la seconda, invece, è
invece un’equazione di analisi, che permette di determinare il peso che le varie componenti frequenziali
hanno nella composizione del segnale di partenza 𝑥(𝑡). Come abbiamo fatto nel capitolo precedente,
anche stavolta è il caso di evidenziare le corrispondenze tra un segnale e la sua trasformata:
𝑥(𝑡) ↔ 𝑋(𝑓)
I criteri di esistenza della trasformata inversa continua di Fourier sono analoghi al criterio di Dirichlet
per segnali periodici, che comunque riassumiamo qua sotto. Diciamo allora che l’integrale
dell’antitrasformata di Fourier che ricostruisce il segnale di partenza evidenziando ed assemblando tra
loro le varie componenti frequenziali proprie dell’oscillazione esiste a patto che:
1. Il segnale 𝑥(𝑡) abbia energia finita, ovvero:

𝐸𝑥 = ∫ |𝑥(𝑡)|2 𝑑𝑡 < +∞
−∞
2. Il segnale 𝑥(𝑡) sia assolutamente integrabile:

∫ |𝑥(𝑡)| 𝑑𝑡 < +∞
−∞
3. In qualsiasi intervallo finito 𝑡1 < 𝑡 < 𝑡2 il segnale 𝑥(𝑡) abbia un numero finito di discontinuità di
prima specie;
4. In qualsiasi intervallo finito 𝑡1 < 𝑡 < 𝑡2 il segnale 𝑥(𝑡) abbia un numero finito di massimi e
minimi;
Come al solito, i coefficienti di Fourier 𝑋(𝑓) godono di simmetria Hermitiana e per linearità la funzione
complessa 𝑋(𝑓) può essere rappresentata come somma di una componente reale e una componente
immaginaria:

𝑅(𝑓) = ∫ 𝑥(𝑡) cos(2𝜋𝑓𝑡) 𝑑𝑡
−∞
𝑋(𝑓) = 𝑅(𝑓) + 𝒿𝐼(𝑓) ∞
𝐼(𝑓) = − ∫ 𝑥(𝑡) sin(2𝜋𝑓𝑡) 𝑑𝑡
{ −∞
Vediamo ora come semplificare il calcolo dei coefficienti di Fourier per un segnale aperiodico a tempo
continuo sfruttando le simmetrie pari e dispari. Riferendoci alla scomposizione in un fattore reale e in
uno immaginario introdotta poco fa, avremo questa distinzione:
1. Per un segnale reale pari:

𝑅(𝑓) = 2 ∫ 𝑥(𝑡) cos(2𝜋𝑓𝑡) 𝑑𝑡
𝑋(𝑓) = 𝑅(𝑓) + 𝒿𝐼(𝑓) { −∞
𝐼(𝑓) = 0
2. Per un segnale reale dispari:
𝑅(𝑓) = 0

𝑋(𝑓) = 𝑅(𝑓) + 𝒿𝐼(𝑓) {
𝐼(𝑓) = −2 ∫ 𝑥(𝑡) sin(2𝜋𝑓𝑡) 𝑑𝑡
−∞
Calcoliamo i coefficienti di Fourier per alcuni segnali aperiodici a tempo continuo significativi. Iniziamo
dall’onda rettangolare:
𝑡
𝑥(𝑡) = rect ( )
𝑇
Calcoliamo la trasformata di Fourier ricorrendo alla formula integrale:
∞ 𝑇/2 𝑇/2
𝑒 −𝒿2𝜋𝑓𝑡 sin(𝜋𝑓𝑇)
𝑋(𝑓) = ∫ 𝑥(𝑡)𝑒 −𝒿2𝜋𝑓𝑡 𝑑𝑡 = ∫ 𝑒 −𝒿2𝜋𝑓𝑡 𝑑𝑡 = [ ] = = 𝑇sinc(𝑓𝑇)
−∞ −𝑇/2 −𝒿2𝜋𝑓 𝑇/2 𝜋𝑓
Per cui abbiamo appena trovato la corrispondenza:
𝑡
rect ( ) ↔ 𝑇sinc(𝑓𝑇)
𝑇
Per l’esponenziale monolatero avremo invece:
𝑡
𝑥(𝑡) = 𝑢(𝑡)𝑒 −𝑇
In cui i coefficienti di Fourier si calcolano come:
1 ∞
∞ ∞ −𝑡( +𝒿2𝜋𝑓)
𝑡 𝒿2𝜋𝑡 𝑒 𝑇 𝑇
𝑋(𝑓) = ∫ 𝑥(𝑡)𝑒 −𝒿2𝜋𝑓𝑡 𝑑𝑡 = ∫ 𝑒 −𝑇 𝑒 − 𝑇 𝑑𝑡 = − [ ] =
−∞ 0 1/𝑇 + 𝒿2𝜋𝑓 1 + 𝒿2𝜋𝑓𝑇
0
Dunque la corrispondenza che abbiamo trovato è:
𝑡 𝑇
𝑒 −𝑇 ↔
1 + 𝒿2𝜋𝑓𝑇
Per l’esponenziale bilatero avremo invece:
|𝑡|
𝑥(𝑡) = 𝑢(𝑡)𝑒 − 𝑇
I cui coefficienti di Fourier si calcolano:
∞ 0 ∞
𝑡 𝑡 2𝑇
𝑋(𝑓) = ∫ 𝑥(𝑡)𝑒 −𝒿2𝜋𝑓𝑡 𝑑𝑡 = ∫ 𝑒 𝑇 𝑒 −𝒿2𝜋𝑓𝑡 𝑑𝑡 + ∫ 𝑒 −𝑇 𝑒 −𝒿2𝜋𝑓𝑡 𝑑𝑡 =
−∞ −∞ 0 1 + (2𝜋𝑓𝑇)2
Dunque l’ulteriore corrispondenza che abbiamo trovato è:
|𝑡| 2𝑇
𝑒− 𝑇 ↔
1 + (2𝜋𝑓𝑇)2
A questo punto enunciamo un po’ di teoremi sulla trasformata continua di Fourier per segnali aperiodici:
1. Teorema di linearità:
Un segnale 𝑥(𝑡) si può sempre scomporre come combinazione lineare di due segnali 𝑥1 (𝑡) e 𝑥2 (𝑡)
avente forma algebrica:
𝑥(𝑡) = 𝑎𝑥1 (𝑡) + 𝑏𝑥2 (𝑡)
La cui trasformata di Fourier, per linearità, risulta essere:
𝑋(𝑓) = 𝑎𝑋1 (𝑓) + 𝑏𝑋2 (𝑓)
2. Teorema di dualità:
E’ possibile mettere in relazione la corrispondenza che sussiste tra tempo e frequenza anche in
senso inverso: in pratica, abbiamo visto che la corrispondenza classica è:
𝑥(𝑡) ↔ 𝑋(𝑓)
Ma si può, per dualità, anche arrivare alla:
𝑋(𝑡) ↔ 𝑥(−𝑓)
Questo ci permette di ricavare i coefficienti di Fourier di un segnale già trasformato. Ad esempio,
usiamo questo teorema per le corrispondenze viste sopra con l’onda rettangolare e gli
esponenziali:
𝑡 𝑓
rect ( ) ↔ 𝑇sinc(𝑓𝑇) 𝑇sinc(𝑡𝑇) ↔ rect ( )
𝑇 𝑇
𝑡 𝑇 𝑇 𝑓
𝑒 −𝑇 ↔ ↔ 𝑒𝑇
1 + 𝒿2𝜋𝑓𝑇 1 + 𝒿2𝜋𝑡𝑇
|𝑡| 2𝑇 2𝑇 |−𝑓|
𝑒− 𝑇 ↔ ↔ 𝑒− 𝑇
1 + (2𝜋𝑓𝑇)2 1 + (2𝜋𝑡𝑇) 2

3. Teorema del ritardo:


Quando un segnale viene traslato sull’asse dei tempi non viene modificato il modulo dei
coefficienti di Fourier, ma viene modificata la fase. In particolare, si avrà una corrispondenza del
tipo:
𝑥(𝑡 − 𝑡0 ) ↔ 𝑋(𝑓)𝑒 −𝒿2𝜋𝑓𝑡0
4. Teorema del cambiamento di scala:
Questo teorema mette in relazione un cambiamento di scala sul segnale originario con la sua
trasformata di Fourier. In particolare, una volta assunto il parametro 𝛼:
|𝛼 | > 1 compressione sulla scala dei tempi
𝛼 = {|𝛼 | < 1 dilatazione sulla scala dei tempi
𝛼<0 inversione sulla scala dei tempi
Il teorema ci mostra la corrispondenza:
1 𝑓
𝑥(𝛼𝑡) ↔ 𝑋( )
|𝛼 | 𝛼
Si nota che una dilatazione dell’asse dei tempi comporta una compressione dell’asse delle
frequenze, e viceversa. Se il segnale viene rallentato, vengono a predominare le componenti
frequenziali a bassa frequenza, che sono responsabili dell’evoluzione lenta del segnale: lo
spettro allora si addensa nell’interno della frequenza nulla.
5. Teorema della modulazione:
Se un segnale viene moltiplicato per un fattore esponenziale complesso 𝑒 𝒿2𝜋𝑓0 𝑡, la sua
trasformata di Fourier viene traslata attorno alla frequenza 𝑓0 . La proprietà di traslazione in
frequenza può essere allora sintetizzata nella relazione:
𝑋(𝑓 − 𝑓0 ) + 𝑋(𝑓 + 𝑓0 )
𝑥(𝑡) cos(2𝜋𝑓0 𝑡) ↔
2
𝑥(𝑡)𝑒 𝒿2𝜋𝑓0 𝑡 ↔ 𝑋(𝑓 − 𝑓0 )
𝑋(𝑓 − 𝑓0 ) − 𝑋(𝑓 + 𝑓0 )
𝑥(𝑡) sin(2𝜋𝑓0 𝑡) ↔
{ 2𝒿
6. Teorema di derivazione:
L’operazione di derivata temporale si traduce, nel dominio della frequenza, in una semplice
operazione algebrica e cioè in un’alterazione di tutte le componenti frequenziali secondo un
fattore 2𝒿𝜋𝑓 proporzionale al valore della frequenza stessa. Oltre a uno sfasamento di ±𝜋/2
l’operazione di derivata comporta un’esaltazione delle componenti alle alte frequenza:
𝑑𝑥(𝑡)
↔ 𝒿2𝜋𝑓 ∙ 𝑋(𝑓)
𝑑𝑡
7. Teorema di integrazione:
A patto che il segnale 𝑥(𝑡) sottenda area nulla, e cioè:

∫ 𝑥(𝑡) 𝑑𝑡 = 𝑋(0)
−∞
Allora l’operazione di integrazione ancora una volta si risolve passando ad una divisione
algebrica per un fattore 𝒿2𝜋𝑓. In questo caso, vengono esaltate le componenti alle basse
frequenze nello spettro del segnale e attenuate quelle alle alte frequenze:
𝑡
𝑋(𝑓)
∫ 𝑥(𝛼) 𝑑𝛼 ↔
−∞ 𝒿2𝜋𝑓
8. Teorema del prodotto:
Considerando due segnali 𝑥(𝑡) e 𝑦(𝑡), con le loro trasformate di Fourier 𝑋(𝑓) e 𝑌(𝑓). Il teorema
del prodotto ci dice che la trasformata del prodotto tra i due segnali è uguale alla convoluzione
integrale delle trasformate dei due segnali e cioè:
𝑥(𝑡)𝑦(𝑡) ↔ 𝑋(𝑓) ⊗ 𝑌(𝑓)
In pratica avremo:
+∞
𝑋(𝑓) ⊗ 𝑌(𝑓) = ∫ 𝑋(𝜈)𝑌(𝑓 − 𝜈)𝑑𝜈
−∞
9. Teorema della convoluzione:
Il duale del teorema del prodotto ci assicura un altro tipo di corrispondenza e cioè:
𝑥(𝑡) ⊗ 𝑦(𝑡) ↔ 𝑋(𝑓)𝑌(𝑓)
In pratica avremo:
+∞
𝑋(𝑓)𝑌(𝑓) = ∫ 𝑥(𝛼) ∙ 𝑦(𝑡 − 𝛼)𝑑𝜈
−∞
Trasformate di Fourier generalizzate
Fino ad ora abbiamo trattato funzioni periodiche e aperiodiche nel tempo continuo ma comunque dotati
di alcune proprietà, tra le quali è importante ricordare l’assoluta convergenza dell’integrale del segnale
e la convergenza dell’integrale di energia: vale a dire che ci siamo occupati di segnali ad energia finita, e
tendente a zero mano a mano che il periodo si avvicinava all’infinito. Questo non è il solo caso
riscontrabile in natura e dunque risulta necessario adattare le nozioni studiate integrandole con un
concetto importante: la funzione impulsiva di Dirac. Considerando la funzione gradino, definita come:
1 𝑡>0
𝑢(𝑡) = { 1/2 𝑡 = 0
0 𝑡<0
Che può modellare più o meno fedelmente il segnale di chiusura di un interruttore elettrico, per tempi
positivi. In questo contesto si verifica allora il problema del calcolo della derivata temporale della
funzione gradino intesa come eccitazione del circuito. Questo problema non è di poco conto, dato che
tale derivata è nulla ovunque tranne che nell’origine, dove peraltro non esiste e perciò non è definita. Si
può pensare allora di riscrivere la funzione gradino eliminando la discontinuità di primo tipo in questo
modo:
1 𝑡>0
𝑢𝜀 (𝑡) = { (1 + 𝑡/𝜀)/2 𝑡 = 0
0 𝑡<0
Così da “attenuare” la ripidità sul fronte di salita nell’intervallo [−𝜀, 𝜀]. Il segnale 𝑢𝜀 (𝑡) risulta ora
derivabile e la sua derivata 𝛿𝜀 (𝑡) risulta essere:
1 𝑡
𝛿𝜀 (𝑡) = rect ( )
2𝜀 2𝜀
Allo stesso modo è vero che:
𝑡
𝑢𝜀 (𝑡) = ∫ 𝛿𝜀 (𝛼) 𝑑𝛼
−∞
Osserviamo che riducendo il valore del parametro 𝜀 possiamo avvicinarci alla nozione di partenza di
scalino:
𝑢(𝑡) = lim 𝑢𝜀 (𝑡)
𝜀→0
Da cui segue, riprendendo la notazione integrale:
𝑡
𝑢(𝑡) = lim ∫ 𝛿𝜀 (𝛼) 𝑑𝛼
𝜀→0 −∞
Il passaggio al limite è un’operazione che va svolta con cautela ma ha comunque senso sotto al segno di
integrale, per cui avremo:
𝑡 𝑡
𝑢(𝑡) = ∫ lim 𝛿𝜀 (𝛼) 𝑑𝛼 = ∫ 𝛿(𝛼) 𝑑𝛼
−∞ 𝜀→0 −∞
Che rappresenta la derivata della funzione gradino, ma non è una funzione standard come le altre, è
piuttosto una distribuzione che assume un significato solo quando se ne consideri una qualche proprietà
di carattere integrale, come nella definizione stessa. Se volessimo calcolare l’integrale:

𝐼 = ∫ 𝑥(𝑡)𝛿(𝑡) 𝑑𝑡
−∞
Il problema sarebbe ben posto, perché la 𝛿 di Dirac si trova posta sotto al segno di integrale. Allora
potremo risolvere il problema mediante la:

𝐼 = lim ∫ 𝑥(𝑡)𝛿𝜀 (𝛼) 𝑑𝛼
𝜀→0 −∞
Da cui, usando il teorema della media integrale, giungiamo alla proprietà campionatrice della funzione
impulsiva di Dirac:

∫ 𝑥(𝑡)𝛿(𝑡) 𝑑𝑡 = 𝑥(0)
−∞
La proprietà campionatrice è una funzione pari e inoltre può essere traslata, mantenendo la sua
proprietà:

∫ 𝑥(𝑡)𝛿(𝑡 − 𝑡0 ) 𝑑𝑡 = 𝑥(𝑡0 )
−∞
Inoltre la funzione impulsiva risulta essere elemento neutro per l’operazione di convoluzione:

𝑥(𝑡) = ∫ 𝑥(𝛼)𝛿(𝑡 − 𝛼) = 𝑥(𝑡) ⊗ 𝛿(𝑡)
−∞
La trasformata di Fourier della funzione impulsiva risulta essere, applicando la definizione:

ℱ(𝛿(𝑡)) = Δ(𝑓) = ∫ 𝛿(𝑡)𝑒 −𝒿2𝜋𝑓𝑡 𝑑𝑡 = [𝑒 −𝒿2𝜋𝑓𝑡 ]𝑡=0 = 1
−∞
Quindi lo spettro della funzione di Dirac ha ampiezza costante e pari a 1 per ogni valore della frequenza.
In pratica, lo spettro di questa trasformazione contiene componenti a qualunque frequenza
arbitrariamente grande e tutte con la medesima ampiezza. Applicando il teorema di dualità si ottiene
poi:
𝛿(𝑡) ↔ 1 1 ↔ 𝛿(𝑓)
Questo risultato mostra che l’introduzione delle funzioni generalizzate permette di calcolare la
trasformata di Fourier di un segnale a energia infinita come il segnale costante: abbiamo dunque
raggiunto gli obiettivi che ci eravamo posti all’inizio del capitolo. Un’altra trasformata notevole,
imparentata con una funzione generalizzata, è quella relativa all’iperbole 1/𝑡, in effetti, applicando i
coefficienti di Fourier avremo:
∞ −𝒿2𝜋𝑓𝑡 ∞
𝑒 cos(2𝜋𝑓) − 𝒿 sin(2𝜋𝑓𝑡)
𝑋(𝑓) = ∫ 𝑑𝑡 = ∫ 𝑑𝑡
−∞ 𝑡 −∞ 𝑡
Dove assumiamo nullo l’integrale del coseno perché è dispari e integrando in un intervallo simmetrico
infinito, prendendo cioè il VPC (valore principale di Cauchy) si ha un risultato nullo. Allora avremo:

𝑋(𝑓) = −𝒿2𝜋𝑓 ∫ sinc(2𝑓𝑇) 𝑑𝑡
−∞
A questo punto sfruttiamo la proprietà:

∫ 𝑥(𝑡) 𝑑𝑡 = 𝑋(0)
−∞
Dunque ricordiamo che:
𝑓
𝑇sinc(𝑡𝑇) ↔ rect ( )
𝑇
Da cui usando anche il teorema di cambiamento di scala otteniamo che la trasformata della nostra
funzione integranda è:
1 𝜈
sinc(2𝑓𝑡) ↔ rect ( )
2|𝑓 | 2𝑓
Quindi avremo:

1 𝜈 1
∫ sinc(2𝑓𝑇) 𝑑𝑡 = [ rect ( )] =
−∞ 2|𝑓 | 2𝑓 𝜈=0 2|𝑓 |
E allora i coefficienti di Fourier dell’iperbole saranno:
𝑗2𝜋𝑓
𝑋(𝑓) = − = −𝒿𝜋 sgn(𝑓)
2|𝑓 |
Dunque abbiamo imparato la corrispondenza:
1
↔ 𝒿𝜋 sgn(𝑓)
𝑡
Per cui, usando il teorema di dualità, otteniamo:
1 1
↔ 𝒿𝜋 sgn(𝑓) sgn(𝑡) ↔
𝑡 𝒿𝜋𝑓
Allora, definendo la funzione gradino unitario come:
1 1
𝑢(𝑡) = sgn(𝑡) +
2 2
Possiamo ottenere la sua trasformata:
1 1
𝑈(𝑓) = + 𝛿(𝑡)
𝒿2𝜋𝑓 2
Sotto queste ipotesi, possiamo rimuovere l’ipotesi di area nulla sottesa dal grafico quando si applicava
il teorema di integrazione. Il teorema di integrazione generalizzato risulta allora:
𝑡
𝑋(𝑓) 𝛿(𝑡)
∫ 𝑥(𝛼) 𝑑𝛼 ↔ +
−∞ 𝒿2𝜋𝑓 2
Applicando ora i teoremi del ritardo e della traslazione in frequenza possiamo giungere ad altre due
corrispondenze importanti. Intanto, applicando il teorema di dualità alla trasformazione 𝛿(𝑡) ↔ 1 si
ottiene:
𝛿(𝑡 − 𝑡0 ) ↔ 𝑒 −𝒿2𝜋𝑓𝑡0
Mentre traslando in frequenza la 1 ↔ 𝛿(𝑓) si avrà:
𝑒 𝒿2𝜋𝑓0𝑡 ↔ 𝛿(𝑓 − 𝑓0 )
Questo ci permette, sfruttando il teorema del ritardo, di calcolare la trasformata di Fourier di
un’oscillazione cosinusoidale o sinusoidale. In pratica avremo:
𝑒 𝒿2𝜋𝑓0𝑡 + 𝑒 −𝒿2𝜋𝑓0 𝑡 𝛿(𝑓 − 𝑓0 ) + 𝛿(𝑓 − 𝑓0 )
cos(2𝜋𝑓0 𝑡) = ↔
2 2
𝒿2𝜋𝑓 𝑡 −𝒿2𝜋𝑓 𝑡
𝑒 0 −𝑒 0 𝛿(𝑓 − 𝑓0 ) − 𝛿(𝑓 − 𝑓0 )
sin(2𝜋𝑓0 𝑡) = ↔
{ 2𝒿 2
Sulla base di quanto ricavato possiamo considerare l’operazione di convoluzione tra un segnale e la sua
oscillazione modulante cos(2𝜋𝑓0 𝑡) o sin(2𝜋𝑓0 𝑡). Per il teorema del prodotto avremo:
𝛿(𝑓 − 𝑓0 ) + 𝛿(𝑓 − 𝑓0 )
𝑥(𝑡) cos(2𝜋𝑓0 𝑡) ↔ 𝑋(𝑓) ⊗ [ ]
2
E poiché:
𝛿(𝑓 − 𝑓0 ) + 𝛿(𝑓 − 𝑓0 ) 𝑋(𝑓 − 𝑓0 ) + 𝑋(𝑓 + 𝑓0 )
𝑋(𝑓) ⊗ [ ]=
2 2
Possiamo riottenere di nuovo il teorema della modulazione:
𝑋(𝑓 − 𝑓0 ) + 𝑋(𝑓 + 𝑓0 )
𝑥(𝑡) cos cos(2𝜋𝑓0 𝑡) ↔
2
Una volta determinata la trasformata continua di Fourier di una oscillazione sinusoidale in forma reale
o complessa, si riesce anche a esprimere la trasformata continua di un segnale periodico qualunque.
L’equazione di sintesi diventa:

𝑘
𝑋(𝑓) = ∑ 𝑋𝑘 𝛿 (𝑓 − )
𝑇0
𝑘=−∞
Questa relazione mostra che il contenuto spettrale di un segnale periodico è concentrato nelle frequenze
armoniche, piuttosto che distribuito con continuità su tutte le frequenze come per un segnale
aperiodico; in particolare, il contributo al segnale della 𝑘 −esima armonica è rappresentato da una
funzione 𝛿 posizionata in corrispondenza della frequenza 𝑘/𝑇0 e di integrale pari a 𝑋𝑘 . Lo spettro del
segnale periodico ha ancora il tipico andamento a righe, ma il significato è diverso da quello di uno
spettro a righe per un segnale visto nel primo capitolo. Se prima le righe erano semplicemente
proporzionali all’ampiezza del coefficiente di Fourier relativo, ora, le frecce sono rappresentazioni
simboliche della presenza di una funzione 𝛿 concentrata su quella frequenza.
La prima formula somma di Poisson ci mostra inoltre che è possibile stabilire una relazione tra i
coefficienti dello sviluppo in serie di segnale periodico costruito a partire da uno aperiodico mediante
la trasformata dei coefficienti del segnale aperiodico di base. In pratica avremo che, se 𝑦(𝑡) è il segnale
periodico costruito periodicizzando un segnale aperiodico 𝑥(𝑡):

1 𝑘 𝒿2𝑘𝜋𝑡
𝑦(𝑡) = ∑ 𝑋 ( ) 𝑒 𝑇0
𝑇0 𝑇0
𝑘=−∞
In pratica la formula di Poisson ci spiega che possiamo prendere un certo segnale aperiodico e renderlo
periodico andando a calcolare la trasformata di Fourier continua per i coefficienti del segnale aperiodico,
e poi modificare questi coefficienti secondo lo schema:
1 𝑘
𝑌𝑘 = 𝑋 ( )
𝑇0 𝑇0
E con questi costruire la serie di sintesi di Fourier. Il risultato è un diagramma a frecce posizionate sulle
armoniche “strategiche”, e cioè ad intervalli multipli del reciproco del periodo con cui si vuole
periodicizzare il nostro segnale.
Analisi di Fourier per segnali aperiodici a tempo discreto
Un segnale a tempo discreto è una successione 𝑥𝑛 o sequenza 𝑥[𝑛] di numeri, ed è quindi rappresentabile
con una funzione di variabile intera relativa avente valori reali o complessi. Un segnale a tempo discreto
viene ottenuto da un segnale a tempo continuo mediante un’operazione di campionamento: campionare
un segnale continuo 𝑥(𝑡) significa estrarre dal segnale stesso i valori che assume a istanti temporali
equispaziati, cioè multipli di un intervallo 𝑇 detto periodo di campionamento. Con questa operazione,
viene a crearsi una sequenza, il cui valore 𝑛 −esimo 𝑥[𝑛] è il valore assunto dal segnale al tempo
continuo nell’istante 𝑡 ∗ = 𝑛𝑇:
𝑥[𝑛] = 𝑥(𝑛𝑇)
La cadenza con la quale il segnale viene campionato, detta sampling frequence viene indicata con:
1
𝑓𝐶 =
𝑇
L’operazione di campionamento viene effettuata da convertitori analogico/digitale, che sono comandati
da un segnale temporizzatore detto clock, impostato alla frequenza di campionamento 𝑓𝐶 , che fornisce
gli impulsi di comando al circuito per “registrare” il segnale continuo ad intervalli regolari. Il
convertitore A/D rende una rappresentazione finita di un numero reale in quanto lo trasforma in una
scala binaria. Il segnale a tempo discreto risultante 𝑦[𝑡] deve poi essere riconvertito di nuovo in forma
analogica, cioè in un segnale a tempo continuo. Questa operazione viene effettuata da un dispositivo
detto convertitore digitale/analogico D/A, che assume la funzione di interpolatore. Alcuni segnali
aperiodici a tempo discreto notevoli sono:
1. La sequenza gradino unitario:
1 𝑛≥0
𝑢[𝑛] = {
0 𝑛<0
2. La sequenza esponenziale unilatera:
𝑥[𝑛] = 𝑎𝑛 𝑢[𝑛]
3. La sequenza 𝛿 impulsiva:
1 𝑛=0
𝛿[𝑛] = {
0 𝑛≠0
Si nota che la funzione gradino risulta essere la sequenza somma della sequenza 𝛿:
𝑛

𝑢[𝑛] = ∑ 𝛿[𝑖]
𝑖=−∞
E che, dualmente, la funzione 𝛿 risulta essere la differenza all’indietro del prim’ordine (analogo
della derivata nel dominio del discreto) della sequenza gradino:
𝛿[𝑛] = 𝑢[𝑛] − 𝑢[𝑛 − 1]
4. La sequenza impulso rettangolare causale di durata 𝑁:
𝑥[𝑛] = 𝑢[𝑛] − 𝑢[𝑁 − 1]
5. L’oscillazione complessa alla frequenza normalizzata 𝐹0 :
𝑥[𝑛] = 𝑒 𝒿2𝜋𝐹0𝑛
Occupiamoci ora di trovare un’espressione che ci permetta di rappresentare una sequenza anche nel
domino delle frequenze: vogliamo cioè cercare l’analogo delle equazioni di sintesi e di analisi di Fourier
per segnali a tempo continuo, adattate ora per segnali a tempo discreto. La rappresentazione di una
sequenza aperiodica 𝑥[𝑛] in campo frequenziale analoga alla trasformata continua di Fourier per un
segnale analogico aperiodico è la trasformata di Fourier della sequenza 𝑥[𝑛] e cioè:

𝑋(𝐹) = ∑ 𝑥[𝑛]𝑒 −𝒿2𝜋𝑛𝐹


𝑛=−∞
La 𝑋(𝐹) definita dall’equazione di analisi riportata sopra continua ad avere il significato di spettro del
segnale dato, ma si differenzia dalla trasformata continua 𝑋(𝑓) in alcune proprietà. Ad esempio, la
trasformata di una sequenza per un segnale aperiodico è una funzione periodica in 𝐹 di periodo unitario:
𝑋(𝐹) = 𝑋(𝐹 + 1)
Dunque 𝑋(𝐹) è completamente nota se è noto il suo andamento in un intervallo delle frequenze
normalizzate di ampiezza unitaria, ad esempio per 𝐹 ∈ [−1/2, 1/2] che chiameremo intervallo base. La
presenza della frequenza normalizzata 𝐹 però non consente ancora di stabilire un legame immediato
con la frequenza delle componenti nella trasformata 𝑋(𝑓) del segnale analogico di partenza, misurata in
Hertz. Se, comunque, il periodo di campionamento è pari a 𝑇, si può definire la variabile:
𝐹
𝑓 = = 𝐹 ∙ 𝑓𝐶
𝑇
Che è ottenuta “denormalizzando” la frequenza normalizzata 𝐹 ed ha dunque le dimensioni di una
frequenza. L’equazione di sintesi allora si riscrive come funzione complessa della frequenza
𝑓 misurabile in Hertz che è la stessa riscontrabile nell’analisi di spettro del segnale continuo analogico
aperiodico:

𝑋(𝑓) = ∑ 𝑥[𝑛]𝑒 −𝒿2𝜋𝑛𝑓𝑇


𝑛=−∞
Dato che la funzione 𝑋(𝐹) era periodica di periodo 1, la nuova relazione di sintesi sarà ancora periodica,
ma con periodo pari alla frequenza di campionamento 1/𝑇:
1
𝑋(𝑓) = 𝑋 (𝑓 + ) = 𝑋(𝑓 + 𝑓𝐶 )
𝑇
La relazione di sintesi per un segnale discreto aperiodico si riscrive come quella per un segnale continuo,
ma con qualche piccola accortezza in più:
1/2𝑇
𝑥[𝑛] = 𝑇 ∫ 𝑋(𝑓)𝑒 𝒿2𝜋𝑛𝑓𝑇 𝑑𝑓
−1/2𝑇
Il significato di questa relazione è quello di esprimere la sequenza 𝑥[𝑛] come sovrapposizione di un
continuo di componenti frequenziali di ampiezza e fase regolate dall’andamento di 𝑋(𝑓). Mentre un
segnale analogico necessitava di componenti a tutte le frequenze sull’asse reale da −∞ a +∞, cioè in un
ambito illimitato, per esprimere una sequenza in ambito frequenziale sono sufficienti le sole componenti
aventi frequenze comprese nell’intervallo limitato [−1/2𝑇, 1/2𝑇]. Questo risultato è in un certo senso
giustificato dalla periodicità della trasformata di una sequenza, nel senso che le vere componenti
significative sono quelle contenute nell’intervallo base. Una condizione necessaria per garantire
l’esistenza della trasformata è l’assoluta sommabilità della sequenza, cioè la condizione:

∑ |𝑥[𝑛]| < +∞
𝑛=−∞
Se questa condizione risulta verificata, allora è sempre valida la corrispondenza per segnali discreti
aperiodici:
1/2𝑇 ∞

𝑇∫ 𝑋(𝑓)𝑒 𝒿2𝜋𝑛𝑓𝑇 𝑑𝑓 ↔ ∑ 𝑥[𝑛]𝑒 −𝒿2𝜋𝑛𝑓𝑇


−1/2𝑇 𝑛=−∞
Calcoliamo le trasformate di Fourier per segnali aperiodici a tempo discreto di alcuni segnali
significativi:
1. La trasformata dell’impulso di Dirac:
𝛿[𝑛] ↔ 1
2. La trasformata della sequenza rettangolare:
∞ 𝑁−1 𝑞𝑛
1 − 𝑞𝑁 sin(𝑁𝜋𝑓𝑇)
𝑋(𝑓) = ∑ 𝑥[𝑛]𝑒 −𝒿2𝜋𝑛𝑓𝑇 = 𝑋(𝑓) = ∑ ⏞
[𝑒 −𝒿2𝜋𝑓𝑇 ]𝑛 = = 𝑒 −𝒿𝜋(𝑁−1)𝑓𝑇
1−𝑞 sin(𝜋𝑓𝑇)
𝑛=−∞ 𝑛=0
Dunque la corrispondenza è:
sin(𝑁𝜋𝑓𝑇)
𝑢[𝑛] − 𝑢[𝑁 − 1] ↔ 𝑒 −𝒿𝜋(𝑁−1)𝑓𝑇
sin(𝜋𝑓𝑇)
3. La trasformata della sequenza esponenziale:
∞ ∞ 𝑞𝑛
1 1
𝑋(𝑓) = ∑ 𝑥[𝑛]𝑒 −𝒿2𝜋𝑓𝑇 = ∑ ⏞
[𝑎𝑒 −𝒿2𝜋𝑓𝑇 ]𝑛 = =
1 − 𝑞 1 − 𝑎𝑒 −𝒿2𝜋𝑓𝑇
𝑛=−∞ 𝑛=0
Dunque la corrispondenza è:
1
𝑎𝑛 𝑢[𝑛] ↔
1 − 𝑎𝑒 −𝒿2𝜋𝑓𝑇
Vediamo adesso un po’ di teoremi sulla trasformata di Fourier di una sequenza aperiodica:
1. Teorema di linearità:
Supponiamo che una sequenza 𝑥[𝑛] sia espressa come combinazione lineare di due sequenza
𝑥1 [𝑛] e 𝑥2 [𝑛]:
𝑥[𝑛] = 𝑎𝑥1 [𝑛] + 𝑏𝑥2 [𝑛]
Allora la trasformata della sequenza 𝑥[𝑛], per linearità, risulta:
𝑋(𝑓) = 𝑎𝑋1 (𝑓) + 𝑏𝑋2 (𝑓)
2. Teorema del ritardo:
La trasformata della sequenza 𝑥[𝑛 − 𝑘], ottenuta ritardando 𝑥[𝑛] di 𝑘 passi è data dalla:
𝑥[𝑛 − 𝑘] ↔ 𝑋(𝑓)𝑒 −𝒿2𝜋𝑘𝑓𝑇
3. Teorema della modulazione:
La trasformata della sequenza 𝑥[𝑛]𝑒 𝒿2𝜋𝑛𝑓0 𝑡 , ottenuta modulando la sequenza portante 𝑥[𝑛] con
la sequenza modulante 𝑒 𝒿2𝜋𝑛𝑓0𝑡 è data dalla:
𝑥[𝑛]𝑒 𝒿2𝜋𝑛𝑓0 𝑡 ↔ 𝑋(𝑓 − 𝑓0 )
4. Teorema della somma di convoluzione:
Definiamo la somma di convoluzione tra le sequenze aperiodiche 𝑥[𝑛] e 𝑦[𝑛] come:
∞ ∞

𝑧[𝑛] = 𝑥[𝑛] ⊗ 𝑦[𝑛] = ∑ 𝑥[𝑘]𝑦[𝑛 − 𝑘] = ∑ 𝑦[𝑘]𝑥[𝑛 − 𝑘]


𝑘=−∞ 𝑛=−∞
Il teorema della somma di convoluzione ci assicura che:
𝑧[𝑛] = 𝑥[𝑛] ⊗ 𝑦[𝑛] ↔ 𝑋(𝑓)𝑌(𝑓) = 𝑍(𝑓)
In pratica la trasformata della convoluzione è il prodotto delle trasformate.
5. Teorema del prodotto:
La trasformata del prodotto di due sequenze 𝑥[𝑛] e 𝑦[𝑛] è la convoluzione ciclica delle
trasformate:
−1/2𝑇
𝑝[𝑛] = 𝑥[𝑛]𝑦[𝑛] ↔ 𝑇 ∫ 𝑋(𝜈)𝑌(𝑓 − 𝜈) 𝑑𝜈
−1/2𝑇
6. Teorema dell’incremento:
La derivata di un segnale a tempo continuo 𝑥(𝑡) può essere approssimato all’istante 𝑡 ∗ = 𝑛𝑇 con
il seguente rapporto incrementale:
𝑑𝑥(𝑡) 𝑥[𝑛] − 𝑥[𝑛 − 1]
=
𝑑𝑡 𝑇
In cui definiamo:
Δ𝑥[𝑛] = 𝑥[𝑛] − 𝑥[𝑛 − 1]
E abbiamo la corrispondenza:
Δ𝑥[𝑛] ↔ 𝑋(𝑓) − 𝑋(𝑓)𝑒 −𝒿2𝜋𝑓𝑇 = 𝑋(𝑓)(1 − 𝑒 −𝒿2𝜋𝑓𝑇 )
7. Teorema della sequenza somma:
La trasformata di una sequenza espressa come somma può essere ricavata facilmente tramite:
𝑛
𝑋(𝑓)
𝑦[𝑛] = ∑ 𝑥[𝑘] ↔ 𝑌(𝑓) =
1 − 𝑒 −𝒿2𝜋𝑓𝑇
𝑘=−∞
La condizione di Nyquist e il teorema del campionamento
Riprendiamo il campionamento di un segnale a tempo continuo 𝑥(𝑡):
𝑥[𝑛] = 𝑥(𝑛𝑇)
E cerchiamo di scoprire le conseguenze in ambito frequenziale di questa relazione valida in ambito
temporale. Passando alla trasformata di Fourier avremo:
∞ ∞
−𝒿2𝜋𝑛𝑓𝑇
𝑋(𝑓) = ∑ 𝑥[𝑛]𝑒 = ∑ 𝑥(𝑛𝑇)𝑒 −𝒿2𝜋𝑛𝑓𝑇
𝑛=−∞ 𝑛=−∞
In realtà, sostituendo 𝑥(𝑛𝑇) con la sua antitrasformata integrale e sfruttando le proprietà campionatrice
della funzione 𝛿, si ottiene un’altra formulazione dei coefficienti di Fourier per un segnale campionato:

1 𝑘
𝑋(𝑓) = ∑ 𝑋 (𝑓 − )
𝑇 𝑇
𝑛=−∞
Che ricorda in qualche modo la prima formula somma di Poisson e che mostra che la trasformata di
Fourier di una sequenza ottenuta per campionamento si ricava come periodicizzazione della
trasformata del segnale analogico di partenza, con un periodo di ripetizione in frequenza pari alla
frequenza di campionamento. Certo c’è da prestare attenzione a quale frequenza di campionamento
scegliere: a seconda della frequenza scelta, è possibile che le varie repliche dello spettro, per frequenze
di campionamento prese troppo vicine, interferiscano sommandosi alla replica base; nell’ambito
dell’intervallo unitario [−1/2𝑇, 1/2𝑇] quest’ultima è accompagnata dal cosiddetto errore di aliasing
creato dalle repliche (alias) dello spettro base, che porta ad una distorsione del segnale. Se il segnale è
a banda limitata, dunque, è possibile comunque trovare una condizione che garantisca assenza di
aliasing: la banda del segnale analogico di partenza 𝐵 deve essere più piccola dell’estremo superiore
dell’intervallo base [−1/2𝑇, 1/2𝑇]. In altri termini, fissata la banda del segnale 𝐵, la frequenza di
campionamento deve essere scelta in modo che valga la condizione di Nyquist:
1
𝑓𝐶 = ≥ 2𝐵
𝑇
Questa osservazione sembra suggerire la possibilità di ricostruire il segnale originario (a banda
limitata) elaborando il segnale campionato. La condizione di Nyquist pone alcuni vincoli sulla scelta
della frequenza di campionamento se si desidera ricostruire un segnale a tempo continuo utilizzandone
i campioni; in particolare, il periodo di campionamento deve essere scelto in funzione della banda del
segnale analogico. La ricostruzione di un segnale a tempo continuo a partire da una sequenza viene
realizzata mediante un’interpolazione, che può intendersi come una generalizzazione dell’operazione
compiuta in pratica da un convertitore D/A per fornire in uscita un segnale a tempo continuo 𝑥̂(𝑡)a
partire dai valori binari di una sequenza 𝑥[𝑛]. L’operazione svolta da un interpolatore a mantenimento
è quella di mantenere il segnale in ingresso 𝑥[𝑛] a partire dall’instante 𝑡 = 𝑛𝑇 e fino a che non sia
disponibile, all’istante 𝑡 ∗ = (𝑛 + 1)𝑇 il successivo valore della sequenza 𝑥[𝑛 + 1]. Possiamo allora
scrivere l’espressione del segnale interpolato 𝑥̂(𝑡) come costituito da una serie di impulsi rettangolari
di durata 𝑇, applicati agli istanti 𝑛𝑇 e di ampiezza pari al relativo valore 𝑛 −esimo della sequenza 𝑥[𝑛]:

𝑥̂(𝑡) = ∑ 𝑥[𝑛]𝑝(𝑡 − 𝑛𝑇)


𝑛=−∞
Dove 𝑝(𝑡) è il segnale interpolante, che può essere, come visto finora, un impulso rettangolare causale:
𝑡 − 𝑇/2
𝑝(𝑡) = rect ( )
𝑇
La procedura che conduce dal segnale originario 𝑥(𝑡), passando per un campionamento che lo porti ad
una sequenza 𝑥[𝑛] e da una successiva interpolazione per mezzo di un mezzo interpolante 𝑝(𝑡), ad un
segnale interpolato costante a tratti 𝑥̂(𝑡) viene detta S&H, sample and hold.
Passiamo ora al dominio della frequenza, calcolando la trasformata di Fourier del segnale interpolato:
∞ ∞

𝑋̂(𝑓) = ∑ 𝑥[𝑛]𝑃(𝑓)𝑒 −𝒿2𝜋𝑛𝑓𝑇 = 𝑃(𝑓) ∑ 𝑥[𝑛]𝑒 −𝒿2𝜋𝑛𝑓𝑇 = 𝑃(𝑓)𝑋(𝑓)


𝑛=−∞ 𝑛=−∞
Dove ricordiamo la relazione che legava la trasformata di Fourier per un segnale discreto tramite
periodicizzazione di un segnale continuo:

1 𝑘
𝑋(𝑓) = ∑ 𝑋 (𝑓 − )
𝑇 𝑇
𝑛=−∞
Da cui si ottiene:
∞ ∞
1 𝑘
∑ 𝑥[𝑛]𝑝(𝑡 − 𝑛𝑇) = 𝑥̂(𝑡) ↔ 𝑋̂(𝑓) = 𝑃(𝑓) ∑ 𝑋 (𝑓 − )
𝑇 𝑇
𝑛=−∞ 𝑛=−∞
Alla base di questo risultato enunciamo qui il teorema del campionamento: un segnale il cui spettro sia
limitato nella banda 𝐵 può essere ricostruito esattamente a partire dai propri campioni, purché la
frequenza di campionamento non sia inferiore a 2𝐵. In pratica, per ricostruire un segnale, dobbiamo
tener conto di due fattori:
1. Limitatezza di banda;
2. Assenza di aliasing, garantita dalla condizione di Nyquist;
Ciononostante lo spettro del segnale ricostruito differisce da quello del segnale di partenza in due
aspetti fondamentali:
1. Il segnale interpolato non è limitato in banda: l’operazione di ricostruzione del segnale introduce
delle componenti frequenziali che non sono presenti nel segnale analogico 𝑥(𝑡). Esse derivano
dalla presenza delle repliche dello spettro del segnale di partenza a cavallo dei multipli della
frequenza di campionamento. Questi residui delle repliche sono chiamati immagini.
2. Anche all’interno dell’intervallo base, lo spettro del segnale ricostruito differisce dallo spettro
del segnale di partenza. In assenza di aliasing, in tale intervallo i due spettri sono legati dalla
relazione:
𝑋̂(𝑓) 𝑃(𝑓) 1 1
= − ≤𝑓≤
𝑋(𝑓) 𝑇 2𝑇 2𝑇
Si può rimediare alla prima questione inserendo un filtro anti-immagine all’uscita dell’interpolatore, che
è un filtro passa-basso di banda 𝐵 che elimina le immagini dallo spettro del segnale interpolato,
riconducendo il segnale nella banda originaria. L’effetto del filtro anti-immagine in ambito temporale,
inoltre, è quello di smussare il segnale costante a tratti, e quindi avente discontinuità, per ricondurlo a
un andamento più somigliante a quello del segnale analogico originario. La seconda questione, ovvero
quella della differenza tra i due spettri di segnale interpolato e di partenza è attribuibile, come si vede,
alla scelta dell’impulso interpolante: in effetti, la distorsione di ampiezza nell’intervallo di banda utile è
causata dalle discontinuità di primo tipo introdotte dalla trasformata del segnale interpolante. Questo
effetto verrebbe annullato se si riuscisse ad utilizzare un impulso interpolante fatto in maniera tale da
avere una trasformata costante in frequenza. Possiamo ottenere questo usando un particolare tipo di
impulso interpolante, ovvero il seno cardinale. Se usiamo:
𝑡
𝑝(𝑡) = sinc ( )
𝑇
Allora la relazione col segnale interpolato diventa la formula di interpolazione cardinale:

𝑡 − 𝑛𝑇
𝑥̂(𝑡) = ∑ 𝑥[𝑛] sinc ( )
𝑇
𝑛=−∞
Sappiamo che la trasformata del seno cardinale è una funzione costante nell’intervallo utile:
𝑡 𝑡
sinc ( ) ↔ 𝑇rect ( )
𝑇 𝑇
E dunque si possono prevenire entrambi gli inconvenienti di distorsione del segnale descritti poco fa. In
particolare, il segnale analogico viene ricostruito da una infinita serie di funzioni sinc(∙), ciascuna
applicata agli istanti 𝑡 ∗ = 𝑛𝑇 di campionamento del segnale originario, e ciascuna pesata con il valore
del relativo campione 𝑥[𝑛]. Se ricampioniamo il segnale interpolato al generico istante 𝑡𝑘 = 𝑘𝑇, per la
proprietà della funzione seno cardinale, solo il 𝑘 −esimo fra tutti gli impulsi della sommatoria produce
un contributo non nullo e pari proprio al valore 𝑥[𝑘] = 𝑥(𝑘𝑇) del campione del segnale di partenza. Si
ha infatti:
∞ ∞

𝑥̂(𝑘𝑇) = ∑ 𝑥[𝑛]sinc(𝑘 − 𝑛) = ∑ 𝑥[𝑛]𝛿(𝑘 − 𝑛) = 𝑥[𝑘] = 𝑥(𝑘𝑇)


𝑛=−∞ 𝑛=−∞
Si vede dunque che il segnale interpolato coincide col segnale di partenza negli istanti di
campionamento. Se si considera un qualunque altro istante non coincidente con uno di quelli di
campionamento, si nota che il valore del segnale interpolato è ottenuto combinando linearmente tutti
gli infiniti campioni 𝑥[𝑛] del segnale 𝑥(𝑡): la ricostruzione di un segnale a banda limitata a un certo
istante richiede la conoscenza di tutta la sequenza di campioni del segnale stesso, in istanti sia
antecedenti quello considerato, sia successivi. La formula di interpolazione cardinale è quindi
inutilizzabile nella pratica, perché sono richiesti infiniti termini di una sommatoria per ricostruire il
segnale originario e perché una ricostruzione in tempo reale non sarebbe possibile dato che si
richiederebbe la conoscenza di valori di segnale in istanti successivi a quello di interpolazione, dando
luogo quindi ad un sistema di interpolazione non causale.
Analisi di Fourier per segnali periodici a tempo discreto
Una sequenza si dice periodica se esiste un intero positivo 𝑁0 (periodo della sequenza) per cui:
𝑥[𝑛] = 𝑥[𝑛 + 𝑁0 ]
Una sequenza 𝑥[𝑛] periodica di periodo 𝑁0 è individuata quindi da 𝑁0 numeri reali (o complessi) che
rappresentano i valori assunti da 𝑥[𝑛] in un periodo. E’ interessante notare che il campionamento di un
segnale periodico a tempo continuo non genera necessariamente una sequenza periodica: affinché si
abbia una sequenza periodica, infatti, è necessario che un numero interno 𝑁0 di campionamento sia
esattamente pari a un qualche numero intero 𝑀0 di periodi di ripetizione del segnale originario. In
pratica, gli impulsi di campionamento del convertitore A/D devono essere sincronizzati con il segnale
periodico analogico: essi non possono avere una cadenza arbitraria senza un legame preciso con la
cadenza di ripetizione fondamentale del segnale dato. Supponiamo ora che 𝑥[𝑛] sia una sequenza
periodica dotata di periodo 𝑁0 . Essa può essere rappresentata mediante uno sviluppo del tutto analogo
alla serie di Fourier per segnali periodici a tempo continuo, chiamato serie discreta o antitrasformata
discreta di Fourier:
𝑁0 −1
𝒿2𝜋𝑘𝑛
𝑥[𝑛] = ∑ 𝑋𝑘 𝑒 𝑁0

𝑘=0
In cui la sequenza dei coefficienti discreti di Fourier è comunemente chiamata trasformata discreta di
Fourier della sequenza periodica ed è:
𝑁0 −1
1 𝒿2𝜋𝑘𝑛

𝑋𝑘 = ∑ 𝑥[𝑛]𝑒 𝑁0
𝑁0
𝑛=0
Dunque avremo la corrispondenza:
𝑁0 −1 𝑁0 −1
𝒿2𝜋𝑘𝑛 1 𝒿2𝜋𝑘𝑛

𝑥[𝑛] = ∑ 𝑋𝑘 𝑒 𝑁0 ↔ 𝑋𝑘 = ∑ 𝑥[𝑛]𝑒 𝑁0
𝑁0
𝑘=0 𝑛=0
Differentemente dai segnali periodici a tempo continuo, la cui rappresentazione mediante serie di
Fourier comporta una somma infinita di termini, nel caso di sequenze periodiche, invece, la
rappresentazione mediante antitrasformata discreta consiste in una somma con un numero finito di
addendi. In effetti, la trasformata di una sequenza 𝑥[𝑛] periodica di periodo 𝑁0 è anch’essa periodica col
medesimo periodo:
𝑋𝑘 = 𝑋𝑘+𝑁0
Una differenza tra l’antitrasformata continua e l’antitrasformata discreta per segnali periodici, invece,
sta nel fatto che per segnali continui l’integrale per ricavare il coefficiente di Fourier si calcola
nell’intervallo simmetrico [−𝑇0 /2, 𝑇0 /2], mentre la trasformata discreta viene calcolata su di un
intervallo asimmetrico [0, 𝑁0 − 1]. La spiegazione consiste nel fatto che quando 𝑁0 è un numero dispari
è facile ricondursi ad un intervallo simmetrico, cosa che non è possibile quando 𝑁0 è pari, allora si
preferisce adottare la notazione sintetica asimmetrica. Vediamo alcuni teoremi:
1. Teorema del prodotto:
La trasformata del prodotto tra due sequenze 𝑥[𝑛] e 𝑦[𝑛] è la convoluzione delle trasformate
moltiplicata per il periodo 𝑁0 :
𝑝[𝑛] = 𝑥[𝑛]𝑦[𝑛] ↔ 𝑁0 ∙ 𝑋𝑘 ⊗ 𝑋𝑘
2. Teorema della convoluzione:
La trasformata della convoluzione tra due sequenze periodiche 𝑥[𝑛] e 𝑦[𝑛] è il prodotto delle
trasformate:
𝑥[𝑛] ⊗ 𝑦[𝑛] ↔ 𝑋𝑘 ∙ 𝑌𝑘
Possiamo inoltre periodicizzare una sequenza aperiodica mediante l’introduzione dei coefficienti:
1 1 𝑘
𝑌𝑘 = [ 𝑋(𝑓)] = 𝑋( )
𝑁0 𝑓=
𝑘 𝑁0 𝑁0 𝑇
𝑁0 𝑇
E dunque, la periodicizzazione di un segnale discreto aperiodico comporta la:
𝑁0 −1
1 𝑘 𝒿2𝜋𝑘𝑛
𝑥[𝑛] = ∑ 𝑋( ) 𝑒 𝑁0
𝑁0 𝑁0 𝑇
𝑘=0
Ottenuta cioè calcolando la trasformata di Fourier per segnali aperiodici calcolata su multipli del
prodotto tra il periodo di campionamento e il periodo di ripetizione della sequenza.
Riassunto delle caratteristiche delle trasformate di Fourier
Ogniqualvolta il segnale è periodico nel tempo, esso possiede uno spettro discreto. Allo stesso modo, se
il segnale è discreto nel tempo, il suo spettro sarà periodico, inoltre in ognuna di queste corrispondenza
per segnali periodici si nota che l’equazione di sintesi non è altro che l’espansione in serie dei coefficienti
di Fourier mentre per segnali aperiodici l’equazione di sintesi è l’integrale simmetrico ancora una volta
dei coefficienti di Fourier. Richiamiamo qui sotto tutte le formule incontrate finora:
1. Segnali periodici a tempo continuo:

1 𝑇0 /2
𝑥(𝑡) = ∑ 𝑋𝑘 𝑒 𝒿2𝜋𝑘𝑓0𝑡 𝑋𝑘 = ∫ 𝑥(𝑡) 𝑒 −𝒿2𝜋𝑘𝑓0 𝑡 𝑑𝑡
𝑇0 −𝑇0 /2
𝑘=−∞
Il tempo è continuo e lo spettro è discreto, fatto a righe in corrispondenza delle frequenze
multiple di quella fondamentale 𝑓0 ;
2. Segnali aperiodici a tempo continuo:
∞ ∞
𝑥(𝑡) = ∫ 𝑋(𝑓)𝑒 𝒿2𝜋𝑓𝑡 𝑑𝑓 𝑋(𝑓) = ∫ 𝑥(𝑡)𝑒 −𝒿2𝜋𝑓𝑡 𝑑𝑡
−∞ −∞
Il tempo è continuo e lo spettro è continuo: c’è bisogno di tutte le frequenze per caratterizzare il
segnale 𝑥(𝑡);
3. Segnali periodici a tempo discreto:
𝑁0 −1 𝑁0 −1
𝒿2𝜋𝑘𝑛 1 𝒿2𝜋𝑘𝑛

𝑥[𝑛] = ∑ 𝑋𝑘 𝑒 𝑁0 𝑋𝑘 = ∑ 𝑥[𝑛]𝑒 𝑁0
𝑁0
𝑘=0 𝑛=0
Il tempo è discreto e lo spettro è discreto, fatto a righe in corrispondenza delle frequenze
multiple del prodotto tra il periodo di campionamento e il periodo di ripetizione della sequenza;
4. Segnali aperiodici a tempo discreto:
1/2𝑇 ∞

𝑥[𝑛] = 𝑇 ∫ 𝑋(𝑓)𝑒 𝒿2𝜋𝑛𝑓𝑇 𝑑𝑓 𝑋(𝑓) = ∑ 𝑥[𝑛]𝑒 −𝒿2𝜋𝑛𝑓𝑇


−1/2𝑇 𝑛=−∞
Il tempo è discreto e lo spettro è continuo; c’è bisogno anche stavolta di tutte le frequenze per
analizzare il segnale originario;
Sistemi monodimensionali a tempo continuo
Possiamo chiamare sistema monodimensionale un qualunque dispositivo che produce un senale di
uscita, detto anche risposta o effetto, in corrispondenza di un segnale di ingresso, detto anche
eccitazione o sollecitazione. Un sistema è dunque una trasformazione, o meglio un funzionale che ad un
segnale di ingresso 𝑥(𝑡) fa corrispondere un unico e ben determinato segnale di uscita 𝑦(𝑡). La
trasformazione si denota come:
𝑦(𝑡) = 𝒯[𝑥(𝛼); 𝑡]
Studiamo alcune tra le proprietà dei sistemi monodimensionali:
1. Stazionarietà: se le caratteristiche del sistema non variano nel tempo, il sistema è stazionario:
𝒯[𝑥(𝑡 − 𝑡0 )] = 𝑦(𝑡 − 𝑡0 )
2. Causalità: un sistema è causale quando il valore dell’uscita all’istante arbitrario generico 𝑡
dipende soltanto dai valori assunti all’ingresso agli istanti antecedenti o al limite coincidenti con
𝑡 stesso.
3. Memoria: un sistema senza memoria è il sistema istantaneo, in cui l’uscita all’istante 𝑡 dipende
solo dal valore all’ingresso al medesimo istante:
𝑦(𝑡) = 𝒯[𝑥(𝛼), 𝛼 = 𝑡; 𝑡]
4. Stabilità: un sistema è stabile se, sollecitato da un segnale con andamento arbitrario ma di
ampiezza limitata, produce a sua volta in uscita un segnale di ampiezza limitata:
|𝑥(𝑡)| ≤ 𝑀 → |𝑦(𝑡)| ≤ 𝐾
5. Invertibilità: un sistema è invertibile quando è possibile costruire il suo sistema inverso definito:
𝒯 −1 [𝑦(𝑡)] = 𝑥(𝑡)
6. Linearità: un sistema è lineare se ad esso è applicabile il principio di sovrapposizione degli
effetti:
𝑦(𝑡) = 𝒯[𝑥(𝑡)] = 𝛼𝑦1 (𝑡) + 𝛽𝑦2 (𝑡)
Un particolare gruppo di sistemi degni di attenzione è quello costituito dai sistemi lineari e stazionari
SLS: per un SLS è possibile misurare la cosiddetta risposta impulsiva, cioè l’uscita del sistema in
corrispondenza dell’eccitazione impulsiva 𝑥(𝑡) = 𝛿(𝑡). Tale segnale si indica con:
ℎ(𝑡) = 𝒯[𝛿(𝑡)]
La conoscenza della risposta impulsiva permette di determinare la risposta di un sistema a un generale
segnale di ingresso di andamento arbitrario. Si ottiene, infatti:
+∞
𝑦(𝑡) = ∫ 𝑥(𝛼)ℎ(𝑡 − 𝛼) 𝑑𝛼 = 𝑥(𝑡) ⊗ ℎ(𝑡)
−∞
Che stabilisce la relazione costitutiva del sistema lineare stazionario: il segnale in uscita può essere
calcolato attraverso la convoluzione del segnale di ingresso con la risposta impulsiva. La conoscenza
della risposta impulsiva, quindi, caratterizza completamente il comportamento del sistema stesso. Un
sistema SLS è causale se e solo se la sua risposta impulsiva è un segnale causale; condizione necessaria
e sufficiente per cui un SLS sia stabile è inoltre l’assoluta integrabilità della risposta impulsiva:
+∞
∫ |ℎ(𝑡)| 𝑑𝑡 < +∞
−∞
La risposta impulsiva di un sistema può essere calcolata applicando in ingresso un segnale che
approssimi la funzione 𝛿(𝑡) e misurando l’uscita corrispondente; si può inoltre procedere in un altro
modo, ad esempio inviando un segnale di ingresso sinusoidale o un’oscillazione complessa alla
frequenza 𝑓:
𝑥(𝑡) = 𝑒 𝒿2𝜋𝑓𝑡
Se il sistema è stabile, la risposta a un’oscillazione di frequenza assegnata è a sua volta un’oscillazione
alla stessa frequenza, ma modificata in ampiezza e fase rispetto all’ingresso di un fattore a valore
complessi che chiamiamo risposta in frequenza:
𝑦(𝑡)
𝐻(𝑓) = [ ]
𝑥(𝑡) 𝑥(𝑡)=𝑒 𝒿2𝜋𝑓𝑡
Al variare della frequenza 𝑓, la variazione di ampiezza e lo sfasamento introdotto dal sistema su un
segnale sinusoidale cambiano, cosicché la risposta in frequenza deve essere funzione della frequenza:
+∞
𝐻(𝑓) = ∫ ℎ(𝛼)𝑒 −𝒿2𝜋𝑓𝛼 𝑑𝛼
−∞
La risposta in frequenza è allora ricavabile anche come trasformata di Fourier della risposta impulsiva:
𝐻(𝑓) ↔ ℎ(𝑡)
Sfruttando le proprietà del prodotto di convoluzione otteniamo inoltre:
𝑌(𝑓) = 𝑋(𝑓)𝐻(𝑓)
Per cui:
𝑌(𝑓)
𝐻(𝑓) =
𝑋(𝑓)
Per cui la risposta in frequenza può essere ricavata a partire dall’ingresso e l’uscita di un sistema nel
dominio della frequenza. Il decibel è definito come:
|𝐻(𝑓)|2
|𝐻(𝑓)|𝑑𝐵 = 10 log10
|𝐻(𝑓0 )|2
Dove 𝑓0 deve essere intesa come la frequenza di riferimento su cui fondare la nostra misura. Per sistemi
in cascata avremo:
𝐻(𝑓) = 𝐻1 (𝑓)𝐻2 (𝑓) ℎ(𝑡) = ℎ1 (𝑡) ⊗ ℎ2 (𝑡)
Per sistemi in parallelo avremo:
𝐻(𝑓) = 𝐻1 (𝑓) + 𝐻2 (𝑓) ℎ(𝑓) = ℎ1 (𝑡) + ℎ2 (𝑡)
Il teorema di Parseval mette in correlazione il dominio nel tempo con quello nella frequenza con la
relazione:
+∞ +∞
∫ |𝑥(𝑡)|2 𝑑𝑡 = ∫ |𝑋(𝑓)|2 𝑑𝑓
−∞ −∞
Filtri
Un caso tipico che si verifica molto spesso è che il segnale che vogliamo analizzare sia costituito dalla
sovrapposizione di due segnali:
𝑥(𝑡) = 𝑥1 (𝑡) + 𝑥2 (𝑡)
Di cui uno dei due è il segnale utile e l’altro è un segnale di disturbo ineliminabile alla fonte. Questi
disturbi possono essere eliminati per mezzo dell’utilizzo di un SLS che garantisca una certa risposta in
frequenza capace di eliminare la banda di disturbo, dato che l’uscita del sistema sarà:
𝑌(𝑓) = 𝐻(𝑓)𝑋(𝑓)
Esistono generalmente tre tipi di filtri più importanti:
1. Filtro passa basso:
E’ caratterizzato da una risposta in frequenza pari a:
𝑓
𝐻𝐿𝑃 (𝑓) = rect ( )
2𝐵
La cui risposta impulsiva sarà:
ℎ𝐿𝑃 (𝑡) = 2𝐵 sinc(2𝐵𝑡)
Si tratta cioè di un segnale idealizzato, non replicabile nella realtà perché non causale.
2. Filtro passa alto:
E’ caratterizzato da una risposta in frequenza pari a:
𝑓
𝐻𝐻𝑃 (𝑓) = 1 − rect ( )
2𝐵
La cui riposta impulsiva sarà:
ℎ𝐻𝑃 (𝑡) = 𝛿(𝑡) − 2𝐵sinc (2𝐵𝑡)
3. Filtro passa banda:
E’ caratterizzato da una risposta in frequenza pari a:
𝑓 − 𝑓0 𝑓 + 𝑓0
𝐻𝐵𝑃 (𝑓) = rect ( ) + rect ( )
𝐵 𝐵
La cui risposta impulsiva sarà:
ℎ𝐵𝑃 (𝑡) = 2𝐵sinc(𝐵𝑡) cos(2𝜋𝑓0 𝑡)
Per i filtri passa banda si definisce anche il fattore di qualità:
𝑓0
𝑄=
𝐵
Che è tanto maggiore quanto minore è la banda passante: è dunque una misura della selettività
del filtro.
Tutti i filtri visualizzati finora sono però ideali e non fisicamente realizzabili in quanto non causali dato
che hanno risposte impulsive non nulle per istanti minori di quello iniziale. Nota la risposta in frequenza
di un SLS, è possibile decidere se essa sia relativa a un segnale causale o meno grazie al criterio di Paley-
Wiener. Date le seguenti condizioni:
1. La risposta in frequenza di un sistema lineare stazionario è a quadrato integrabile:
+∞
∫ |𝐻(𝑓)|2 𝑑𝑓 < +∞
−∞
2. Se la risposta in ampiezza è tale da verificare anche la seguente condizione:
+∞
| ln(|𝐻(𝑓)|)
∫ 2 𝑑𝑓 < +∞
−∞ 1 + (2𝜋𝑓)
Allora esiste una funzione 𝜃(𝑓) tale che:
𝐻(𝑓) = |𝐻(𝑓)|𝑒 𝒿𝜃(𝑓)
Che rappresenta a tutti gli effetti la risposta in frequenza di un segnale causale, essendo un esponenziale
monolatero. Un filtro causale, inoltre, può avere risposta in frequenza che si annulla solo per un insieme
di frequenze di misura nulla, cioè per un numero finito di frequenze. Vediamo la risposta in frequenza
per due filtri particolari:
1. Squadra RC:
1
𝐻𝑅𝐶 (𝑓) =
√1 + (𝑓/𝑓𝑇 )2
2. Squadra CR:
|𝑓/𝑓𝑇 |
𝐻𝐶𝑅 (𝑓) =
√1 + (𝑓/𝑓𝑇 )2
Per un segnale a durata finita esiste un certo valore 𝑇 tale che il segnale originario non subisce alcuna
modifica se viene moltiplicato per una funzione rect(∙) di durata 2𝑇:
𝑡
𝑥(𝑡) = 𝑥(𝑡)rect ( )
2𝑇
Passando alle trasformate di Fourier, si ha:
𝑋(𝑓) = 𝑋(𝑓) ⊗ 2𝑇 sinc(2𝑓𝑇)
Dunque non è detto che il segnale 𝑥(𝑡) di durata finita abbia in realtà anche banda finita, dato che la
funzione seno cardinale ha banda illimitata. Dunque un segnale di durata rigorosamente limitata ha
banda infinita. Alcuni segnali però non hanno durata rigorosamente limitata, allora si deve introdurre
una qualche precisazione: si definisce banda utile di uno spettro la banda inferiore al limite di banda a
meno 3 decibel, ovvero la frequenza per la quale lo spettro di ampiezza viene ridotto di un fattore √2
rispetto al valore di riferimento:
|𝑋(𝐵−3 )| 1 1
= → 10 log10 = −10 log10 2 = −3 (𝑑𝐵)
|𝑋(𝑓0 )| √2 2
Il centro dell’impulso di un segnale si ricava:
1 +∞ 2 +∞
𝑡0 = ∫ 𝑡 𝑥 (𝑡) 𝑑𝑡 dove 𝐸𝑥 = ∫ 𝑥 2 (𝑡) 𝑑𝑡
𝐸𝑥 −∞ −∞
La durata efficace è espressa come:
1 +∞
𝐷𝑞2 = ∫ (𝑡 − 𝑡0 )2 𝑥 2 (𝑡) 𝑑𝑡
𝐸𝑥 −∞
Che fornisce un’indicazione della dispersione dei valori del segnale attorno al centro presunto 𝑡0 . La
banda efficace di Gabor di uno spettro di tipo passa-basso viene indicata con:
2 1 +∞
(2𝐵𝑞 ) = ∫ |𝑋(𝑓)|2 𝑓 2 𝑑𝑓
𝐸𝑥 −∞
Una generalizzazione importante della proprietà per la quale un segnale non può contemporaneamente
avere banda limitata e durata limitata è data dalla disuguaglianza:
1
𝐵𝑞 ∙ 𝐷𝑞 ≥
8𝜋
Il prodotto durata banda è perciò limitato inferiormente: essa è l’analogo in teoria dei segnali del
principio di indeterminazione di Heisemberg in meccanica quantistica. Un sistema non introduce
distorsioni quando la sua uscita è del tipo:
𝑦(𝑡) = 𝐾 ∙ 𝑥(𝑡 − 𝑡0 )
Passando alle trasformate di Fourier, otteniamo:
𝑌(𝑓) = 𝐾 ∙ 𝑋(𝑓)𝑒 −𝒿2𝜋𝑓𝑡0
Da cui si trova la seguente espressione per la risposta in frequenza del sistema:
𝑌(𝑓)
𝐻(𝑓) = = 𝐾 ∙ 𝑒 −𝒿2𝜋𝑓𝑡0
𝑋(𝑓)
Per cui la risposta in fase sarà:
−2𝜋𝑓𝑡0 se 𝐾 ≥ 0
𝜙(𝑓) = {
−2𝜋𝑓𝑡0 − 𝜋sgn(𝑓) se 𝐾 < 0
Affinché un sistema non introduca distorsioni deve dunque possedere una risposta in ampiezza costante
e una risposta in fase proporzionale alla frequenza. Le componenti sinusoidali in cui un segnale
arbitrario può pensarsi scomposto devono essere amplificate o attenuate tutte nella medesima misura,
e devono essere ritardate ciascuna della medesima quantità. Ogni sistema reale ha però dei limiti di
banda intrinseci e non può garantire una risposta in frequenza con queste caratteristiche per tutti i
valori della frequenza. Se la risposta in ampiezza non è costante nella banda del segnale si avranno allora
distorsioni di ampiezza, mentre se la risposta in fase non è lineare nella banda del segnale si avranno
distorsioni in fase: le distorsioni di fase vengono eliminate mediante gli equalizzatori.
1. Filtri di Butterworth: sono filtri causali che hanno una risposta in frequenza pari a:
1
|𝐻(𝑓)| =
√1 + (𝑓/𝑓𝑇 )2𝑁

2. Filtri di Chebyshev: sono filtri causali che hanno un risposta in frequenza pari a:
1
|𝐻(𝑓)| =
√1 + 𝜀 2 𝐶𝑁2 (𝑓/𝑓𝑇 )

Che hanno lo svantaggio, rispetto ai filtri di Butterworth, di presentare oscillazioni in banda passante
dipendenti da 𝜀; le oscillazioni hanno tutte la stessa ampiezza e sono sempre contenute nell’intervallo
[1/√(1 + 𝜀 2 ), 1]indipendentemente dall’ordine del polinomio.
Variabili aleatorie
Come l’analisi matematica è lo strumento che descrive i fenomeni deterministici, la teoria della
probabilità è lo strumento matematico sviluppato per descrivere i fenomeni di carattere aleatorio. La
caratterizzazione completa di un esperimento aleatorio richiede sostanzialmente 3 elementi:
1. La descrizione del suo spazio campione Ω = {𝜔1 , … , 𝜔𝑁 } come l’insieme di tutti i possibili
risultati;
2. L’individuazione della sua classe degli eventi 𝑆, ovvero un insieme chiuso rispetto all’unione e
all’intersezione che contiene gli eventi di uno spazio campione;
3. La descrizione della sua legge di probabilità Pr(∙);
Secondo la teoria assiomatica formulata dal matematico Kolmogorov, una volta assegnato un
esperimento aleatorio con uno spazio campione Ω e la relativa classe degli eventi 𝑆, una legge di
probabilità Pr(∙) è semplicemente una corrispondenza che associa a ogni elemento di 𝑆, cioè ad ogni
evento di interesse, un numero reale che soddisfa i seguenti assiomi:
1. La probabilità di un evento arbitrario 𝐴 è non negativa:
Pr(𝐴) ≥ 0
2. Assioma di normalizzazione, secondo cui la probabilità dell’evento certo è unitaria:
Pr(Ω) = 1
3. Dati due eventi 𝐴 e 𝐵 mutuamente esclusivi o incompatibili o disgiunti (non si possono verificare
contemporaneamente), la probabilità dell’evento unione è data dalla somma delle probabilità di
𝐴 e 𝐵:
Pr(𝐴 ∪ 𝐵) = Pr(𝐴) + Pr(𝐵)
4. Dato un evento 𝐴, la probabilità dell’evento complementare è data dal complemento a 1:
Pr(𝐴) = 1 − Pr(𝐴)
5. L’insieme impossibile ha probabilità nulla di verificarsi;
6. La probabilità di un evento 𝐴 non può assumere un valore maggiore di 1:
0 ≤ Pr(𝐴) ≤ 1
7. Dati due eventi 𝐴 e 𝐵, la probabilità dell’evento unione è espressa come:
Pr(𝐴 ∪ 𝐵) = Pr(𝐴) + Pr(𝐵) − Pr(𝐵 ∩ 𝐴)
8. Data una coppia di eventi 𝐴 e 𝐵, con Pr(𝐵) ≠ 0, la probabilità di Pr(𝐴|𝐵) dell’evento 𝐴
condizionata dal verificarsi dell’evento 𝐵 è definita dalla relazione:
Pr(𝐵 ∩ 𝐴)
Pr(𝐴|𝐵) =
Pr(𝐵)
Pr(𝐴|𝐵), in pratica, è la probabilità che l’evento 𝐴 assume una volta che l’evento 𝐵 si è già
verificato;
9. Due eventi sono indipendenti se:
Pr(𝐴) = Pr(𝐴|𝐵) oppure Pr(𝐵 ∩ 𝐴) = Pr(𝐴) ∙ Pr(𝐵)
10. Teorema di Bayes:
Data la coppia di eventi 𝐴 e 𝐵, ciascuno avente probabilità non nulla. La probabilità condizionata
Pr(𝐴|𝐵) può essere ricavata come:
Pr(𝐵|𝐴) Pr(𝐴)
Pr(𝐴|𝐵) =
Pr(𝐵)
11. Teorema della probabilità totale:
𝑁

Pr(𝐴) = ∑ Pr(𝐴|𝐵𝑖 ) Pr(𝐵𝑖 )


𝑖=1
12. Esperimento aleatorio composto:
Detto 𝑛 il numero degli esperimenti, aventi ciascuno uno spazio campione costituito da 2
possibili risultati 𝜔0 e 𝜔1 . Indichiamo con 𝑝 = Pr(𝜔0 ) la probabilità che si verifichi 𝜔0 e con 𝑞 =
Pr(𝜔1 ) = 1 − 𝑝 la probabilità che si verifichi 𝜔1 . Allora l’evento 𝐴 = {probabilità che 𝜔0 si
verifichi 𝑘 volte in 𝑛 esperimenti} è data dalla:
𝑛 𝑛 𝑛!
Pr(𝐴) = ( ) 𝑝 𝑘 𝑞 𝑛−𝑘 con ( ) =
𝑘 𝑘 𝑘! (𝑛 − 𝑘)!
Consideriamo un esperimento aleatorio avente uno spazio campione Ω, una classe degli eventi 𝑆 e una
legge di probabilità Pr(∙). Definiamo quindi una corrispondenza indicata con 𝑋(𝜔𝑖 ), che associa a ciascun
risultato 𝜔𝑖 dell’esperimento un numero reale. Tale corrispondenza è una variabile aleatoria se l’insieme
dei risultati dell’esperimento per i quali è verificata la disuguaglianza 𝑋(𝜔𝑖 ) ≤ 𝑎 è un evento, comunque
si scelga il valore del numero reale 𝑎. Definiamo la funzione distribuzione di probabilità 𝐹𝑋 (𝑥) di una
variabile aleatoria 𝑋 come:
𝐹𝑋 (𝑥) = Pr({𝑋 ≤ 𝑥})
Dove 𝑥 è detto valore di sonda. La distribuzione di probabilità gode di alcune proprietà, tra cui:
1. La distribuzione di probabilità assume valori appartenenti all’intervallo [0,1]:
0 ≤ 𝐹𝑋 (𝑥) ≤ 1
2. Il suo valore limite a destra è 1:
lim 𝐹𝑋 (𝑥) = 𝐹𝑋 (+∞) = Pr({𝑋 < +∞}) = 1
𝑥→∞
3. Il suo valore limite a sinistra è 0:
lim 𝐹𝑋 (𝑥) = 𝐹𝑋 (−∞) = Pr({𝑋 < −∞}) = 0
𝑥→−∞
4. La distribuzione di probabilità è monotona non decrescente:
𝑥2 > 𝑥1 → 𝐹𝑋 (𝑥2 ) ≥ 𝐹𝑋 (𝑥1 )
5. Essa è continua da destra:
𝐹𝑋 (𝑥) = lim+ 𝐹𝑋 (𝑥 + ℎ)
ℎ→0
6. Se essa presenta una discontinuità di prima specie nel punto 𝑥 = 𝑥, allora la differenza fra il suo
limite destro e il suo limite sinistro in tale punto è pari alla probabilità dell’evento {𝑋 = 𝑥}, cioè:
+ −
Pr({𝑋 = 𝑥}) = 𝐹𝑋 (𝑥 ) − 𝐹𝑋 (𝑥 )
7. La probabilità dell’evento {𝑎 < 𝑋 ≤ 𝑏} può essere calcolata mediante la relazione:
Pr({𝑎 < 𝑋 ≤ 𝑏}) = 𝐹𝑋 (𝑏) − 𝐹𝑋 (𝑎)
Il comportamento statistico di una variabile aleatoria 𝑋 è dunque caratterizzato completamente dalla
conoscenza della sua funzione distribuzione 𝐹𝑋 (𝑥). Una descrizione alternativa è quella data dalla
funzione densità di probabilità 𝑓𝑋 (𝑥), definita come:
𝑑𝐹𝑋 (𝑥)
𝑓𝑋 (𝑥) =
𝑑𝑥
Da cui si ricava la relazione inversa:
𝑥
𝐹𝑋 (𝑥) = ∫ 𝑓𝑋 (𝛼) 𝑑𝛼
−∞
La funzione densità di probabilità gode delle seguenti proprietà:
1. La probabilità dell’evento {𝑎 < 𝑋 ≤ 𝑏} può essere calcolata con la relazione:
𝑏
Pr({𝑎 < 𝑋 ≤ 𝑏}) = 𝐹𝑋 (𝑏) − 𝐹𝑋 (𝑎) = ∫ 𝑓𝑋 (𝑥) 𝑑𝑥
𝑎
2. L’integrale su tutto l’asse della funzione densità di probabilità è unitario:

∫ 𝑓𝑋 (𝑥) 𝑑𝑥 = 1
−∞
Consideriamo ora un intervallo di ampiezza molto piccola Δ𝑥 attorno a un punto fissato 𝑥. Si ha:
𝑥+Δ𝑥
Pr({𝑥 < 𝑋 ≤ 𝑥 + Δ𝑥}) = ∫ 𝑓𝑋 (𝑥) 𝑑𝑥 ≈ 𝑓𝑋 (𝑥) ∙ Δ𝑥
𝑥
Riorganizzando questa definizione si ottiene:
Pr({𝑥 < 𝑋 ≤ 𝑥 + Δ𝑥})
𝑓𝑋 (𝑥) ≈
Δ𝑥
E cioè il valore della densità di probabilità in un certo punto è pari al rapporto tra il contributo
elementare di probabilità dato nell’intervallo attorno al punto dato e la misura dell’intervallo stesso. Se
la distribuzione di probabilità nel discreto era:
𝐹𝑋 (𝑥) = ∑ Pr({𝑋 = 𝑥𝑘 }) 𝑢(𝑥 − 𝑥𝑘 )
𝑘
Allora, derivando questa espressione tenendo conto del 𝛿 di Dirac si ottiene:
𝑓𝑋 (𝑥) = ∑ 𝑝𝑘 𝛿(𝑥 − 𝑥𝑘 )
𝑘
Questo indica ancora una volta che per una variabile aleatoria discreta la probabilità è concentrata nei
particolari valori 𝑥𝑘 dell’asse reale anziché essere distribuita con continuità come per una variabile
aleatoria continua. E’ possibile effettuare operazioni matematiche a partire dalla variabile aleatoria. Ad
esempio, consideriamo 𝑋una variabile aleatoria continua, e definiamo:
𝑌 = 𝑔(𝑋)
Dove 𝑔(∙) è una funzione di variabile reale a valori reali. Nota la densità di probabilità 𝑓𝑋 (𝑥) della
variabile 𝑋, è possibile calcolare la densità di probabilità 𝑓𝑌 (𝑦) della variabile aleatoria 𝑌 mediante il
teorema fondamentale per la trasformazione di una variabile aleatoria:
𝑓𝑋 (𝑥𝑖 )
𝑓𝑌 (𝑦) = ∑ ′
𝑖 |𝑔 (𝑥𝑖 )|
Dove l’insieme {𝑥 𝑖 } è costituito da tutte le soluzioni dell’equazione 𝑔(𝑥) = 𝑦. Per applicare
correttamente il teorema citato poco fa è necessario tener conto di queste cose:
1. A seconda del valore di 𝑦 considerato, {𝑥𝑖 } può anche essere un insieme vuoto;
2. Se, nel punto 𝑥 = 𝑥, con 𝑦 = 𝑔(𝑥), la derivata prima 𝑔′ (𝑥) è nulla si hanno due casi:
a. La trasformazione 𝑔(𝑥) ha in 𝑥 un massimo o un minimo relativi; se 𝑓𝑋 (𝑥) è diverso da
0, allora la 𝑓𝑌 (𝑦) tenderà in 𝑦 a +∞;
b. 𝑥 appartiene a un intervallo 𝐼 nel quale la funzione 𝑔(𝑥) assume un valore costante. In
questo caso, la variabile aleatoria 𝑌 assume il valore 𝑦 = 𝑔(𝑥) con probabilità:
Pr({𝑌 = 𝑦}) = Pr({𝑋 ∈ 𝐼})
E se tale probabilità non è nulla, allora la variabile aleatoria 𝑌 è mista.
La conoscenza della funzione distribuzione o densità di probabilità di una variabile aleatoria
rappresenta il massimo di informazione che si può avere sul comportamento statistico dei valori assunti
dalla variabile stessa. Naturalmente, però, non sempre è possibile avere una conoscenza completa.
Molto più spesso, ci si accontenta della conoscenza di alcuni parametri statistici semplificati o indici
relativi alla distribuzione di probabilità della variabile:
1. Il valore atteso di una variabile aleatoria 𝑋 con densità di probabilità 𝑓𝑋 (𝑥) è definito:

𝜂𝑋 = ∫ 𝑥 𝑓𝑋 (𝑥) 𝑑𝑥
−∞
E rappresenta il valore “baricentrico” attorno al quale si distribuiscono i valori della variabile
aleatoria stessa
2. L’operatore valor medio, che coincide col valore atteso e in un problema di trasformazione di
una variabile aleatoria 𝑌 = 𝑔(𝑋) si calcola:

𝐸{𝑔(𝑋)} = ∫ 𝑔(𝑥) 𝑓𝑋 (𝑥) 𝑑𝑥
−∞
3. Teorema del valor medio:
Il valore atteso 𝑛𝑌 di una variabile aleatoria 𝑌 = 𝑔(𝑋) si può calcolare:
∞ ∞
𝑛𝑌 = ∫ 𝑦 𝑓𝑦 (𝑦) 𝑑𝑦 = 𝐸{𝑔(𝑋)} = ∫ 𝑔(𝑥) 𝑓𝑋 (𝑥) 𝑑𝑥
−∞ −∞
4. La varianza è un parametro che permette di riscontrare la differenza in “larghezza” tra due
variabili aleatorie che presentino lo stesso valore atteso:

𝜎𝑋2 = 𝐸{(𝑋 − 𝜂𝑋 )2 } = ∫ (𝑥 − 𝜂𝑋 )2 𝑓𝑋 (𝑥) 𝑑𝑥
−∞
5. La deviazione standard è un parametro che permette di quantificare la dispersione: a maggiore
varianza infatti corrispondono valori molto dispersi attorno al valor medio. Quando la varianza
è nulla, la densità di probabilità diventa molto “appuntita” attorno al valore medio:
𝑓𝑋 (𝑥) = 𝛿(𝑥 − 𝜂𝑋 )
6. Il valore quadratico medio è infine definito come:

𝑚𝑋2 = 𝐸{𝑋2 } = ∫ 𝑥 2 𝑓𝑋 (𝑥) 𝑑𝑥
−∞
La relazione che c’è tra valore atteso, varianza e valore quadratico medio è la seguente:
𝜎𝑋2 = 𝑚𝑋2 − 𝜂𝑋2
Una variabile aleatoria è gaussiana o normale se la sua funzione densità di probabilità è:
(𝑥−𝜂𝑋 )2
1 − 2
𝑓𝑋 (𝑥) = 𝑒 2𝜎𝑋
√2𝜋𝜎𝑋2
Dove 𝜎𝑋2 e 𝜂𝑋 indicano rispettivamente la varianza e il valore atteso della variabile aleatoria stessa. Una
variabile aleatoria gaussiana con valor medio nullo e varianza unitaria si può semplificare nella variabile
aleatoria normale standard:
1 −𝑛2
𝑓𝑁 (𝑛) = 𝑒 2
√2𝜋
Usando il teorema fondamentale, si scopra che una generica variabile 𝑋 ∈ 𝒩(𝜂𝑋 , 𝜎𝑋2 ) può essere
rappresentata come trasformazione lineare della variabile aleatoria normale standard 𝑁:
𝑋 = 𝜎𝑋 ∙ 𝑁 + 𝜂𝑋
La funzione distribuzione di una variabile aleatoria gaussiana non può essere rappresentata in forma
chiusa. Per questa ragione si definisce la funzione distribuzione Φ(𝑥) per una variabile aleatoria
normale standard:
𝑥
1 −𝑛2
Φ(𝑥) = ∫ 𝑒 2 𝑑𝑛
−∞ √2𝜋
E’ possibile però ricavare la funzione distribuzione 𝐹𝑋 (𝑥) relativa ad una variabile aleatoria qualsiasi
𝑋 ∈ 𝒩(𝜂𝑋 , 𝜎𝑋2 ) mediante la formula:
𝑥 − 𝜂𝑋
𝐹𝑋 (𝑥) = Φ ( )
𝜎𝑋
La probabilità che una variabile aleatoria gaussiana assuma valori in un intervallo [𝑎, 𝑏] è pari allora a:
𝑏 − 𝜂𝑋 𝑏 − 𝜂𝑋
Pr({𝑎 < 𝑋 ≤ 𝑏}) = 𝐹𝑋 (𝑏) − 𝐹𝑋 (𝑎) = Φ ( ) − Φ( )
𝜎𝑋 𝜎𝑋
Il calcolo della probabilità, però, in via numerica viene rappresentato dalla funzione errore:
2 𝑥 −𝜃2
erf(𝑥) = ∫ 𝑒 𝑑𝜃
√𝜋 0
E la funzione errore complementare:
2 ∞ −𝜃2
erfc(𝑥) = 1 − erf(𝑥) = ∫ 𝑒 𝑑𝜃
√𝜋 𝑥
La funzione distribuzione condizionata è definita come:
Pr({𝐴𝑋 𝐵}) Pr({𝑋 ≤ 𝑥, 𝐵})
𝐹𝑋|𝐵 (𝑥|𝐵) = =
Pr(𝐵) Pr(𝐵)

Data una coppia (𝑋, 𝑌) di variabili aleatorie, si definisce funzione distribuzione di probabilità congiunta:
𝐹𝑋𝑌 (𝑥, 𝑦) = Pr({𝑋 ≤ 𝑥, 𝑌 ≤ 𝑦})
Che descrive in modo completo il comportamento statistico congiunto delle due variabili. La funzione
𝐹𝑋𝑌 assume diverse proprietà, tra le quali:
1. Assume valori compresi tra 0 e 1:
0 ≤ 𝐹𝑋𝑌 (𝑥𝑦) ≤ 1
2. E’ monotona non decrescente e continua da destra in entrambe le variabili 𝑥, 𝑦;
3. Soddisfa le seguenti uguaglianze:
𝐹𝑋𝑌 (−∞, 𝑦) = Pr{𝑋 ≤ −∞, 𝑌 ≤ 𝑦} = 0
𝐹𝑋𝑌 (𝑥, −∞) = Pr{𝑋 ≤ 𝑥, 𝑌 ≤ −∞} = 0
4. Le distribuzioni marginali delle variabili aleatorie 𝑋, 𝑌 prese singolarmente si ricavano:
𝐹𝑌 (𝑦) = 𝐹𝑋𝑌 (+∞, 𝑦)
𝐹𝑋 (𝑥) = 𝐹𝑋𝑌 (𝑥, +∞)
5. Il limite della funzione all’infinito è unitario
6. La probabilità dell’evento rettangolare 𝑅 = {𝑥1 ≤ 𝑋 ≤ 𝑥2 , 𝑦1 ≤ 𝑌 ≤ 𝑦2 } si ricava:
Pr{𝑥1 ≤ 𝑋 ≤ 𝑥2 , 𝑦1 ≤ 𝑌 ≤ 𝑦2 } = 𝐹𝑋𝑌 (𝑥2 , 𝑦2 ) − 𝐹𝑋𝑌 (𝑥1 , 𝑦2 ) − 𝐹𝑋𝑌 (𝑥2 , 𝑦1 ) + 𝐹𝑋𝑌 (𝑥1 , 𝑦1 )
La funzione densità di probabilità congiunta invece:
1. Assume valori non negativi:
𝑓𝑋𝑌 (𝑥, 𝑦) ≥ 0
2. Essa integra a 1 su tutto il piano:
∞ ∞
∫ ∫ 𝑓𝑋𝑌 (𝑥, 𝑦) 𝑑𝑥𝑑𝑦 = 1
−∞ −∞
3. Le densità marginali si ricavano come:

𝑓𝑋 (𝑥) = ∫ 𝑓𝑋𝑌 (𝑥, 𝑦) 𝑑𝑦
−∞

𝑓𝑌 (𝑦) = ∫ 𝑓𝑋𝑌 (𝑥, 𝑦) 𝑑𝑥
−∞
4. La probabilità di un evento 𝐴 = {(𝑋; 𝑌) ∈ 𝐷} individuato da un dominio 𝐷 nel piano cartesiano
(𝑥, 𝑦) è data da:

Pr(𝐴) = ∬ 𝑓𝑋𝑌 (𝑥, 𝑦) 𝑑𝑥𝑑𝑦


𝐷
5. La distribuzione congiunta può ricavarsi dalla densità di probabilità congiunta con la:
∞ ∞
𝐹𝑋𝑌 (𝑥, 𝑦) = ∫ ∫ 𝑓𝑋𝑌 (𝛼, 𝛽) 𝑑𝛼𝑑𝛽
−∞ −∞
La funzione distribuzione condizionata della variabile aleatoria 𝑌 rispetto all’evento {𝑋 = 𝑥} risulta:
𝑦
∫−∞ 𝑓𝑋𝑌 (𝑥, 𝛽) 𝑑𝛽
𝐹𝑌|𝑋 (𝑦|𝑥) =
𝑓𝑋 (𝑥)
Definiamo ora una variabile aleatoria 𝑍 come funzione di una coppia di variabili (𝑋, 𝑌) aventi densità
di probabilità congiunta 𝑓𝑋𝑌 (𝑥, 𝑦):
𝑍 = 𝑔(𝑋, 𝑌)
Allora si arriva al risultato:

𝑑𝐹𝑍 (𝑧)
𝑓𝑍 (𝑧) = = ∫ 𝑓𝑋𝑌 (𝑥, 𝑧 − 𝑥) 𝑑𝑥
𝑑𝑧 −∞
Se inoltre le variabili aleatorie sono indipendenti questa relazione si riscrive come:
𝑓𝑍 (𝑧) = 𝑓𝑋 (𝑧) ⊗ 𝑓𝑌 (𝑧)
Il valore atteso diventa:
∞ ∞
𝜂𝑍 = 𝐸{𝑍} = 𝐸{𝑔(𝑋, 𝑌)} = ∫ ∫ 𝑔(𝑥, 𝑦)𝑓𝑋𝑌 (𝑥, 𝑦) 𝑑𝑥𝑑𝑦
−∞ −∞
La correlazione tra le variabili aleatorie 𝑋, 𝑌 è definita come:
∞ ∞
𝑟𝑋𝑌 = 𝐸{𝑋𝑌} = ∫ ∫ 𝑥𝑦 𝑓𝑋𝑌 (𝑥, 𝑦) 𝑑𝑥𝑑𝑦
−∞ −∞
Mentre la covarianza:
∞ ∞
𝑐𝑋𝑌 = 𝐸{(𝑋 − 𝜂𝑋 )(𝑌 − 𝜂𝑌 )} = ∫ ∫ (𝑥 − 𝜂𝑋 )(𝑦 − 𝜂𝑌 )𝑓𝑋𝑌 (𝑥, 𝑦) 𝑑𝑥𝑑𝑦
−∞ −∞
Dunque abbiamo anche la relazione:
𝑐𝑋𝑌 = 𝑟𝑋𝑌 − 𝜂𝑋 𝜂𝑌
La covarianza è un parametro statistico molto importante dato che tende ad accertare se tra le due
variabili 𝑋, 𝑌 esiste una relazione di dipendenza di tipo lineare, e che comunque misura la tendenza di
variazione congiunta delle due. Se la covarianza è grande e positiva, le due variabili aleatorie 𝑋, 𝑌
tendono a discostarsi dal rispettivo valor medio nella stessa direzione, cioè le due quantità(𝑋 −
𝜂𝑋 ) e (𝑌 − 𝜂𝑌 ) tendono ad avere lo stesso segno. Il coefficiente di correlazione ha significato medesimo
alla covarianza:
(𝑋 − 𝜂𝑋 ) (𝑌 − 𝜂𝑌 ) 𝑐𝑋𝑌 𝑟𝑋𝑌 − 𝜂𝑋 𝜂𝑌
𝜌𝑋𝑌 = 𝐸 { ∙ }= =
𝜎𝑋 𝜎𝑌 𝜎𝑋 𝜎𝑌 𝜎𝑋 𝜎𝑌
Quando le variabili aleatorie 𝑋, 𝑌 sono indipendenti, la loro correlazione è:
𝑟𝑋𝑌 = 𝜂𝑋 𝜂𝑌
Inoltre due variabili aleatorie indipendenti sono anche, come ci si aspetta, incorrelate. Per sistemi di
variabili aleatorie possiamo raggruppare le variabili aleatorie in un vettore colonna:
𝑿 = [𝑋1 … 𝑋𝑁 ]𝑇
La funzione distribuzione di probabilità congiunta viene espressa come:
𝐹𝑋1,…,𝑋𝑁 (𝑥1 , … , 𝑥𝑁 ) = Pr({𝑋1 ≤ 𝑥1 , … , 𝑋𝑁 ≤ 𝑥𝑁 })
E la relativa funzione di densità di probabilità congiunta è:
𝜕 𝑁 𝐹𝑋1,…,𝑋𝑁 (𝑥1 , … , 𝑥𝑁 )
𝑓𝑋1,…𝑋𝑁 =
𝜕𝑥1 … 𝜕𝑥𝑁
Il vettore valor medio si scrive:
𝜼𝑿 = 𝐸{𝑿} = [𝜂𝑋1 … 𝜂𝑋𝑁 ]𝑇
La matrice di correlazione risulta essere:
𝑟𝑋1𝑋1 𝑟𝑋1𝑋1 𝑟𝑋1𝑋𝑁
𝑹𝑿 = 𝐸{𝑿𝑿 = [ … 𝑻 } … … ]
𝑟𝑋𝑁𝑋1 𝑟𝑋𝑁𝑋2 𝑟𝑋𝑁𝑋𝑁
La matrice di covarianza:
𝑐𝑋1𝑋1 𝑐𝑋1 𝑋1 𝑐𝑋1𝑋𝑁 𝜎𝑋21 𝑐𝑋1𝑋1 𝑐𝑋1𝑋𝑁
𝑪𝑿 = 𝐸{(𝑿 − 𝜼𝑿 )(𝑿 − 𝜼𝑿 ) } = [ …
𝑇 … … ]=[ … … … ]
𝑐𝑋𝑁 𝑋1 𝑐𝑋𝑁 𝑋2 𝑐𝑋𝑁 𝑋𝑁 𝑐𝑋𝑁 𝑋1 𝑐𝑋𝑁 𝑋2 𝜎𝑋2𝑁
Considerando un vettore aleatorio 𝒀 𝑛 −dimensionale espresso come funzione di un altro vettore
aleatorio 𝑿 di uguale dimensione:
𝒀 = 𝒈(𝑿)
Si ha il teorema fondamentale generalizzato:
𝑓𝑿 (𝒙)
𝑓𝒀 (𝒚) = ∑
𝑖 | det 𝑱(𝒙𝑖 )|
Dove 𝑱(𝒙𝑖 ) è la matrice Jacobiana della trasformazione:
𝜕𝑔1 /𝜕𝑥1 … 𝜕𝑔1 /𝜕𝑥𝑁
𝑱(𝒙𝑖 ) = [ … … … ]
𝜕𝑔𝑁 /𝜕𝑥1 … 𝜕𝑔𝑁 /𝜕𝑥𝑁
Considerando un vettore aleatorio 𝑿 = [𝑋1 , … , 𝑋𝑁 ]𝑇 costituito da 𝑁 variabili aleatorie indipendenti, la
densità di probabilità congiunta è espressa dal prodotto delle densità di tutte le componenti del vettore
stesso:
𝑁

𝑓𝑿 (𝒙) = ∏ 𝑓𝑋𝑖 (𝑥𝑖 )


𝑖=1
Se poi le variabili aleatorie sono gaussiane si può riscrivere come:
1 1
𝑓𝑿 (𝒙) = exp {− (𝒙 − 𝜼𝑿 )𝑻 𝑪−𝟏
𝑿 (𝒙 − 𝜼𝑿 )}
𝑁
√(2𝜋) det 𝑪𝑿 2
Dove la matrice di covarianza, per l’indipendenza e l’incorrelazione delle variabili aleatorie, è diagonale:
𝜎𝑋21 0 0
𝑪𝑿 = [ 0 … 0 ]
0 0 𝜎𝑋2𝑁
Un vettore gaussiano è un vettore aleatorio la cui densità di probabilità congiunta è espressa dalla
formula sopra. Un tale vettore gode delle seguenti proprietà:
1. Il suo comportamento statistico è univocamente determinato dal suo vettore dei valori medi 𝜼𝑿
e dalla sua matrice di covarianza 𝑪𝑿;
2. Se le 𝑁 variabili aleatorie che lo costituiscono sono incorrelate a due a due, allora la densità di
probabilità congiunta 𝑓𝑿 (𝒙) può essere espressa come prodotto delle 𝑁 densità di probabilità
marginali: in altre parole, l’incorrelazione implica l’indipendenza in un vettore gaussiano;
3. Un qualunque sotto vettore 𝑘 −dimensionale di 𝑿 è ancora un insieme di variabili aleatorie
gaussiane: tutte le variabili aleatorie che compongono il vettore aleatorio gaussiano sono allora
marginalmente gaussiane,
4. Il vettore aleatorio 𝒀 generato a partire dal vettore 𝑿 con la trasformazione lineare:
𝒀 = 𝑨𝑿 + 𝒃
Dove 𝑨 è una matrice e 𝒃 un vettore reale, è anch’esso un vettore gaussiano con vettore dei valori
medi:
𝜼𝒀 = 𝑨𝜼𝑿 + 𝒃
E matrice di covarianza:
𝑪𝒀 = 𝑨𝑪𝑿 𝑨𝑻
5. La densità congiunta di un qualunque sottogruppo di variabili estratte dal vettore 𝑿 è
congiuntamente gaussiana con vettore dei valori medi condizionati e matrice di covarianza
condizionata.
Il teorema del limite centrale di Lyapunov dice che al tendere di 𝑁 all’infinito, la densità di probabilità
𝑓𝑆𝑁 (𝑠) della variabile somma normalizzata tende ad una densità normale standard:
1 −𝑠 2
lim 𝑓𝑆𝑁 (𝑠) = 𝑓𝑁 (𝑠) = 𝑒 2
𝑛→∞ √2𝜋
Dove:
𝑍𝑁 − 𝜂𝑁 𝑍𝑁 − 𝑁 ∙ 𝜂
𝑆𝑛 = =
𝜎𝑁 √𝑁 ∙ 𝜎
In pratica, questo risultato dice che la somma di un gran numero di variabili aleatorie indipendenti segue
con buona approssimazione una legge gaussiana, a prescindere dalla particolare distribuzione di
ciascuna di esse.
Segnali aleatori
Un segnale deterministico, tipico cioè tra quelli incontrati finora, potrebbe essere, ad esempio, un tipo
di onda quadra: sarebbe un tipo di grafico prevedibile a priori, replicabile nel tempo e analizzabile in
tutta sicurezza. Nella vita però esistono anche altri tipi di segnali, detti aleatori, che non hanno mai un
andamento conoscibile a priori, ma che possono solamente essere registrati ed osservati a posteriori: è
il caso, ad esempio, di un elettrocardiogramma: nessuno potrà mai conoscere la curva di un ECG prima
di leggere il tracciato. Lo strumento matematico che permette di studiare i segnali aleatori, come visto,
è la teoria della probabilità. Definiamo il processo aleatorio, detto Ω = {𝜔𝑖 } lo spazio campione, 𝑆 una
classe degli eventi possibili e Pr(∙) una legge di probabilità, la corrispondenza che associa a ciascun
risultato dell’esperimento 𝜔𝑖 una delle possibili funzioni campione del tempo 𝑥𝑖 (𝑡), in numero pari alla
cardinalità dell’insieme Ω:
𝑋(𝜔𝑖 , 𝑡) = 𝑥𝑖 (𝑡)
Se decidessimo di fissare 𝜔𝑖 , ad esempio scegliendo il risultato 𝜔1 tra tutti quelli possibili, si nota che il
processo allora non è più aleatorio, ma diventa una lettura a posteriori della funzione campione 𝑥1 (𝑡).
Se invece decidessimo di fissare il tempo 𝑡, il valore del processo 𝑋(𝜔𝑖 , 𝑡1 ) sarebbe l’insieme degli
𝑖 −valori ottenuti “campionando” all’istante 𝑡 ∗ = 𝑡1 le funzioni campione: il valore del processo a un
dato istante è dunque una variabile aleatoria, perché ogni 𝑥𝑖 (𝑡) dipende dalle caratteristiche intrinseche
del risultato 𝜔𝑖 dell’esperimento aleatorio e dunque è ragionevole che ogni funzione 𝑥𝑖 assuma valori
diversi nello stesso intervallo:
𝑥1 (𝑡1 ) ≠ 𝑥2 (𝑡1 ) ≠ ⋯ ≠ 𝑥𝑖 (𝑡1 )
Un semplice processo aleatorio è il seguente:
𝑋(𝜔, 𝑡) = 𝑒 −𝐴(𝜔)𝑡 𝑢(𝑡)
In cui 𝐴(𝜔) è una variabile aleatoria con distribuzione uniforme nell’intervallo [0,1/𝑇]. Questo appena
descritto è un esempio di processo parametrico, in cui viene definita una classe di funzioni campione il
cui andamento dipende dal valore di un numero finito di variabili aleatorie, che sono i parametri. Le
variabili aleatorie fanno in un certo senso da “intermediario” tra lo spazio campione in cui “vivono” gli
𝜔𝑖 e le funzioni campione: l’associazione tra i risultati dell’evento e la funzione campione non è diretta
ma passa attraverso il valore (un numero reale) che la variabile aleatoria prende nella prova
dell’esperimento. In poche parole, il risultato di un esperimento 𝜔𝑖 diventa un numero reale che va ad
assumere la funzione di 𝐴(𝜔) nella funzione campione. Un ulteriore esempio di processo parametrico
potrebbe essere l’oscillazione sinusoidale prodotta da un generatore di forme d’onda. Possiamo
controllare l’ampiezza e la frequenza, ma lo strumento non permette di controllarne la fase iniziale. Il
processo parametrico viene descritto dalla:
𝑋(𝑡) = 𝑎 cos(2𝜋𝑓0 𝑡 + 𝜃)
In cui 𝑎 ed 𝑓0 , come detto, sono quantità note, mentre la fase iniziale 𝜃 è una variabile aleatoria
uniformemente distribuita sull’intervallo [0,2𝜋]. Contrariamente al caso determinato, non ha senso
parlare di andamento di un processo aleatorio: si pone però il problema della caratterizzazione di un
processo da un punto di vista statistico, che, come abbiamo visto, passa attraverso la funzione
distribuzione di probabilità del prim’ordine del processo:
𝐹𝑋 (𝑥, 𝑡1 ) = Pr({𝑋(𝑡1 ) ≤ 𝑥})
Questa funzione però non è sufficiente a caratterizzare del tutto le proprietà del processo, dato che non
è in grado di considerare due variabili aleatorie estratte dallo stesso processo in due istanti diversi. E’
perciò necessario introdurre una descrizione del processo al secondo ordine. Si devono cioè considerare
due istanti di osservazione 𝑡1 e 𝑡2 estraendo così due variabili aleatorie 𝑋(𝑡1 ) e 𝑋(𝑡2 ), il cui
comportamento statistico è completamente descritto dalla funzione di distribuzione congiunta al
secondo ordine:
𝐹𝑋 (𝑥1 , 𝑥2 , 𝑡1 , 𝑡2 ) = Pr({𝑋(𝑡1 ) ≤ 𝑥1 , 𝑋(𝑡2 ) ≤ 𝑡2 })
La conclusione è che per ottenere una descrizione statistica completa di un processo bisognerebbe
iterare questo procedimento per 𝑁 volte, e cioè estraendo congiuntamente 𝑁 variabili aleatorie
𝑋(𝑡1 ), … , 𝑋(𝑡𝑁 ) dalla funzione 𝑋(𝑡) prese a 𝑁 istanti diversi, comunque venga scelta la 𝑁 −upla
(𝑡1 , … , 𝑡𝑁 ). Allora ci viene in aiuto la funzione distribuzione di probabilità all’𝑵 −simo ordine:
𝐹𝑋 (𝑥1 , … , 𝑥𝑁 ; 𝑡1 , … , 𝑡𝑁 ) = Pr({𝑋(𝑡1 ) ≤ 𝑥1 , … , 𝑋(𝑡𝑁 ) ≤ 𝑥𝑁 })
Una descrizione del tutto equivalente e che non perde in completezza passa attraverso la densità di
probabilità di ordine 𝑵 del processo:
𝜕 𝑁 𝐹𝑋 (𝑥1 , … , 𝑥𝑁 ; 𝑡1 , … , 𝑡𝑁 )
𝑓𝑋 (𝑥1 , … , 𝑥𝑁 ; 𝑡1 , … , 𝑡𝑁 ) =
𝜕𝑥1 … 𝜕𝑥𝑁
Dunque la caratterizzazione statistica del processo aleatorio richiede la conoscenza della classe di
funzioni densità di probabilità 𝑓𝑋 (𝑥1 , … , 𝑥𝑁 ; 𝑡1 , … , 𝑡𝑁 ) per qualunque numero 𝑁 di variabili aleatorie
𝑋(𝑡1 ), … 𝑋(𝑡𝑁 ), cioè di qualunque ordine. Un processo aleatorio è dunque una famiglia di variabili
aleatorie dipendenti dalla variabile temporale 𝑡 e caratterizzate dalla classe delle densità di probabilità
congiunte 𝑓𝑋 (𝑥1 , … 𝑥𝑁 ; 𝑡1 , … 𝑡𝑁 ). Una volta assegnato un processo 𝑋(𝑡), è un’impresa molto difficile
giungere alla completa conoscenza statistica. In alcuni casi è sufficiente conoscere la distribuzione o la
densità arrestate al primo ordine, molto spesso, addirittura, ci si accontenta di parametri statistici
semplificati. Analizziamoli di seguito:
1. Il valor medio statistico è il valore atteso della variabile aleatoria 𝑋(𝑡) estratto all’istante 𝑡 = 𝑡:
+∞
𝜂𝑋 (𝑡) = 𝐸{𝑋(𝑡)} = ∫ 𝑥 𝑓𝑋 (𝑥; 𝑡) 𝑑𝑥
−∞
Al variare di 𝑡 di generano infinite variabili aleatorie, ciascuna con un diverso valor medio.
Ripetendo il calcolo per ogni valore della variabile temporale si ricava l’andamento della
funzione 𝜼𝑿 (𝒕):
+∞
𝜂𝑋 (𝑡) = 𝐸{𝑋(𝑡)} = ∫ 𝑥 𝑓𝑋 (𝑥; 𝑡) 𝑑𝑥
−∞
La funzione valor medio rappresenta una statistica del primo ordine di 𝑋(𝑡) poiché il suo calcolo
prevede la considerazione di una sola variabile aleatoria estratta dal processo e quindi richiede
la conoscenza della sola densità di probabilità del primo ordine del processo stesso. Questa
funzione rappresenta una sorta di “compendio” di andamento di tutte le funzioni campione del
processo, pesate ciascuna con la propria probabilità di presentazione e per questo non
necessariamente coincide con una delle funzioni campione. Se una variabile aleatoria è ottenuta
tramite trasformazione di un’altra 𝑌 = 𝑔(𝑋) possiamo usare il teorema del valor medio per
ottenere:
+∞
𝜂𝑌 = 𝐸{𝑔(𝑋)} = ∫ 𝑔(𝑥) 𝑓𝑋 (𝑥; 𝑡) 𝑑𝑥
−∞
2. La potenza media statistica istantanea, definita come:
+∞
𝑃𝑋 (𝑡) = 𝐸{𝑋2 (𝑡)} = ∫ 𝑥 2 𝑓𝑋 (𝑥; 𝑡) 𝑑𝑥
−∞
Che è l’analogo della potenza istantanea per i segnali determinati;
3. La funzione varianza del processo:
+∞
2
𝜎𝑋2 (𝑡) = 𝐸{(𝑋(𝑡) − 𝜂𝑋 (𝑡)2 )} = ∫ (𝑥 − 𝜂𝑋 (𝑡)) 𝑓𝑋 (𝑥; 𝑡) 𝑑𝑥
−∞
Che è la varianza della variabile aleatoria fissando l’istante 𝑡. Si ricava anche la relazione:
𝜎𝑋2 (𝑡) = 𝑃𝑋 (𝑡) − 𝜂𝑋2 (𝑡)
Che esprime la varianza di 𝑋(𝑡) in funzione del suo valor medio e della sua potenza media
statistica.
4. Fissando adesso due istanti di tempo arbitrari 𝑡1 e 𝑡2 sul nostro processo, estraiamo le variabili
aleatorie 𝑌 = 𝑋(𝑡1 ) e 𝑍 = 𝑋(𝑡2 ). La correlazione tra queste due variabili allora è un parametro
statistico del secondo ordine che risulterà funzione dei due istanti ai quali le variabili sono state
estratte e sarà calcolata solo conoscendo la funzione densità di probabilità del secondo ordine
del processo. In particolare, si dice funzione di autocorrelazione:
+∞ +∞
𝑅𝑋 (𝑡1 , 𝑡2 ) = 𝐸{𝑋(𝑡1 )𝑋(𝑡2 )} = ∫ ∫ 𝑥1 𝑥2 𝑓𝑋 (𝑥1 , 𝑥2 ; 𝑡1 , 𝑡2 ) 𝑑𝑥1 𝑑𝑥2
−∞ −∞
In quanto le due variabili sono estratte dallo stesso processo aleatorio.
5. Se invece vogliamo riflettere in termini di covarianza, giungiamo all’autocovarianza tra due
variabili aleatorie estratte a istanti diversi dello stesso processo:
𝐶𝑋 (𝑡1 , 𝑡2 ) = 𝐸{[𝑋(𝑡1 ) − 𝜂𝑋 (𝑡1 )] ∙ [𝑋(𝑡2 − 𝜂𝑋 (𝑡2 )]
+∞ +∞
= ∫ ∫ [𝑥1 − 𝜂𝑋 (𝑡1 )] ∙ [𝑥2 − 𝜂𝑋 (𝑡2 )] 𝑓𝑋 (𝑥1 , 𝑥2 ; 𝑡1 , 𝑡2 ) 𝑑𝑥1 𝑑𝑥2
−∞ −∞
Da cui si ricava anche la relazione:
𝐶𝑋 (𝑡1 , 𝑡2 ) = 𝑅𝑋 (𝑡1 , 𝑡2 ) − 𝜂𝑋 (𝑡1 )𝜂𝑋 (𝑡2 )
Che esprime la funzione di autocovarianza di 𝑋(𝑡) attraverso le funzioni valor medio e
autocorrelazione.
Una proprietà notevole di alcuni processi aleatori è la stazionarietà. Un processo si dice stazionario in
senso stretto se il valore della funzione densità resta invariato qualunque sia la traslazione nel tempo
Δ𝑡 e per ogni ordine 𝑁:
𝑓𝑋 (𝑥1 , … , 𝑥𝑁 ; 𝑡1 + Δ𝑡, … 𝑡𝑁 + Δ𝑡) = 𝑓𝑋 (𝑥1 , … , 𝑥𝑁 ; 𝑡1 , … 𝑡𝑁 )
La stazionarietà impone dunque che la densità sia invariante rispetto ad una traslazione rigida sull’asse
temporale. Ciò significa che i processi aleatori 𝑋(𝑡) e 𝑋(𝑡 + Δ𝑡) hanno le stesse statistiche e quindi sono
equivalenti dal punto di vista statistico. In generale i due processi 𝑋(𝑡) e 𝑋(𝑡 + Δ𝑡) sono diversi, ma non
è possibile riconoscersi effettuando misure statistiche. Per un processo stazionario, infatti, tutte le
proprietà del primo ordine non dipendono dal tempo:
𝜂𝑋 (𝑡) = 𝜂𝑋 𝑃𝑋 (𝑡) = 𝑃𝑋 𝜎𝑋2 (𝑡) = 𝜎𝑋2
Le proprietà del secondo ordine dipendono invece soltanto dalla differenza tra gli istanti temporali 𝑡1 e
𝑡2 da cui sono stati estratti due segnali aleatori:
𝑅𝑋 (𝑡1 , 𝑡2 ) = 𝑅𝑋 (𝑡1 − 𝑡2 ) 𝐶𝑋 (𝑡1 , 𝑡2 ) = 𝐶𝑋 (𝑡1 − 𝑡2 )
La verifica della stazionarietà in senso stretto è però a volte troppo difficoltosa. Spesso si utilizza una
stazionarietà meno restrittiva, detta stazionarietà in senso lato, che si verifica se il valore medio è
costante e la funzione di autocorrelazione dipende solo dalla differenza tra due istanti:
𝜂𝑋 (𝑡) = 𝜂𝑋
{
𝑅𝑋 (𝑡1 , 𝑡2 ) = 𝑅𝑋 (𝑡1 − 𝑡2 )
Per un processo stazionario in senso lato la funzione di autocovarianza vale:
𝐶𝑋 (𝑡1 − 𝑡2 ) = 𝑅𝑋 (𝑡1 − 𝑡2 ) − 𝜂𝑋2 = 𝐶𝑋 (𝑡1 − 𝑡2 )
La funzione di autocorrelazione può però essere definita anche in una maniera alternativa, in cui si mette
in evidenza la differenza (distanza) 𝜏 tra i due istanti di tempo 𝑡1 e 𝑡2 considerati. Ponendo 𝑡1 = 𝑡 e 𝑡2 =
𝑡 − 𝜏 si avrà:
𝑅𝑋 (𝑡1 𝑡2 ) = 𝑅𝑋 (𝑡, 𝑡 − 𝜏) = 𝐸{𝑋(𝑡)𝑋(𝑡 − 𝜏)}
Se il processo è stazionario almeno in senso lato, la funzione dell’autocorrelazione dipende solo dalla
differenza tra i due istanti:
𝑅𝑋 (𝑡, 𝑡 − 𝜏) = 𝑅𝑋 (𝜏)
Elenchiamo alcune proprietà formali della funzione di autocorrelazione:
1. La funzione di autocorrelazione è pari:
𝑅𝑋 (𝜏) = 𝑅𝑋 𝜏
2. Il valore assunto dalla funzione di autocorrelazione nell’origine uguaglia la potenza media
statistica del processo:
𝑅𝑋 (0) = 𝐸{𝑋2 (𝜏)} = 𝑃𝑋 ≥ 0
3. La funzione di autocorrelazione è massima nell’origine:
𝑅𝑋 (0) ≥ |𝑅𝑋 (𝜏)|
4. La funzione di autocorrelazione non contiene componenti periodiche, e il suo valore limite
all’infinito è pari al quadrato del valore medio:
lim 𝑅𝑋 (𝜏) = 𝜂𝑋2
𝜏→∞
In cui si ha anche:
𝑅𝑋 (𝜏) = 𝐶𝑋 (𝜏) + 𝜂𝑋2
Il significato e l’utilità della funzione di autocorrelazione sta nel fatto che riesce a misurare la rapidità di
variazione del segnale aleatorio. Per quantificare con un singolo parametro la “velocità” del segnale si
introduce il tempo di correlazione 𝜏𝐶𝑂𝑅 , definito come la minima distanza che deve intercorrere tra due
istanti di osservazione affinché le variabili aleatorie estratte dal processo siano incorrelate. Il tempo di
correlazione è pari alla semidurata della funzione di autocorrelazione: a tempo di correlazione grande
corrispondono funzioni campione che variano lentamente e, viceversa, a tempo di correlazione piccolo,
corrisponde un processo le cui funzioni campione manifestano variazioni veloci.
Filtraggio di un processo aleatorio a tempo continuo
Un caso tipico che si presenta nell’analisi di un segnale è quello in cui l’osservato 𝑋(𝑡) sia composto da
un segnale utile 𝑠(𝑡) sovrapposto a un “rumore” 𝐷(𝑡), detto anche “disturbo”:
𝑋(𝑡) = 𝑠(𝑡) + 𝐷(𝑡)
Si cercherà com’è naturale di elaborare 𝑋(𝑡) in maniera tale da preservare la componente utile 𝑠(𝑡) e da
eliminare il disturbo 𝐷(𝑡). Questa operazione può essere effettuata da un filtro, cioè da un sistema
lineare stazionario il cui comportamento riguardo ai segnali determinati è perfettamente noto. Resta
dunque da studiare la questione relativa al filtraggio di un processo aleatorio. Inviando un processo
aleatorio in ingresso 𝑋(𝑡) ad un SLS otterremo in uscita un 𝑌(𝑡) così fatto:
𝑌(𝑡) = 𝑋(𝑡) ⊗ ℎ(𝑡)
Allo stesso modo anche il valor medio statistico diventa:
𝜂𝑌 (𝑡) = 𝜂𝑋 (𝑡) ⊗ ℎ(𝑡)
E la funzione di correlazione:
𝑅𝑌 (𝑡1 , 𝑡2 ) = 𝑅𝑋 (𝑡1 , 𝑡2 ) ⊗ ℎ(𝑡1 ) ⊗ ℎ(𝑡2 )
Quando un processo aleatorio è stazionario in senso lato si hanno delle semplificazioni:
𝜂𝑌 (𝑡) = 𝜂𝑋 (𝑡)𝐻(0)
Dove 𝐻(𝑓) è la risposta in frequenza del sistema: in questo caso il processo di ingresso contiene una
componente continua. La funzione di autocorrelazione invece non dipende dal tempo:
𝑅𝑌 (𝜏) = 𝑅𝑋 (𝜏) ⊗ 𝑟𝐻 (𝜏)
Dove 𝑟𝐻 (𝜏) è la funzione di autocorrelazione della risposta impulsiva del filtro. Abbiamo fin qui discusso
il problema del filtraggio in ambito temporale: può essere utile svolgere lo stesso processo in ambito
frequenziale, introducendo l’analisi di Fourier per segnali aleatori. Consideriamo i fenomeni aleatori in
senso lato: anche un segnale aleatorio può essere scomposto in una sovrapposizione di oscillazioni
armoniche, le cui ampiezze e fasi variano in maniera aleatoria al variare della frequenza; tuttavia,
possiamo comunque considerare lo spettro di potenza di un segnale aleatorio. Le funzioni campione di
un processo aleatorio non possono essere segnali a energia finita, altrimenti tenderebbe a 0 la funzione
valor medio. Dato che i segnali aleatori hanno potenza finita, allora si può introdurre la densità spettrale
di potenza: per il teorema di Wiener-Khintchine possiamo definire la densità spettrale di potenza di un
segnale aleatorio stazionario come la trasformata di Fourier della sua funzione di autocorrelazione
𝑅𝑋 (𝜏) = 𝐸{𝑋(𝑡)𝑋(𝑡 − 𝜏} come:
+∞ ∞
𝒫𝑋 (𝑓) = ∫ 𝑅𝑋 (𝜏) 𝑒 −𝒿2𝜋𝑓𝑓𝜏 𝑑𝜏 = 2 ∫ 𝑅𝑋 (𝜏) cos(2𝜋𝑓𝜏) 𝑑𝜏
−∞ 0
Che gode delle stesse proprietà elencate per i segnali determinati:
1. 𝒫𝑋 (𝑓) è una funzione reale e pari;
2. 𝒫𝑋 (𝑓) è una funzione non negativa;
3. La potenza media statistica 𝑃𝑋 del processo aleatorio 𝑋(𝑡) può essere calcolata integrando 𝒫𝑋 (𝑓)
su tutto l’asse delle frequenze:
+∞ +∞
𝑃𝑋 = 𝐸{𝑋2 (𝑡)} = ∫ 𝒫𝑋 (𝑓) 𝑑𝑓 = 2 ∫ 𝒫𝑋 (𝑓) 𝑑𝑓
−∞ 0
Cerchiamo adesso di mettere in relazione le caratteristiche spettrali dei processi di ingresso 𝑋(𝑡) e di
uscita 𝑌(𝑡) di un processo aleatorio stazionario in senso lato. La densità spettrale di potenza in uscita
sarà data da:
𝒫𝑌 (𝑓) = 𝒫𝑋 (𝑓)|𝐻(𝑓)|2
La potenza media del processo di uscita può essere calcolata come:
+∞ +∞ +∞
𝑃𝑌 = 𝑅𝑌 (0) = ∫ 𝒫𝑌 𝑑𝑓 = ∫ 𝒫𝑋 (𝑓)|𝐻(𝑓)|2 𝑑𝑓 = 2 ∫ 𝒫𝑋 (𝑓)|𝐻(𝑓)|2 𝑑𝑓
−∞ −∞ 0
La relazione di filtraggio è importante perché permette di dimostrare che:
1. La densità spettrale di potenza di un processo stazionario è una funzione non negativa;
2. La funzione 𝒫𝑋 (𝑓), definita come trasformata di Fourier della 𝑅𝑋 (𝜏), descrive la distribuzione
della potenza sulle varie componenti frequenziali nello spettro del segnale aleatorio.
Filtrando 𝑋(𝑡) con un filtro passa-banda ideale, la potenza del processo di uscita si calcola:
𝑓+Δ𝑓/2
𝑃𝑌 = 2 ∫ 𝒫𝑋 (𝑓) 𝑑𝑓
𝑓−Δ𝑓/2
Se si riduce progressivamente la banda passante del filtro, cioè si considera un filtro estremamente
selettivo, si può approssimare 𝒫𝑋 (𝑓) all’interno della banda stessa con una costante di valore pari a
𝒫𝑋 (𝑓). Allora la potenza del segnale di uscita può essere approssimata da:
𝑃𝑌 ≈ 2Δ𝑓 ∙ 𝒫𝑋 (𝑓)
Quindi avremo:
1 𝑃𝑌 1 Δ𝑃𝑥 (𝑓)
𝒫𝑋 (𝑓) ≈ =
2 Δ𝑓 2 Δ𝑓
Dato che 𝑓 è arbitrario, la funzione 𝒫𝑋 (∙) deve essere positiva o al limite nulla per tutti valori della
frequenza, in quanto 𝑃𝑌 è non negativa. Notiamo inoltre che 𝑌(𝑡) è stato ottenuto da 𝑋(𝑡) sopprimendo
tutte le componenti frequenziali al di fuori di un intorno di ±𝑓. Dunque 𝑃𝑌 rappresenta il contrinuito
alla potenza totale 𝑃𝑋 delle sole componenti del segnale 𝑋(𝑡) con frequenze appartenenti all’intervallo
[𝑓 − Δ𝑓/2, 𝑓 + Δ𝑓/2], in quanto tutte le altre componenti sono state cancellate dal filtro passa banda.
Allora il particolare valore 𝒫𝑋 (𝑓) rappresenta il contributo locale alla potenza totale del segnale 𝑋(𝑡)
dovuto alle sole componenti di segnale con frequenza appartenente a un piccolo intorno di 𝑓. La
grandezza corrispondente al tempo di correlazione in ambito frequenziale è la banda dello spettro di
potenza del processo, che dà la stessa indicazione del tempo di correlazione. Se la densità spettrale ha
una banda grande, il tempo di correlazione è piccolo e la funzione di autocorrelazione decresce
rapidamente il segnale aleatorio varia velocemente, e viceversa. Quando la banda di potenza tende a
crescere illimitatamente mantenendo lo spettro sempre al medesimo valore per 𝑓 = 0, la densità
spettrale di potenza tende a diventare “costante” mentre il tempo di correlazione tende a ridursi sempre
di più. Al limite, si arriva alla situazione in cui la funzione di autocorrelazione è impulsiva:
𝒫𝑋 (𝑓) = 𝒫𝑋 (0) = 𝜉 ↔ 𝑅𝑋 (𝜏) = 𝜉𝛿(𝜏)
Un processo aleatorio stazionario in senso lato che presenta queste caratteristiche statistiche viene
chiamato 𝛿 −correlato o processo di rumore bianco. L’appellativo bianco deriva dal fatto che, come la
luce bianca, contiene tutte le frequenze da −∞ +∞. Il rumore bianco, nonostante sia un’astrazione
matematica, è usato molto comunemente per una varietà di segnali coinvolti in fenomeni fisici. Vediamo
come filtrare u processo gaussiano: all’uscita del filtro avente risposta impulsiva ℎ(𝑡) avremo:
+∞
𝑌(𝑡) = 𝑋(𝑡) ⊗ ℎ(𝑡) = ∫ 𝑋(𝛼)ℎ(𝑡 − 𝛼) 𝑑𝛼
−∞
Se il processo di campionamento Δ𝛼 è piccolo, possiamo introdurre una sommatoria che diventa un
sistema lineare:
𝒀 = 𝑨𝑿
Dove 𝑨 = {𝑎𝑖𝑘 } con 𝑎𝑖𝑘 = ℎ(𝑡𝑖 − 𝑘Δ𝛼)Δ𝛼. Per i processi gaussiani, dunque, è possibile dare una
descrizione statistica completa del processo all’uscita di un SLS, quando siano note le caratteristiche del
processo di ingresso. La proprietà di conservazione della gaussianità è valida anche per sistemi lineari
ma non stazionari.
Introduciamo il grafico della funzione 𝐫𝐞𝐜𝐭(𝜶), che viene definita come:
1 |𝛼 | < 1/2
rect(𝛼) = { 1/2 |𝛼 | = 1/2
0 |𝛼 | > 1/2
Che ha grafico:

Allora i coefficienti di Fourier diventano:


1 𝑇0 /2 𝑡 𝑎 𝑇/2 𝑎 1 𝑇/2
𝑋𝑘 = ∫ 𝑎 rect ( ) 𝑒 −𝒿2𝜋𝑘𝑓0 𝑡 𝑑𝑡 = ∫ 𝑒 −𝒿2𝜋𝑘𝑓0 𝑡 𝑑𝑡 = (− ) [𝑒 −𝒿2𝜋𝑘𝑓0𝑡 ]−𝑇/2
𝑇0 −𝑇0 /2 𝑇 𝑇0 −𝑇/2 𝑇0 𝒿2𝜋𝑘𝑓0
E cioè:
𝑎 1 𝑒 −𝒿𝜋𝑘𝑓0 𝑇 − 𝑒 𝑗𝜋𝑘𝑓0 𝑡 𝑎 sin 𝜋𝑘𝑓0 𝑇 sin 𝜋𝑘𝑓0 𝑇
𝑋𝑘 = (− ) =− (− sin 𝜋𝑘𝑓0 𝑇) = 𝑎 = 𝑎𝑓0 𝑇 ( )
𝑇0 𝜋𝑘𝑓0 2𝒿 𝜋𝑘 𝜋𝑘 𝜋𝑘𝑓0 𝑇
In cui l’ultimo risultato ottenuto può essere tradotto in termini della funzione seno cardinale:
𝑇 𝑘𝑇
𝑋𝑘 = 𝑎 sinc ( )
𝑇0 𝑇0
Introducendo invece il duty-cycle, definito come il rapporto tra la durata 𝑇 del segnale e il periodo 𝑇0 :
𝑇
𝛿=
𝑇0
La relazione di sopra si semplifica ancora una volta come:
𝑋𝑘 = 𝑎𝛿 sinc(𝑘𝛿)
Abbiamo dunque messo in relazione la funzione rettangolo con la funzione seno cardinale mediante la
corrispondenza:
𝑎 rect(𝛿) ↔ 𝑎𝛿 sinc(𝑘𝛿)
Consideriamo adesso la funzione onda quadra asimmetrica:

Sfruttiamo il fatto che il segnale ha simmetria dispari, dunque usiamo la formula per il calcolo dei
coefficienti di Fourier:
𝑇0 𝑇0
2𝒿 2 2𝒿 0 2𝒿 2
𝑋𝑘 = − ∫ 𝑥(𝑡) sin(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡 = − ∫ 𝑎 sin(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡 − ∫ 𝑎 sin(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡
𝑇0 − 0
𝑇 𝑇0 − 0
𝑇 𝑇0 0
2 2
Da cui svolgiamo l’integrale del seno:
𝑇0
2𝑎𝒿 1 2𝑎𝒿 1
𝑋𝑘 = − (− ) [cos 2𝜋𝑘𝑓0 𝑡]0 𝑇0 − (− ) [cos 2𝜋𝑘𝑓0 𝑡]02
𝑇0 2𝜋𝑘𝑓0 −2 𝑇0 2𝜋𝑘𝑓0
Che diventa:
𝑎𝒿 𝑎𝒿 2𝑎𝒿 2𝑎
𝑋𝑘 = − (cos 0 − cos 𝜋𝑘) − (cos 𝜋𝑘 − cos 0) = − =
𝜋𝑘 𝜋𝑘 𝜋𝑘 𝒿𝜋𝑘
Studiamo ora i coefficienti di Fourier per un’onda triangolare fatta come in figura:

Introduciamo la formula semplificata per il calcolo dei coefficienti di Fourier, dato che si tratta di una
funzione pari. Dunque scriviamo:
2 𝑇0 /2 2 𝑇0 /2 4𝑡
𝑋𝑘 = ∫ 𝑥(𝑡) cos(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡 = ∫ 𝑎 (1 − ) cos(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡
𝑇0 −𝑇0 /2 𝑇0 0 𝑇0
Dunque svolgiamo l’integrale. Avremo:
2𝑎 𝑇0 /2 2𝑎 𝑇0 /2 4𝑡
𝑋𝑘 = ∫ cos(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡 + ∫ − cos(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡
𝑇0 0
⏟ 𝑇0 0 𝑇0
0
Il secondo integrale si fa per parti:
𝑇0
𝑇0
8𝑎 2 2𝐴
𝑋𝑘 = − 2 [𝑡sin
⏟ 2𝑘𝜋𝑓0 𝑡]02 + ∫ cos(2𝜋𝑘𝑓0 𝑡) 𝑑𝑡 = 2 2 [1 − (−1)𝑘 ]
𝑇0 0 𝜋 𝑘
0
Dunque si vede che la corrispondenza dello sviluppo di Fourier all’onda triangolare è:
2𝐴
𝑋𝑘 = 2 2 [1 − (−1)𝑘 ]
𝜋 𝑘
Studiamo ora i coefficienti di Fourier per un’onda cosinusoidale:
𝑥(𝑡) = 𝐴 cos(2𝜋𝑓0 𝑡)

I coefficienti di Fourier si ricavano:


1 𝑇0/2 𝐴 𝑇0 /2 𝒿2𝜋𝑓 𝑡
𝑋𝐾 = ∫ 𝐴 cos(2𝜋𝑓0 𝑡) 𝑒 −𝒿2𝜋𝑘𝑓0 𝑡 𝑑𝑡 = ∫ (𝑒 0 + 𝑒 −𝒿2𝜋𝑓0 𝑡 )𝑒 −𝒿2𝜋𝑘𝑓0 𝑡 𝑑𝑡
𝑇0 −𝑇0 /2 2𝑇0 −𝑇0 /2
Da cui si avrà:
𝐴 𝑇0 /2 𝒿2𝜋𝑓 𝑡(1−𝑘) 𝐴 𝑇0/2 −𝒿2𝜋𝑓 𝑡(1+𝑘)
𝑋𝐾 = ∫ 𝑒 0 𝑑𝑡 + ∫ 𝑒 0 𝑑𝑡
2𝑇0 −𝑇0 /2 2𝑇0 −𝑇0 /2
Il primo integrale si risolve come:
𝐴 1 𝒿2𝜋𝑓0 (1−𝑘)𝑇0 𝒿2𝜋𝑓0 (1−𝑘)𝑇0 𝐴 𝐴
[𝑒 2 − 𝑒− 2 ]= sin[𝜋(1 − 𝑘)] = sinc(1 − 𝑘)
2𝑇0 𝒿2𝜋𝑓0 (1 − 𝑘) 2𝜋(1 − 𝑘) 2
Mentre il secondo integrale si risolve:
𝐴 1 𝒿2𝜋𝑓0 (1+𝑘)𝑇0 𝒿2𝜋𝑓0 (1+𝑘)𝑇0 𝐴 𝐴
(− ) [𝑒 − 2 −𝑒 2 ]= sin[𝜋(1 + 𝑘)] = sinc(1 + 𝑘)
2𝑇0 (1
𝒿2𝜋𝑓0 − 𝑘) 2𝜋(1 + 𝑘) 2
Dunque il risultato complessivo sarà:
𝐴
𝑋𝐾 = [sinc(1 − 𝑘) + sinc(1 + 𝑘)]
2
Ricordiamo che il grafico della funzione seno cardinale era:

Si nota che l’unico valore per cui il coefficiente di Fourier non risulta nullo è quello con 𝑘 = 1. Dunque
nello spettro di fase avremo un’unica armonica, posizionata sulla scala delle frequenze al valore 𝑓0 :

Calcoliamo ora i coefficienti di Fourier per un’oscillazione sinusoidale:


1 𝑇0 /2 𝐴 𝑇0 /2
𝑋𝐾 = ∫ 𝐴 sin(2𝜋𝑓0 𝑡) 𝑒 −𝒿2𝜋𝑘𝑓0 𝑡 𝑑𝑡 = ∫ (𝑒 𝒿2𝜋𝑓0 𝑡 − 𝑒 −𝒿2𝜋𝑓0 𝑡 )𝑒 −𝒿2𝜋𝑘𝑓0 𝑡 𝑑𝑡
𝑇0 −𝑇0 /2 2𝑇0 𝒿 −𝑇0 /2
Che diventa:
𝑇0 /2 𝑇0 /2
𝐴 𝐴
𝑋𝐾 = ∫ 𝑒 𝒿2𝜋𝑓0 𝑡(1−𝑘) 𝑑𝑡 − ∫ 𝑒 −𝒿2𝜋𝑓0𝑡(1+𝑘) 𝑑𝑡
2𝑇0 𝒿 −𝑇0 /2 2𝑇0 𝒿 −𝑇0 /2
Il primo integrale diventa:
𝐴 1 𝒿2𝜋𝑓0 (1−𝑘)𝑇0 𝒿2𝜋𝑓0 (1−𝑘)𝑇0 𝐴 𝐴
[𝑒 2 − 𝑒− 2 ]= sin[𝜋(1 − 𝑘)] = sinc(1 − 𝑘)
2𝑇0 𝒿 𝒿2𝜋𝑓0 (1 − 𝑘) 𝒿2𝜋(1 − 𝑘) 2𝒿
Il secondo integrale, invece, diventa:
𝐴 1 𝒿2𝜋𝑓0 (1+𝑘)𝑇0 𝒿2𝜋𝑓0 (1+𝑘)𝑇0 𝐴 𝐴
−( ) [𝑒 − 2 −𝑒 2 ]= sin[𝜋(1 + 𝑘)] = sinc(1 + 𝑘)
2𝑇0 𝒿 𝒿2𝜋𝑓0 (1 − 𝑘) 𝒿2𝜋(1 + 𝑘) 2𝒿
In cui si vede che lo spettro di ampiezza di un segnale sinusoidale è uguale a quello di un segnale
cosinusoidale, ma sfasato di 𝜋/2, cioè di un fattore 𝑒 −𝒿𝜋/2 . Riassumiamo allora il fatto che il numero di
armoniche dello spettro di un segnale è correlato al tipo di discontinuità che il segnale stesso presenta:
l’onda quadra, ad esempio, aveva discontinuità a salto e dunque non di poco conto, ragion per cui aveva
bisogno di molte armoniche in frequenza, di ampiezza considerevole, dato che scalavano come 1/𝑘.
L’onda triangolare invece presentava “solo” punti di non derivabilità, e dunque le sue armoniche
decrescevano in ampiezza proporzionalmente come 1/𝑘 2 e quindi tale onda necessitava sicuramente di
un minor numero di armoniche più significative. Un’oscillazione sinusoidale o cosinusoidale, invece, per
il fatto che risulta continua e derivabile infinite volte in ogni punto, presenta la peculiarità di aver
bisogno di… una sola armonica, posta alla frequenza di emissione di tale oscillazione e di ampiezza pari
alla metà esatta dell’ampiezza di oscillazione. La conseguenza è che l’onda quadra ha bisogno di un
maggior numero di armoniche per essere effettivamente ricostruita. Verifichiamolo sperimentalmente.
Una volta noti i coefficienti di Fourier, l’espansione in forma complessa della serie di Fourier per l’onda
quadra era:
∞ ∞
2𝑎 𝒿2𝜋𝑘𝑓 𝑡
𝑥(𝑡) = ∑ 𝑋𝐾 𝑒 𝒿2𝜋𝑘𝑓0 𝑡 = ∑ 𝑒 0
𝒿𝜋𝑘
𝑘=−∞ 𝑘=−∞
Visualizziamo la sommatoria delle prime 𝑘 = 5 armoniche:

Vediamo che con 5 armoniche la definizione del contorno dell’onda non è precisa, e inoltre i problemi
più importanti si riscontrano proprio nei punti di discontinuità a salto. Per l’onda triangolare, avendo
scoperto che le armoniche più significative sono in numero minore, ci aspettiamo che la sommatoria:
∞ ∞
2𝐴
𝑥(𝑡) = ∑ 𝑋𝐾 𝑒 𝒿2𝜋𝑘𝑓0 𝑡 = ∑ [1 − (−1)𝑘 ]𝑒 𝒿2𝜋𝑘𝑓0 𝑡
𝜋 2𝑘 2
𝑘=−∞ 𝑘=−∞
Riesca a descrivere in maniera migliore il comportamento della nostra onda triangolare. In effetti:

Con 4 armoniche il contorno è già molto ben delineato, anche se lo scarto maggiore si trova nel punto di
non derivabilità. Un ‘onda sinusoidale, invece, ha bisogno di una sola armonica per essere riprodotta.
Proviamo adesso a calcolare l’energia del segnale periodico oscillazione cosinusoidale. Per definizione:
+∞ 𝑇0 /2
𝐸𝑋 = ∫ |𝑥(𝑡)|2 𝑑𝑡 = ∫ 𝐴2 cos 2 (2𝜋𝑓0 𝑡) 𝑑𝑡
−∞ −𝑇0 /2
Usando le formule trigonometriche, riscriviamo l’integrale come:
𝐴2 𝑇0 /2 𝐴2 𝑇0/2 𝐴2 𝑇0 /2
𝐸𝑋 = ∫ 1 + cos(4𝜋𝑓0 𝑡) 𝑑𝑡 = ∫ 𝑑𝑡 + ∫ cos(4𝜋𝑓0 𝑡) 𝑑𝑡
2 −𝑇0 /2 2 −𝑇0 /2 2 −𝑇0 /2
Che diventa:
𝐴2 𝐴2 𝑇0 𝐴2 𝑇0
𝐸𝑋 = 𝑇0 + [sin 2𝜋 − sin(−2𝜋)] =
2 2 4𝜋 2
Verifichiamo che lo stesso risultato sarebbe stato ottenibile applicando il teorema di Parseval, che ci
permette di esprimere un parallelismo tra l’energia di un segnale nel dominio nel tempo e la
corrispondente trasformata di Fourier nel dominio della frequenza. Dunque, il teorema di Parseval si
può enunciare in questo modo:
+∞ ∞
∫ |𝑥(𝑡)|2 𝑑𝑡 = ∫ |𝑋(𝑓)|2 𝑑𝑓
−∞ −∞
Calcoliamo i coefficienti di Fourier per alcuni segnali aperiodici a tempo continuo significativi. Iniziamo
dall’onda rettangolare:
𝑡
𝑥(𝑡) = rect ( )
𝑇
Calcoliamo la trasformata di Fourier ricorrendo alla formula integrale:
∞ 𝑇/2 𝑇/2
𝑒 −𝒿2𝜋𝑓𝑡 sin(𝜋𝑓𝑇)
𝑋(𝑓) = ∫ 𝑥(𝑡)𝑒 −𝒿2𝜋𝑓𝑡 𝑑𝑡 = ∫ 𝑒 −𝒿2𝜋𝑓𝑡 𝑑𝑡 = [ ] = = 𝑇sinc(𝑓𝑇)
−∞ −𝑇/2 −𝒿2𝜋𝑓 𝑇/2 𝜋𝑓
Per cui abbiamo appena trovato la corrispondenza:
𝑡
rect ( ) ↔ 𝑇sinc(𝑓𝑇)
𝑇
Per l’esponenziale monolatero avremo invece:
𝑡
𝑥(𝑡) = 𝑢(𝑡)𝑒 −𝑇
In cui i coefficienti di Fourier si calcolano come:
1 ∞
∞ ∞ −𝑡( +𝒿2𝜋𝑓)
𝑡 𝒿2𝜋𝑡 𝑒 𝑇 𝑇
𝑋(𝑓) = ∫ 𝑥(𝑡)𝑒 −𝒿2𝜋𝑓𝑡 𝑑𝑡 = ∫ 𝑒 −𝑇 𝑒 − 𝑇 𝑑𝑡 = − [ ] =
−∞ 0 1/𝑇 + 𝒿2𝜋𝑓 1 + 𝒿2𝜋𝑓𝑇
0
Dunque la corrispondenza che abbiamo trovato è:
𝑡 𝑇
𝑒 −𝑇 ↔
1 + 𝒿2𝜋𝑓𝑇
Rappresentiamo in un diagramma il modulo e la fase dei coefficienti della trasformata continua di
Fourier. Ricaviamo innanzitutto il modulo del nostro risultato:
𝑇 1 − 𝒿2𝜋𝑓𝑇 𝑇 − 𝒿2𝜋𝑓𝑇 2 𝑇
𝑋(𝑓) = = 2 → |𝑋(𝑓)| =
1 + 𝒿2𝜋𝑓𝑇 1 − 𝒿2𝜋𝑓𝑇 1 + (2𝜋𝑓𝑇) √1 + (2𝜋𝑓𝑇)2
Mentre la fase sarà:
𝜙(𝑓) = arctan(2𝜋𝑓𝑇)
Che hanno grafico:

Per l’esponenziale bilatero avremo invece:


|𝑡|
𝑥(𝑡) = 𝑢(𝑡)𝑒 − 𝑇
I cui coefficienti di Fourier si calcolano:
∞ 0 ∞
𝑡 𝑡 2𝑇
𝑋(𝑓) = ∫ 𝑥(𝑡)𝑒 −𝒿2𝜋𝑓𝑡 𝑑𝑡 = ∫ 𝑒 𝑇 𝑒 −𝒿2𝜋𝑓𝑡 𝑑𝑡 + ∫ 𝑒 −𝑇 𝑒 −𝒿2𝜋𝑓𝑡 𝑑𝑡 =
−∞ −∞ 0 1 + (2𝜋𝑓𝑇)2
Dunque l’ulteriore corrispondenza che abbiamo trovato è:
|𝑡| 2𝑇
𝑒− 𝑇 ↔
1 + (2𝜋𝑓𝑇)2
Un segnale “Manchester” invece ha equazione del tipo:
𝑡 + 𝑇/4 𝑡 − 𝑇/4
𝑥(𝑡) = rect ( ) − rect ( )
𝑇/2 𝑇/2
Calcoliamone lo sviluppo di Fourier. Dalla trasformazione notevole:
𝑡
rect ( ) ↔ 𝑇sinc(𝑓𝑇)
𝑇
Ricaviamo che:
𝑡 𝑇 𝑡 𝑇
rect ( ) ↔ sinc(𝑓𝑇/2) −rect ( ) ↔ − sinc(𝑓𝑇/2)
𝑇/2 2 𝑇/2 2
Inoltre utilizziamo il teorema del ritardo:
𝑥(𝑡 − 𝑡0 ) ↔ 𝑋(𝑓)𝑒 −𝒿2𝜋𝑓𝑡0
Da cui ricaviamo che:
𝑡 + 𝑇/4 𝑇 𝒿2𝜋𝑓𝑇 𝑡 − 𝑇/4 𝑇 𝒿2𝜋𝑓𝑇
rect ( ) ↔ sinc(𝑓𝑇/2)𝑒 4 −rect ( ) ↔ − sinc(𝑓𝑇/2)𝑒 − 4
𝑇/2 2 𝑇/2 2
Quindi avremo:
𝑡 + 𝑇/4 𝑡 − 𝑇/4 𝑇 𝒿2𝜋𝑓𝑇 𝑇 𝒿2𝜋𝑓𝑇
rect ( ) − rect ( ) ↔ sinc(𝑓𝑇/2)𝑒 4 − sinc(𝑓𝑇/2)𝑒 − 4
𝑇/2 𝑇/2 2 2
Da cui:
𝑡 + 𝑇/4 𝑡 − 𝑇/4
rect ( ) − rect ( ) ↔ 𝑇𝒿 sinc(𝑓𝑇/2) sin(𝜋𝑓𝑇/2)
𝑇/2 𝑇/2
Esaminiamo adesso come poter svolgere un prodotto di convoluzione per via analitica e per via grafica.
Calcoliamo dunque la convoluzione:
𝑥(𝑡) = 𝑠(𝑡) ⊗ 𝑠(𝑡)
−𝑡/𝑇
Dove 𝑠(𝑡) = 𝑒 𝑢(𝑡). Iniziamo dalla via grafica: sappiamo che il prodotto di convoluzione è
equivalente a svolgere l’operazione:
+∞
𝑠(𝑡) ⊗ 𝑠(𝑡) = ∫ 𝑠(𝛼)𝑠(𝑡 − 𝛼)𝑑𝛼
−∞
Dunque per prima cosa rappresentiamo il segnale originale, e facciamone il prodotto con quello
simmetrico rispetto all’asse delle ordinate e traslato verso destra di una quantità 𝑡:

Si vede dunque che per 𝑡 < 0 (traslando verso sinistra la funzione blu) le due funzioni non si incontrano
e dunque la convoluzione è nulla. Per 𝑡 > 0, invece, la convoluzione si può ricavare:
+∞ 𝑡 𝛼 𝑡−𝛼 𝑡 𝑡 𝑡
𝑥(𝑡) = 𝑠(𝑡) ⊗ 𝑠(𝑡) = ∫ 𝑠(𝛼)𝑠(𝑡 − 𝛼)𝑑𝛼 = ∫ 𝑒 −𝑇 𝑒 − 𝑇 𝑑𝑡 = 𝑒 −𝑇 ∫ 𝑑𝛼 = 𝑡𝑒 −𝑇
−∞ 0 0
L’introduzione delle funzioni generalizzate permette di calcolare la trasformata di Fourier di un segnale
a energia infinita come il segnale costante: abbiamo dunque raggiunto gli obiettivi che ci eravamo posti
all’inizio del capitolo. Un’altra trasformata notevole, imparentata con una funzione generalizzata, è
quella relativa all’iperbole 𝟏/𝒕, in effetti, applicando i coefficienti di Fourier avremo:
∞ −𝒿2𝜋𝑓𝑡 ∞
𝑒 cos(2𝜋𝑓) − 𝒿 sin(2𝜋𝑓𝑡)
𝑋(𝑓) = ∫ 𝑑𝑡 = ∫ 𝑑𝑡
−∞ 𝑡 −∞ 𝑡
Dove assumiamo nullo l’integrale del coseno perché è dispari e integrando in un intervallo simmetrico
infinito, prendendo cioè il VPC (valore principale di Cauchy) si ha un risultato nullo. Allora avremo:

𝑋(𝑓) = −𝒿2𝜋𝑓 ∫ sinc(2𝑓𝑇) 𝑑𝑡
−∞
A questo punto sfruttiamo la proprietà:

∫ 𝑥(𝑡) 𝑑𝑡 = 𝑋(0)
−∞
Dunque ricordiamo che:
𝑓
𝑇sinc(𝑡𝑇) ↔ rect ( )
𝑇
Da cui usando anche il teorema di cambiamento di scala otteniamo che la trasformata della nostra
funzione integranda è:
1 𝜈
sinc(2𝑓𝑡) ↔ rect ( )
2|𝑓 | 2𝑓
Quindi avremo:

1 𝜈 1
∫ sinc(2𝑓𝑇) 𝑑𝑡 = [ rect ( )] =
−∞ 2|𝑓 | 2𝑓 𝜈=0 2|𝑓 |
E allora i coefficienti di Fourier dell’iperbole saranno:
𝑗2𝜋𝑓
𝑋(𝑓) = − = −𝒿𝜋 sgn(𝑓)
2|𝑓 |
Dunque abbiamo imparato la corrispondenza:
1
↔ 𝒿𝜋 sgn(𝑓)
𝑡
Per cui, usando il teorema di dualità, otteniamo:
1 1
↔ 𝒿𝜋 sgn(𝑓) sgn(𝑡) ↔
𝑡 𝒿𝜋𝑓
Allora, definendo la funzione gradino unitario come:
1 1
𝑢(𝑡) = sgn(𝑡) +
2 2
In effetti:

Possiamo ottenere la sua trasformata:


1 1
𝑈(𝑓) = + 𝛿(𝑡)
𝒿2𝜋𝑓 2
Calcoliamo adesso la risposta di impulso di alcuni sistemi particolari:
1. La squadra RC:

Cominciamo col ricavare la risposta in frequenza. Sappiamo che:


𝑉𝑂𝑈𝑇 (𝑓)
𝐻(𝑓) =
𝑉𝐼𝑁 (𝑓)
E, scrivendo l’equazione del circuito nel dominio fasoriale avremo:
1 𝒿2𝜋𝑓𝐶
−𝑉𝐼𝑁 (𝑓) + (𝑅 + ) 𝐼(𝑓) = 0 → 𝐼(𝑓) = 𝑉𝐼𝑁 (𝑓) ∙
𝒿2𝜋𝑓𝐶 1 + 𝒿𝑅2𝜋𝑓𝐶
Scrivendo l’equazione per la maglia di uscita, invece:
𝐼(𝑓) 𝑉𝐼𝑁 (𝑓)
𝑉𝑂𝑈𝑇 (𝑓) = → 𝑉𝑂𝑈𝑇 (𝑓) =
𝒿2𝜋𝑓𝐶 1 + 𝒿𝑅2𝜋𝑓𝐶
Da cui otteniamo:
𝑉𝑂𝑈𝑇 (𝑓) 1
𝐻(𝑓) = =
𝑉𝐼𝑁 (𝑓) 1 + 𝒿𝑅2𝜋𝑓𝐶
Allora la risposta in ampiezza sarà:
1
|𝐻(𝑓)| =
√1 + (𝑓/2𝜋𝑅𝐶)2

E quella in fase:
𝑓
𝜙(𝑓) = − arctan ( )
2𝜋𝑅𝐶
Considerando che 𝐻(0) = 1, calcoliamo la risposta in frequenza in decibel:
|𝐻(𝑓)|2 1
|𝐻(𝑓)|𝑑𝐵 = 10 log10 = 10 log10 [ 2]
|𝐻(0)|2 1+ (𝑓/2𝜋𝑅𝐶)
Antitrasformando la risposta in ampiezza si avrà la risposta impulsiva. Dato che:
𝑡 𝑇
𝑒 −𝑇 ↔ allora
1 + 𝒿2𝜋𝑓𝑇
Allora:
1 −𝑡
𝑥(𝑡) = 𝑒 𝑅𝐶 𝑢(𝑡)
𝑅𝐶
2. La squadra CR:

Scrivendo l’equazione del circuito nel dominio della frequenza avremo:


1 𝒿2𝜋𝑓𝐶
−𝑉𝐼𝑁 (𝑓) + ( + 𝑅) 𝐼(𝑓) = 0 → 𝐼(𝑓) = 𝑉𝐼𝑁 (𝑓) ∙
𝒿2𝜋𝐶 1 + 𝒿𝑅2𝜋𝑓𝐶
Per la maglia di uscita avremo:
𝒿2𝜋𝑅𝑓𝐶
𝑉𝑂𝑈𝑇 (𝑓) = 𝑅𝐼(𝑓) = 𝑉𝐼𝑁 (𝑓) ∙
1 + 𝒿𝑅2𝜋𝑓𝐶
E allora:
𝑉𝑂𝑈𝑇 (𝑓) 𝒿2𝜋𝑅𝑓𝐶 1
𝐻(𝑓) = = = 1−
𝑉𝐼𝑁 (𝑓) 1 + 𝒿𝑅2𝜋𝑓𝐶 1 + 𝒿(𝑓/𝑓𝑇 )
La risposta in decibel si calcola:
|𝐻(𝑓)|2 (𝑓/𝑓𝑇 )2
|𝐻(𝑓)|𝑑𝐵 = 10 log10 =
|𝐻(∞)|2 1 + (𝑓/𝑓𝑇 )2
E la risposta impulsiva, antitrasformando la risposta in frequenza sarà:
1 −𝑡
ℎ(𝑡) = 𝛿(𝑡) − 𝑒 𝑇 𝑢(𝑡)
𝑅𝐶
Consideriamo una variabile aleatoria che rappresenti il “tempo di vita” di una lampadina, fissata a
2000 ore di funzionamento, e dotata di una distribuzione di probabilità esponenziale:
1 −𝑥
𝑓𝑋 (𝑥) = 𝑒 𝜂𝑋
𝜂𝑋
Fatta in questo modo:

Innanzitutto ricaviamo la funzione “distribuzione di probabilità” in questo modo:


𝑥 𝑥
1 −𝑥 −
𝑥
𝐹𝑋 (𝑥) = ∫ 𝑓𝑋 (𝑥) 𝑑𝑥 = ∫ 𝑒 𝜂𝑋 = 1 − 𝑒 𝜂𝑋
−∞ 0 𝜂𝑋
Che è fatta così:

Sappiamo che la funzione “distribuzione di probabilità” è definita formalmente come:


𝐹𝑋 (𝑥) = Pr({𝑋 ≤ 𝑥})
Ovvero come la probabilità che una variabile aleatoria abbia un valore inferiore ad uno arbitrario 𝑥.
Fissiamo i tempi sull’asse 𝑥; dato che abbiamo chiamato la nostra variabile aleatoria 𝑋 =
{tempo di vita di una lampadina}, allora la funzione 𝐹𝑋 (𝑥) rappresenta la probabilità che il tempo di vita
di una certa lampadina sia inferiore ad un valore arbitrario 𝑥 misurato in ore. Ci chiediamo dunque qual
è la probabilità che la lampadina si rompa prima di 1000 ore, cioè la probabilità che il suo tempo di vita
sia inferiore a 1000 ore:
1000 1000
Pr({𝑋 ≤ 100}) = ∫ 𝑓𝑋 (𝑥) 𝑑𝑥 = 1 − 𝑒 −2000 = 40%
0
La probabilità di rompersi in un tempo pari alla metà del periodo di vita è, come ci aspettiamo, non molto
alta. Vediamo adesso quanto vale la probabilità che la nostra lampadina riesca a durare almeno 1500
ore. Per questo scriveremo:
1500
Pr({𝑋 ≥ 1500}) = 1 − Pr({𝑋 ≤ 1500}) = 1 − (1 − 𝑒 −2000 ) = 47%
Vediamo invece cosa sarebbe successo alla nostra lampadina se avessimo prima eseguito un’operazione
di rodaggio allo stock di lampade. Introduciamo allora la funzione “distribuzione di probabilità
condizionata”:
Pr({𝑋 ≤ 𝑥, 𝐵}) Pr({𝑋 ≤ 𝑥} ∩ 𝐵)
𝐹𝑋|𝐵 (𝑥|𝐵) = =
Pr(𝐵) Pr(𝐵)
E indichiamo con 𝐵 l’evento “utilizzo delle lampadine che non si sono rotte dopo un periodo di rodaggio
pari a 𝑥0 = 500”. Allora, avremo che la probabilità dell’evento 𝐵 sarà:
500
Pr(𝐵) = Pr({𝑋 ≥ 𝑥0 }) = 1 − Pr({𝑋 ≤ 𝑥 = 𝑥0 }) = 1 − (1 − 𝑒 −2000 ) = 0,78
Mentre per ricavare il termine al denominatore, dovremo fare:
Pr({𝑋 ≤ 𝑥} ∩ 𝐵) = Pr({𝑋 ≤ 𝑥} ∩ {𝑋 ≥ 𝑥0 }) = Pr({𝑥0 < 𝑋 ≤ 𝑥}) = 𝐹𝑋 (𝑥) − 𝐹𝑋 (𝑥0 )
Dove 𝐹𝑋 (𝑥0 ) sarà:
500
𝐹𝑋 (𝑥0 ) = 𝐹𝑋 (500) = 1 − 𝑒 −2000 = 0,22
Allora la probabilità che una lampadina abbia tempo di vita minore a un certo valore arbitrario in
relazione all’evento “rodaggio” delle lampadine sarà:
𝐹𝑋 (𝑥) − 𝐹𝑋 (𝑥0 )
𝐹𝑋|𝐵 (𝑥|𝐵) =
1 − 𝐹𝑋 (𝑥0 )
Scegliendo 𝑥 = 1000, avremo:
1000
𝐹𝑋 (1000) = 1 − 𝑒 −2000 = 0,40
E la probabilità che la lampadina dopo il rodaggio duri meno di 1000 ore sarà:
(0,40) − (0,22)
𝐹𝑋|𝐵 (1000|𝑟𝑜𝑑𝑎𝑔𝑔𝑖𝑜) = = 23%
(0,78)
Ricordiamo che, come calcolato sopra, la probabilità di rompersi per una lampadina senza rodaggio era
del 40%, mentre è scesa al 23% dopo aver effettuato un rodaggio, che è sicuramente una cosa molto
positiva.
La funzione “distribuzione di probabilità per un sistema di variabili aleatorie” ci permette invece di
analizzare i sistemi di variabili aleatorie. Immaginiamo stavolta di avere due lampadine, ognuna col suo
tempo di vita, uno doppio rispetto all’altro. Quindi avremo:
1 − 𝑡1 1 −𝑡2
𝑓𝑇1 (𝑡1 ) = 𝑒 2𝜂 𝑓𝑇2 (𝑡2 ) = 𝑒 𝜂
2𝜂 𝜂
Da cui ricaviamo subito:
𝑡 𝑡
− 1 − 2
𝐹𝑇1 (𝑡1 ) = 1 − 𝑒 2𝜂 𝐹𝑇2 (𝑡2 ) = 1 − 𝑒 𝜂
E ipotizziamo 𝜂 = 6000 ore. Il tempo di illuminazione di una stanza in cui sono posizionate queste due
lampadine è dato da:
𝑇 = max(𝑇1 , 𝑇2 )
Cioè dal massimo dei due tempi di illuminazione relativi alla prima e alla seconda lampadina. La
distribuzione di probabilità per l’evento “tempo di illuminazione della stanza” sarà:
𝐹𝑇1𝑇2 (𝑡1 , 𝑡2 ) = Pr({𝑇1 ≤ 𝑡, 𝑇2 ≤ 𝑡})
Dato che ogni lampadina rappresenta un evento indipendente, possiamo scrivere che:
1 − 𝑡1 −𝑡2
𝑓𝑇1 𝑇2 (𝑡1 , 𝑡2 ) = 𝑓𝑇1 (𝑡1 )𝑓𝑇2 (𝑡2 ) = 2 𝑒 2𝜂 𝑒 𝜂
2𝜂
Da cui, integrando, ricaviamo la distribuzione di probabilità:
𝑡 𝑡
1 − 𝑡1 − 𝑡2 𝑡1 𝑡2
𝐹𝑇 (𝑡) = ∫ ∫ 𝑒 2𝜂 𝑒 𝜂 𝑑𝑡 𝑑𝑡 = (1 − 𝑒 −2𝜂 ) (1 − 𝑒 − 𝜂 )
2 1 2
0 0 2𝜂
Derivando 𝐹(𝑡) si ricava la densità di probabilità:
𝑑𝐹𝑇 (𝑡)
𝑓(𝑡) =
𝑑𝑡
Da cui possiamo ricavare il valore medio come:
+∞
𝜂 𝑇 = 𝐸{𝑇} = ∫ 𝑡 𝑓𝑇 (𝑡) 𝑑𝑡
−∞

Potrebbero piacerti anche