Sei sulla pagina 1di 97

BIBBIA DI TEORIA DEI

SEGNALI

Autore: Andrea Mazzera


𝑆𝑜𝑚𝑚𝑎𝑟𝑖𝑜
CAPITOLO 1: SEGNALI E SISTEMI ....................................................................................................................... 1
1.1 Definizione di Segnale e Sistema ............................................................................................................ 1
1.2 Classificazione dei Segnali ........................................................................................................................ 2
1.3 Classificazione dei Sistemi ........................................................................................................................ 4
1.4 Proprietà e Operazioni dei Segnali ........................................................................................................ 5
1.4.1 Operazioni Elementari ................................................................................................................................................. 5
1.4.2 Combinazioni di Operazioni Elementari ............................................................................................................. 7
1.4.3 Derivazione e Integrazione ........................................................................................................................................ 8
1.4.4 Differenza e Somma Corrente.................................................................................................................................10
1.5 Caratterizzazione Sintetica nel Dominio del Tempo ..................................................................... 11
1.5.1 Durata Temporale ........................................................................................................................................................11
1.5.2 Area e Media Temporale ...........................................................................................................................................12
1.5.3 Energia e Potenza .........................................................................................................................................................13
1.6 Proprietà dei Sistemi .............................................................................................................................. 16
1.6.1 Relazioni I-U e Interconnessione di Sistemi ....................................................................................................16
1.6.2 Proprietà Fondamentali dei Sistemi ....................................................................................................................17
CAPITOLO 2: SISTEMI LINEARI TEMPO INVARIANTI ................................................................................ 19
2.1 Introduzione .............................................................................................................................................. 19
2.2 Relazione I-U di un Sistema LTI e Risposta Impulsiva .................................................................. 19
2.3 Convoluzione ............................................................................................................................................. 20
2.3.1 Caratterizzazione della Convoluzione ................................................................................................................20
2.3.2 Proprietà della Convoluzione .................................................................................................................................20
2.4 Risposta al Gradino .................................................................................................................................. 21
2.5 Proprietà della Risposta Impulsiva .................................................................................................... 21
2.6 Esempi di Sistemi LTI .............................................................................................................................. 23
2.7 Risposta in Frequenza dei Sistemi LTI ............................................................................................... 24
2.7.1 Risposta ad un Fasore di un Sistema LTI ..........................................................................................................24
2.7.2 Risposta ad una Sinusoide di un Sistema LTI Reale .....................................................................................25
CAPITOLO 3: SERIE DI FOURIER ...................................................................................................................... 26
3.1 Introduzione .............................................................................................................................................. 26
3.2 Serie di Fourier ......................................................................................................................................... 26
3.3 Discrete Fourier Series ........................................................................................................................... 29
3.4 Principali Proprietà della Serie di Fourier e della DFS ................................................................. 30
3.5 Risposta di un Sistema LTI ad un Segnale Periodico ..................................................................... 32
3.6 Selettività in Frequenza di un Sistema LTI ....................................................................................... 33
CAPITOLO 4: TRASFORMATA DI FOURIER ................................................................................................... 35
4.1 Caratterizzazione della Trasformata di Fourier ............................................................................. 35
4.2 Esistenza e Invertibilità della Trasformata di Fourier ................................................................. 36
4.3 Estensione Spettrale e Banda di un Segnale .................................................................................... 39
4.3.1 Classificazione dei Segnali in Base all’Estensione Spettrale ....................................................................39
4.3.2 Classificazione dei Segnali in Base alla Banda ................................................................................................40
4.4 Proprietà della Trasformata di Fourier ............................................................................................ 44
4.4.1 Proprietà Generali ........................................................................................................................................................44
4.4.2 Proprietà della Variabile Dipendente .................................................................................................................44
4.4.3 Proprietà della Variabile Indipendente .............................................................................................................47
4.5 Trasformata di Fourier di Segnali Periodici .................................................................................... 52
4.5.1 Caratterizzazione della Trasformata di Fourier di Segnali Periodici ..................................................52
4.5.2 Estensione Spettrale e Banda di un Segnale Periodico ..............................................................................53
4.5.3 Relazione tra Serie di Fourier/DFS e Trasformata di Fourier ................................................................53
4.6 Relazione I-U dei Sistemi LTI nel Dominio della Frequenza ....................................................... 55
4.7 Proprietà della Risposta in Frequenza di un Sistema LTI ............................................................ 55
CAPITOLO 5: CAMPIONAMENTO E CONVERSIONE AD/DA ...................................................................... 58
5.1 Introduzione .............................................................................................................................................. 58
5.2 Campionamento e Interpolazione Ideale .......................................................................................... 59
5.2.1 Campionamento Ideale e Aliasing ........................................................................................................................59
5.2.2 Interpolazione Ideale ..................................................................................................................................................61
5.3 Campionamento e Interpolazione Reale ........................................................................................... 62
5.3.1 Campionamento Reale ...............................................................................................................................................62
5.3.2 Interpolazione Reale ...................................................................................................................................................63
5.4 Quantizzazione.......................................................................................................................................... 64
CAPITOLO 6: PROBABILITA’ ELEMENTARE ................................................................................................. 67
6.1 Introduzione e Richiami di Teoria dei Sistemi ................................................................................ 67
6.2 Definizioni Fondamentali della Teoria della Probabilità ............................................................ 68
6.3 Probabilità Assiomatica ......................................................................................................................... 69
6.4 Spazio di Probabilità ed Esempi .......................................................................................................... 71
CAPITOLO 7: PROBABILITA’ CONDIZIONALE E INDIPENDENZA ........................................................... 72
7.1 Introduzione .............................................................................................................................................. 72
7.2 Probabilità Condizionale ....................................................................................................................... 72
7.2.1 Definizione di Probabilità Condizionale ............................................................................................................72
7.2.2 Teorema della Probabilità Totale e Teorema di Bayes ..............................................................................73
7.3 Indipendenza Condizionale .................................................................................................................. 74
CAPITOLO 8: VARIABILI ALEATORIE ............................................................................................................. 75
8.1 Introduzione .............................................................................................................................................. 75
8.2 Funzione di Distribuzione Cumulativa .............................................................................................. 76
8.3 Funzione di Densità di Probabilità ..................................................................................................... 77
8.4 Funzione di Distribuzione di Probabilità.......................................................................................... 77
8.5 Variabili Aleatorie Notevoli .................................................................................................................. 78
8.5.1 Variabile Aleatoria di Binomiale, Binomiale Negativa e di Bernoulli ..................................................78
8.5.2 Variabile Aleatoria di Uniforme .............................................................................................................................79
8.5.3 Variabile Aleatoria di Esponenziale.....................................................................................................................79
8.5.4 Variabile Aleatoria di Gaussiana ...........................................................................................................................80
8.6 Trasformazione di una Variabile Aleatoria...................................................................................... 81
8.7 Caratterizzazione Sintetica di una Variabile Aleatoria ................................................................ 82
CAPITOLO 9: COPPIE DI VARIABILI ALEATORIA ........................................................................................ 85
9.1 Introduzione .............................................................................................................................................. 85
9.2 Funzione di Distribuzione Cumulativa .............................................................................................. 85
9.3 Funzione di Densità di Probabilità ..................................................................................................... 86
9.4 Funzione di Distribuzione di Probabilità.......................................................................................... 87
9.5 Statistiche Congiunte e Marginali ........................................................................................................ 87
9.6 Coppie di Variabili Aleatorie Indipendenti ...................................................................................... 89
9.7 Media e Momenti Congiunti di Coppie di Variabili Aleatorie ..................................................... 90
Pag. |1

CAPITOLO 1: SEGNALI E SISTEMI

1.1 Definizione di Segnale e Sistema


I concetti di segnale e sistema sono presenti in numerosi campi e con significati sempre differenti a
seconda dell’ambito che stiamo studiando. Prendendo in esempio una radiazione elettromagnetica, un
segnale può essere desiderato e in tal caso stiamo parlando di astronomia e, allo stesso tempo, può
essere indesiderato se stiamo parlando di telecomunicazioni spaziali. Visto l’elevata flessibilità del
significato di segnale e sistema, siamo perciò costretti a utilizzare dei modelli matematici per definirli in
modo univoco e preciso.

• Segnale
Un segnale è un modello matematico che descrive la variazione di una o più grandezze (misurabili) in
funzione di altre grandezze (misurabili).

Un segnale può essere, quindi, visto come una funzione che crea una correlazione fra una variabile
indipendente ed una variabile dipendente. In questo caso è di nostro interesse la variabile indipendente
che sarà di solito il tempo 𝑡 ma in generale, come nel caso dell’elaborazione delle immagini, tale variabile
potrebbe essere anche lo spazio. Detto ciò capiamo che la simbologia da utilizzare è:
𝑥: 𝒯 → 𝑋
Dove:
- 𝑥 = variabile dipendente;
- 𝒯 = dominio di 𝑥;
- 𝑋 = codominio di 𝑥.
Tuttavia, è da osservare che la notazione 𝑥(𝑡) potrebbe (dico potrebbe perché in generale si capisce dal
contesto il significato di tale notazione) essere ambigua perché può avere due significati:
a. Il valore assunto dal segnale per un particolare valore di 𝑡 (immagine mediate x di t);
b. Legge di corrispondenza in verde, per cui si usa la simbologia {𝑥(𝑡)}𝑡∈𝒯 .

Esempi di segnali sono per esempio: il moto circolare uniforme di un corpo valutato su un grafico
ampiezza-tempo in funzione della frequenza 𝑓0 (figura A e B), l’andamento di una tensione alternata
𝑉(𝑡) = 𝑉𝑀 cos(2𝜋𝑓𝑡 + 𝜑) oppure una successione matematica (figura C). Non mancano inoltre, anche
casi di segnali rappresentati in forma tabellare (figura D).

• Sistema
Un sistema è un modello matematico che descrive la relazione tra due o più segnali, dei quali alcuni sono
identificati come segnali di ingresso (cause) e altri come segnali di uscita (effetto).

Il concetto di sistema è fortemente legato al concetto di segnale in quanto un sistema senza segnali è
solo una collezione di componenti elettrici, meccanici o biochimici. Inoltre, un sistema quando è
particolarmente complesso può essere suddiviso in diversi sottosistemi. Ad esempio, un sistema di
comunicazione può essere visto come l’insieme di un sistema trasmettitore, un sistema canale e un
sistema ricevitore. A questo punto, dato un particolare sistema e un insieme di segnali d’ingresso, ci
dobbiamo porre il problema di come ricavare analiticamente (a volte è meno costoso fare calcoli
matematici piuttosto che degli esperimenti) i segnali di uscita. Quindi, considerando un sistema con un
Pag. |2

ingresso e una uscita definiamo l’operatore 𝒮 che crea una correlazione fra gli elementi dell’insieme dei
segnali di ingresso 𝐼 e gli elementi dell’insieme dei segnali di uscita 𝑈: 𝒮: 𝐼 → 𝑈
Un esempio di sistema può essere il partitore resistivo, in
figura, nel quale il segnale di ingresso è la tensione sulla serie
𝑅1 𝑅2 e il segnale di uscita è la tensione su 𝑅2 . Allora il metodo
analitico per ricavare il segnale di uscita è la classica formula
del partitore resistivo.
𝑅2
𝑉𝑜𝑢𝑡 = 𝑉𝑖𝑛
𝑅1 + 𝑅2

A questo punto però se osserviamo le relazioni in grassetto


𝑥: 𝒯 → 𝑋 e 𝒮: 𝐼 → 𝑈, potremmo pensare che il concetto di
segnale e sistema sia analogo. Ciò sarebbe un errore in quanto i due concetti sono molto diversi dal
punto di vista matematico in quanto un segnale è una corrispondenza fra numeri di due insiemi diversi,
mentre un sistema è una corrispondenza tra segnali di due insiemi diversi. Inoltre, in modo analogo a
quanto visto per i segnali la notazione 𝑦(𝑡) = 𝒮[𝑥(𝑡)] può risultare fuorviante perché 𝑥(𝑡) è a sua volta
una funzione. Potrebbe, quindi, sembrare che parliamo di una funzione di funzione (il valore di 𝑦(𝑡)
dipende da quello di 𝑥(𝑡) nell’istante 𝑡). Invece, quando si parla di sistema, il segnale di uscita 𝑦(𝑡)
dipedende dall’intero segnale di ingresso 𝑥(𝑡) (e non dal valore al medesimo istante). Motivo per cui per
evitare ambiguità si adopera la notazione: 𝑦(𝑡) = 𝒮[{𝑥(𝑡)}𝑡∈𝒯 ; 𝑡]

1.2 Classificazione dei Segnali


Una prima classificazione dei segnali si basa sulla conoscenza dell’andamento di questi ultimi,
parleremo infatti di:
• Segnale Deterministico
Un segnale si dice deterministico se è perfettamente descritto da una funzione (espressa analiticamente,
graficamente o in forma tabellare).
• Segnale Aleatorio
Un segnale si dice aleatorio (o casuale) se nella sua definizione è contenuto un certo grado di incertezza.

Visto che l’andamento di questi segnali non è perfettamente noto è necessario ricorrere alla Teoria
della Probabilità. Inoltre, questo tipo di segnali sono fondamentali nell’ingegneria dell’informazione in
quanto la loro imprevedibilità li rende adatti al trasporto delle informazioni, ad eccezione di un segnale
deterministico che non trasporta alcuna informazione visto che si tratta di una affermazione. Quando
però il segnale aleatorio viene osservato e memorizzato, allora possiamo dire che diventa a tutti gli
effetti un segnale deterministico.

Una seconda classificazione si basa sulle proprietà della Variabile Indipendente:


• Segnale Monodimensionale
Un segnale si dice monodimensionale se è descritto da una funzione di una variabile indipendente.
• Segnale Multidimensionale
Un segnale si dice multidimensionale se è descritto da una funzione di due o più variabili indipendenti.
• Segnale Tempo Continuo (TC)
Un segnale si dice a tempo continuo (o
forma d’onda) se la variabile indipendente
(in genere il tempo) varia in un insieme
continuo (Figura A).
• Segnale Tempo Discreto (TD)
Un segnale si dice a tempo discreto (o
sequenza) se la variabile indipendente (in
genere il tempo) varia in un insieme
discreto (Figura B).
Pag. |3

Attraverso le seguenti operazioni, scelto un certo tempo di campionamento o di interpolazione 𝑇𝐶 , si


possono effettuare rispettivamente le seguenti operazioni:
a. Campionamento: trasformare un segnale tempo continuo in tempo discreto (Figura 𝐴 → 𝐵);
b. Interpolazione: trasformare un segnale tempo discreto in tempo continuo (Figura 𝐵 → 𝐶).

Una terza classificazione si basa sulle proprietà della Variabile Dipendente:


• Segnale Scalare
Un segnale si dice scalare se la variabile dipendente (ampiezza) è uno scalare.
• Segnale Vettoriale
Un segnale si dice vettoriale se la variabile dipendente (ampiezza) è un vettore (array di scalari).
• Segnale ad Ampiezza Continua (AC)
Un segnale si dice ad ampiezza continua se la variabile dipendente (ampiezza) varia in un insieme continuo
(Figura A).
• Segnale ad Ampiezza Discreta (AD)
Un segnale si dice ad ampiezza discreta se la variabile dipendente (ampiezza) varia in un insieme discreto
(Figura B).
È inoltre da specificare che è possibile passare da un
segnale AC a uno AD mediate una operazione chiamata
Quantizzazione.

In definitiva, considerando le varie combinazioni TC, TD, AC e AD


otteniamo queste quattro categorie di segnali. Quelli di maggior
interesse dal punto di vista pratico sono:
• Segnali Analogici
Un segnale si dice analogico se è a tempo continuo e ampiezza continua.
• Segnali Digitali
Un segnale si dice digitale se è a tempo discreto e ampiezza discreta.
Pag. |4

1.3 Classificazione dei Sistemi


I sistemi possono essere classificati in base al numero di ingressi e di uscite:
• SISO: un sistema con un ingresso ed una uscita (come il campionatore o l’interpolatore);
• MISO: un sistema con più ingressi ed una uscita (come il sommatore o moltiplicatore);
• SIMO: un sistema con un ingresso e più uscite;
• MIMO: un sistema con più ingressi e più uscite.
Noi ci incentreremo solo ed esclusivamente sui sistemi SISO e al più dei sistemi MISO citati.

Una seconda classificazione può essere riferita alla natura dei segnali di ingresso e di uscita:
• Sistemi Tempo Continuo (TC)
Un sistema si dice a tempo continuo se il segnale in ingresso e uscita sono tempo continui.
Questo tipo di sistemi in genere rappresentano sistemi del mondo fisico come per esempio una rete
elettrica, quindi tutti quei sistemi che si evolvono con continuità nel tempo.
• Sistemi Tempo Discreto (TD)
Un sistema si dice a tempo discreto se il segnale in ingresso e uscita sono tempo discreti.
Non esistono sistemi tempo discreti relativi a fenomeni naturali ma bensì solo ad attività umane come
per esempio l’economia oppure i calcolatori digitali.
• Sistemi Misto
Un sistema si dice misto (o ibrido) se l’ingresso e l’uscita sono uno tempo continuo e l’altro tempo discreto.
Sono sistemi particolarmente utili quando si vuole passare da un sistema del mondo fisico a uno virtuale
e viceversa. Tipici esempi di sistemi misti sono i convertitori A/D e D/A.

Il convertitore A/D converte un segnale analogico


(TC e AC) in digitale (TD e AD), quindi si devono
adoperare i seguenti blocchi:
- Campionatore: deve discretizzare l’asse dei
tempi (𝑇𝐶 → 𝑇𝐷);
- Blocco di Quantizzazione: deve discretizzare
l’asse delle ampiezze (𝐴𝐶 → 𝐴𝐷).
Per quanto riguarda invece il convertitore D/A, il quale converte un segnale digitale in analogico, esso è
costituito solo da un interpolatore per passare da tempo discreto al tempo continuo. La motivazione di
ciò è dovuta all’irreversibilità dell’operazione di quantizzazione, per la quale non esiste un blocco che
consente di passare da ampiezza discreta a continua. Una tipica applicazione dei convertitori appena
citati e del concetto di sistema misto è il DSP (Digital Signal Processing), nel quale si effettua
l’elaborazione di segnali digitali. In pratica, l’ingresso e l’uscita del sistema complessivo sono tempo
continui (𝑥(𝑡) e 𝑦(𝑡)), ma i blocchi interni al sistema complessivo elaborano le versioni discretizzate
(𝑥(𝑛) e 𝑦(𝑛)).
Pag. |5

1.4 Proprietà e Operazioni dei Segnali

1.4.1 Operazioni Elementari


Approfondiamo più nel dettaglio le proprietà dei segnali deterministici, le operazioni che si possono
effettuare su di essi e alcuni concetti fondamentali per il loro studio (durante temporale, energia, ecc.).
I segnali a TC sono descritti mediante funzioni reali o complesse di variabili reali mentre i segnali a TD
sono in pratica delle successioni matematiche, motivo per cui tutte le operazioni (come limite e
continuità) viste per le funzioni e le successioni nei corsi di analisi matematica valgono anche per i
segnali. Tali operazioni vengono classificate in due grandi categorie:
• Trasformazioni della Variabile Dipendente (Ampiezza)
Sono le operazioni più semplici e sono:
• Somma: la somma di due è segnali prevede la somma punto a punto
delle ordinate dei due addendi. Tale operazione si indica con la
seguente notazione e la simbologia di fianco, quale rappresenta un
sommatore: 𝑦(∙) = 𝑥1 (∙) + 𝑥2 (∙)

• Prodotto: il prodotto di due è segnali prevede il prodotto punto a


punto delle ordinate dei due addendi. Tale operazione si indica con la
seguente notazione e la simbologia di fianco, la quale rappresenta un
moltiplicatore: 𝑦(∙) = 𝑥1 (∙) ∙ 𝑥2 (∙)

• Moltiplicazione per una Costante: corrisponde al moltiplicatore tutti i


valori di ampiezza del segnale per un fattore 𝑎. Tale operazione si indica
con la seguente notazione e la simbologia di fianco, la quale corrisponde a
un amplificatore (𝑎 > 1) o attenuatore (𝑎 < 1): 𝑦(∙) = 𝑎 ∙ 𝑥(∙)
È importante specificare che se 𝑎 = −1, l’operazione 𝑦(∙) = −𝑥(∙) cambia segno alle ampiezze
del segnale (in pratica ribalta il segnale intorno l’asse delle ascisse, cioè si specchia
verticalmente) e si chiama inversione ma non è da confondere con la riflessione temporale che
vedremo in seguito (anche perché quest’ultima si può effettuare solo sulla variabile
indipendente).

• Trasformazioni della Variabile Indipendente (Tempo)


Sono le operazioni più complicate e possono portare ad errori di interpretazioni in caso di uso
combinato, esse sono:
• Traslazione Temporale (Ritardo o Anticipo): prevede uno spostamento 𝑦(𝑡) = 𝑥(𝑡 − 𝑡0 )
del segnale lungo l’asse temporale senza modificarne la sua forma. Tale
operazione in TC, dato 𝑡0 ∈ ℛ (numeri reali) si definisce:
a. Se 𝑡0 > 0, allora stiamo effettuando un anticipo e quindi il segnale verrà spostato verso
sinistra;
b. Se 𝑡0 < 0 allora stiamo effettuando un ritardo e quindi il segnale verrà spostato verso destra.

Nel tempo discreto il discorso è analogo (ma invece delle 𝑡 ci sono le 𝑛), tuttavia 𝑛0 ∈ 𝒵 (numeri
relativi) e quindi la traslazione temporale si può effettuare solo di quantità intere (niente
decimali).
Pag. |6

• Riflessione Temporale: prevede di ribaltare la scala dei tempi secondo le 𝑦(𝑡) = 𝑥(−𝑡)
seguenti relazioni (in pratica si ribalta il segnale intorno l’asse delle ordinate, {
𝑦(𝑛) = 𝑥(−𝑛)
cioè si specchia orizzontalmente):

È importante osservare che:


❖ Se un segnale a TC è invariante alla riflessione (cioè non cambia in alcun modo), allora vale la
relazione 𝑥(𝑡) = 𝑥(−𝑡), si dice pari;
❖ Se un segnale a TC è invariante alla cascata di operazioni riflessione e inversione, allora vale la
relazione 𝑥(𝑡) = −𝑥(−𝑡), si dice dispari.
Visto che li abbiamo nominati, citiamo alcune proprietà dei segnali pari e dispari:
➢ Proprietà 1: se 𝑥(∙) è dispari ed è definito il suo valore nell’origine, risulta necessariamente che
𝑥(0) = 0;
➢ Proprietà 2: la somma di segnali pari (dispari) è un segnale pari (dispari);
➢ Proprietà 3: il prodotto di segnali pari è un segnale pari;
➢ Proprietà 4: il prodotto di un segnale pari con uno dispari da sempre un segnale dispari;
➢ Proprietà 5: il prodotto di 𝑛 ≥ 2 segnali dispari è un segnale pari se 𝑛 è pari, mentre è dispari
se 𝑛 è dispari;
➢ Proprietà 6: un arbitrario segnale 𝑥(∙) può essere decomposto come una componente pari 𝑃𝑎
e una dispari 𝐷𝑖:
1 1
𝑥(∙) ≜ 𝑃𝑎[𝑥(∙)] + 𝐷𝑖[𝑥(∙)] ≜ [𝑥(∙) + 𝑥(−(∙))] + [𝑥(∙) − 𝑥(−(∙))]
2 2

• Cambiamento di Scala Temporale TC: è definita dall’operazione 𝑦(𝑡) = 𝑥(𝑎𝑡), (𝑎 ∈ ℛ), dove:
a. Se 𝑎 > 1 abbiamo il caso di una compressione dell’asse dei tempi. In pratica, restringendo la
distanza tra i punti dell’asse dei tempi stiamo velocizzando il segnale;
b. Se 0 < 𝑎 < 1 abbiamo il caso di espansione dell’asse dei tempi. In pratica, aumentando la
distanza tra i punti dell’asse dei tempi stiamo rallentando il segnale.
Il cambiamento di scala temporale nel tempo continuo è reversibile (basta semplicemente scegliere
1/𝑎 per ritornare al segnale originario).
Pag. |7

• Cambiamento di Scala Temporale TD: è


definita dall’operazione 𝑦(𝑛) = 𝑥(𝑎𝑛) (𝑎 ∈
𝒩), dove:
a. Se 𝑎 > 1 abbiamo il caso di una
decimazione (compressione ma in TD)
dell’asse dei tempi. In pratica, restringendo
la distanza tra i punti dell’asse dei tempi
stiamo velocizzando il segnale. Tale
operazione, contrariamente al caso TC, non
è reversibile in quanto l’operazione di
decimazione prevede la perdita di
campioni e quindi non possiamo più
ritornare al segnale di partenza;
b. Se 0 < 𝑎 < 1 abbiamo il caso di espansione
dell’asse dei tempi. In pratica, aumentando
la distanza tra i punti dell’asse dei tempi
stiamo rallentando il segnale. Se si pone
𝑎 = 1/𝐿 con 𝐿 ∈ 𝒩, l’operazione di
espansione ha senso solo se 𝑛 è multiplo di L e quindi possiamo definire l’espansione in TD come
di fianco.
𝑛
𝑛 𝑥( ) 𝑠𝑒 𝑛 è 𝑚𝑢𝑙𝑡𝑖𝑝𝑙𝑜 𝑑𝑖 𝐿
𝑦(𝑛) = 𝑥 ( ) ≜ { 𝐿
𝐿 0 𝑎𝑙𝑡𝑟𝑖𝑚𝑒𝑛𝑡𝑖

Tale operazione è reversibile scegliendo semplicemente 𝑎 = 𝐿 per ottenere il segnale di


partenza.

1.4.2 Combinazioni di Operazioni Elementari


Molto spesso un segnale è soggetto a più operazioni elementari in cascata definendo così una funzione
composta. Va detto però che in questi casi, soprattutto se ci sono trasformazioni della variabile
indipendente (tempo) è facile commettere errori. Un primo consiglio per evitare errori è pensare alle
trasformazioni della variabile tempo (traslazione, riflessione e cambio scala) come a una sostituzione
formale. Per esempio, una traslazione temporale di 3 significa che al segnale 𝑥(𝑡) dobbiamo sostituire
tutte le 𝑡 con 𝑡 − 3 oppure a una espansione di 2 vuol dire che dobbiamo sostituire tutte le 𝑡 con 𝑡/2.
Tuttavia, un altro problema circa la presenza di operazioni multiple è l’individuazione dell’ordine
corretto con cui effettuarle, visto che con sequenza diverse di operazioni otteniamo segnali differenti.
______________________________________________________________________________________________________________________
Esempio: supponiamo di avere il seguente segnale.
4−𝑡
𝑦(𝑡) = 𝑥 ( )
5

Eseguiamo la seguente sequenza di operazioni: Eseguiamo la seguente sequenza di operazioni:


1. Espansione di 5: 𝑡 = 𝑡/5 1. Riflessione: 𝑡 = −𝑡
2. Anticipo di 4: 𝑡 = 𝑡+4 2. Anticipo di 4: 𝑡 = 𝑡+4
3. Riflessione: 𝑡 = −𝑡 3. Espansione di 5: 𝑡 = 𝑡/5
Effettuiamo le sostituzioni nell’ordine inverso. Effettuiamo le sostituzioni nell’ordine inverso.

𝑦(𝑡) = 𝑥(−𝑡) = 𝑥(−(𝑡 + 4)) t 𝑡


𝑦(𝑡) = 𝑥 ( ) = 𝑥 ( + 4)
5 5
(𝑡 + 4) 4−𝑡
𝑦(𝑡) = 𝑥 (− ) = 𝑥( ) √ −𝑡 + 4 𝑡
5 5 𝑦(𝑡) = 𝑥 ( ) = 𝑥 (− − 4) 𝑿
5 5
Pag. |8

Prendendo in esame la sequenza di sinistra, bisogna prestare particolare attenzione alle sostituzioni,
perché dopo la riflessione e l’anticipo abbiamo che −𝑡 = −(𝑡 + 4), quindi per l’espansione di 5 non si
deve sostituire solo 𝑡 ma tutto (𝑡 + 4) (visto che è la “nuova” 𝑡). Discorso analogo nella sequenza di
destra dove 𝑡 = 𝑡/5, dove non si deve traslare di +4 solo 𝑡 ma bensì tutto 𝑡/5 (visto che è la “nuova” 𝑡).
Ritornando al discorso dell’ordine corretto delle operazioni da seguire, ciò che osserviamo che è la
sequenza di sinistra ci ha condotto al segnale da noi scelto, mentre quella di destra ci ha portato a un
segnale differente motivo per cui non è corretta. Se avessimo trovato un'altra sequenza che ci avrebbe
condotto al segnale di partenza anche quest’ultima sarebbe stata una soluzione accettabile. Discorso
analogo vale nel tempo discreto, solo che quando facciamo l’espansione dell’asse dei tempi dobbiamo
imporre la relazione vista in precedenza (se l’espansione è di 2 allora 𝐿 = 2).
______________________________________________________________________________________________________________________
1.4.3 Derivazione e Integrazione
Visto che i segnali a TC sono come delle funzioni reali o complesse di variabili reali possiamo definire le
operazioni:
• Derivazione
Si definisce derivata prima e derivata k-esima del segnale 𝑥(𝑡):

′ (𝒕)
𝒅 𝒙(𝒕 + ∆𝒕) − 𝒙(𝒕) 𝒌 (𝒕)
𝒅𝒌
𝒚(𝒕) = 𝒙 = 𝒙(𝒕) ≜ 𝐥𝐢𝐦 𝒚(𝒕) = 𝒙 = 𝒌 𝒙(𝒕)
𝒅𝒕 ∆𝒕→𝟎 ∆𝒕 𝒅𝒕

La derivazione è reversibile a meno di una costante additiva definendo l’operazione di integrazione.


• Integrazione
Supponendo di non avere particolari ipotesi sui segnali 𝑥(𝑡) e 𝑦(𝑡), applicando il teorema fondamentale
del calcolo integrale:
𝑡 𝑡 𝒕
𝑑 𝑥(−∞)=0
∫ 𝑦(𝑢) 𝑑𝑢 = ∫ 𝑥(𝑢) 𝑑𝑢 = 𝑥(𝑡) − 𝑥(−∞) → 𝒙(𝒕) = ∫ 𝒚(𝒖) 𝒅𝒖
−∞ −∞ 𝑑𝑢 −∞

Questo integrale, che ricorrerà molto spesso nello studio dei segnali, si definisce Integrale Corrente.

Seppur vero che tutti i segnali rappresentanti fenomeni fisici naturali sono continui, condizione
necessaria (ma non sufficiente) affinché un segnale sia anche derivabile, non è sempre detto che
lavoreremo solo su di essi ma potremmo incontrare anche segnali che presentano un certo numero di
discontinuità di prima specie (salti istantanei da un valore ad un altro). Un segnale fondamentale che
presenta una discontinuità di tipo salto (in 𝑡 = 0) è il Gradino a TC, definito
come di fianco. Infatti, facendo i limiti dei rapporti incrementali da sinistra 1 𝑠𝑒 𝑡 ≥ 0
𝑢(𝑡) ≜ {
e destra nel punto 𝑡 = 0 avremo due valori diversi (rispettivamente 0 e 1). 0 𝑎𝑙𝑡𝑟𝑖𝑚𝑒𝑛𝑡𝑖
Ciò vuol dire che per ∀𝑡 ≠ 0 la rapidità del segnale è nulla, mentre in 𝑡 = 0
la rapidità del segnale è infinita (di fatto abbiamo un salto).
Questo tipo di funzioni è problematica per l’operazione di 0 𝑠𝑒 𝑡 < −𝜀
1 𝑡
derivazione e quindi dovremmo introdurre la teoria delle 𝑢𝜀 (𝑡) ≜ { (1 + ) 𝑠𝑒 |𝑡| ≤ 𝜀
distribuzioni e il concetto di derivata generalizzata. Visto che la 2 𝜀
trattazione risulterebbe troppo complessa è più semplice 1 𝑠𝑒 𝑡 < −𝜀
considerare una funzione approssimante 𝑢𝜀 (𝑡) il gradino.
Pag. |9

L’approssimazione sarà tanto migliore quanto più piccolo sarà l’errore 𝜀, quindi lim 𝑢𝜀 (𝑡) = 𝑢(𝑡)
nel caso limite di errore nullo avremo la perfetta uguaglianza tra le due funzioni. 𝜀→0
Grazie a questa manipolazione, la funzione 𝑢𝜀 (𝑡) essendo continua
e priva di salti è derivabile senza problemi nel punto 𝑡 = 0. In
particolare, la sua derivata sarà una funzione 𝛿𝜀 (𝑡) rettangolare di
base 2𝜀 e altezza 1⁄2𝜀 .
𝑑 0 𝑠𝑒 |𝑡| > 𝜀
𝛿𝜀 (𝑡) = 𝑢𝜀 (𝑡) = { 1
𝑑𝑡 𝑠𝑒 |𝑡| < 𝜀
2𝜀
Visto però che l’errore è variabile dobbiamo capire a cosa tende
l’intera famiglia di funzioni del tipo 𝛿𝜀 (𝑡) per 𝜀 → 0. Ciò che succede è che al diminuire dell’errore la
base si restringe e l’altezza aumenta, quindi per 𝜀 → 0 tale funzione sarà nulla ovunque eccetto per in
𝑡 = 0 dove varrà infinito. Questa funzione molto particolare non può fare uso del classico concetto di
funzione che noi conosciamo, motivo per cui dobbiamo effettuare una serie di manipolazioni. Anzitutto
moltiplichiamo tale funzione per un segnale generico 𝑥(𝑡) continuo nell’intervallo [−𝜀, 𝜀]. In tal modo,
stiamo definendo un Funzionale che si “appoggia” alla funzione 𝛿𝜀 (𝑡), cioè un operatore che associa alla
funzione 𝑥(𝑡) un numero reale o complesso (dato dal secondo membro della seguente relazione).
+∞
1 +𝜀
∫ 𝛿𝜀 (𝑡)𝑥(𝑡)𝑑𝑡 = ∫ 𝑥(𝑡)𝑑𝑡
−∞ 2𝜀 −𝜀

Utilizzando il secondo teorema della media del calcolo +𝜀


integrale possiamo affermare che esiste un punto 𝑡𝜀 ∈ [−𝜀, 𝜀] ∫ 𝑥(𝑡)𝑑𝑡 = 𝑥(𝑡𝜀 )[𝜀 − (−𝜀)] = 2𝜀𝑥(𝑡𝜀 )
per il quale l’integrale a secondo membro vale: −𝜀

+∞
1 +𝜀 1 lim 𝑝𝑒𝑟 𝜀→0 +∞
∫ 𝛿𝜀 (𝑡)𝑥(𝑡)𝑑𝑡 = ∫ 𝑥(𝑡)𝑑𝑡 = )
∙ 2𝜀𝑥(𝑡𝜀 → lim ∫ 𝛿𝜀 (𝑡)𝑥(𝑡)𝑑𝑡 = lim 𝑥(𝑡𝜀 ) = 𝑥(0)
−∞ 2𝜀 −𝜀 2𝜀 𝜀→0 −∞ 𝜀→0

Ma ricordiamo che 𝛿𝜀 (𝑡) = 𝑑(𝑢𝜀 )/𝑑𝑡:


+∞ +∞ +∞ +∞
𝑑(𝑢𝜀 ) 𝑑(𝑢𝜀 )
lim ∫ 𝛿𝜀 (𝑡)𝑥(𝑡)𝑑𝑡 = lim ∫ 𝑥(𝑡)𝑑𝑡 = ∫ lim 𝑥(𝑡)𝑑𝑡 = ∫ 𝛿(𝑡)𝑥(𝑡)𝑑𝑡
𝜀→0 −∞ 𝜀→0 −∞ 𝑑𝑡 −∞ 𝜀→0 𝑑𝑡 −∞

La notazione 𝛿(𝑡) indica è una particolare distribuzione


chiamata Delta di Dirac. Se la delta fosse centrata in un 𝑑 𝑑(𝑢𝜀 )
punto diverso da zero allora si scriverebbe 𝛿(𝑡 − 𝑡0 ). (𝑢(𝑡)) ≜ lim = lim 𝛿𝜀 (𝑡) = 𝛿(𝑡)
Quindi per riassumere tutte le relazioni viste: 𝑑𝑡 𝜀→0 𝑑𝑡 𝜀→0

Elenchiamo alcune proprietà della delta di Dirac:


➢ Area Unitaria:
+∞
∫ 𝜹(𝒕)𝒅𝒕 = 𝟏
−∞
➢ Campionamento:
+∞
∫ 𝜹(𝒕 − 𝒕𝟎 )𝒙(𝒕)𝒅𝒕 = 𝒙(𝒕𝟎 ) ∀ 𝒕𝟎 ∈ 𝓡 ∀ 𝒙(𝒕) 𝒄𝒐𝒏𝒕𝒊𝒏𝒖𝒂 𝒊𝒏 𝒕𝟎
−∞
➢ Prodotto:
𝒙(𝒕)𝜹(𝒕 − 𝒕𝟎 ) = 𝒙(𝒕𝟎 )𝜹(𝒕 − 𝒕𝟎 ) ∀ 𝒕𝟎 ∈ 𝓡 ∀ 𝒙(𝒕) 𝒄𝒐𝒏𝒕𝒊𝒏𝒖𝒂 𝒊𝒏 𝒕𝟎
➢ Parità:
𝜹(−𝒕) = 𝜹(𝒕)
➢ Cambiamento di Scala:
𝟏
𝜹(𝒂𝒕) = 𝜹(𝒕) ∀ 𝒂 ∈ 𝓡 − {𝟎}
|𝒂|
P a g . | 10

➢ Derivazione:
+∞
𝒅𝒏 𝒏[
𝒅𝒏
∫ [ 𝜹(𝒕)] 𝒙(𝒕)𝒅𝒕 = (−𝟏) 𝒙(𝒕)] ∀𝒏 ∈ 𝓝 ∀ 𝒙(𝒕)
−∞ 𝒅𝒕𝒏 𝒅𝒕𝒏 𝒕=𝟎
➢ Integrazione:
𝒕
𝒖(𝒕) = ∫ 𝜹(𝒖)𝒅𝒖
−∞
➢ Integrazione Definita:

𝒃
𝒙(𝟎) 𝒔𝒆 𝒂 < 𝟎 < 𝒃
∫ 𝜹(𝒕)𝒙(𝒕)𝒅𝒕 = { ∀ 𝒂 < 𝒃 ∈ 𝓡 ∀ 𝒙(𝒕)
𝒂 𝟎 𝒔𝒆 𝒂 > 𝟎 𝒐𝒑𝒑𝒖𝒓𝒆 𝒃 < 𝟎

1.4.4 Differenza e Somma Corrente


Visto che nel tempo discreto non ha senso parlare di derivazione e integrazione in TD, dobbiamo definire
delle operazioni che presentino delle analogie con esse.
• Differenza Corrente
Si definisce differenza prima del segnale 𝑥(𝑛) l’operazione: 𝑦(𝑛) = ∇1 [𝑥(𝑛)] ≜ 𝑥(𝑛) − 𝑥(𝑛 − 1)
Tale operazione può essere effettuata ricorsivamente fino alla k-esima differenza del segnale 𝑥(𝑛) e
viene definita differenza corrente: 𝑦(𝑛) = 𝛻𝑘 [𝑥(𝑛)] = ∇1 [∇𝑘−1 [𝑥(𝑛)]]
• Somma Corrente
La differenza prima è una operazione reversibile a meno di una costante additiva. Analogamente a
quanto visto per la differenza corrente possiamo definire la somma prima (relazione di sinistra) e la
somma corrente (relazione a destra):
𝑛
𝑖𝑡𝑒𝑟𝑎𝑛𝑑𝑜
𝑥(𝑛) = 𝑦(𝑛) + 𝑥(𝑛 − 1) → 𝑥(𝑛) = 𝑦(𝑛) + 𝑦(𝑛 − 1) + 𝑦(𝑛 − 2) + ⋯ = ∑ 𝑦(𝑘)
𝑘=−∞
La differenza e la somma corrente corrispondono rispettivamente alla derivazione e alla integrazione.
Sempre in modo analogo al tempo continuo, anche nel discreto possiamo definire il funzionale impulso
discreto. Osserviamo che nel caso TD il calcolo della differenza prima non presenta le stesse
problematiche del calcolo della derivata prima in TC. Partendo dalla
funzione Gradino TD di fianco, osserviamo che non è assolutamente 1 𝑠𝑒 𝑛 ≥ 0
𝑢(𝑛) ≜ {
presente il concetto di discontinuità in 𝑛 = 0 perché non ha senso parlare 0 𝑎𝑙𝑡𝑟𝑖𝑚𝑒𝑛𝑡𝑖
di continuità nel discreto. Allora è immediato stabilire che
l’impulso TD o Delta di Kroneker è la differenza prima del 1 𝑠𝑒 𝑛 = 0
𝛿(𝑛) ≜ ∇1 [𝑢(𝑛)] = {
gradino TD (così come la delta è la derivata prima del gradino 0 𝑎𝑙𝑡𝑟𝑖𝑚𝑒𝑛𝑡𝑖
TC):
Elenchiamo alcune proprietà della delta di Dirac:
➢ Area Unitaria:
+∞

∑ 𝛿(𝑛) = 1
−∞
➢ Campionamento:
+∞

∑ 𝑥(𝑛)𝛿(𝑛 − 𝑛0 ) = 𝑥(𝑛0 ) ∀ 𝑛0 ∈ 𝒵
−∞
➢ Prodotto:
𝑥(𝑛)𝛿(𝑛 − 𝑛0 ) = 𝑥(𝑛)𝛿(𝑛 − 𝑛0 ) ∀ 𝑛0 ∈ 𝒵
➢ Parità: 𝛿(−𝑛) = 𝛿(𝑛)
➢ Decimazione ed Espansione:
𝑛
𝛿(𝑛𝑀) = 𝛿(𝑛) 𝛿 ( ) = 𝛿(𝑛) ∀ 𝑀 ∈ 𝒩 ∀𝐿 ∈ 𝒩
𝐿
➢ Somma:
𝑛

𝑢(𝑛) = ∑ 𝛿(𝑚)
𝑚=−∞
P a g . | 11

1.5 Caratterizzazione Sintetica nel Dominio del Tempo


Un segnale deterministico abbiamo detto essere un segnale descritto da una funzione, quindi una
corrispondenza fra gli elementi di un dominio e un codominio. Esistono dei casi in cui per ricavare il
segnale, invece di conoscere la funzione, possiamo fare uso della sua Caratterizzazione Sintetica. Essa
si tratta di un insieme di parametri ricavabili sperimentalmente che descrivono in maniera
approssimativa il segnale, motivo per cui con tale caratterizzazione siamo sempre soggetti a un certo
livello di imprecisione. Visto che i segnali da noi studiati sono tutti dipendenti dal tempo 𝑡 parleremo in
particolare di Caratterizzazione Sintetica nel Dominio del Tempo, i cui parametri sono:
• Durata Temporale
• Area e Media Temporale
• Energia e Potenza
In alternativa, per mettere in risalto particolari proprietà dei segnali o per una questione di comodità
dal punto di vista matematico si possono fare uso della serie e trasformata di Fourier che vedremo nei
capitoli successivi.

1.5.1 Durata Temporale


La Durata Temporale di un segnale è una misura della sua estensione temporale, ovvero dell’insieme
temporale all’interno del quale il segnale assume valori non trascurabili (piccoli o nulli). In particolare:
A. Tempo Continuo: definendo l’insieme estensione temporale 𝒟𝑥 ∁ 𝒯di un segnale 𝑥(𝑡) TC come
l’insieme dei |𝑥(𝑡)| di valore non trascurabile, la durata di 𝑥(𝑡) è la misura 𝐷𝑥 ≥ 0 appartenente
all’insieme 𝒟𝑥 ;
B. Tempo Discreto: definendo l’insieme estensione temporale 𝒟𝑥 ∁ 𝒯di un segnale 𝑥(𝑛) TD come
l’insieme dei |𝑥(𝑛)| di valore non trascurabile, la durata di 𝑥(𝑡) è la misura 𝐷𝑥 ∈ 𝒩 appartenente
all’insieme 𝒟𝑥 .
Bisogna però precisare che la durata temporale 𝐷𝑥 (una misura dell’insieme 𝒟𝑥 ) nel tempo continuo è
banalmente la lunghezza del segmento |𝑡2 − 𝑡1 | (semplice distanza tra due punti sull’asse dei tempi).
Nel tempo discreto, invece, visto che tra due istanti di tempo non ci potrebbero essere altri punti
dell’insieme 𝒟𝑥 avremmo che 𝐷𝑥 = 0. Tuttavia, nel caso tempo discreto il concetto di durata temporale
è ancora più semplice perché coincide con la cardinalità dell’insieme 𝒟𝑥 (numero di istanti di tempo in
cui il segnale discreto |𝑥(𝑛)| è di valore non trascurabile).
Fino ad ‘ora abbiamo parlato di valori non trascurabili, quindi capiamo che non c’è una rigorosità nel
calcolo della durata temporale di un segnale. A tal proposito è nata la seguente classificazione dei segnali
in basa alla durata temporale:
• Segnali di Durata Rigorosamente Limitata: sono quei segnali che al di fuori di un intervallo [𝑡1 , 𝑡2 ]
sono nulli. Allora l’estensione temporale è 𝒟𝑥 = (𝑡1 , 𝑡2 ) mentre la durata temporale è 𝐷𝑥 = 𝑡2 − 𝑡1 .
Tipici segnali di questo tipo sono la finestra rettangolare e quella triangolare;
• Segnali di Durata Praticamente Limitata: sono quei segnali che tendono asintoticamente a zero,
quindi possiamo supporlo di durata limitata al di fuori di un certo intervallo in quanto assume valori
molto piccoli. Motivo per cui, diversa è la soglia (estremi dell’intervallo) che noi scegliamo e diversa
sarà la durata temporale del segnale. Tipici segnali di questo tipo sono quelli esponenziali
monolateri;
• Segnali di Durata Illimitata: sono quei segnali che non decadono mai a zero e quindi 𝐷𝑥 = +∞. Tali
segnali costituiscono solo una astrazione matematica, in quanto nella pratica avremo sempre segnali
di durata limitata perché essi stessi (seppur di durata illimitata) vengono osservati o elaborati per
tempi limitati. Una famiglia importante di segnali di durata illimitata sono i segnali periodici, quindi
segnali che si ripetono in maniera identica dopo un certo intervallo di tempo detto Periodo. Per
essere più rigorosi:
• Segnale Periodico
Un segnale TC 𝑥(𝑡) si dice periodico se esiste un valore reale 𝑇0 ∈ 𝑅+ tale che: 𝒙(𝒕) = 𝒙(𝒕 + 𝑻𝟎 )
Un segnale TD 𝑥(𝑛) si dice periodico se esiste un valore reale 𝑁0 ∈ 𝒩 tale che: 𝒙(𝒏) = 𝒙(𝒕 + 𝑵𝟎 )
Tipici segnali periodici sono i fasori (esponenziali complessi) 𝑥(𝑡) = 𝐴𝑒 𝑗(𝜔0 𝑡+𝜑0 ) = 𝐴𝑒 𝑗(2𝜋𝑓0 𝑡+𝜑0 )
oppure le funzioni sinusoidali seno/coseno. Nel caso in cui non esistano valori di 𝑇0 o 𝑁0 per cui siano
soddisfatte le relazioni in rosso allora i segnali di dicono Aperiodici.
P a g . | 12

1.5.2 Area e Media Temporale


Dato un segnale a TC 𝑥(𝑡) o TD 𝑥(𝑛) e fissato un intervallo [−𝑍, 𝑍], vogliamo calcolare le seguenti
grandezze in tale intervallo:
• Area del Segnale: il seguente numero (reale o complesso).

+∞ 𝒁
∫ 𝒙(𝒕)𝒅𝒕 𝒐𝒑𝒑𝒖𝒓𝒆 ∫ 𝒙(𝒕)𝒅𝒕 𝑻𝑪
−∞ −𝒁
𝑨𝒙 (𝒁) ≜ +∞ 𝒁

∑ 𝒙(𝒏) 𝒐𝒑𝒑𝒖𝒓𝒆 ∑ 𝒙(𝒏) 𝑻𝑫


{ 𝒏=−∞ 𝒏=−𝒁

• Media Temporale: il seguente numero (reale o complesso).

𝟏 𝒁 𝟏 𝒁
𝐥𝐢𝐦 ∫ 𝒙(𝒕)𝒅𝒕 𝒐𝒑𝒑𝒖𝒓𝒆 ∫ 𝒙(𝒕)𝒅𝒕 𝑻𝑪
𝒁→∞ 𝟐𝒁 −𝒁 𝟐𝒁 −𝒁
< 𝒙(𝒕) >𝒛 ≜ 𝒁 𝒁
𝟏 𝟏
𝐥𝐢𝐦 ∑ 𝒙(𝒏) 𝒐𝒑𝒑𝒖𝒓𝒆 ∑ 𝒙(𝒏) 𝑻𝑫
{𝒁→∞ 𝟐𝒁 + 𝟏 𝒏=−𝒁 𝟐𝒁 + 𝟏
𝒏=−𝒁

Quindi per calcolare area e media dell’intero segnale si utilizzano le formule di sinistra, mentre per
porzioni finite del segnale (𝑍 ≠ ∞) si usano le formule di destra.

In particolare, la media temporale presenta due importanti proprietà:


➢ Linearità: < 𝑎1 𝑥1 (∙) + 𝑎2 𝑥2 (∙) >= 𝑎1 < 𝑥1 (∙) > +𝑎2 < 𝑥2 (∙) >
➢ Invarianza Temporale: < 𝑥(𝑡 − 𝑡0 ) >=< 𝑥(𝑡) > < 𝑥(𝑛 − 𝑛0 ) >=< 𝑥(𝑛) >
➢ Area e Media Temporale di un Segnale Periodico:

𝟏
∫ 𝒙(𝒕)𝒅𝒕 𝑻𝑪
𝑻𝟎 𝑻𝟎
< 𝒙(∙) >= 𝟏
∑ 𝑥(𝑡) 𝑻𝑫
𝑵
{ 𝟎 𝑵𝟎

La media temporale può essere intesa anche come componente continua di un segnale, dalla quale poi
è possibile ricavare la componente alternata.
• Componente Continua: coincide con la sua media temporale ed è quindi la parte “costante” del
segnale. In formule: 𝒙𝒅𝒄 ≜< 𝒙(∙) >
• Componente Alternata: è la differenza tra il segnale e la componente continua ed è quindi la parte
“variabile” del segnale. In formule: 𝒙𝒂𝒄 ≜ 𝒙(∙) − 𝒙𝒅𝒄
Possiamo quindi affermare che un qualunque segnale può essere espressa come la somma di una
componente continua e una alternata: 𝑥(∙) = 𝑥𝑑𝑐 + 𝑥𝑎𝑐
Nel caso in cui 𝑥𝑑𝑐 = 0, allora diremo che il segnale 𝑥(∙) è puramente alternativo.
P a g . | 13

1.5.3 Energia e Potenza


Dato un segnale a TC 𝑥(𝑡) o TD 𝑥(𝑛) e fissato un intervallo [−𝑍, 𝑍], vogliamo calcolare le seguenti
grandezze in tale intervallo:
• Energia
È definita nel seguente modo:

+𝒁 𝒁
𝐥𝐢𝐦 ∫ |𝒙(𝒕)|𝟐 𝒅𝒕 𝒐𝒑𝒑𝒖𝒓𝒆 ∫ |𝒙(𝒕)|𝟐 𝒅𝒕 𝑻𝑪
𝒁→∞ −𝒁 −𝒁
𝜺𝒙 (𝒁) ≜ +𝒁 𝒁

𝐥𝐢𝐦 ∑ |𝒙(𝒏)|𝟐 𝒐𝒑𝒑𝒖𝒓𝒆 ∑ |𝒙(𝒏)|𝟐 𝑻𝑫


{𝒁→∞ 𝒏=−𝒁 𝒏=−𝒁

Quindi per calcolare l’energia dell’intero segnale si utilizzano le formule di sinistra, mentre per porzioni
finite del segnale (𝑍 ≠ ∞) si usano le formule di destra. È importante osservare che, avendo omesso
delle costanti, dimensionalmente potremmo non avere una energia (Joule), quindi se vogliamo trovarci
alla fine con questa unità di misura dovremmo tenerne conto.

Facciamo alcune osservazioni circa la presenza del quadrato nelle due definizioni di energia. Anzitutto
essendo presente il quadrato, 𝑥(𝑡) può essere un segnale sia reale (si può omettere il modulo visto che
𝑥 2 (∙) = |𝑥(∙)|2 ) sia complesso e la sua energia sarà sempre una quantità reale e non negativa. Un’altra
osservazione deriva dal confronto tra le formule dell’area di un segnale e quelle dell’energia. Possiamo
infatti affermare che nelle formule dell’energia stiamo effettua l’area del segnale |𝑥(𝑡)|2 o |𝑥(𝑛)|2 . Grazie
a questa osservazione possiamo affermare che se 𝑥(∙) è un segnale rigorosamente limitato o al più
praticamente limitato (purché vada a zero rapidamente in modo che l’integrale o la sommatoria
convergano), allora anche l’energia sarà un valore finito. Un Segnale di Energia è un segnale 𝑥(∙) avente
energia finita e diversa da zero: 0 < 𝜀𝑥 < +∞

Osserviamo che il prodotto di un segnale di energia per una costante e la somma di due segnali di energia
sono segnali di energia, quindi l’insieme dei segnali di energia è un insieme chiuso rispetto alla somma
e al prodotto. Allora se vogliamo calcolare l’energia 𝜀𝑦 di un segnale 𝑦(∙) = 𝑎 ∙ 𝑥(∙) è facile dimostrare
che 𝜀𝑦 = |𝑎2 |𝜀𝑥 , mentre il discorso è più complesso se parliamo della somma di due segnali per il quale:

+∞
𝜀𝑥+𝑦 = ∫ |𝑥(𝑡) + 𝑦(𝑡)|2 𝑑𝑡
−∞
Sviluppando il quadrato:

|𝑥(𝑡) + 𝑦(𝑡)|2 = [𝑥(𝑡) + 𝑦(𝑡)] ∙ [𝑥(𝑡) + 𝑦(𝑡)]∗ = 𝑥(𝑡)𝑥 ∗ (𝑡) + 𝑦(𝑡)𝑦 ∗ (𝑡) + 𝑥(𝑡)𝑦 ∗ (𝑡) + 𝑦(𝑡)𝑥 ∗ (𝑡)

|𝑥(𝑡) + 𝑦(𝑡)|2 = |𝑥(𝑡)|2 + |𝑦(𝑡)|2 + 2𝑅𝑒[𝑥(𝑡)𝑦 ∗ (𝑡)]

+∞ +∞ +∞ +∞
𝜀𝑥+𝑦 = ∫ |𝑥(𝑡) + 𝑦(𝑡)|2 𝑑𝑡 = ∫ |𝑥(𝑡)|2 𝑑𝑡 + ∫ |𝑦(𝑡)|2 𝑑𝑡 + ∫ 2𝑅𝑒[𝑥(𝑡)𝑦 ∗ (𝑡)]𝑑𝑡
−∞ −∞ −∞ −∞

𝜀𝑥+𝑦 = 𝜀𝑥 + 𝜀𝑦 + 2𝑅𝑒[𝜀𝑥𝑦 ]

Con una dimostrazione analoga anche nel TD, possiamo definire l’Energia Mutua:
+∞
∫ 𝑥(𝑡)𝑦 ∗ (𝑡)𝑑𝑡 𝑇𝐶
−∞
𝜀𝑥𝑦 ≜ +∞

∑ 𝑥(𝑛)𝑦 ∗ (𝑛) 𝑇𝐷
{𝑛=−∞
P a g . | 14

Contrariamente all’energia dei singoli segnali, quella mutua è sempre una quantità complessa. Due casi
particolari di interesse sono:
Caso 𝜺𝒙𝒚 = 𝜺𝒚𝒙 : condizione che sussiste quando stiamo parlando di segnali reali e quindi risulta che
𝜀𝑥+𝑦 = 𝜀𝑥 + 𝜀𝑦 + 2𝜀𝑥𝑦 .
Caso 𝜺𝒙𝒚 = 𝟎: due segnali di energia per il quale vale questa condizione si dicono Ortogonali e
quindi vale la cosiddetta additività delle energie: 𝜀𝑥+𝑦 = 𝜀𝑥 + 𝜀𝑦

• Potenza
È definita nel seguente modo:
𝟏 𝒁 1 𝒁
𝐥𝐢𝐦 ∫ |𝒙(𝒕)|𝟐 𝒅𝒕 𝒐𝒑𝒑𝒖𝒓𝒆 ∫ |𝒙(𝒕)|𝟐 𝒅𝒕 𝑻𝑪
𝒁→∞ 𝟐𝒁 −𝒁 2𝑍 −𝒁
𝑷𝒙 (𝒁) ≜ 𝒁 𝑍
𝟏 1
𝐥𝐢𝐦 ∑ |𝑥(𝑛)|2 𝒐𝒑𝒑𝒖𝒓𝒆 ∑ |𝑥(𝑛)|2 𝑻𝑫
𝒁→∞ 𝟐𝒁 + 𝟏 2𝑍 + 1
{ 𝒏=−𝒁 𝑛=−𝑍

Quindi per calcolare la potenza dell’intero segnale si utilizzano le formule di sinistra, mentre per
porzioni finite del segnale (𝑍 ≠ ∞) si usano le formule di destra. È importante osservare che, avendo
omesso delle costanti, dimensionalmente potremmo non avere una potenza (Watt), quindi se vogliamo
trovarci alla fine con questa unità di misura dovremmo tenerne conto. A partire dalla potenza si
definisce il Valore Efficace di un Segnale 𝑥𝑟𝑚𝑠 : 𝑥𝑟𝑚𝑠 = √𝑃𝑥 = √< |𝑥(∙)|2 >

Un Segnale di Potenza è un segnale 𝑥(∙) avente potenza finita e diversa da zero: 0 < 𝑃𝑥 < +∞
Tipici segnali di potenza sono tutta la classe di segnali di durata illimitata come segnali aperiodici e
periodici per il quale le formule viste precedente si modificano come di seguito:

1
lim ∫ |𝑥(𝑡)|2 𝑑𝑡 𝑇𝐶
𝑍→∞ 𝑇0 𝑇
0
𝑃𝑥 (𝑍) ≜< |𝑥(∙)|2 >= 1
lim ∑|𝑥(𝑛)|2 𝑇𝐷
𝑍→∞ 𝑁0
{ 𝑁0

Osserviamo che il prodotto di un segnale di potenza per una costante e la somma di due segnali di
potenza sono segnali di potenza, quindi l’insieme dei segnali di potenza è un insieme chiuso rispetto alla
somma al prodotto. Allora con ragionamenti analoghi a quanto fatto per l’energia, anche per la potenza
possiamo dire che
𝑃𝑥+𝑦 = 𝑃𝑥 + 𝑃𝑦 + 2𝑅𝑒[𝑃𝑥𝑦 ]

Possiamo allora definire la Potenza Mutua:

1 𝑍
lim ∫ 𝑥(𝑡)𝑦 ∗ (𝑡)𝑑𝑡 𝑇𝐶
𝑍→∞ 2𝑍 −𝑍
𝑃𝑥𝑦 ≜< 𝑥(∙)𝑦 ∗ (∙) > = 𝑍
1
lim ∑ 𝑥(𝑛)𝑦 ∗ (𝑛)𝑑𝑡 𝑇𝐷
𝑍→∞ 2𝑍 + 1
{ 𝑛=−𝑍

Contrariamente alla potenza dei singoli segnali, quella mutua è sempre una quantità complessa. Due casi
particolari di interesse sono:
Caso 𝑷𝒙𝒚 = 𝑷𝒚𝒙 : condizione che sussiste quando stiamo parlando di segnali reali e quindi risulta
che 𝑃𝑥+𝑦 = 𝑃𝑥 + 𝑃𝑦 + 2𝑃𝑥𝑦 .
Caso 𝑷𝒙𝒚 = 𝟎: due segnali di potenza per il quale vale questa condizione si dicono Ortogonali e
quindi vale la cosiddetta additività delle potenze: 𝑃𝑥+𝑦 = 𝑃𝑥 + 𝑃𝑦
P a g . | 15

È interessante analizzare il legame tra segnali di energia e potenza e a tal proposito enunciamo il
seguente teorema:
Teorema sulla Relazione tra i Segnali di Energia e Potenza
✓ Se 𝑥(∙) è un segnale di potenza, allora esso ha energia infinita. Per provare tale affermazione basta
osservare che nella seguente definizione, la potenza esiste ed è finita se l’energia (integrale di
|𝑥(𝑡)|2 ) è infinita.
+∞
2
1 𝑍 2
∫−∞ |𝑥(𝑡)|2 𝑑𝑡
𝑃𝑥 (𝑍) ≜< |𝑥(∙)| >= lim ∫ |𝑥(𝑡)| 𝑑𝑡 =
𝑍→∞ 2𝑍 −𝑍 lim 2𝑍
𝑍→∞

✓ Se 𝑥(∙) è un segnale di energia, allora esso ha potenza nulla.


Tale teorema quindi ci consente di affermare che l’insieme dei segnali di energia e potenza sono disgiunti
in quanto non hanno elementi in comune. Esistono però delle eccezioni come il segnale nullo (𝑥(𝑡) = 0)
e la rampa (𝑡𝑢(𝑡)) che avendo 𝜀𝑥 = 𝑃𝑥 = +∞ non sono né segnali di energia né di potenza.

Per concludere lo studio dell’energia e della potenza dei segnali, osserviamo che spesso queste
grandezze hanno numerosi ordini di grandezza. Questo problema colpisce in particolare la potenza e
quindi in ingegneria è comodo utilizzare la conversione in Decibel e la riconversione in scala naturale:

𝑃𝑥 [𝑃𝑥]𝑑𝐵
[𝑃𝑥 ]𝑑𝐵 = 10 log10 ( ) 𝑃𝑥 = 𝑃0 10 10 𝑐𝑜𝑛 𝑃0 = 𝑝𝑜𝑡𝑒𝑛𝑧𝑎 𝑑𝑖 𝑟𝑖𝑓𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑜
𝑃0

In particolare, quando parliamo del valore efficace si usa invece:

𝑥𝑟𝑚𝑠
[𝑥𝑟𝑚𝑠 ]𝑑𝐵 = 20 log10 ( ) 𝑐𝑜𝑛 𝑥0 = √𝑃0
𝑥0
P a g . | 16

1.6 Proprietà dei Sistemi

1.6.1 Relazioni I-U e Interconnessione di Sistemi


Il primo passo fondamentale per la realizzazione di un sistema è la scelta del modello matematico
appropriato, dopodiché a partire da quest’ultimo si devono studiare e definire le proprietà del sistema.
Sebbene incompleta, la descrizione di un sistema sulla base delle sue proprietà è particolarmente
importante per tre motivi:
➢ Possibilità di suddividere i sistemi in classi omogenee;
➢ Sulla base di particolari proprietà del sistema il progettista può scegliere i metodi di analisi e sintesi
più appropriati;
➢ Le proprietà di un sistema consentono di comprendere più rapidamente il modello matematico più
adatto a descrivere un determinato fenomeno fisico.
In questo paragrafo ci occuperemo di studiare nel dettaglio le proprietà dei sistemi SISO TC e TD, mentre
per i sistemi misti se ne parlerà nell’ultimo capitolo (visto che parleremo dei convertitori A/D e D/A).

Un sistema SISO è un modello matematico che descrive la relazione tra un segnale in ingresso e un
segnale in uscita, quindi tramite l’operatore 𝒮 crea una corrispondenza fra gli elementi dell’insieme dei
segnali in ingresso ℐ e l’insieme dei segnali di uscita 𝒮: 𝒮: ℐ → 𝒰
• Relazione I-U (Ingresso-Uscita) di un Sistema TC
Un sistema SISO TC con ingresso 𝑥(𝑡) ∈ ℐ e uscita 𝑦(𝑡) ∈ 𝒰 è descritto matematicamente dalla sua
relazione i-u: 𝒚(𝒕) = 𝓢[{𝒙(𝒖)}𝒖∈𝓡 ; 𝒕]
Un tipico esempio di relazione i-u è quella dell’integratore, quindi di un
sistema che in uscita produce il seguente integrale del segnale d’ingresso:
𝑡
𝑦(𝑡) = ∫ 𝑥(𝑢)𝑑𝑢
−∞

• Relazione I-U (Ingresso-Uscita) di un Sistema TD


Un sistema SISO TD con ingresso 𝑥(𝑛) ∈ ℐ e uscita 𝑦(𝑛) ∈ 𝒰 è descritto matematicamente dalla sua
relazione i-u: 𝒚(𝒏) = 𝓢[{𝒙(𝒌)}𝒌∈𝒁 ; 𝒌]
Un tipico esempio di relazione i-u è quella dell’integratore, quindi di un
sistema che in uscita produce il seguente integrale del segnale d’ingresso:
𝑛

𝑦(𝑛) = ∑ 𝑥(𝑘)
𝑘=−∞

Molto spesso capita che ci troviamo a lavorare con più sistemi che sono connessi fra loro in diversi modi:
A. Sistemi in Serie: due sistemi si dicono connessi in serie se l’uscita del primo sistema è l’ingresso
del secondo;
B. Sistemi in Parallelo: due sistemi si dicono connessi in parallelo se lo stesso ingresso è applicato
ad entrambi e le loro uscite si sommano algebricamente.
C. Sistemi in Retroazione: se l’scita del primo sistema, dopo essere stata elaborata dal sistema
due viene somma algebricamente all’ingresso del primo.
P a g . | 17

1.6.2 Proprietà Fondamentali dei Sistemi


Utilizzando le relazioni i-u studiando alcune proprietà dei sistemi:
• Istantaneità
Un sistema TC si dice istantaneo se la sua relazione i-u assume la forma: 𝒚(𝒕) = 𝓢[𝒙(𝒕); 𝒕]
Un sistema TD si dice istantaneo se la sua relazione i-u assume la forma: 𝒚(𝒏) = 𝓢[𝒙(𝒏); 𝒏]
Tale proprietà ci dice in pratica che l’uscita all’istante 𝑡 o 𝑛 dipende solo da 𝑥(∙) nel medesimo istante
(sistema senza memoria).
• Causalità
Un sistema TC si dice istantaneo se la sua relazione i-u assume la forma: 𝒚(𝒕) = 𝓢[{𝒙(𝒖)}𝒖≤𝒕 ; 𝒕]
Un sistema TD si dice istantaneo se la sua relazione i-u assume la forma: 𝒚(𝒏) = 𝓢[𝒙(𝒌)𝒌≤𝒏 ; 𝒏]
Questa proprietà in sostanza ci dice che l’uscita del sistema può dipendere soltanto dal valore
dell’ingresso assunto negli istanti passati o al più quello presente (𝑢 ≤ 𝑡 o 𝑘 ≤ 𝑛). In pratica questa
proprietà ci dice che il nostro sistema non può predire il futuro, infatti si tratta di una proprietà comune
a tutti i fenomeni fisici. Una particolare proprietà dei sistemi causali è la seguente:
Siano 𝑦1 (𝑡) e 𝑦2 (𝑡) le uscite di un sistema a TC in risposta ai segnali 𝑥1 (𝑡) e 𝑥2 (𝑡). Il sistema è causale se
e solo se ∀𝑡0 ∈ ℛ e ∀𝑥1 (𝑡) e 𝑥2 (𝑡) ∈ ℐ (insieme dei segnali ingresso) tali che 𝑥1 (𝑡) = 𝑥2 (𝑡), allora ∀𝑡 ≤
𝑡0 risulta che 𝑦1 (𝑡) = 𝑦2 (𝑡).
Discorso analogo vale nel caso tempo discreto solo che invece di 𝑡 abbiamo 𝑛.
• Invertibilità
Un sistema 𝒮: ℐ → 𝒰 si dice invertibile se, comunque si fissi un segnale di uscita 𝑦(∙) ∈ 𝒰, esiste un unico
segnale in ingresso 𝑥(∙) ∈ ℐ tale che 𝒮(𝑥(∙)) = 𝑦(∙).
In pratica, un sistema è invertibile se è sempre possibile avere una univoca corrispondenza tra una
determinata uscita e un particolare ingresso, infatti se la stessa uscita venisse generata da diversi
ingressi allora non avremmo l’invertibilità. Questa proprietà è particolarmente importante in quei casi
in cui conosciamo l’uscita del sistema e vogliamo conoscerne l’ingresso, anche se come abbiamo detto
tale proprietà non sempre è garantita. Se il nostro sistema 𝒮 è invertibile allora possiamo definire il suo
sistema inverso 𝒮 −1 {𝒮[𝑥(∙)]} = 𝑥(∙).
• Invarianza Temporale
Un sistema TC si dice tempo invariante se vale la relazione:

𝒚(𝒕) = 𝓢[{𝒙(𝒖)}𝒖∈𝓡 ; 𝒕] = 𝓢[{𝒙(𝒖)}𝒖∈𝓡 ; 𝒕 − 𝒕𝟎 ] = 𝒚(𝒕 − 𝒕𝟎 )

Un sistema TD si dice tempo invariante se vale la relazione:

𝒚(𝒏) = 𝓢[{𝒙(𝒌)}𝒌∈𝐙 ; 𝒏] = 𝓢[{𝒙(𝒌)}𝒌∈𝐙 ; 𝒏 − 𝒏𝟎 ] = 𝒚(𝒏 − 𝒏𝟎 )

Risultato di questa proprietà è che a prescindere dove poniamo l’ingresso avremo sempre la medesima
uscita. Motivo per cui l’asse dei tempi può avere una origine arbitraria.
P a g . | 18

• Stabilità
Un sistema TC con ingresso limitato 𝑥(𝑡) e uscita 𝑦(𝑡) si dice BIBO stabile se:

|𝑥(𝑡)| ≤ 𝐾𝑥 ∀𝑡 ∈ ℛ → |𝑦(𝑡)| ≤ 𝐾𝑦 ∀𝑡 ∈ ℛ

Un sistema TD con ingresso limitato 𝑥(𝑛) e uscita 𝑦(𝑛) si dice BIBO stabile se:

|𝑥(𝑛)| ≤ 𝐾𝑥 ∀𝑛 ∈ Z → |𝑦(𝑛)| ≤ 𝐾𝑦 ∀𝑛 ∈ Z

• Linearità
Un sistema si dice lineare se soddisfa le seguenti proprietà:
➢ Omogeneità: per ogni coppia di segnali di ingresso 𝑥(∙) e di uscita 𝑦(∙) si ha che: 𝑎𝑥(∙) → 𝑎𝑦(∙)
➢ Additività: per ogni coppia di segnali di ingresso 𝑥1 (∙) e di uscita 𝑦1 (∙), e per ogni coppia per ogni
coppia di segnali di ingresso 𝑥1 (∙) e di uscita 𝑦1 (∙): 𝑥1 (∙) + 𝑥2 (∙) → 𝑦1 (∙) + 𝑦2 (∙)
Capiamo perciò che affinché un sistema sia lineare, l’insieme dei segnali ingresso ℐ e di uscita 𝒰 devono
essere chiusi rispetto alle operazioni di somma e prodotto per una costante. Questa proprietà consente
di apportare notevoli semplificazioni nell’analisi e nella sintesi dei sistemi. Tuttavia, le due proprietà
citate precedentemente possono essere riassunte mediate:
Principio di Sovrapposizione degli Effetti: un sistema è lineare se, per ogni coppia di segnali ingresso
𝑥1 (∙) e 𝑥2 (∙) e di uscita 𝑦1 (∙) e 𝑦2 (∙): 𝑎1 𝑥1 (∙) + 𝑎2 𝑥2 (∙) → 𝑎1 𝑦1 (∙) + 𝑎2 𝑦2 (∙) ∀𝑎1 , 𝑎2 ∈ 𝒞
Tale principio ovviamente si può estendere anche a più di due ingressi e uscite.
P a g . | 19

CAPITOLO 2: SISTEMI LINEARI TEMPO INVARIANTI

2.1 Introduzione
Un Sistema LTI è un sistema che possiede la proprietà di linearità e tempo invarianza. Sono la tipologia
di sistemi più semplici da studiare, infatti ci consentono di ricavare una relazione i-u semplice e generale
che può essere ottenuta mediate l’operazione di convoluzione (che vedremo in seguito) tra:
- Il segnale in ingresso 𝑥(𝑡) al sistema;
- La risposta impulsiva, ovvero la funzione che descrive completamente il sistema nel dominio del
tempo.
Cominciamo con suppore che in ingresso abbiamo un segnale 𝑥(∙) ∈ ℐ che può 𝑥(∙) = ∑ 𝑎𝑚 𝑥𝑚 (∙)
essere espresso come sovrapposizione di segnali elementari 𝑥𝑚 (TC o TD)
𝑚
moltiplicati per delle costanti 𝑎𝑚 ∈ 𝒞 (sono numero complessi). Grazie al
principio di sovrapposizione degli effetti possiamo esprimere l’uscita 𝑦(∙) nel seguente modo:

𝑦(∙) = 𝒮[𝑥(∙)] = 𝒮 [∑ 𝑎𝑚 𝑥𝑚 (∙)] = ∑ 𝑎𝑚 𝒮[𝑥𝑚 (∙)] = ∑ 𝑎𝑚 𝑦𝑚


𝑚 𝑚 𝑚

Dove 𝑦𝑚 ≜ 𝒮[𝑥𝑚 (∙)] = è l’uscita corrispondente all’m-esimo segnale in ingresso 𝑥𝑚 . Tuttavia, per poter
effettuare questi passaggi i segnali 𝑥𝑚 devono presentare tre proprietà fondamentali:
➢ Devono poter rappresentare tutti i segnali di interesse pratico (visto che stiamo cercando una
relazione i-u generale);
➢ Deve essere semplice calcolare i coefficienti 𝑎𝑚 ;
➢ Deve essere semplice calcolare 𝑦𝑚 dal sistema a ciascuno dei segnali 𝑥𝑚 .
I segnali 𝑥𝑚 in grado di rispettare queste proprietà sono:
• Segnali Impulsivi, da cui ricaveremo la Risposta Impulsiva ℎ(∙);
• Fasori, da cui ricaveremo la Risposta in Frequenza 𝐻(∙).

2.2 Relazione I-U di un Sistema LTI e Risposta Impulsiva


Supponiamo che i segnali elementari in ingresso 𝑥𝑚 siano degli impulsi traslati nel tempo 𝛿(𝑛 − 𝑚). Ciò
implica che i coefficienti della sommatoria, che sono le ampiezze dei singoli impulsi, non si sommano fra
loro. Possiamo quindi effettuare la sostituzione 𝑎𝑚 = 𝑥(𝑚) affermando l’ampiezza dell’m-esimo
impulso è uguale all’m-esimo campione di 𝑥(𝑛). Supponiamo di trovarci nel TD (discorso analogo è nel
TC), l’ingresso sarà:
+∞ +∞ +∞

𝑥(𝑛) = ∑ 𝑎𝑚 𝑥𝑚 (𝑛) = ∑ 𝑎𝑚 𝛿(𝑛 − 𝑚) = ∑ 𝑥(𝑚)𝛿(𝑛 − 𝑚)


𝑚=−∞ 𝑚=−∞ 𝑚=−∞

Ponendo in ingresso tale segnale a un sistema LTI TD otterremo la seguente relazione I-U:

+∞ +∞ +∞

𝑦(𝑛) = 𝒮[𝑥(𝑛)] = 𝒮 [ ∑ 𝑥(𝑚)𝛿(𝑛 − 𝑚)] = ∑ 𝑥(𝑚) 𝒮[𝛿(𝑛 − 𝑚)] = ∑ 𝑥(𝑚) ℎ(𝑛 − 𝑚)


𝑚=−∞ 𝑚=−∞ 𝑚=−∞

+∞ +∞

𝑦(𝑛) = 𝒮[𝑥(𝑛)] = ∑ 𝒙(𝒎) 𝒉(𝒏 − 𝒎) = ∑ 𝒉(𝒎) 𝒙(𝒏 − 𝒎)


𝒎=−∞ 𝒎=−∞

Negli ultimi due membri abbiamo effettuato una traslazione di ciascun impulso di 𝑚 campioni, quindi
𝛿(𝑛 − 𝑚) → δ(m) e quindi ℎ(𝑛 − 𝑚) = 𝒮[𝛿(𝑛 − 𝑚)] → ℎ(𝑚) = 𝒮[𝛿(𝑚)]. In tal modo, non solo abbiamo
rappresentato la relazione I-U di un sistema LTI mediate l’operazione matematica di convoluzione (gli
ultimi due membri), ma abbiamo che definito la Risposta Impulsiva ℎ(∙) = 𝒮[𝛿(𝑛 − 𝑚)]. In pratica, la
ℎ(∙) è l’uscita 𝑦(𝑡) del sistema al quale però sono stati sostituiti tutti i segnali che la compongono con
delle delta di Dirac (per esempio se 𝑦(𝑡) = 𝑢(𝑡) − 𝑢(𝑡 − 1) → ℎ(𝑡) = 𝛿(𝑡) − 𝛿(𝑡 − 1)).
P a g . | 20

2.3 Convoluzione

2.3.1 Caratterizzazione della Convoluzione


Abbiamo visto che la relazione I-U di un sistema LTI può essere espressa in termini di convoluzione sia
nel caso TC che TD:
• Convoluzione TC: dato un sistema a TC +∞ +∞
con ingresso 𝑥(𝑡) e uscita 𝑦(𝑡), esso è un 𝑦(𝑡) = ∫ 𝑥(𝜏)ℎ(𝑡 − 𝜏)𝑑𝜏 = ∫ ℎ(𝜏)𝑥(𝑡 − 𝜏)𝑑𝜏
sistema LTI se e solo se è descritto da una −∞ −∞

relazione i-u di convoluzione:


• Convoluzione TD: dato un sistema a
+∞ +∞
TD con ingresso 𝑥(𝑛) e uscita 𝑦(𝑛),
esso è un sistema LTI se e solo se è 𝑦(𝑛) = ∑ 𝑥(𝑚) ℎ(𝑛 − 𝑚) = ∑ ℎ(𝑚) 𝑥(𝑛 − 𝑚)
descritto da una relazione i-u di 𝑚=−∞ 𝑚=−∞
convoluzione:
Per effettuare il calcolo della convoluzione bisogna seguire i seguenti passi:
A. Caso TC:
1. Rappresentare ℎ(𝜏) e 𝑥(𝜏) in funzione di 𝜏 ∈ ℛ (numeri reali);
2. Effettuare prima la riflessione del segnale 𝑥(𝜏), costruendo 𝑧(𝜏) = 𝑥(−𝜏) e successivamente
effettuare la traslazione del segnale 𝑧(𝜏) verso destra se 𝑡 > 0 o verso sinistra se 𝑡 < 0.
Otteniamo così il segnale 𝑤𝑡 (𝜏) = 𝑧(𝜏 − 𝑡) = 𝑥[−(𝜏 − 𝑡)] = 𝑥(𝑡 − 𝜏);
3. ∀𝑡 ∈ ℛ il valore della convoluzione 𝑦(𝑡) all’istante 𝑡 si ottiene moltiplicando i segnali ℎ(𝜏) e
𝑤𝑡 (𝜏) per tutti i valori di 𝜏 ∈ ℛ ed effettuando l’integrale del prodotto.
B. Caso TD:
1. Rappresentare ℎ(𝑚) e 𝑥(𝑚) in funzione di 𝑚 ∈ 𝒵 (numeri relativi);
2. Effettuare prima la riflessione del segnale 𝑥(𝑚), costruendo 𝑧(𝑚) = 𝑥(−𝑚) e successivamente
effettuare la traslazione del segnale 𝑧(𝑚) verso destra se 𝑛 > 0 o verso sinistra se 𝑛 < 0.
Otteniamo così il segnale 𝑤𝑛 (𝑚) = 𝑧(𝑚 − 𝑛) = 𝑥[−(𝑚 − 𝑛)] = 𝑥(𝑛 − 𝑚);
3. ∀𝑛 ∈ 𝒵 il valore della convoluzione 𝑦(𝑛) all’istante 𝑛 si ottiene moltiplicando i segnali ℎ(𝑚) e
𝑤𝑛 (𝑚) per tutti i valori di 𝑚 ∈ 𝒵 ed effettuando la sommatoria del prodotto.

2.3.2 Proprietà della Convoluzione


L’unica differenza come abbiamo visto tra la convoluzione in TC e TD è la sommatoria al posto
dell’integrale, invece per molti altri aspetti le due convoluzioni sono analoghe e per questo motivo
indicheremo in modo generico tale operazione con il simbolo ∗. Quindi la convoluzione verrà indicata
con la notazione 𝑦(∙) = 𝑥(∙) ∗ ℎ(∙), simbolo analogo al prodotto e ciò non è casuale perché la
convoluzione presente alcune proprietà in comune con il prodotto classico, infatti proprio per questo
motivo viene tipicamente chiamata prodotto di convoluzione. Elenchiamo le proprietà della
convoluzione:
➢ Commutativa: 𝑥(∙) ∗ ℎ(∙) = ℎ(∙) ∗ 𝑥(∙)
➢ Associativa: 𝑥(∙) ∗ [ℎ1 (∙) ∗ ℎ2 (∙)] = [𝑥(∙) ∗ ℎ1 (∙)] ∗ ℎ2 (∙)
➢ Distributiva: 𝑥(∙) ∗ [ℎ1 (∙) + ℎ2 (∙)] = 𝑥(∙) ∗ ℎ1 (∙) + 𝑥(∙) ∗ ℎ2 (∙)
➢ Esistenza dell’Unità: 𝑥(∙) = 𝑥(∙) ∗ 𝛿(∙) = 𝛿(∙) ∗ 𝑥(∙)
➢ Invarianza Temporale:
ℎ(𝑡 − 𝑡1 ) ∗ 𝑥(𝑡 − 𝑡2 ) = 𝑦(𝑡 − (𝑡1 + 𝑡2 )) ∀𝑡1 , 𝑡2 ∈ ℛ
ℎ(∙) ∗ 𝑥(∙) = 𝑦(∙) → {
ℎ(𝑛 − 𝑛1 ) ∗ 𝑥(𝑛 − 𝑛2 ) = 𝑦(𝑛 − (𝑛1 + 𝑛2 )) ∀𝑛1 , 𝑛2 ∈ 𝒵
➢ Convoluzione dell’Impulso:
𝑥(𝑡 − 𝑡0 ) = 𝑥(𝑡) ∙ 𝛿(𝑡 − 𝑡0 ) = 𝛿(𝑡 − 𝑡0 ) ∗ 𝑥(𝑡) ∀𝑡0 ∈ ℛ
𝑥(𝑛 − 𝑛0 ) = 𝑥(𝑛) ∙ 𝛿(𝑛 − 𝑛0 ) = 𝛿(𝑛 − 𝑛0 ) ∗ 𝑥(𝑛) ∀𝑛0 ∈ 𝒵
➢ Durata della Convoluzione: siano 𝑥(𝑡) e ℎ(𝑡) di durata rigorosamente limitata, con durate 𝐷𝑥 , 𝐷ℎ ∈
ℛ+ → 𝑦(𝑡) = 𝑥(𝑡) ∗ ℎ(𝑡) è di durata rigorosamente limitata, con durata 𝐷𝑦 ≤ 𝐷𝑥 + 𝐷ℎ .
Analogamente nel TD, siano 𝑥(𝑛) e ℎ(𝑛) di durata rigorosamente limitata, con durate 𝐷𝑥 , 𝐷ℎ ∈ 𝒩 →
𝑦(𝑛) = 𝑥(𝑛) ∗ ℎ(𝑛) è di durata rigorosamente limitata, con durata 𝐷𝑦 ≤ 𝐷𝑥 + 𝐷ℎ − 1.
P a g . | 21

2.4 Risposta al Gradino


Il problema principale della risposta impulsiva è l’impossibilità di generare sperimentalmente un
impulso (in particolare la Delta di Dirac) visto che si tratta di un segnale ideale. Tale problema è risolto
con la funzione gradino 𝑢(∙), il quale pur essendo un segnale ideale, è facilmente approssimabile con una
funzione 𝑢𝜀 (∙) che ha un tempo di salita molto breve. Allora mediante tale funzione siamo in grado di
calcolare la Risposta al Gradino (o Indiciale) del nostro sistema. Indichiamo la risposta indiciale come
l’uscita 𝑠(∙) del sistema LTI:
A. Caso TC:
+∞ 𝑡
𝑠(𝑡) = ℎ(𝑡) ∗ 𝑢(𝑡) = ∫ ℎ(𝜏)𝑢(𝑡 − 𝜏)𝑑𝜏 = ∫ ℎ(𝜏)𝑑𝜏 𝑑𝑜𝑣𝑒: 𝑢(𝑡 − 𝜏) = 0 ∀(𝑡 − 𝜏) < 0
−∞ −∞
La risposta al gradino 𝑠(𝑡) e la risposta impulsiva ℎ(𝑡) di un sistema LTI sono legate dalla relazione
biunivoca:
𝑡
𝑑
𝑠(𝑡) = ∫ ℎ(𝜏)𝑑𝜏 ⇔ ℎ(𝑡) = 𝑠(𝑡)
−∞ 𝑑𝑡
B. Caso TD:
+∞ 𝑛

𝑠(𝑛) = ℎ(𝑛) ∗ 𝑢(𝑛) = ∑ ℎ(𝑚)𝑢(𝑛 − 𝑚) = ∑ ℎ(𝑚) 𝑑𝑜𝑣𝑒: 𝑢(𝑛 − 𝑚) = 0 ∀(𝑛 − 𝑚) < 0


𝑚=−∞ 𝑚=−∞

La risposta al gradino 𝑠(𝑛) e la risposta impulsiva ℎ(𝑛) di un sistema LTI sono legate dalla relazione
biunivoca:
𝑛

𝑠(𝑛) = ∑ ℎ(𝑚) ⇔ ℎ(𝑡) = ∇1 [𝑠(𝑛)] = 𝑠(𝑛) − 𝑠(𝑛 − 1)


𝑚−∞

In particolare, la risposta al gradino ci consente di ricavare facilmente


la risposta del sistema LTI a una finestra rettangolare 𝑅𝑁 (𝑛), la quale 𝑅𝑁 (𝑛) = 𝑢(𝑛) − 𝑢(𝑛 − 𝑁)
può essere vista come la differenza di due gradini:
Sfruttando la linearità e l’invarianza temporale del sistema: 𝑟𝑁 (𝑛) ≜ 𝒮[𝑅𝑁 (𝑛)] = 𝑠(𝑛) − 𝑠(𝑛 − 𝑁)

Per concludere, è importante specificare che sia la risposta impulsiva che quella al gradino vengono
definite Risposta Canoniche, in quanto entrambe sono in grado di descrivere completamente un
sistema LTI nel dominio del tempo.

2.5 Proprietà della Risposta Impulsiva


Vediamo alcune proprietà della risposta impulsiva:
• Istantaneità
Nel primo capitolo abbiamo visto che un generico sistema si dice istantaneo se l’uscita all’istante t (o n)
dipende solo dall’ingresso al medesimo istante, mentre nel caso dei sistemi LTI la definizione viene
leggermente modificata:
Un sistema LTI (TC e TD) si dice istantaneo se e solo se:
✓ La sua risposta impulsiva assume la forma: ℎ(∙) = 𝑎𝛿(∙)
✓ La sua relazione i-u assume la forma di un amplificatore/attenuatore ideale: 𝑦(∙) = 𝑎𝑥(∙)
Per dimostrare entrambe le relazioni sia nel TC che nel TD partiamo dalle relazioni di convoluzione di
ambo i casi:
+∞ +∞

𝑦(𝑡) = ∫ 𝑥(𝜏)ℎ(𝑡 − 𝜏)𝑑𝜏 𝑦(𝑛) = ∑ ℎ(𝑚) 𝑥(𝑛 − 𝑚)


−∞ 𝑚=−∞

La 1° relazione si dimostra osservando che: ℎ(𝑡) = ℎ(𝑡)𝛿(𝑡) = ℎ(0)𝛿(𝑡) = 𝑎𝛿(𝑡)


La 2° relazione si dimostra osservando che affinché 𝑦(𝑛) dipenda solo da 𝑥(𝑛), allora i termini 𝑥(𝑛 − 𝑚)
(con 𝑚 ≠ 0) non devo dare contributo e per fare ciò deve risultare che: ℎ(𝑚) = 0 ∀𝑚 ≠ 0
Chiaramente nel caso 𝑚 = 0: 𝑦(𝑛) = ℎ(0)𝑥(𝑛) = 𝑎𝑥(𝑛)
P a g . | 22

Chiaramente i sistemi istantanei sono anche primi di memoria, dove quest’ultima si può definire come
la durata temporale del segmento di segnale di ingresso che contribuisce all’uscita insieme al campione
attuale. Nel caso dei sistemi LTI la memoria può essere vista come la durata temporale 𝐷ℎ della risposta
impulsiva ℎ(∙). A tal proposito possiamo realizzare la seguente classificazione:
• Sistemi LTI con Memoria Rigorosamente Finita: 𝐷ℎ è rigorosamente finita. Esempio: i sistemi MA
o i FIR (Finitive Impulse Response);
• Sistemi LTI con Memoria Praticamente Finita: la risposta impulsiva va asintoticamente a zero e
quindi 𝐷ℎ si definisce imponendo una soglia minima per il quale ℎ(∙) risulta apprezzabile. Esempio:
i sistemi IIR (Infinite Impulse Response);
• Sistemi LTI con Memoria Infinita: 𝐷ℎ è infinita perché lo è la risposta impulsiva ℎ(∙), la quale non
decade mai verso zero. Esempio: sistemi come l’integratore e l’accumulatore con risposta impulsiva
a gradino unitario.
• Causalità
Un sistema LTI è causale se e solo se:
ℎ(𝑡) = 0 ∀𝑡 < 0
{
ℎ(𝑛) = 0 ∀𝑛 < 0

Chiaramente se le risposta impulsive non sono nulle per ∀𝑡, 𝑛 < 0 allora il sistema si dice non causale,
dove uno dei casi particolari e il Sistema Anti-causale, il quale dipende solo dagli istanti futuri (nelle
due relazioni invece di < si mette ≥). La proprietà di causalità implica che se un segnale in ingresso a un
sistema LTI TC (TD) causale è identicamente nullo per 𝑡 < 0 (𝑛 < 0) allora la corrispondente uscita è
anch’essa identicamente nulla per 𝑡 < 0 (𝑛 < 0).
• Invertibilità
Si consideri un sistema LTI invertibile con risposta impulsiva ℎ(∙) e il suo sistema inverso LTI con
risposta impulsiva ℎ𝑖𝑛𝑣 (∙). Tra i due sistemi sussiste la seguente relazione:

ℎ(∙) ∗ ℎ𝑖𝑛𝑣 (∙) = ℎ𝑖𝑛𝑣 (∙) ∗ ℎ(∙) = 𝛿(∙)

Nelle telecomunicazioni tale proprietà risulta fondamentale perché se dobbiamo trasmettere un segnale
con informazione 𝑥(∙) che però è distorto su un supporto fisico detto canale, il quale è modellato con un
sistema LTI con risposta impulsiva ℎ(∙),alla stazione ricevente usando il modello inverso e ℎ𝑖𝑛𝑣 (∙)
possiamo compensare le distorsioni. Tuttavia, la determinazione del sistema inverso e di ℎ𝑖𝑛𝑣 (∙) è molto
complicato dal punto di vista matematico e quindi non sempre è realizzabile la soluzione appena citata,
denominata Equalizzazione.
• Stabilità
Un sistema LTI è stabile se e solo se la sua risposta impulsiva è sommabile, ovvero:
+∞ +∞

∫ |ℎ(𝜏)|𝑑𝜏 ≤ 𝐾ℎ ∑ |ℎ(𝑚)| ≤ 𝐾ℎ
−∞ 𝑚=−∞
+∞
Dimostriamo tale proprietà nel discreto, anche se si può fare anche
𝑦(𝑛) = ∑ ℎ(𝑚)𝑥(𝑛 − 𝑚)
nel continuo sostituendo alle sommatorie gli integrali. Partendo
𝑚=−∞
dalla risposta impulsiva a TD:

+∞ +∞ +∞
|𝑦(𝑛)| = | ∑ ℎ(𝑚)𝑥(𝑛 − 𝑚)| ≤ ∑ |ℎ(𝑚)||𝑥(𝑛 − 𝑚)| ≤ 𝐾𝑥 ∑ |ℎ(𝑚)|
𝑚=−∞ 𝑚=−∞ 𝑚=−∞

Ma se ℎ(𝑚) è sommabile allora l’ultima sommatoria è minore o uguale di una +∞


costante 𝐾ℎ . Abbiamo così ottenuto la relazione in rosso appena vista. ∑ |ℎ(𝑚)| ≤ 𝐾ℎ
𝑚=−∞
P a g . | 23

2.6 Esempi di Sistemi LTI


Molto spesso i sistemi a TC possono essere descritti da equazioni differenziali lineari a coefficienti
costanti del tipo:
Dove: 𝑁 𝑀
- 𝑥(𝑡) = ingresso; 𝑑 𝑑
∑ 𝑎𝑘 𝑘 𝑦(𝑡) = ∑ 𝑏𝑚 𝑚 𝑥(𝑡)
- 𝑦(𝑡) = uscita; 𝑘=0
𝑑𝑡
𝑚=0
𝑑𝑡
- 𝑎𝑘 𝑒 𝑏𝑘 = coefficienti in genere reali dell’equazioni;
- 𝑁 𝑒 𝑀 = massimi gradi di derivazione.
Chiaramente tale equazione è certamente lineare ma non è detto che descriva un sistema che oltre a
essere lineare sia tempo invariante. Un’altra osservazione è che non è coinvolta solo l’uscita 𝑦(𝑡) ma
anche le sue N derivate. Se 𝑁 = 0 allora abbiamo una relazione i-u del sistema in questione:

𝑀
1 𝑑
𝑦(𝑡) = ∑ 𝑏𝑚 𝑚 𝑥(𝑡)
𝑎0 𝑑𝑡
𝑚=0

Se invece 𝑁 ≠ 0 allora la relazione in rosso descrive solo in maniera implicita il comportamento del
sistema. In questo caso per determinare la relazione i-u del sistema bisogna risolvere l’equazione in
rosso per ogni ingresso 𝑥(𝑡) applicato, a patto però di conoscere le condizioni iniziali e quindi il valore
dell’ingresso dall’istante in cui applichiamo un segnale al sistema. Tali condizioni iniziali si possono
esprimere nel seguente modo:
𝑦(0) = 𝑦0 𝑦 ′ (0) = 𝑦1 𝑦 ′′ (0) = 𝑦2 …

Nel tempo discreto invece abbiamo equazioni alle differenze lineari a coefficienti costanti di ordine N:
Dove:
- 𝑥(𝑛) = ingresso; 𝑁 𝑀
- 𝑦(𝑛) = uscita; ∑ 𝑎𝑘 𝑦(𝑛 − 𝑘) = ∑ 𝑏𝑚 𝑥(𝑛 − 𝑚)
- 𝑎𝑘 𝑒 𝑏𝑘 = coefficienti in genere reali dell’equazioni; 𝑘=0 𝑚=0
- 𝑁 𝑒 𝑀 = massimi gradi di differenza.
I Sistemi ARMA (Auto-Regressivi a Media Mobile) sono i più tipici esempi di sistemi descritti da
equazioni alle differenze. Tutte le considerazioni nel TC possono essere riproposte nel TD, infatti
nuovamente nel caso 𝑁 = 0:
𝑀
1
𝑦(𝑛) = ∑ 𝑏𝑚 𝑥(𝑛 − 𝑚)
𝑎0
𝑚=0
P a g . | 24

2.7 Risposta in Frequenza dei Sistemi LTI

2.7.1 Risposta ad un Fasore di un Sistema LTI


Definiamo la Risposta Armonica di un Sistema LTI e analizziamo che relazione sussiste fra essa e
l’uscita 𝑦(𝑡) del nostro sistema.
A. Caso Tempo Continuo:
Sia 𝑥(𝑡) un fasore a frequenza 𝑓 ∈ ℛ in ingresso ad un sistema LTI a +∞
TC con risposta impulsiva ℎ(𝑡). Definendo la Risposta Armonica 𝐻(𝑓) ≜ ∫ ℎ(𝜏)𝑒 −𝑗2𝜋𝑓𝜏 𝑑𝜏
𝐻(𝑓) mediate la relazione di fianco, la relazione i-u sotto queste −∞
condizioni sarà la seguente:
𝐴𝑙𝑙𝑜𝑟𝑎
𝑆𝑒 𝑥(𝑡) = 𝑒 𝑗2𝜋𝑓𝑡 → 𝑦(𝑡) = 𝐻(𝑓)𝑒 𝑗2𝜋𝑓𝑡 = 𝐻(𝑓)𝑥(𝑡)

Dimostrazione: ricordiamo che un sistema LTI è descritto dalla relazione i-u di convoluzione a primo
membro e supponiamo che il segnale in ingresso sia un fasore 𝑥(𝑡) = 𝑒 𝑗2𝜋𝑓𝑡 :
+∞ +∞ +∞
𝑦(𝑡) = ∫ ℎ(𝜏)𝑥(𝑡 − 𝜏)𝑑𝜏 = ∫ ℎ(𝜏)𝑒 𝑗2𝜋𝑓(𝑡−𝜏) 𝑑𝜏 = [∫ ℎ(𝜏)𝑒 𝑗2𝜋𝑓𝜏 𝑑𝜏] 𝑒 𝑗2𝜋𝑓𝑡 = 𝐻(𝑓)𝑒 𝑗2𝜋𝑓𝑡
−∞ −∞ −∞

Essendo 𝐻(𝑓) è una quantità complessa per definizione, essa può essere espressa anche evidenziando
modulo e fase: 𝐻(𝑓) = |𝐻(𝑓)|𝑒 𝑗∠𝐻(𝑓)
La fase in particolare, la quale è definita a meno di un arbitrario multiplo intero di 2𝜋, è definita come
l’argomento di 𝐻(𝑓): ∠𝐻(𝑓) = 𝐴𝑟𝑔[𝐻(𝑓)] + 2ℎ𝜋 con ℎ ∈ 𝒵
In definitiva, l’uscita si può esprimere nel seguente modo:

𝑦(𝑡) = |𝐻(𝑓)|𝑒 𝑗∠𝐻(𝑓) 𝑒 𝑗2𝜋𝑓𝑡 = |𝐻(𝑓)|𝑒 𝑗[2𝜋𝑓𝑡+∠𝐻(𝑓)]


Da cui possiamo affermare che l’ampiezza del fasore varia con una legge moltiplicativa, mentre la fase
con una legge additiva.

Infine, osserviamo che la risposta in frequenza è limitata se la risposta impulsiva è sommabile (ovvero
il sistema è stabile):
+∞ +∞ +∞
|𝐻(𝑓)| = |∫ ℎ(𝜏)𝑒 −𝑗2𝜋𝑓𝜏 𝑑𝜏| ≤ ∫ |ℎ(𝜏)𝑒 −𝑗2𝜋𝑓𝜏 |𝑑𝜏 = ∫ |ℎ(𝜏)|𝑑𝜏
−∞ −∞ −∞

B. Caso Tempo Discreto:


Sia 𝑥(𝑛) un fasore a frequenza v∈ ℛ in ingresso ad un sistema LTI +∞
a TD con risposta impulsiva ℎ(𝑛). Definendo la Risposta Armonica 𝐻(𝑣) ≜ ∑ ℎ(𝜏)𝑒 −𝑗2𝜋𝑣𝑚
𝐻(𝑣) mediate la relazione di fianco, la relazione i-u sotto queste 𝑚−∞
condizioni sarà la seguente
𝐴𝑙𝑙𝑜𝑟𝑎
𝑆𝑒 𝑥(𝑛) = 𝑒 𝑗2𝜋𝑣𝑛 → 𝑦(𝑛) = 𝐻(𝑣)𝑒 𝑗2𝜋𝑣𝑛

Dimostrazione: ricordiamo che un sistema LTI è descritto dalla relazione i-u di convoluzione a primo
membro. Supponiamo che il segnale in ingresso sia un fasore 𝑥(𝑡) = 𝑒 𝑗2𝜋𝑣𝑛 avremo:
+∞ +∞ +∞

𝑦(𝑛) = ∑ ℎ(𝑚)𝑥(𝑛 − 𝑚) = ∑ ℎ(𝑚)𝑒 𝑗2𝜋𝑓(𝑛−𝑚) = [ ∑ ℎ(𝑚)𝑒 −𝑗2𝜋𝑣𝑚 ] 𝑒 𝑗2𝜋𝑣𝑛 = 𝐻(𝑣)𝑒 𝑗2𝜋𝑣𝑛


𝑚=−∞ 𝑚=−∞ 𝑚=−∞

Anche nel caso tempo discreto la risposta in frequenza è limitata se la risposta impulsiva è sommabile
(ovvero il sistema è stabile):

+∞ +∞ +∞ +∞
|𝐻(𝑣)| = | ∑ ℎ(𝑚)𝑒 −𝑗2𝜋𝑣𝑚 | ≤ ∑ |ℎ(𝑚)𝑒 −𝑗2𝜋𝑣𝑚 | = ∑ |ℎ(𝑚)||𝑒 −𝑗2𝜋𝑣𝑚 | = ∫ |ℎ(𝑚)|
𝑚=−∞ 𝑚=−∞ 𝑚=−∞ −∞
P a g . | 25

Tuttavia, una importante differenza rispetto al caso TC è che nel TD è legata alla seguente proprietà:
Periodicità in frequenza dei fasori TD: la risposta in frequenza 𝐻(𝑣) di un sistema LTI a TD è
definita dalla relazione in grassetto di inizio paragrafo, essa è periodica di periodo unitario:

𝐻(𝑣) = 𝐻(𝑣 + 1) ∀𝑣 ∈ ℛ
Dimostrazione:
+∞ +∞ +∞

𝐻(𝑣 + 1) = ∑ ℎ(𝑚)𝑒 −𝑗2𝜋(𝑣+1)𝑚 = ∑ ℎ(𝑚)𝑒 −𝑗2𝜋𝑣𝑚 𝑒 −𝑗2𝜋𝑚 = ∑ ℎ(𝑚)𝑒 −𝑗2𝜋𝑣𝑚 1 = 𝐻(𝑣)


𝑚=−∞ 𝑚=−∞ 𝑚=−∞

2.7.2 Risposta ad una Sinusoide di un Sistema LTI Reale


Definiamo la Risposta ad una Sinusoide di un Sistema LTI:
A. Caso TC:
Si consideri una sinusoide (coseno o seno) a frequenza 𝑓0 ∈ ℛ in ingresso ad un sistema LTI a TC con
risposta impulsiva reale ℎ(𝑡), per il quale 𝐻(𝑓) è definita come abbiamo visto nel primo sotto-paragrafo
esiste finita per 𝑓 = 𝑓0 . Valgono le seguenti relazioni:

𝑥(𝑡) = 𝐴𝑐𝑜𝑠(2𝜋𝑓0 𝑡 + 𝜑0 ) → 𝑦(𝑡) = 𝐴|𝐻(𝑓0 )| cos(2𝜋𝑓0 𝑡 + 𝜑0 + ∠𝐻(𝑓0 ))


𝑥(𝑡) = 𝐴𝑠𝑒𝑛(2𝜋𝑓0 𝑡 + 𝜑0 ) → 𝑦(𝑡) = 𝐴|𝐻(𝑓0 )| sen(2𝜋𝑓0 𝑡 + 𝜑0 + ∠𝐻(𝑓0 ))

Per ricavare queste relazioni supponiamo di trovarci nel caso in cui: 𝑥(𝑡) = 𝐴𝑐𝑜𝑠(2𝜋𝑓0 𝑡 + 𝜑0 )
Applicando la formula di Eulero possiamo esprimere tale segnale come sovrapposizione di due fasori:

𝐴 𝑗(2𝜋𝑓 𝑡+𝜑 ) 𝐴 −𝑗(2𝜋𝑓 𝑡+𝜑 ) 𝐴 𝑗𝜑 𝑗2𝜋𝑓 𝑡 𝐴 −𝑗𝜑 −𝑗2𝜋𝑓 𝑡


𝑥(𝑡) = 𝑒 0 0 + 𝑒 0 0 = 𝑒 0𝑒 0 + 𝑒 0𝑒 0
2 2 2 2

I termini 𝐴⁄2 𝑒 𝑗𝜑0 e 𝐴⁄2 𝑒 −𝑗𝜑0 sono delle semplici costanti e applicando la relazione: 𝑦(𝑡) = 𝐻(𝑓)𝑒 𝑗2𝜋𝑓𝑡

𝐴 𝑗𝜑 𝐴
𝑦(𝑡) = 𝑒 0 𝐻(𝑓0 )𝑒 𝑗2𝜋𝑓0 𝑡 + 𝑒 −𝑗𝜑0 𝐻(−𝑓0 )𝑒 −𝑗2𝜋𝑓0 𝑡
2 2

Se 𝐻(−𝑓0 ) è il coniugato (uguale parte reale e complessa ma quest’ultima di segno discorde) di 𝐻(𝑓0 ):

𝐴
𝑦(𝑡) = 2ℛ𝑒 [ 𝐻(𝑓0 )𝑒 𝑗(2𝜋𝑓0 𝑡+𝜑0 )] = 𝐴|𝐻(𝑓0 )| cos(2𝜋𝑓0 𝑡 + 𝜑0 + ∠𝐻(𝑓0 ))
2

Analoghi passaggi si possono effettuare anche per il seno e anche nel caso tempo discreto, ovviamente
con un cambio di nome alle variabili.

B. Caso TD:
Si consideri una sinusoide (coseno o seno) a frequenza 𝑣0 ∈ ℛ in ingresso ad un sistema LTI a TD con
risposta impulsiva reale ℎ(𝑛), per il quale 𝐻(𝑣) è definita come abbiamo visto nel primo sotto-paragrafo
esiste finita per 𝑣 = 𝑣0 . Valgono le seguenti relazioni:

𝑥(𝑛) = 𝐴𝑐𝑜𝑠(2𝜋𝑣0 𝑛 + 𝜑0 ) → 𝑦(𝑛) = 𝐴|𝐻(𝑣0 )| cos(2𝜋𝑣0 𝑡 + 𝜑0 + ∠𝐻(𝑣0 ))


𝑥(𝑛) = 𝐴𝑠𝑒𝑛(2𝜋𝑣0 𝑛 + 𝜑0 ) → 𝑦(𝑛) = 𝐴|𝐻(𝑣0 )| sen(2𝜋𝑣0 𝑡 + 𝜑0 + ∠𝐻(𝑣0 ))
P a g . | 26

CAPITOLO 3: SERIE DI FOURIER

3.1 Introduzione
La descrizione nel dominio del tempo di un sistema LTI si basa sulla rappresentazione del segnale in
ingresso come sovrapposizione di impulsi traslati nel tempo (𝛿(𝑡 − 𝑡0 )) e sulla risposta impulsiva.
Tuttavia, se in ingresso al nostro sistema abbiamo un fasore è più semplice lavorare con la risposta in
frequenza e le rappresentazioni di Fourier. Sia nel TC che nel TD un segnale periodico può sempre essere
rappresentato come una sovrapposizione discreta di fasori, aventi frequenze multiple della Frequenza
Fondamentale. In particolare, tale rappresentazione si chiama:
A. Caso TC: Serie di Fourier
B. Caso TD: Discrete Fourier Serie (DFS)
Per esempio, supponiamo di trovarci nel caso TC (osservazioni analoghe valgono anche in TD) e di avere
in ingresso il seguente segnale 𝑥(𝑡), l’uscita 𝑦(𝑡) del nostro sistema sarà:

𝑥(𝑡) = 𝑒 𝑗2𝜋𝑓1𝑡 + 2𝑒 𝑗2𝜋𝑓2 𝑡 → 𝑦(𝑡) = 𝐻(𝑓1 )𝑒 𝑗2𝜋𝑓1 𝑡 + 2𝐻(𝑓2 )𝑒 𝑗2𝜋𝑓2 𝑡

Potremmo a questo punto obiettare che questa forma di scrittura è di scarso interesse perché abbiamo
parlato solo di segnali periodici, tuttavia nel successivo capitolo osserveremo una forma di scrittura
generale (quindi vale anche per segnali non periodici) che si chiama Trasformata di Fourier.

3.2 Serie di Fourier


Sia 𝑥(𝑡) un segnale a TC periodico, avente periodo 𝑇0 e frequenza fondamentale 𝑓0 = 1/𝑇0 . La serie di
Fourier di 𝑥(𝑡) è definita dalle equazioni:
1
𝐸𝑞𝑢𝑎𝑧𝑖𝑜𝑛𝑒 𝑑𝑖 𝐴𝑛𝑎𝑙𝑖𝑠𝑖: 𝑋𝑘 = ∫ 𝑥(𝑡)𝑒 −𝑗2𝜋𝑘𝑓0 𝑡 𝑑𝑡
𝑇0 𝑇0
+∞

𝐸𝑞𝑢𝑎𝑧𝑖𝑜𝑛𝑒 𝑑𝑖 𝑆𝑖𝑛𝑡𝑒𝑠𝑖: 𝑥(𝑡) = ∑ 𝑋𝑘 𝑒 𝑗2𝜋𝑘𝑓0 𝑡


{ 𝑘=−∞

Dimostrazione: abbiamo detto che un qualsiasi segnale periodico 𝑥(𝑡) di periodo 𝑇0 possiamo scriverlo
come somma finita di 𝑀 fasori (quindi di sinusoidi), quindi si può esprimere come:

+𝑀

𝑥(𝑡) = ∑ 𝑋𝑘 𝑒 𝑗2𝜋𝑘𝑓0𝑡
𝑘=−𝑀

La frequenza 𝑓𝑘 = 𝑘𝑓0 sono multiple della frequenza fondamentale 𝑓0 , quindi i periodi 𝑇𝑘 sono
sottomultipli del periodo fondamentale 𝑇0 . Inoltre, ciascun termine della sommatoria viene chiamato
Armonica e in particolare l’armonica con 𝑘 = ±1 vien definita Armonica Fondamentale. Indichiamo
con Problema di Analisi, la determinazione di coefficienti 𝑋𝑘 della sommatoria. Le varie armoniche
della sommatoria essendo delle sinusoidi sono certamente dei segnali di potenza e la potenza mutua fra
due armoniche avente frequenza diversa è:

1 1 𝑠𝑒 𝑘 = ℎ
𝑃𝑥𝑘 ,𝑥ℎ =< 𝑥𝑘 (𝑡)𝑥ℎ∗ (𝑡) >= ∫ 𝑒 −𝑗2𝜋(𝑘−ℎ)𝑓0 𝑡 𝑑𝑡 = 𝛿(𝑘 − ℎ) = {
𝑇0 𝑇0 0 𝑠𝑒 𝑘 ≠ ℎ

In particolare, nel secondo caso (𝑘 ≠ ℎ) le due armoniche sono ortogonali,


∫ 𝑥(𝑡)𝑑𝑡 < +∞
proprietà che agevola di molto il calcolo dei coefficienti 𝑋𝑘 . Supponendo che sia 𝑇0
vera la Condizione Sufficiente che 𝑥(𝑡) sia sommabile su 𝑇0 , il che vuol dire che
l’integrale di fianco è sommabile, allora certamente i coefficienti 𝑋𝑘 che calcoleremo a breve esistono e
sono di valore finito. La condizione appena proposta è tra l’altro piuttosto veritiera visto che il periodo
di integrazione 𝑇0 è finito.
P a g . | 27

Per ricavare la formula dei 𝑋𝑘 moltiplichiamo ambo i membri della relazione di 𝑥(𝑡) ricavata
inizialmente per 𝑒 −𝑗2𝜋ℎ𝑓0 𝑡 e integriamo su 𝑇0 :

+𝑀 +𝑀
1 1
𝑥(𝑡) = ∑ 𝑋𝑘 𝑒 𝑗2𝜋𝑘𝑓0𝑡 → ∫ 𝑥(𝑡)𝑒 −𝑗2𝜋ℎ𝑓0 𝑡 𝑑𝑡 = ∑ 𝑋𝑘 ∫ 𝑒 −𝑗2𝜋(𝑘−ℎ)𝑓0 𝑡 𝑑𝑡 = 𝑋ℎ
𝑇0 𝑇0 𝑇0 𝑇0
𝑘=−𝑀 𝑘=−𝑀

Cambiando l’indice da ℎ a 𝑘.
1
𝑋𝑘 = ∫ 𝑥(𝑡)𝑒 −𝑗2𝜋𝑘𝑓0 𝑡 𝑑𝑡
𝑇0 𝑇0

Inoltre, essendo i coefficienti 𝑋𝑘 dei numeri complessi si possono esprimere come:


• Spettro di Ampiezza: che corrisponde al suo modulo |𝑋𝑘 |;
• Spettro di Fase: che corrisponde alla sua fase ∠𝑋𝑘 + 2𝜋ℎ con ℎ ∈ 𝒵.
Il segnale 𝑥(𝑡) essendo periodico si può esprimere come una componente continua e una alternata:

𝑥(𝑡) = 𝑥𝑑𝑐 + 𝑥𝑎𝑐


+∞
1
𝑥𝑑𝑐 = 𝑋𝑘 |𝑘=0 = 𝑋0 = ∫ 𝑥(𝑡)𝑑𝑡 𝑥𝑎𝑐 = 𝑥(𝑡) − 𝑥𝑑𝑐 = ∑ 𝑋𝑘 𝑒 𝑗2𝜋𝑘𝑓0𝑡
𝑇0 𝑇0
𝑘=−∞
𝑘≠0
Purtroppo, non tutti i segnali periodici di interesse pratico possono essere espressi come una somma
finita di fasori. Motivo per cui per passare a una formulazione più generale facciamo il limite per 𝑀 → ∞
della relazione di 𝑥(𝑡) vista inizialmente per ottenere l’equazione di di sintesi:

+𝑀 +∞

𝑥(𝑡) = lim ∑ 𝑋𝑘 𝑒 𝑗2𝜋𝑘𝑓0 𝑡 = ∑ 𝑋𝑘 𝑒 𝑗2𝜋𝑘𝑓0𝑡


𝑀→∞
𝑘=−𝑀 𝑘=−∞

In definitiva, la serie di Fourier definisce una corrispondenza biunivoca tra 𝑥(𝑡) e i suoi coefficienti di
𝐹𝑇
Fourier 𝑋𝑘 : 𝑥(𝑡) ↔ 𝑋𝑘
Chiaramente però se prima avevamo un numero finito di termini e quindi la serie certamente
convergeva, ora con un numero infinito di termini può accadere che la serie risulti essere non
convergente. Lo studio delle condizioni sotto il quale la serie di Fourier converge dipende dal tipo di
convergenza richiesta (puntuale, uniforme, ecc.). La serie di Fourier Converge Uniformemente se è
valida la seguente Condizione Necessaria:

∀𝜀 > 0 ∃ 𝑁𝜀 ∈ 𝒩: ∀𝑡 ∈ ℛ 𝑒 ∀𝑀 > 𝑁𝜖 → |𝑥𝑀 (𝑡) − 𝑥(𝑡)| < 𝜀

Si tratta di una condizione solo necessaria ma non sufficiente perché se 𝑥(𝑡) presenta una discontinuità
allora la serie di Fourier non converge uniformemente, Questo perché la somma di una serie
uniformemente convergente di funzioni continue (quali i fasori) è sempre una funzione continua. Due
condizioni sufficienti possono essere: +∞
a. Se la successione di 𝑋𝑘 è sommabile, quindi vale la seguente relazione,
allora la serie a cui essi sono associati converge uniformemente. ∑ |𝑋𝑘 | < +∞
b. Teorema: se il segnale a TC 𝑥(𝑡), periodico di periodo 𝑇0 , è continuo 𝑘=−∞

e derivabile quasi ovunque (non è derivabile solo in una parte avente


misura nulla), con derivata 𝑥′(𝑡) a quadrato sommabile sul periodo ∫ |𝑥 ′ (𝑡)|2 𝑑𝑡 < +∞
𝑇0
𝑇0 , cioè vale la relazione di fianco, allora la serie di Fourier converge
uniformemente al segnale 𝑥(𝑡) su tutto l’asse reale.
Il problema però della convergenza uniforme è che affinché una serie di Fourier converga
uniformemente a un segnale 𝑥(𝑡), quest’ultimo deve essere necessariamente continuo. Questo però ci
reclude una ampia gamma di segnale che presentano invece delle discontinuità. Tale problema può
essere banalmente risolto passando alla convergenza puntuale, quindi la serie di Fourier converge a
𝑥(𝑡) per quasi tutti i valori di 𝑡 ∈ ℛ eccetto al più che in un sottoinsieme di valori di 𝑡 di misura nulla.
P a g . | 28

Quindi la serie di Fourier restituisce il segnale 𝑥(𝑡) ovunque eccetto che in ben determinati intervalli di
tempo. Tale questione viene affrontata mediate le seguenti condizioni.

Condizioni di Dirichlet per la Serie di Fourier:


Sia 𝑥(𝑡) un segnale a TC periodico di periodo 𝑇0 . Se 𝑥(𝑡) soddisfa le seguenti condizioni:
✓ 𝑥(𝑡) è sommabile su 𝑇0 ;
✓ 𝑥(𝑡) è una funzione continua su 𝑇0 escluso in un numero finito di discontinuità di prima specie;
✓ 𝑥(𝑡) è funzione derivabile su 𝑇0 escluso in un numero finito di discontinuità di prima specie.
Inoltre, in tali punti devono essere finiti i limiti da destra e da sinistra.
Allora la serie di Fourier di 𝑥(𝑡) esiste e:
➢ Converge ad 𝑥(𝑡) ∀𝑡 per i quali quest’ultima e continua;
➢ È pari alla semisomma dei limiti destro e sinistro, quindi [𝑥(𝑡 + ) − 𝑥(𝑡 − )]/2 nei punti di
discontinuità di prima specie.

L’equazione di sintesi della serie di Fourier, nelle ipotesi in cui valgono le condizioni di Dirichlet,
consente di ricostruire il segnale in ogni punto in cui 𝑥(𝑡) è continua e avere nei punti di discontinuità
la semisomma del limite destro e sinistro. La convergenza uniforme garantisce invece una perfetta
ricostruzione di 𝑥(𝑡) e abbiamo visto che una delle condizioni necessarie è che i coefficienti 𝑋𝑘 → 0 per
|𝑘| → +∞. Chiaramente nella pratica siamo in grado solo di considerare un numero finito 𝑀 di
armoniche per ricostruire il segnale 𝑥(𝑡) (avremmo perciò la serie di fianco), quindi ci potremmo
chiedere quanto deve essere grande M affinché abbiamo una adeguata ricostruzione del segnale. La
risposta a questo quesito dipende dalla rapidità con cui gli 𝑋𝑘 tendono a zero per |𝑘| → +∞, maggiore è
la rapidità minore dovrà essere M per ricostruire il segnale (la nostra serie di Fourier non avrà bisogno
di molti termini per ricostruire il segnale). La rapidità di decadimento dei coefficienti 𝑋𝑘 dipende dalla
dolcezza del segnale 𝑥(𝑡), maggiore sono il numero di derivate continua del segnale in questione e
maggiore è più velocemente gli 𝑋𝑘 tenderanno a zero. Una importante proprietà per tutto ciò che
abbiamo detto a proposito del problema della rapidità di decadimento è:

𝐹𝑆
Proprietà: Sia 𝑥(𝑡) ⇔ 𝑋𝑘 un segnale a TC periodico. Se esso con le sue derivate fino a quella di ordine
𝑛, con derivata (𝑛 + 1)-esima discontinua ma limitata, i coefficienti 𝑋𝑘 della sua serie di Fourier
decadono a zero per |𝑘| → +∞ come 1/|𝑘|𝑛+2 .
P a g . | 29

3.3 Discrete Fourier Series


Sia 𝑥(𝑛) un segnale a TD periodico, avente periodo 𝑁0 e frequenza fondamentale 𝑣0 = 1/𝑁0 . La serie di
Fourier di 𝑥(𝑛) è definita dalle equazioni:

𝑵𝟎 −𝟏

𝑬𝒒𝒖𝒂𝒛𝒊𝒐𝒏𝒆 𝒅𝒊 𝑨𝒏𝒂𝒍𝒊𝒔𝒊: 𝑿(𝒌) = ∑ 𝒙(𝒏)𝒘𝒌𝒏


𝑵𝟎
𝒏=𝟎
𝑵𝟎 −𝟏
𝟏
𝑬𝒒𝒖𝒂𝒛𝒊𝒐𝒏𝒆 𝒅𝒊 𝑺𝒊𝒏𝒕𝒆𝒔𝒊: 𝒙(𝒏) = ∑ 𝑿(𝒌)𝒘−𝒌𝒏
𝑵𝟎
{ 𝑵𝟎
𝒌=𝟎

Analogamente a quanto visto per il caso TC, anche nel tempo discreto siamo in grado di rappresentare
il segnale periodico in ingresso come sovrapposizione di fasori aventi frequenze multiple della
fondamentale (come di fianco). Una prima differenza rispetto al caso TC è che nel discreto la sommatoria
varia da 0 fino a 𝑁0 − 1, questo perché se abbiamo due fasori per il quale
𝑁0 −1
le frequenze sono tali che 𝑣2 − 𝑣1 = 𝑘, allora essi sono praticamente
identici per la proprietà di periodicità in frequenza dei fasori in TD. Allora 𝑥(𝑡) = ∑ 𝑋𝑘 𝑒 𝑗2𝜋𝑘𝑣0𝑛
basta far variare 𝑛 in modo che abbiamo sempre 𝑣𝑘 = 𝑘𝑣0 = 𝑘/𝑁0 , 𝑘=0
cosicché avremo la successione di frequenza 0,1/𝑁0 , … , (𝑁0 − 1)/𝑁0 .
Altra differenza dal caso TC è che nel tempo discreto la DFS ricostruisce sempre esattamente il segnale
𝑥(𝑛) in ingresso al sistema in quanto non abbiamo le problematiche presenti per i segnali TC 𝑥(𝑡).

Vediamo adesso come calcolare le due equazioni con passaggi analoghi a quel del caso TC ma questa
volta semplificati dal fatto che non dobbiamo preoccuparci della convergenza uniforma della serie.
Moltiplichiamo ambo i membri dell’equazione di analisi per 𝑒 −𝑗𝜋ℎ𝑣0 𝑛 e sommando su un periodo 𝑁0 :

𝑁0 −1 𝑁0 −1 𝑁0 −1 𝑁0 −1
1 1
𝑥(𝑡) = ∑ 𝑋𝑘 𝑒 𝑗2𝜋𝑘𝑣0𝑛 → ∑ 𝑥(𝑛)𝑒 −𝑗𝜋ℎ𝑣0𝑛 = ∑ 𝑋𝑘 ∑ 𝑒 𝑗2𝜋(𝑘−ℎ)𝑛𝑣0 = 𝑋ℎ
𝑁0 𝑁0
𝑘=0 𝑛=0 𝑛=0 𝑘=0

Cambiando l’indice da ℎ a 𝑘 otteniamo i coefficienti 𝑋𝑘 e quindi 𝑁0 −1


l’equazione di sintesi. Tuttavia, le equazioni di analisi e sintesi ricavate 1
𝑋𝑘 = ∑ 𝑥(𝑛)𝑒 −𝑗𝜋𝑘𝑣0𝑛
non rispecchiamo quelle citate a inizio paragrafo. Questo perché nella 𝑁0
𝑘=0
trattazione scientifica si effettuano alcuni passaggi che ne modificano
solo la forma. Anzitutto si definisce la sequenza 𝑋(𝑘) = 𝑁0 𝑋𝑘 e dopo aver effettuato tale sostituzione,
indichiamo con 𝑤𝑁0 = 𝑒 −𝑗2𝜋/𝑁0 . Effettuando queste due sostituzioni ricaviamo le equazioni esatte.

Inoltre, la quantità 𝑤𝑁0 gode delle seguenti proprietà:



➢ Coniugazione: (𝑤𝑁𝑘𝑛
0
) = 𝑤𝑁−𝑘𝑛
0
𝑘(𝑛+𝑁0 )
➢ Periodicità in n: 𝑤𝑁0 = 𝑤𝑁𝑘𝑛
0
𝑛(𝑘+𝑁 )
➢ Periodicità in k: 𝑤𝑁0 0
= 𝑤𝑁𝑘𝑛
0
Per concludere, l’equazione di analisi viene anche detta DFS mentre l’equazione di sintesi viene detta
IDFS (Inverse Discrete Fourier Series). La DFS e la IDFS possono essere visti come degli operatori che
realizzano le seguenti funzioni: 𝑋(𝑘) = 𝐷𝐹𝑆[𝑥(𝑛)] 𝑥(𝑛) = 𝐼𝐷𝐹𝑆[𝑋(𝑘)]
P a g . | 30

3.4 Principali Proprietà della Serie di Fourier e della DFS


Citiamo alcune delle proprietà della Serie di Fourier e della DFS che risultano particolarmente utili nel
calcolo dei coefficienti di Fourier e più in generale nella teoria dei segnali:
➢ Linearità
𝐹𝑆 𝐹𝑆
A. Caso Tempo Continuo: siano 𝑥(𝑡) ↔ 𝑋𝑘 e 𝑦(𝑡) ↔ 𝑌𝑘 segnali a TC periodici con lo stesso periodo.
𝐹𝑆
Allora risulta che: 𝑎1 𝑥(𝑡) + 𝑎2 𝑦(𝑡) ↔ 𝑎1 𝑋𝑘 + 𝑎2 𝑌𝑘 ∀𝑎1 , 𝑎2 ∈ 𝒞
𝐷𝐹𝑆 𝐷𝐹𝑆
B. Caso Tempo Discreto: siano 𝑥(𝑛) ↔ 𝑋(𝑘) e 𝑦(𝑛) ↔ 𝑌(𝑘) segnali a TD periodici con lo stesso
𝐷𝐹𝑆
periodo. Allora risulta che: 𝑎1 𝑥(𝑛) + 𝑎2 𝑦(𝑛) ↔ 𝑎1 𝑋(𝑘) + 𝑎2 𝑌(𝑘) ∀𝑎1 , 𝑎2 ∈ 𝒞

➢ Simmetria Hermitiana
𝐹𝑆
A. Caso Tempo Continuo: sia 𝑥(𝑡) ↔ 𝑋𝑘 un segnale a TC periodico. Allora risulta che:

𝑠𝑒 𝑒 𝑠𝑜𝑙𝑜 𝑠𝑒
𝑥(𝑡) è 𝑟𝑒𝑎𝑙𝑒 ⇔ 𝑋𝑘∗ = 𝑋−𝑘

Questa relazione deriva dal fatto che valgono le seguenti relazioni:

𝑆𝑝𝑒𝑡𝑡𝑟𝑜 𝑑𝑖 𝐴𝑚𝑝𝑖𝑒𝑧𝑧𝑎 𝑇𝐶 = |𝑋𝑘 | = |𝑋−𝑘 | è 𝑢𝑛𝑎 𝑓𝑢𝑛𝑧𝑖𝑜𝑛𝑒 𝑝𝑎𝑟𝑖 𝑑𝑖 𝑘


{
𝑆𝑝𝑒𝑡𝑡𝑟𝑜 𝑑𝑖 𝐹𝑎𝑠𝑒 𝑇𝐶 = ∠𝑋𝑘 = −∠𝑋−𝑘 è 𝑢𝑛𝑎 𝑓𝑢𝑛𝑧𝑖𝑜𝑛𝑒 𝑑𝑖𝑠𝑝𝑎𝑟𝑖 𝑑𝑖 𝑘
𝐹𝑆
B. Caso Tempo Discreto: sia 𝑥(𝑛) ↔ 𝑋(𝑘) un segnale a TD periodico. Allora risulta che:

𝑠𝑒 𝑒 𝑠𝑜𝑙𝑜 𝑠𝑒
𝑥(𝑛) è 𝑟𝑒𝑎𝑙𝑒 ⇔ 𝑋(𝑘)∗ = 𝑋(−𝑘)

Questa relazione deriva dal fatto che valgono le seguenti relazioni:

𝑆𝑝𝑒𝑡𝑡𝑟𝑜 𝑑𝑖 𝐴𝑚𝑝𝑖𝑒𝑧𝑧𝑎 𝑇𝐷 = |𝑋(𝑘)| = |𝑋(−𝑘)| è 𝑢𝑛𝑎 𝑓𝑢𝑛𝑧𝑖𝑜𝑛𝑒 𝑝𝑎𝑟𝑖 𝑑𝑖 𝑘


{
𝑆𝑝𝑒𝑡𝑡𝑟𝑜 𝑑𝑖 𝐹𝑎𝑠𝑒 𝑇𝐷 = ∠𝑋(𝑘) = −∠𝑋(−𝑘) è 𝑢𝑛𝑎 𝑓𝑢𝑛𝑧𝑖𝑜𝑛𝑒 𝑑𝑖𝑠𝑝𝑎𝑟𝑖 𝑑𝑖 𝑘

➢ Uguaglianza di Parseval +∞
𝐹𝑆
A. Caso Tempo Continuo: sia 𝑥(𝑡) ↔ 𝑋𝑘 un segnale a TC periodico di periodo 𝑃𝑥 = ∑ |𝑋𝑘 |2
𝑇0 . La potenza di 𝑥(𝑡) è data da: 𝑘=−∞

Dimostrazione: partendo dalla equazione di sintesi osserviamo che i fasori 𝑒 𝑗2𝜋𝑘𝑓0 𝑡 sono a due a due
ortogonali, per cui possiamo calcolare la potenza della somma di fasori come somme di potenze dei
2
singoli fasori. La potenza di un singolo fasore è data dal modulo al quadrato di |𝑋𝑘 𝑒 𝑗2𝜋𝑓0 𝑡 | = |𝑋𝑘 |2 :

+∞ +∞

𝑥(𝑡) = ∑ 𝑋𝑘 𝑒 𝑗2𝜋𝑘𝑓0𝑡 → 𝑃𝑥 = ∑ |𝑋𝑘 |2


𝑘=−∞ 𝑘=−∞
𝐷𝐹𝑆
B. Caso Tempo Discreto: sia 𝑥(𝑛) ↔ 𝑋(𝑘) un segnale a TD periodico di 𝑁0 −1
periodo 𝑁0 . La potenza di 𝑥(𝑛) è data da: 1
𝑃𝑥 = 2 ∑ |𝑋(𝑘)|2
𝑁0
𝑘=0
Dimostrazione: partendo dalla equazione di sintesi come nel caso TC,
effettuiamo il seguente passaggio in modo da poter interpretare tale
relazione come una combinazione lineare dei fasori 𝑥𝑘 (𝑛) = 𝑒 𝑗2𝜋𝑘𝑛⁄𝑁0 con coefficienti 𝑋(𝑘)/𝑁0 .

𝑁0 −1 𝑁0 −1 𝑁0 −1
1 1 𝑘 1
𝑗2𝜋𝑁 𝑛
𝑥(𝑛) = ∑ 𝑋(𝑘)𝑤𝑁−𝑘𝑛 = ∑ 𝑋(𝑘)𝑒 0 = ∑ 𝑋(𝑘)𝑥𝑘 (𝑛)
𝑁0 0
𝑁0 𝑁0
𝑘=0 𝑘=0 𝑘=0
P a g . | 31

Anche in questo caso è valida la condizione di ortogonalità:

𝑁0 −1
1 (𝑘−ℎ)
𝑗2𝜋 𝑁 𝑛 1 𝑠𝑒 𝑘 = ℎ
𝑃𝑥𝑘 , 𝑥ℎ =< 𝑥𝑘 (𝑛)𝑥ℎ∗ (𝑛) >= ∑ 𝑒 0 = 𝛿(𝑘 − ℎ) = {
𝑁0 0 𝑠𝑒 𝑘 ≠ ℎ
𝑘=0

Possiamo definire la potenza con una espressione analoga al caso TC:

𝑁0 −1
1
𝑃𝑥 = 2 ∑ |𝑋(𝑘)|2
𝑁0
𝑘=0
In definiva, sia nel caso TC che TD l’uguaglianza di Parseval ci dice in +∞
sostanza che la potenza di un segnale periodico è pari alla somma delle 2
𝑃𝑥 = 𝑋0 + 2 ∑ |𝑋𝑘 |2
potenze delle armoniche che lo compongono. Nel caso di segnali periodici
𝑘=1
TC (ma anche TD) reali, sfruttando la simmetria Hermitiana possiamo
scrivere la relazione sulla potenza vista precedentemente come di fianco.
Inoltre, nel TC l’uguaglianza di Parseval può essere utilizzata per misurare l’accuratezza della
ricostruzione di un segnale periodico impegnando un numero finito di armoniche. Per ottenere una
valutazione quantitativa di tale accuratezza si calcola la potenza 𝑃𝑥 (𝑀) del segnale ricostruito 𝑥𝑀 (𝑡) con
2𝑀 + 1 armoniche e la si confronta con la potenza 𝑃𝑥 del segnale originario 𝑥(𝑡). Effettuando il rapporto
tra le due potenze otteniamo l’Indice di Bontà della Ricostruzione, il quale varia al variare di M.

𝑀 𝑀
𝑗2𝜋𝑘𝑓0 𝑡
𝑃𝑥 (𝑀)
𝑥𝑀 (𝑡) = ∑ 𝑥(𝑘)𝑒 → 𝑃𝑥 (𝑀) = ∑ |𝑋𝑘 |2 → 𝜀𝑀 ≜ ∈ [0,1]
𝑃𝑥
𝑘=−𝑀 𝑘=−𝑀
P a g . | 32

3.5 Risposta di un Sistema LTI ad un Segnale Periodico


La principale motivazione che ci spinge a rappresentare un generico segnale come sovrapposizione di
fasori è la semplicità con cui è possibile calcolare
𝐴𝑙𝑙𝑜𝑟𝑎
l’uscita di un sistema LTI sollecitato da un singolo 𝑆𝑒 𝑥(𝑡) = 𝑒 𝑗2𝜋𝑓𝑡 → 𝑦(𝑡) = 𝐻(𝑓)𝑒 𝑗2𝜋𝑓𝑡
fasore, mediante le formule (di fianco) viste nel 𝐴𝑙𝑙𝑜𝑟𝑎
𝑆𝑒 𝑥(𝑛) = 𝑒 𝑗2𝜋𝑣𝑛 → 𝑦(𝑛) = 𝐻(𝑣)𝑒 𝑗2𝜋𝑣𝑛
capitolo precedente sia per il caso TC che TD.

A. Caso Tempo Continuo


𝐹𝑆 𝐹𝑆
Siano 𝑥(𝑡) ↔ 𝑋𝑘 e 𝑦(𝑡) ↔ 𝑌𝑘 segnali a TC periodici con lo stesso periodo 𝑇0 e frequenza fondamentale 𝑓0 =
1/𝑇0 , rispettivamente ingresso e uscita di un sistema LTI a TC con risposta in frequenza 𝐻(𝑓) finita. Vale
la seguente relazione:
𝑌𝑘 = 𝑋𝑘 𝐻(𝑘𝑓0 ) ∀𝑘 ∈ 𝒵

Dimostrazione: prendiamo un segnale 𝑥(𝑡) periodico di periodo 𝑇0 e frequenza fondamentale 𝑓0 =


1/𝑇0 . Esso può chiaramente essere espresso mediante l’equazione di sintesi della serie di Fourier, nella
quale ciascun fasore lo chiameremo 𝑥𝑘 (𝑡) e lo sostituiremo nella formula sopracitata.

+∞ +∞
𝐴𝑙𝑙𝑜𝑟𝑎
𝑥(𝑡) = ∑ 𝑋𝑘 𝑒 𝑗2𝜋𝑘𝑓0 𝑡 = ∑ 𝑋𝑘 𝑥𝑘 (𝑡) → 𝑥𝑘 (𝑡) = 𝑒 𝑗2𝜋𝑘𝑓0 𝑡 → 𝑦𝑘 (𝑡) = 𝐻(𝑘𝑓0 )𝑒 𝑗2𝜋𝑘𝑓0 𝑡
𝑘=−∞ 𝑘=−∞

L’uscita quindi si può esprimere mediante la sovrapposizione degli effetti e chiamando 𝑌𝑘 = 𝑋𝑘 𝐻(𝑘𝑓0 ),
scriviamo l’equazione di sintesi della serie di Fourier di 𝑦(𝑡). Possiamo osservare che i coefficienti di
Fourier di 𝑦(𝑡) si ottengono moltiplicando quelli dell’ingresso per i campioni della risposta in frequenza
𝐻(𝑓) valutati in 𝑘𝑓0 :
+∞ +∞

𝑦(𝑡) = ∑ 𝑿𝒌 𝑯(𝒌𝒇𝟎 ) 𝑒 𝑗2𝜋𝑘𝑓0𝑡 = ∑ 𝒀𝒌 𝑒 𝑗2𝜋𝑘𝑓0 𝑡


𝑘=∞ 𝑘=∞
B. Caso Tempo Discreto
𝐷𝐹𝑆 𝐷𝐹𝑆
Siano 𝑥(𝑛) ↔ 𝑋(𝑘) e 𝑦(𝑛) ↔ 𝑌(𝑘) segnali a TD periodici con lo stesso periodo 𝑁0 e frequenza
fondamentale 𝑣0 = 1/𝑣0 , rispettivamente ingresso e uscita di un sistema LTI a TD con risposta in frequenza
𝐻(𝑣) finita. Vale la seguente relazione:

𝑌(𝑘) = 𝑋(𝑘)𝐻(𝑘𝑣0 ) ∀𝑘 ∈ {0,1, … , 𝑁0 − 1}

Dimostrazione: prendiamo un segnale 𝑥(𝑛) periodico di periodo 𝑇0 e frequenza fondamentale 𝑓0 =


1/𝑇0 . Esso può chiaramente essere espresso mediante l’equazione di sintesi della DFS, nella quale
ciascun fasore lo chiameremo 𝑥𝑘 (𝑡) e lo sostituiremo nella formula sopracitata.

𝑁0 −1 𝑁0 −1
1 1 𝐴𝑙𝑙𝑜𝑟𝑎
𝑥(𝑡) = ∑ 𝑋(𝑘)𝑒 𝑗2𝜋𝑘𝑣0 𝑛 = ∑ 𝑋(𝑘)𝑥𝑘 (𝑛) → 𝑥𝑘 (𝑛) = 𝑒 𝑗2𝜋𝑘𝑛𝑡 → 𝑦𝑘 (𝑛) = 𝐻(𝑘𝑣0 )𝑒 𝑗2𝜋𝑘𝑣0𝑛
𝑁0 𝑁0
𝑘=0 𝑘=0

L’uscita quindi si può esprimere mediante la sovrapposizione degli effetti e chiamando 𝑌(𝑘) =
𝑋(𝑘)𝐻(𝑘𝑣0 ), scriviamo l’equazione di sintesi della DFS di 𝑦(𝑛). Possiamo osservare che i coefficienti di
Fourier di 𝑦(𝑛) si ottengono moltiplicando quelli dell’ingresso per i campioni della risposta in frequenza
𝐻(𝑣) valutati in 𝑘𝑣0 :
𝑁0 −1 𝑁0 −1
1 1
𝑦(𝑛) = ∑ 𝑿(𝒌)𝑯(𝒌𝒗𝟎 )𝑒 𝑗2𝜋𝑘𝑣0𝑛 = ∑ 𝒀(𝒌)𝑒 𝑗2𝜋𝑘𝑣0 𝑛
𝑁0 𝑁0
𝑘=0 𝑘=0
P a g . | 33

3.6 Selettività in Frequenza di un Sistema LTI


La Selettività in Frequenza è quella caratteristica che presentano i sistemi LTI di modificare in maniera
diversa le armoniche del segnale alle differenti frequenze. Per esempio, riprendendo la relazione
dell’uscita 𝑦(𝑡) ricavata nel paragrafo precedente (quella di fianco), ci accorgiamo che viene modificata
l’ampiezza e la fase di ciascun fasore 𝑒 𝑗2𝜋𝑘𝑓0 𝑡 . In particolare, la frequenza 𝑘𝑓0 rimane invariata mentre
ampiezza e fase vengono modificate in base al valore di 𝐻(𝑘𝑓0 ) assunto dalla risposta armonica 𝐻(𝑓)
per tale valore di frequenza. Ciò è molto +∞ +∞
interessante in quanto, soprattutto la modifica
dell’ampiezza, comporta un cambiamento del 𝑦(𝑡) = ∑ 𝑋𝑘 𝐻(𝑘𝑓0 ) 𝑒 𝑗2𝜋𝑘𝑓0 𝑡 = ∑ 𝑌𝑘 𝑒 𝑗2𝜋𝑘𝑓0 𝑡
peso relativo di un certo fasore. 𝑘=∞ 𝑘=∞

I Filtri sono i sistemi che meglio ci fanno capire il principio della selettività in frequenza. In particolare,
vedremo per i filtri oltre che le espressioni analitiche delle rispettive 𝐻(𝑓) anche:
- Frequenza/e di Taglio 𝒇𝒑 o 𝒇𝒑𝟏 , 𝒇𝒑𝟐: è il valore di frequenza a cui il filtro realizza il compito per cui
è stato progettato.
- Banda Passante 𝓦𝒑 : intervallo di frequenza in cui il modulo della risposta in frequenza 𝐻(𝑓) ha
modulo costante e diverso da zero;
- Banda Oscura 𝓦𝒔 : intervallo di frequenza che non fanno parte della banda passante.
Vediamo alcuni Filtri Ideali TC e TD, ricordando che queste ultime hanno una periodicità pari a 1:
• Filtro Ideale Passa-basso o Lowpass Filter (LPF):
Viene usato per far passare inalterate le basse frequenze e attenuare (talvolta anche annullare) le alte
frequenze del segnale.
A. Caso Tempo Continuo: Le espressioni di questo tipo di filtro sono:

1 𝑠𝑒 |𝑓 | ≤ 𝑓𝑝 𝑓
𝐻𝐿𝑃𝐹 (𝑓) = { 𝑜𝑝𝑝𝑢𝑟𝑒 𝐻𝐿𝑃𝐹 (𝑓) = ∏ ( )
0 𝑠𝑒 |𝑓 | > 𝑓𝑝 2𝑓𝑝

- Frequenza di Taglio: 𝑓𝑝 > 0


- Banda Passante: si trova nell’intorno di 𝑓 = 0. 𝒲𝑝 = [−𝑓𝑝 , 𝑓𝑝 ]
- Banda Oscura: 𝒲𝑠 =] − ∞, 𝑓𝑝 ] ∪ [𝑓𝑝 , +∞[
B. Caso Tempo Discreto: Le espressioni di questo tipo di filtro sono:

1 𝑠𝑒 |𝑣 | ≤ 𝑣𝑝 𝑣
𝐻𝐿𝑃𝐹 (𝑣) = { 𝑜𝑝𝑝𝑢𝑟𝑒 𝐻𝐿𝑃𝐹 (𝑣) = 𝑟𝑒𝑝1 [∏ ( )]
0 𝑠𝑒 |𝑣 | > 𝑣𝑝 2𝑣𝑝

- Frequenza di Taglio: 𝑣𝑝 > 0


- Banda Passante: si trova nell’intorno di 𝑣 = 0. 𝒲𝑝 = [−𝑣𝑝 , 𝑣𝑝 ]
- Banda Oscura: 𝒲𝑠 =] − ∞, 𝑣𝑝 ] ∪ [𝑣𝑝 , +∞[

• Filtro Ideale Pass-alto o Highpass Filter (HPF):


Viene usato per far passare inalterate le alte frequenze e attenuare (talvolta anche annullare) le basse
frequenze del segnale.
A. Caso Tempo Continuo: le espressioni di questo tipo di filtro sono:

0 𝑠𝑒 |𝑓 | ≤ 𝑓𝑝 𝑓
𝐻𝐿𝑃𝐹 (𝑓) = { 𝑜𝑝𝑝𝑢𝑟𝑒 𝐻𝐻𝑃𝐹 (𝑓) = 1 − ∏ ( ) = 1 − 𝐻𝐿𝑃𝐹 (𝑓)
1 𝑠𝑒 |𝑓 | > 𝑓𝑝 2𝑓𝑝

- Frequenza di Taglio: 𝑓𝑝 > 0


- Banda Passante: si trova nell’intorno di 𝑓 = ±∞. 𝒲𝑝 =] − ∞, 𝑓𝑝 ] ∪ [𝑓𝑝 , +∞[
- Banda Oscura: 𝒲𝑠 = [−𝑓𝑝 , 𝑓𝑝 ]
P a g . | 34

B. Caso Tempo Discreto: le espressioni di questo tipo di filtro sono:

0 𝑠𝑒 |𝑣 | ≤ 𝑣𝑝 𝑣
𝐻𝐿𝑃𝐹 (𝑣) = { 𝑜𝑝𝑝𝑢𝑟𝑒 𝐻𝐻𝑃𝐹 (𝑣) = 𝑟𝑒𝑝1 [1 − ∏ ( )]
1 𝑠𝑒 |𝑣 | > 𝑣𝑝 2𝑣𝑝

- Frequenza di Taglio: 𝑣𝑝 > 0


- Banda Passante: si trova nell’intorno di 𝑣 = ±∞. 𝒲𝑝 =] − ∞, 𝑣𝑝 ] ∪ [𝑣𝑝 , +∞[
- Banda Oscura: 𝒲𝑠 = [−𝑣𝑝 , 𝑣𝑝 ]

• Filtro Ideale Passa-banda o Bandpass Filter (BPF):


Viene usato per far passare solo un determinato intervallo di frequenze del segnale.
A. Caso Tempo Continuo: le espressioni di questo tipo di filtro sono:

1 𝑠𝑒 𝑓𝑝1 ≤ |𝑓 | ≤ 𝑓𝑝2 𝑓 − 𝑓0 𝑓 + 𝑓0
𝐻𝐵𝑃𝐹 (𝑓) = { 𝑜𝑝𝑝𝑢𝑟𝑒 𝐻𝐵𝑃𝐹 (𝑓) = ∏ ( ) +∏( )
0 𝑎𝑙𝑡𝑟𝑖𝑚𝑒𝑛𝑡𝑖 ∆𝑓 ∆𝑓

- Frequenze di Taglio: i parametri 𝑓0 𝑒 ∆𝑓 sono definiti. 𝑓𝑝1 = 𝑓0 − ∆𝑓/2 𝑓𝑝2 = 𝑓0 + ∆𝑓/2


- Banda Passante: si trova nell’intoro di 𝑓 = ±𝑓0 ≠ 0. 𝒲𝑝 = [−𝑓𝑝2 , −𝑓𝑝1 ] ∪ [𝑓𝑝1 , 𝑓𝑝2 ]
- Banda Oscura: 𝒲𝑠 =] − ∞, 𝑓𝑝2 ] ∪] − 𝑓𝑝1 𝑓𝑝1 [∪ 𝑓𝑝2 + ∞[
B. Caso Tempo Discreto: le espressioni di questo tipo di filtro sono:

1 𝑠𝑒 𝑣𝑝1 ≤ |𝑣 | ≤ 𝑣𝑝2 𝑣 − 𝑣0 𝑣 + 𝑣0
𝐻𝐵𝑃𝐹 (𝑣) = { 𝑜𝑝𝑝𝑢𝑟𝑒 𝐻𝐵𝑃𝐹 (𝑣) = 𝑟𝑒𝑝1 [∏ ( ) +∏( )]
0 𝑎𝑙𝑡𝑟𝑖𝑚𝑒𝑛𝑡𝑖 ∆𝑣 ∆𝑣

- Frequenze di Taglio: i parametri 𝑣0 𝑒 ∆𝑣 sono definiti. 𝑣𝑝1 = 𝑣0 − ∆𝑣/2 𝑣𝑝2 = 𝑣0 + ∆𝑣/2


- Banda Passante: si trova nell’intoro di 𝑣 = ±𝑣0 ≠ 0. 𝒲𝑝 = [−𝑣𝑝2 , −𝑣𝑝1 ] ∪ [𝑣𝑝1 , 𝑣𝑝2 ]
- Banda Oscura: 𝒲𝑠 =] − ∞, 𝑣𝑝2 ] ∪] − 𝑣𝑝1 𝑣𝑝1 [∪ 𝑣𝑝2 + ∞[

• Filtro Ideale Elimina-banda o Bandstop Filter (BSF):


Viene usato per eliminare solo un determinato intervallo di frequenze del segnale.
A. Caso Tempo Continuo: le espressioni di questo tipo di filtro sono:

0 𝑠𝑒 𝑓𝑝1 ≤ |𝑓 | ≤ 𝑓𝑝2 𝑓 − 𝑓0 𝑓 + 𝑓0
𝐻𝐵𝑆𝐹 (𝑓) = { 𝑜𝑝𝑝𝑢𝑟𝑒 𝐻𝐵𝑆𝐹 (𝑓) = 1 − [∏ ( ) +∏( )]
1 𝑎𝑙𝑡𝑟𝑖𝑚𝑒𝑛𝑡𝑖 ∆𝑓 ∆𝑓

- Frequenze di Taglio: i parametri 𝑓0 𝑒 ∆𝑓 sono definiti. 𝑓𝑝1 = 𝑓0 − ∆𝑓/2 𝑓𝑝2 = 𝑓0 + ∆𝑓/2


- Banda Passante: si trova nell’intoro di 𝑓 = ±𝑓0 . 𝒲𝑝 =] − ∞, 𝑓𝑝2 ] ∪] − 𝑓𝑝1 𝑓𝑝1 [∪ 𝑓𝑝2 + ∞[
- Banda Oscura: 𝒲𝑠 = [−𝑓𝑝2 , −𝑓𝑝1 ] ∪ [𝑓𝑝1 , 𝑓𝑝2 ]
B. Caso Tempo Discreto: le espressioni di questo tipo di filtro sono:

0 𝑠𝑒 𝑣𝑝1 ≤ |𝑣 | ≤ 𝑣𝑝2 𝑣 − 𝑣0 𝑣 + 𝑣0
𝐻𝐵𝑆𝐹 (𝑣) = { 𝑜𝑝𝑝𝑢𝑟𝑒 𝐻𝐵𝑆𝐹 (𝑣) = 𝑟𝑒𝑝1 [1 − [∏ ( ) +∏( )]]
1 𝑎𝑙𝑡𝑟𝑖𝑚𝑒𝑛𝑡𝑖 ∆𝑣 ∆𝑣

- Frequenze di Taglio: i parametri 𝑣0 𝑒 ∆𝑣 sono definiti. 𝑣𝑝1 = 𝑣0 − ∆𝑣/2 𝑣𝑝2 = 𝑣0 + ∆𝑣/2


- Banda Passante: si trova nell’intoro di 𝑣 = ±𝑣0 ≠ 0 𝒲𝑝 =] − ∞, 𝑣𝑝2 ] ∪] − 𝑣𝑝1 𝑣𝑝1 [∪ 𝑣𝑝2 + ∞[
- Banda Oscura: 𝒲𝑠 = [−𝑣𝑝2 , −𝑣𝑝1 ] ∪ [𝑣𝑝1 , 𝑣𝑝2 ]
P a g . | 35

CAPITOLO 4: TRASFORMATA DI FOURIER

4.1 Caratterizzazione della Trasformata di Fourier


La Trasformata di Fourier è uno strumento fondamentale nello studio dei segnali e dei sistemi nel
dominio della frequenza. Essa ci consente di risolvere numerosi problemi di analisi e sintesi che nel
dominio del tempo sarebbero troppo complessi da risolvere. Abbiamo visto che nei sistemi LTI la
risposta in frequenza 𝐻(∙), la quale può essere interpretata come la trasformata di Fourier della risposta
impulsiva ℎ(∙), può essere utilizzata solo per segnali periodici per il quale si possono usare un numero
discreto di fasori per rappresentare il segnale. Allora il nostro obiettivo è avere uno strumento
utilizzabile anche per la classe più ampia di segnali aperiodici, per il quale invece, sarà necessario far
variare con continuità i fasori.
Le trasformate e anti-trasformata di Fourier di un segnale TC 𝑥(𝑡) e un segnale TD 𝑥(𝑛) sono definite
dalle equazioni:
+∞
𝐸𝑞𝑢𝑎𝑧𝑖𝑜𝑛𝑒 𝑑𝑖 𝐴𝑛𝑎𝑙𝑖𝑠𝑖 − 𝑇𝑟𝑎𝑠𝑓𝑜𝑟𝑚𝑎𝑡𝑎 𝑑𝑖 𝐹𝑜𝑢𝑟𝑖𝑒𝑟: ℱ[𝑥(𝑡)] = 𝑋(𝑓) = ∫ 𝑥(𝑡)𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡
−∞
𝑇𝐶. +∞
𝐸𝑞𝑢𝑎𝑧𝑖𝑜𝑛𝑒 𝑑𝑖 𝑆𝑖𝑛𝑡𝑒𝑠𝑖 − 𝐴𝑛𝑡𝑖𝑡𝑟𝑎𝑠𝑓𝑜𝑟𝑚𝑎𝑡𝑎 𝑑𝑖 𝐹𝑜𝑢𝑟𝑖𝑒𝑟: ℱ −1 [𝑋(𝑓)] = 𝑥(𝑡) = ∫ 𝑋(𝑓)𝑒 𝑗2𝜋𝑓𝑡 𝑑𝑓
{ −∞

+∞

𝐸𝑞𝑢𝑎𝑧𝑖𝑜𝑛𝑒 𝑑𝑖 𝐴𝑛𝑎𝑙𝑖𝑠𝑖 − 𝑇𝑟𝑎𝑠𝑓𝑜𝑟𝑚𝑎𝑡𝑎 𝑑𝑖 𝐹𝑜𝑢𝑟𝑖𝑒𝑟: ℱ[𝑥(𝑛)] = 𝑋(𝑣) = ∑ 𝑥(𝑛)𝑒 −𝑗2𝜋𝑓𝑛


𝑇𝐷. 𝑛=−∞
1/2
𝐸𝑞𝑢𝑎𝑧𝑖𝑜𝑛𝑒 𝑑𝑖 𝑆𝑖𝑛𝑡𝑒𝑠𝑖 − 𝐴𝑛𝑡𝑖𝑡𝑟𝑎𝑠𝑓𝑜𝑟𝑚𝑎𝑡𝑎 𝑑𝑖 𝐹𝑜𝑢𝑟𝑖𝑒𝑟: ℱ −1 [𝑋(𝑣)] = 𝑥(𝑛) = ∫ 𝑋(𝑣)𝑒 𝑗2𝜋𝑣𝑛 𝑑𝑣
{ −1/2

Dimostrazione: consideriamo per semplicità il caso TC nel quale abbiamo un segnale aperiodico 𝑥(𝑡),
il quale nell’intervallo (−𝑍/2, 𝑍/2) con 𝑍 ∈ ℛ+ soddisfa le condizioni di Dirichelet e ha frequenza
fondamentale ∆𝑓 = 1/𝑍. Allora esso può essere sviluppato in serie di Fourier mediante i suoi coefficienti
di Fourier 𝑋𝑘 , per cui il suo spettro è di natura discreta:
+∞ 𝑍/2 𝑍/2
𝑗2𝜋𝑘𝜏

𝑥(𝑡) = ∑ 𝑋𝑘 𝑒 𝑗2𝜋𝑘𝑓𝑡 𝑑𝑜𝑣𝑒: 𝑋𝑘 = ∫ 𝑥(𝜏)𝑒 𝑍 𝑑𝜏 = ∫ 𝑥(𝜏)𝑒 −𝑗2𝜋𝑘∆𝑓𝜏 𝑑𝜏
𝑘=−∞ −𝑍/2 −𝑍/2

Uno spettro di natura discreta però va bene per i segnali periodici ma non per quelli aperiodici, quindi
dobbiamo fare in modo che esso presenti una natura continua. Per riuscire a fare ciò, anzitutto estraiamo
dalla sommatoria il termine 𝑘 = 0 (termine in verde), dopodiché facciamo il limite per 𝑍 → +∞ in modo
da eliminarlo.
+∞ +∞
𝟏 𝒁/𝟐 1 𝑍/2 1 𝑍/2
𝑥(𝑡) = ∫ 𝒙(𝝉) 𝒅𝝉 + ∑ [∫ 𝑥(𝜏)𝑒 −𝑗2𝜋𝑘∆𝑓(𝜏−𝑡) 𝑑𝜏] = ∑ [∫ 𝑥(𝜏)𝑒 −𝑗2𝜋𝑘∆𝑓(𝜏−𝑡) 𝑑𝜏]
𝒁 −𝒁/𝟐 𝑍 −𝑍/2 𝑍 −𝑍/2
𝑘=−∞ 𝑘=−∞
𝑘≠0 𝑘≠0

Ricordando che ∆𝑓 = 1/𝑍, passiamo dal limite per 𝑍 → +∞ al limite per ∆𝑓 → 0 e inoltre applichiamo
la sostituzione 𝑓𝑘 = 𝑘∆𝑓:

+∞ 1 +∞ 1
2∆𝑓 2∆𝑓
𝑥(𝑡) = lim { ∑ [∫ 𝑥(𝜏)𝑒 −𝑗2𝜋𝑘∆𝑓(𝜏−𝑡) 𝑑𝜏] ∆𝑓 } = lim { ∑ [∫ 𝑥(𝜏)𝑒 −𝑗2𝜋𝑓𝑘 (𝜏−𝑡) 𝑑𝜏] ∆𝑓 }
∆𝑓→0 1 ∆𝑓→0 1
𝑘=−∞ −2∆𝑓 𝑘=−∞ −2∆𝑓
𝑘≠0 𝑘≠0
P a g . | 36

Tale limite ci consente di affermare che al diminuire di ∆𝑓 (quindi all’aumentare di 1/∆𝑓), tendiamo a
infittire lo spettro del segnale e quindi coprire tutto l’asse reale. Allora l’integrale fra le parentesi quadre
dipende con continuità dalla frequenza 𝑓:

1
+∞
2∆𝑓
lim ∫ 𝑥(𝜏)𝑒 −𝑗2𝜋𝑓𝑘 (𝜏−𝑡) 𝑑𝜏 = [∫ 𝒙(𝝉)𝒆−𝒋𝟐𝝅𝒇𝝉 𝒅𝝉] 𝑒 𝑗2𝜋𝑓𝑡 = 𝑿(𝒇)𝑒 𝑗2𝜋𝑓𝑡
∆𝑓→0 1
−2∆𝑓 −∞

In tal modo abbiamo ricavato l’equazione di analisi, la quale ci consente di calcolar eil peso da attribuire
ad ogni singolo fasore. Ritornando alla 𝑥(𝑡), visto che noi abbiamo anche una sommatoria su k, insieme
al limite per ∆𝑓 → 0, essa diventa una somma integrale su tutto ℛ. In particolare, sarà l’integrale della
funzione 𝑋(𝑓)𝑒 𝑗2𝜋𝑓𝑡 rispetto alla variabile 𝑓 (formalmente la differenza finita ∆𝑓 diventa un
differenziale 𝑑𝑓). Così facendo riusciamo ad ottenere l’equazione di sintesi, la quale in pratica ci dice
che, un segnale aperiodico 𝑥(𝑡) può essere rappresentato sovrapponendo nel continuo i fasori 𝑒 𝑗2𝜋𝑓𝑡
aventi frequenza variabile su ℛ e ampiezza infinitesima 𝑋(𝑓)𝑑𝑓:

+∞ +∞
𝒙(𝒕) = lim { ∑ 𝑋(𝑓)𝑒 𝑗2𝜋𝑓𝑡 ∆𝑓 } =∫ 𝑿(𝒇)𝒆𝒋𝟐𝝅𝒇𝒕 𝒅𝒇
∆𝑓→0 −∞
𝑘=−∞
𝑘≠0

Analoghi passaggi si ottengono anche nel caso tempo discreto, con la differenza però nel nome delle
variabili e negli estremi di integrazione dell’equazione di sintesi. Ciò è dovuto alla seguente proprietà:
Proprietà di Periodicità della Trasformata di Fourier a TD: la trasformata di Fourier 𝑋(𝑣) di un
segnale a TD 𝑥(𝑛) è periodica di periodo unitario: 𝑿(𝒗) = 𝑿(𝒗 + 𝟏)

4.2 Esistenza e Invertibilità della Trasformata di Fourier


Tutte le considerazioni fatte precedentemente sono state fatte nelle ipotesi in cui tutti i segnali potevano
essere espressi nelle formule di Fourier, tale aspetto però non è secondario e deve essere affrontato in
maniera precisa. Quello che faremo, sia per il TC che nel TD, è affrontare i seguenti problemi:
1. Problema dell’Esistenza: stabilire le condizioni che assicurano, per un dato segnale 𝑥(∙), che possa
essere applicata l’equazione di analisi. In altre parole, che possa essere effettuata la trasformata di
Fourier;
2. Problema dell’Invertibilità: se le condizioni del passo 1 sono verificare, bisogna a questo punto
stabilire le condizioni che assicurano che possa essere applicata l’equazione di sintesi. In altre
parole, che se abbiamo la trasformata di Fourier del segnale 𝑥(∙), siamo in grado di ricostruire
quest’ultimo mediata l’anti-trasformata di Fourier.

A. Caso Tempo Continuo:


Abbiamo visto che alcune condizioni sufficienti per verificare l’esistenza della
rappresentazione di Fourier di un segnale sono la sua sommabilità (l’integrale lim 𝑥(𝑡) = 0
|𝑡|→+∞
tra ±∞ di |𝑥(𝑡)| è minore di infinito) e le condizioni di Dirichlet per i segnali a
TC. In particolare, l’ipotesi di sommabilità comporta che vale la relazione di
fianco e quindi sicuramente sono sommabili i segnali di durata rigorosamente e praticamente limitata
ma non quelli di durata illimitata (come i segnali periodici). I segnali di durata rigorosamente e
praticamente limitata ricordiamo essere detti transitori, saranno quindi i segnali di nostro interesse.
Partiamo allora dall’equazione di analisi:
+∞
𝑋(𝑓) = ∫ 𝑥(𝑡)𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡
−∞
Valgono le seguenti disuguaglianze:
+∞ +∞ +∞ +∞
|𝑋(𝑓)| = |∫ 𝑥(𝑡)𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡| ≤ ∫ |𝑥(𝑡)||𝑒 −𝑗2𝜋𝑓𝑡 |𝑑𝑡 = ∫ |𝑥(𝑡)| ∙ 1𝑑𝑡 = ∫ |𝑥(𝑡)|𝑑𝑡
−∞ −∞ −∞ −∞
P a g . | 37

Se il segnale è sommabile (l’ultimo integrale ha un valore finito), allora certamente il modulo della
trasformata di Fourier del segnale sarà finita. Si è sottolineato il modulo in quanto la sommabilità di 𝑥(𝑡)
non implica la sommabilità di 𝑋(𝑓), basti pensare al caso 𝑥(𝑡) = 𝑟𝑒𝑐𝑡(𝑡) → 𝑋(𝑓) = 𝑠𝑖𝑛𝑐(𝑓) che non è
sommabile. Con questo esempio l’unica cosa che abbiamo dimostrato è che se la 𝑥(𝑡) è sommabile,
seppur 𝑋(𝑓) non è detto che lo sia, certamente la trasformata di Fourier sarà continua, limitata e

Proprietà – Trasformata di Fourier a TC di un Segnale Sommabile: se il segnale 𝑥(𝑡) è sommabile


su ℛ, l’integrale che definisce l’equazione di analisi esiste in senso ordinario e la trasformata di Fourier
𝑋(𝑓) del segnale 𝑥(𝑡) è una funzione continua e limitata, infinitesima per |𝑓 | → +∞.

infinitesima. Queste considerazioni sono definita dalla seguente proprietà:


Se però ci troviamo nel cavo inverso all’esempio considerato, avremmo a che fare con un segnale 𝑥(𝑡) =
𝑠𝑖𝑛𝑐(𝑡) che non è sommabile anche se la trasformata di Fourier 𝑋(𝑓) (pari alla 𝑟𝑒𝑐𝑡(𝑓)) esiste. Allora
capiamo che la sommabilità del segnale 𝑥(𝑡) è una condizione sufficiente ma non necessaria per
l’esistenza della trasformata di Fourier. L’esistenza dell’integrale 𝑋(𝑓) non si può intendere nel senso
ordinario ma bensì nel senso del valor principale di Cauchy:
Teorema – Esistenza dalla Trasformata di Fourier a TC nel Senso del Valor Principale: se il segnale
𝑥(𝑡) soddisfa le seguenti tre condizioni:
✓ 𝑥(𝑡) = 𝑎(𝑡)𝑠𝑒𝑛(𝜔0 𝑡 + 𝜑0 ) 𝑐𝑜𝑛 𝜔0 , 𝜑0 ∈ ℛ; |𝑥(𝑡)|
∫ 𝑑𝑡 < +∞
✓ ∃𝑡0 ∈ ℛ+ ∶ → |𝑡|>𝑡0 |𝑡 |
✓ 𝑎(𝑡) è una funzione monotona decrescente.
Allora la funzione 𝑥(𝑡)𝑒 −𝑗2𝜋𝑓𝑡 è integrale in ℛ nel senso del valor principale di Cauchy e si ha:
𝑍
𝑋(𝑓) = lim ∫ 𝑥(𝑡)𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡
𝑍→∞ −𝑍

Affrontiamo adesso il problema dell’invertibilità della trasformata di Fourier soffermandoci solo sui
segnali sommabili. Tale problema è analogo a quello visto per la serie di Fourier quando, oltre alla
sommabilità della serie doveva essere verificata anche la convergenza puntuale o uniforme. Anche per
la trasformata di Fourier intervengono le seguenti condizioni:
Condizioni di Dirichlet per la Trasformata di Fourier a TC: se il segnale 𝑥(𝑡) soddisfa le seguenti tre
condizioni:
✓ 𝑥(𝑡) è sommabile su ℛ;
✓ 𝑥(𝑡) è una funzione continua su 𝑇0 escluso in un numero finito di discontinuità di prima specie;
✓ 𝑥(𝑡) è funzione derivabile su 𝑇0 escluso in un numero finito di discontinuità di prima specie. Inoltre, in
tali punti devono essere finiti i limiti da destra e da sinistra.
Allora la funzione 𝑋(𝑓)𝑒 𝑗2𝜋𝑓𝑡 è integrabile su ℛ nel senso del valor principale di Cauchy e si ha che:

𝑍
1
lim ∫ 𝑋(𝑓)𝑒 𝑗2𝜋𝑓𝑡 𝑑𝑓 = [𝑥(𝑡 + ) + 𝑥(𝑡 − )]
𝑍→∞ −𝑍 2

Per i segnali transitori e non sommabili come la sinc, se sono trasformabili nel senso del valor principale
allora la formula di inversione è valida ancora se:
o Sono vedere le condizioni del teorema sull’esistenza della trasformata di Fourier nel senso valor
principale;
o Su ogni intervallo finito, 𝑥(𝑡) presenta un numero finito di discontinuità di seconda specie (punti
in cui è presente un asintoto e quindi i limiti da destra e sinistra non esistono e non sono finiti).
In tal caso, il segnale deve soddisfare le ultime di condizioni di Dirichlet citate pocanzi esclusi gli
intorni contenenti i punti di discontinuità.

Più complessa è il caso in cui stiamo parlando di segnali persistenti (segnali costanti o periodici), per i
quali le condizioni di Dirichlet non sono soddisfatte. Infatti, per questo tipo di segnali la trasformata di
Fourier, qualora esista, presenterà delle delta di Dirac.
P a g . | 38

B. Caso Tempo Discreto: Abbiamo visto che alcune condizioni sufficienti per
verificare l’esistenza della rappresentazione di Fourier di un segnale sono la lim 𝑥(𝑛) = 0
|𝑛|→+∞
sua sommabilità (l’integrale tra ±∞ di |𝑥(𝑡)| è minore di infinito) e le
condizioni di Dirichlet per i segnali a TC. In particolare, l’ipotesi di
sommabilità comporta che vale la relazione di fianco e quindi +∞
sicuramente sono sommabili i segnali di durata rigorosamente e
𝑋(𝑣) = ∑ 𝑥(𝑛)𝑒 −𝑗2𝜋𝑣𝑛
praticamente limitata ma non quelli di durata illimitata (come i
𝑛=−∞
segnali periodici). Partiamo allora dall’equazione di analisi:
Valgono le seguenti disuguaglianze:

+∞ +∞ +∞ +∞
|𝑋(𝑣)| = | ∑ 𝑥(𝑛)𝑒 −𝑗2𝜋𝑣𝑛 | ≤ ∑ |𝑥(𝑛)||𝑒 −𝑗2𝜋𝑣 | = ∑ |𝑥(𝑛)|1 = ∑ |𝑥(𝑛)|
𝑛=−∞ 𝑛=−∞ 𝑛=−∞ 𝑛=−∞

Se il segnale è sommabile (l’ultimo integrale ha un valore finito), allora certamente il modulo della
trasformata di Fourier del segnale sarà finita. Anzi nel TD possiamo affermare una considerazione
ancora più forte, ovvero che se 𝑥(𝑛) è sommabile allora la serie di funzione a secondo membro
dell’equazione di analisi convergono uniformemente per 𝑣 ∈ [−1/2,1/2] ad una funzione 𝑋(𝑣) continua.
Nel TD è inoltre più agevole lo studio dell’esistenza dell’antitrasformata di Fourier, per farlo partiamo
dall’equazione di sintesi del segnale 𝑥̂(𝑛) deve risultare essere uguale al segnale originale 𝑥(𝑡):

1/2
𝑥̂(𝑛) = ∫ 𝑋(𝑣)𝑒 𝑗2𝜋𝑣𝑛 𝑑𝑣 = 𝑥(𝑛)
−1/2

1/2 1/2 +∞ +∞ 1/2


𝑥̂(𝑛) = ∫ 𝑋(𝑣)𝑒 𝑗2𝜋𝑣𝑛 𝑑𝑣 =∫ ( ∑ 𝑥(𝑛)𝑒 −𝑗2𝜋𝑣𝑛 ) 𝑒 𝑗2𝜋𝑣𝑛 𝑑𝑣 = ∑ 𝑥(𝑚) (∫ 𝑒 𝑗2𝜋𝑣(𝑛−𝑚) 𝑑𝑣 )
−1/2 −1/2 𝑛=−∞ 𝑚=−∞ −1/2

Dove:
1/2 [𝜋(𝑛 − 𝑚)]
∫ 𝑒 𝑗2𝜋𝑣(𝑛−𝑚) 𝑑𝑣 = sin = 𝑠𝑖𝑛𝑐(𝑛 − 𝑚) = 𝛿(𝑛 − 𝑚)
−1/2 𝜋(𝑛 − 𝑚)
Allora:
+∞

̂(𝒏) = ∑ 𝒙(𝒎) 𝜹(𝒏 − 𝒎) = 𝒙(𝒏)


𝒙
𝒎=−∞

Condizione Sufficiente per l’Esistenza e l’Invertibilità della FT in TD – Trasformata di Fourier


a TD di un Segnale Sommabile: se il segnale 𝑥(𝑛) è sommabile, la serie che definisce l’equazione di
analisi converge uniformemente in ℛ e la trasformata di Fourier 𝑋(𝑣) del segnale 𝑥(𝑛) è una funzione
continua. Se 𝑋(𝑣) è la trasformata di Fourier di un segnale 𝑥(𝑛) sommabile, l’equazione di sintesi
restituisce 𝑥(𝑛).
Contrariamente al caso TC, nel TD la sommabilità assicura sia l’esistenza che l’invertibilità della
trasformata di Fourier.

Abbiamo osservato che una condizione sufficiente ma non necessaria per l’esistenza della trasformata di
Fourier 𝑋(∙) di un segnale 𝑥(∙) è che quest’ultimo sia sommabile o quadrato sommabile (o nel caso TC
vengano verificate le condizioni del teorema dell’esistenza della FT nel senso del valor principale). A
differenza dei casi esaminati fino ad ora, i segnali persistenti non sono in generale trasformabili in senso
ordinario, ciò significa qualora esista la loro trasformata, per esempio nel caso TC potrebbero comparire
degli impulsi di Dirac oppure potrebbero esserci dei casi in cui (sia in TC che in TD) siamo costretti a
adoperare delle procedure che non richiedono calcoli diretti. Tuttavia, c’è da precisare che questa
seconda eventualità è più complessa nel caso TD, a causa della mancanza della proprietà di dualità della
trasformata di Fourier.
P a g . | 39

4.3 Estensione Spettrale e Banda di un Segnale


Abbiamo visto che gran parte dei segnali di interesse pratico e teorico possono essere rappresentati
mediate la trasformata di Fourier nel dominio della frequenza. In particolare, le equazioni di sintesi
consentono di rappresentare un segnale 𝑥(𝑡) (o 𝑥(𝑛)) come una sovrapposizione di fasori. I fasori
vengono denominati anche Componenti Spettrali, ciascuna con la propria ampiezza complessa 𝑋(𝑓)
(𝑋(𝑣)) e frequenza variabile 𝑓 (𝑣). In entrambi i casi, lo spettro di ampiezza |𝑋(∙)| determina il peso di
ciascun fasore, quindi maggior è il peso e maggiormente influirà la componente spettrale. La conoscenza
dell’intervallo di frequenza dove lo spettro di ampiezza |𝑋(∙)| del segnale non è trascurabile è
importante per due motivi:
✓ Soprattutto nel caso TC, la ricostruzione esatta del segnale 𝑥(𝑡) è possibile solo calcolando
analiticamente l’integrale esteso a tutto l’asse delle frequenze. Tuttavia, se tale intervallo in cui
|𝑋(𝑓)| assume valori significativi è di misura finita allora anche l’intervallo di integrazione sarà
finito;
✓ Ricordiamo che un sistema LTI presenta la proprietà di selettività in frequenza, ovvero modifica le
ampiezze e le fasi delle componenti spettrale del segnale in ingresso. Ciò si traduce in una sua
alterazione visto che stiamo modificando il peso relativo di ogni componente spettrale. A causa di
ciò sapere l’intervallo in cui |𝑋(𝑓)| assume valori significativi, risulta fondamentale per capire come
verrà modificato il segnale dal sistema.
Per ciò che tratteremo in questo paragrafo dobbiamo definire:
Definizioni – Estensione Spettrale e Banda di un Segnale:
A. Caso Tempo Continuo: l’estensione spettrale 𝒲𝑥 ∁ ℛ di un segnale TC 𝑥(𝑡) è l’intervallo di
frequenze in cui il suo spettro di ampiezza |𝑋(𝑓)| assume valori non trascurabili. La banda di 𝑥(𝑡) è
la misura 𝐵𝑥 ≥ 0 dell’insieme 𝒲𝑥 .
B. Caso Tempo Discreto: l’estensione spettrale 𝒲𝑥 ∁ (𝑣̅ , 𝑣̅ + 1) 𝑣̅ ∈ ℛ di un segnale TD 𝑥(𝑛) è
l’intervallo di frequenze in cui il suo spettro di ampiezza |𝑋(𝑣)| assume valori non trascurabili sul
periodo (𝑣̅ , 𝑣̅ + 1). La banda di 𝑥(𝑛) è la misura 0 ≤ 𝐵𝑥 < 1 dell’insieme 𝒲𝑥 .
La leggera differenza tra le due definizioni è dovuta al fatto che l’estensione spettrale di un segnale TC è
in genere aperiodico, contrariamente al TD dove è periodica di periodo unitario.
È doveroso precisare che viene definita estensione spettrale bilatera e banda bilatera se le due
grandezze tengono conto sia delle frequenze positive che negative. Tuttavia, il caso bilatero riguarda i
segnali reali anche se per noi è sufficiente anche il caso monolatero con frequenze positive. Infine, l’unità
di misura della banda di un segnale sono gli Hertz e i suoi multipli (kHz, mHz, ecc.). Osserviamo, che il
concetto di estensione spettrlae e banda sono praticamente grandezze nel dominio della frequenza
corrispondenti alla estensione temporale del segnale e durata temporale del segnale nel dominio del
tempo.

4.3.1 Classificazione dei Segnali in Base all’Estensione Spettrale


Una classificazione qualitativa dei segnali sulla base della loro estensione spettrale è la seguente:
• Segnali Passa-basso o a Bassa Frequenza: sono caratterizzati da un’estensione spettrale 𝒲𝑥
concentrata alle basse frequenze, quindi intorno alla frequenza nulla. Se il segnale 𝑥(·) è reale, il suo
spettro gode della proprietà di simmetria hermitiana e, quindi, lo spettro di ampiezza è una funzione
pari della frequenza.
P a g . | 40

• Segnali Passa-alto o ad Alta Frequenza: sono caratterizzati da un’estensione spettrale


essenzialmente concentrata alle alte frequenze, ovvero da una 𝒲𝑥 posizionata intorno alle
frequenze 𝑓 = ±∞ nel caso TC, oppure intorno alle frequenze 𝜈 = ±1/2 nel caso TD.

• Segnali passabanda o a Media Frequenza: sono caratterizzati da un’estensione spettrale


concentrata alle frequenze intermedie 𝑎 ± 𝑓0 ∈ ℛ − {0} nel caso TC, oppure intorno 𝑎 ± 𝑣0 ∈
(−1/2,1/2) − {0} nel caso TD. Se il segnale 𝑥(·) è reale, il suo spettro gode della proprietà di
simmetria hermitiana e, quindi, lo spettro di ampiezza è una funzione pari della frequenza.

A differenza della classificazione precedente, di tipo qualitativo, la banda di un segnale fornisce una
caratterizzazione quantitativa (ovvero un valore numerico) dell’intervallo di frequenze in cui lo spettro
assume valori non trascurabili.

4.3.2 Classificazione dei Segnali in Base alla Banda


Come già detto, non è possibile dare una definizione univoca di banda, per l’ambiguità legata all’uso del
termine “non trascurabile” nella sua definizione. Essa dipende piuttosto dalla natura frequenziale del
segnale (passabasso, passaalto o passabanda), dalla forma dello spettro di ampiezza, e dallo specifico
campo di applicazione. Nel seguito del paragrafo faremo principalmente riferimento a segnali di tipo
passabasso. In maniera simile a quanto visto per la caratterizzazione dei segnali in termini di durata,
possiamo considerare:
• Segnali a Banda Rigorosamente Limitata
Un segnale TC 𝑥(𝑡) si dice a banda rigorosamente limitata se la sua trasformata di Fourier 𝑋(𝑓) è
identicamente nulla al di fuori di un certo intervallo (𝑓1 , 𝑓2 ) con 𝑓2 > 𝑓1 entrambi di valori finiti. Allora:
- L’estensione spettrale = 𝒲𝑥 = (𝑓1 , 𝑓2 )
- Banda = 𝐵𝑥 = 𝑓2 − 𝑓1
Nel caso dei segnali reali, visto che 𝑋(𝑓) gode della proprietà di simmetria hermitiana (𝑋(−𝑓) = 𝑋 ∗ (𝑓))
e 𝑋(𝑓) = 0 per un certo valore di 𝑓 > 0, possiamo affermare che 𝑋(−𝑓) = 𝑋 ∗ (𝑓) = 0 e l’estensione
spettrale è simmetrica rispetto all’origine. Ciò vuol dire che 𝒲𝑥 = (𝑓1 , 𝑓2 ) = (−𝑊, 𝑊).
Conseguentemente: 𝑋(𝑓) = 0 ∀ |𝑓 | > 𝑊 → 𝐵𝑎𝑛𝑑𝑎 = 𝐵𝑥 = 2𝑊
Nel caso TD le considerazioni sono analoghe con l’unica differenza però che essendo 𝑋(𝑣) periodica di
periodo uno, allora l’intervallo di annullamento della trasformata di Fourier può essere solo il periodo
(−1/2,1/2).
Conseguentemente: 𝑋(𝑣) = 0 ∀ |𝑣 | > 1/2 → 𝐵𝑎𝑛𝑑𝑎 = 𝐵𝑥 = 2𝑊

• Segnali a Banda Praticamente Limitata


Un segnale si dice a banda praticamente limitata se il suo spettro di ampiezza |𝑋(∙)| tende a zero per
|𝑓 | → ±∞ nel TC o |𝑣 | → ±1/2 nel TD, assumendo valori trascurabili (ma non rigorosamente nulli) al di
fuori di un certo intervallo di frequenza. Quasi tutti i segnali di interesse pratico presentano banda
P a g . | 41

praticamente limitata. Chiaramente i segnali a banda praticamente limitata non hanno una
interpretazione e misura della banda univoca come per quelli a banda rigorosamente limitata. Alcune
interpretazioni differenti sono:
• Banda Nullo-Nullo: tale definizione si applica a segnali di durata rigorosamente limitata come la
finestra rettangolare, dove il tipo andamento dello spettro di ampiezza |𝑋(∙)| è a lobi come in figura.
Allora l’estensione spettrale di tali segnali sarà il lobo principale, mentre la banda sarà la sua
larghezza. Il motivo del nome di tale definizione di banda è perché essa è misurata tra due valori
frequenza (uno positivo e l’altro negativo) nel quale lo spettro di ampiezza |𝑋(∙)| = 0.

• Banda all’𝑎% di Energia: tale definizione si usa per i segnali a banda praticamente limitata come i
segnali di energia. A tal proposito dobbiamo citare:
𝐹𝑇
Proprietà – Uguaglianza di Parseval per la Trasformata di Fourier: sia 𝑥(∙) ↔ 𝑋(∙) con 𝑥(∙)
segnale di energia, si ha che:
+∞ +∞ +∞ +1/2
𝑇𝐶: 𝜀𝑥 = ∫ |𝑥(𝑡)|2 𝑑𝑡 =∫ |𝑋(𝑓)|2 𝑑𝑓 𝑇𝐷: 𝜀𝑥 = ∑ |𝑥(𝑛)|2 = ∫ |𝑋(𝑣)|2 𝑑𝑣
−∞ −∞ 𝑛−∞ −1/2

Dove definiamo la Densità Spettrale di Energia 𝒮𝑥 (∙) ≜ |𝑋(∙)|2 una funzione non negativa della
frequenza. Essendo lo spettro di ampiezza pari anche la densità spettrale sarà una funzione pari e
quindi 𝒮(−(∙)) = 𝒮(∙). Si noti infine che l’uguaglianza di Parseval per la trasformata di Fourier vale
solo per i segnali di energia, ed è la diretta controparte dell’uguaglianza di Parseval per la serie di
Fourier, che vale solo per i segnali di potenza periodici.

L’uguaglianza di Parseval consente di affermare che:


✓ L’energia di un segnale può essere calcolata nel dominio del tempo a partire da |𝑥(·)|2 oppure,
equivalentemente, nel dominio della frequenza a partire da |𝑋(·)|2. Ciò vuol dire che l’energia
del segnale si conserva passando dal dominio del tempo a quello della frequenza;
✓ La trasformata di Fourier di un segnale 𝑥(·) di energia (a quadrato sommabile) è ancora un
segnale 𝑋(∙) di energia (a quadrato sommabile) nel dominio della frequenza.

A questo punto potremmo chiederci quale correlazione ci sia tra l’energia e la banda del segnale.
Ebbene l’uguaglianza appena vista (sia nel TC che nel TD), fissando un valore 0 < 𝑎 < 1, definisce
l’estensione spettrale 𝑊𝑥 (e quindi la banda) di un segnale 𝑥(·), nel quale si trova l’𝑎% dell’energia
totale 𝜀𝑥 di tale segnale (per esempio 𝑎 = 0,95 → 𝑎% = 95%). In formule, stiamo imponendo che
l’energia del segnale nell’intervallo di frequenze 𝑊𝑥 sia pari ad una frazione 𝑎𝜀𝑥 dell’energia totale.
Gli integrali che definiscono tali osservazioni dovrebbero essere tra ±∞ ma essendo se l’estensione
spettrale è 𝑊𝑥 = (−𝑊, 𝑊), i nuovi estremi di integrazione saranno dei valori finiti.
a. Caso Tempo Continuo:
+𝑊
𝜀𝑊𝑥 = ∫ |𝑋(𝑓)|2 𝑑𝑓 = 𝑎𝜀𝑥
−𝑊
P a g . | 42

b. Caso Tempo Discreto:


+𝑊
𝜀𝑊𝑥 = ∫ |𝑋(𝑣)|2 𝑑𝑣 = 𝑎𝜀𝑥 𝒄𝒐𝒏 𝑾 ∈ (𝟎, 𝟏/𝟐)
−𝑊

L’uguaglianza di Parseval ammette una generalizzazione con riferimento all’energia mutua tra due
segnali:
Proprietà – Uguaglianza di Parseval Generalizzata per la Trasformata di Fourier:
𝐹𝑇 𝐹𝑇
siano 𝑥(∙) ↔ 𝑋(∙) e 𝑦(∙) ↔ 𝑌(∙) dei segnali di energia, si ha che:
+∞ +∞ +∞ +1/2
𝑇𝐶: 𝜀𝑥𝑦 = ∫ 𝑥(𝑡)𝑦 ∗ (𝑡)𝑑𝑡 =∫ 𝑋(𝑓)𝑌 ∗(𝑓)𝑑𝑓 𝑇𝐷: 𝜀𝑥𝑦 = ∑ 𝑥(𝑛)𝑦 ∗ (𝑛) = ∫ 𝑋(𝑣)𝑌 ∗ (𝑣)𝑑𝑣
−∞ −∞ 𝑛−∞ −1/2

Nel caso dei segnali reali l’energia mutua 𝜀𝑥𝑦 = 𝜀𝑦𝑥 e nel caso specifico sei segnali ortogonali 𝜀𝑥𝑦 =
0. Ciò vuol dire che gli spettri dei due segnali non si sovrappongono in frequenza e quindi le loro
estensione spettrali hanno intersezione vuota: 𝒲𝑥 ∩ 𝒲𝑦 = ∅
In particolare, due segnali che presentano tale proprietà si dicono Ortogonali in Frequenza.

• Banda ad 𝑎 𝑑𝐵:
Il concetto di banda ad 𝛼 𝑑𝐵 si fonda sull’introduzione di un opportuno valore di soglia per lo spettro di
ampiezza |𝑋(·)| di un segnale 𝑥(·), considerando trascurabili i valori di |𝑋(·)| inferiori alla soglia fissata.
Tuttavia, invece di ragionare in scala naturale si passa alla
scala logaritmica mediante la conversione di fianco In questa |𝑋(𝑓)|
|𝑋(𝑓)|𝑑𝐵 = 20 log10
relazione vediamo il termina 𝑓𝑟𝑖𝑓𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑜 , il quale viene |𝑋(𝑓𝑟𝑖𝑓𝑖𝑚𝑒𝑛𝑡𝑜 )|
scelto base al segnale (passa-basso, passa-alto, ecc.) ed la
frequenza a cui |𝑋(𝑓)| assume il valore massimo. Questo tipo di rappresentazione consente di definire
un secondo parametro, detto rolloff o decadimento asintotico dello spettro di un segnale che,
insieme con la banda, caratterizza sinteticamente un segnale nel dominio della frequenza. Nel tempo
discreto ovviamente la relazione è analoga però con 𝑣 al posto di 𝑓. Le motivazioni che spingono all’uso
della scala logaritmica sono dovute all’ampio intervallo di valori che può assumere lo spettro di
ampiezza di un certo fenomeno fisico al variare della frequenza. Infatti, certi fenomeni fisici sarebbero
impossibili da descrivere in scale naturali ma con la scala logaritmica si restringe tutte l’asse delle
frequenze. I diagrammi Bode sono il tipico esempio di grafici che adoperano la scala logaritmica e infatti
sono il fondamentale strumento per rappresentare la risposta in frequenza di un sistema LTI. Nel
seguito considereremo esclusivamente il diagramma di Bode per l’ampiezza, in quanto ci consentirà di
introdurre importanti concetti relativi alla banda ad 𝛼 𝑑𝐵 e al decadimento asintotico dello spettro di
un segnale.

Ritornando al concetto di banda ad a dB, in pratica si appoggia alla definizione di estensione spettrale
Wx ad α dB per un segnale x(·) a banda praticamente limitata per circoscrivere un intervallo di
frequenza nel quale la risposta in ampiezza si discosta (in dB) dal valore assunto ad una frequenza di
riferimento al più per una prefissata aliquota (dipendente dalla scelta di α ). Il che vuol dire che tutte le
componenti spettrali del segnale le cui frequenze non appartengono all’intervallo 𝑊𝑥 sono da
considerarsi trascurabili, nel senso che non contribuiscono significativamente alla sintesi del segnale.
Tuttavia, la conoscenza della banda a α dB:
Nel caso TD: essendo la sintesi del segnale già il risultato di una integrazione su un intervallo di misura
finita, è tutto ciò che ci serve;
P a g . | 43

Nel caso TC: fornisce solo una prima informazione su quanto tali componenti siano trascurabili. Essa è
invece importante per la caratterizzazione sintetica dei segnali TC ed è legata alla rapidità con cui lo
spettro X(f) del segnale decade a zero quando f →±∞: maggiore è la rapidità di decadimento di X(f), tanto
più lo spettro di ampiezza del segnale risulta confinato nell’intervallo Wx. Si ricordi che una questione
simile è stata già affrontata per i coefficienti di Fourier di un segnale periodico (cfr.§ 5.2.2); in quella
occasione si è visto che l’effettiva rapidità con cui i coefficienti di Fourier decadono a zero nel dominio
della frequenza dipende dalla dolcezza con cui il segnale varia nel dominio del tempo, ovvero dal numero
di derivate continue che esso possiede. Un risultato analogo sussiste anche per la trasformata di Fourier
a TC:
𝐹𝑇
Proprietà - Rapidità di Decadimento a Zero della Trasformata di Fourier: sia 𝑥(∙) ↔ 𝑋(∙). Se il
segnale è continuo con le sue derivate fino a quella di ordine n, con derivata (𝑛 + 1)-esima
discontinua ma sommabile, la sua trasformata di Fourier 𝑋(𝑓) decade a zero per 𝑓 → ±∞ come
1/|𝑓 |𝑛+2 .

Tale stabilisce un legame tra l’ordine di derivabilità di un segnale (ovvero la sua “dolcezza” nel dominio
del tempo) e la velocità di decadimento a zero per 𝑓 → ±∞ della sua trasformata di Fourier. In
particolare, maggiore è il numero di derivate continue di x(t) (ovvero quanto più il segnale varia
dolcemente nel tempo), tanto più rapidamente decade a zero la sua trasformata di Fourier.

• Segnali a Banda Illimitata


Esistono segnali, sia a TC che a TD, per i quali non è possibile trovare alcun criterio oggettivo per
considerare trascurabili alcune componenti spettrali del segnale rispetto ad altre. È questo il caso dei
segnali il cui spettro di ampiezza |𝑋(·)| è poco variabile, o addirittura è costante 𝑝𝑒𝑟 𝑓 ∈ 𝑅 𝑜 𝑝𝑒𝑟 𝜈 ∈
(−1/2, 1/2). Tali segnali prendono il nome di segnali a banda non limitata, anche se in effetti tale
terminologia è appropriata a rigore solo nel caso TC e in particolare per questi segnali nel quale 𝒲𝑥 =
ℛ e 𝐵𝑥 = +∞ (𝐵𝑥 = 1 nel caso TD). Praticamente vuol dire che tutti i valori dello spettro di ampiezza
sono utili per la sintesi del segnale. Chiaramente non esistono nella realtà segnali a banda illimitata ma
servono solo come astrazione matematica adoperata per descrivere segnali a banda limitata molto
grande.
P a g . | 44

4.4 Proprietà della Trasformata di Fourier

4.4.1 Proprietà Generali


Elenchiamo le proprietà della trasformata di Fourier:
𝐹𝑇 𝐹𝑇
• Linearità: siano 𝑥1 (∙) ↔ 𝑋1 (∙) e 𝑥2 (∙) ↔ 𝑋2 (∙):

𝑭𝑻
𝒚(∙) = 𝒂𝟏 𝒙𝟏 (∙) + 𝒂𝟐 𝒙𝟐 (∙) ↔ 𝒀(∙) = 𝒂𝟏 𝑿𝟏 (∙) + 𝒂𝟐 𝑿𝟐 (∙)

𝐹𝑇
• Simmetria Hermitiana: sia 𝑥(∙) ↔ 𝑋(∙), vale la seguente relazione.

𝒔𝒆 𝒆 𝒔𝒐𝒍𝒐 𝒔𝒆
𝒙(∙) è 𝒓𝒆𝒂𝒍𝒆 ⇔ 𝑿∗ (∙) = 𝑿(−(∙))

𝐹𝑇
• Dualità della Trasformata di Fourier a Tempo Continua: sia 𝑥(𝑡) ↔ 𝑋(∙), si ha che:

𝑭𝑻
𝑿(𝒕) ↔ 𝒙(−𝒇)

𝐹𝑇
• Valore nell’Origine della Trasformata di Fourier: sia 𝑥(𝑡) ↔ 𝑋(∙), si ha che:
+∞ +∞
𝑇𝐶 𝑋(0) = ∫ 𝑥(𝑡)𝑑𝑡 𝑒 𝑥(0) = ∫ 𝑋(𝑓)𝑑𝑓
−∞ −∞

+∞ 1/2
𝑇𝐷 𝑋(0) = ∑ 𝑥(𝑛) 𝑒 𝑥(0) = ∫ 𝑋(𝑣)𝑑𝑣
𝑛−∞ −1/2

𝐹𝑇 𝐹𝑇
• Proprietà di Convoluzione della Trasformata di Fourier: siano 𝑥1 (∙) ↔ 𝑋1 (∙) e 𝑥2 (∙) ↔ 𝑋2 (∙), si
ha che:
𝐹𝑇
𝑦(∙) = 𝑥1 (∙) ∗ 𝑥2 (∙) ↔ 𝑌(∙) = 𝑋1 (∙)𝑋2 (∙)

4.4.2 Proprietà della Variabile Dipendente


Elenchiamo alcune operazione che si possono effettuare sulla variabile dipendente (ampiezza):
• Somma di Due Segnali:
𝐹𝑇
𝑦(∙) = 𝑥1 (∙) + 𝑥2 (∙) ↔ 𝑌(∙) = 𝑋1 (∙) + 𝑋2 (∙)

La somma di due segnali nel dominio del tempo produce la somma delle estensioni spettrali dei due
segnali nel dominio della frequenza: 𝒲𝑦 ≤ 𝒲𝑥1 + 𝒲𝑥2
• Prodotto di Due Segnali:
𝐹𝑇
𝑦(∙) = 𝑥1 (∙) ∙ 𝑥2 (∙) ↔ 𝑌(∙) = 𝑋1 (∙) ∗ 𝑋2 (∙)

Il prodotto di due segnali nel dominio del tempo produce la somma delle bande dei due segnali nel
dominio della frequenza: 𝐵𝑦 ≤ 𝐵𝑥1 + 𝐵𝑥2
Nel caso tempo continuo la relazione a destra di 𝑌(∙) diventa:
+∞
𝑌(𝑓) = 𝑋1 (𝑓) ∗ 𝑋2 (𝑓) = ∫ 𝑋1 (𝜆)𝑋2 (𝑓 − 𝜆)𝑑𝜆
−∞
P a g . | 45

Nel caso tempo discreto invece:

+∞ +∞ 1
+2
𝑌(𝑣) = ∑ 𝑥1 (𝑛)𝑥2 𝑒 −𝑗2𝜋𝑣𝑛 = ∑ [∫ 𝑋1 (𝜆)𝑒 𝑗2𝜋𝑣𝑛 𝑑𝜆] 𝑥2 𝑒 −𝑗2𝜋𝑣𝑛
1
𝑛=−∞ 𝑛=−∞ −2

+1/2 +∞ +1/2
𝑌(𝑣) = ∫ 𝑋1 (𝜆) [ ∑ 𝑥2 (𝑛) 𝑒 −𝑗2𝜋(𝑣−𝜆)𝑛 ] 𝑑𝜆 = ∫ 𝑋1 (𝜆)𝑋2 (𝑣 − 𝜆)𝑑𝜆
−1/2 𝑛=−∞ −1/2

• Prodotto per una Costante:


𝐹𝑇
𝑦(∙) = 𝑎𝑥(∙) ↔ 𝑌(∙) = 𝑎𝑋(∙)

• Legame tra Convoluzione Periodica e Aperiodica: la convoluzione TC viene definita aperiodica


in quanto si estende a tutto ℛ mentre nel caso TD, essendo limitata all’intervallo ±1/2, viene definita
periodica. Allora sia 𝑋(𝑣) = 𝑟𝑒𝑝1 [𝑋𝑔 (𝑣)] e 𝑌(𝑣) = 𝑟𝑒𝑝1 [𝑌𝑔 (𝑣)] due segnali periodici di periodo
unitario ottenuti per replicazione dai generatori corrispettivi. Si ha:

𝑟𝑒𝑝1 [𝑋𝑔 (𝑣)] ∗ 𝑟𝑒𝑝1 [𝑌𝑔 (𝑣)] = 𝑟𝑒𝑝1 [𝑋𝑔 (𝑣) ∗ 𝑌𝑔 (𝑣)]

Dove la convoluzione a primo membro è periodica, mentre quella a secondo membro è aperiodica.
𝐹𝑇
• Proprietà della Traslazione Frequenziale: sia 𝑥(∙) ↔ 𝑋(∙) e 𝑓0 ∈ ℛ, 𝑣0 ∈ ℛ si ha che:
A. Caso Tempo Continuo:
𝐹𝑇
𝑦(𝑡) = 𝑥(𝑡)𝑒 𝑗2𝜋𝑓0 𝑡 ↔ 𝑌(𝑓) = 𝑋(𝑓 − 𝑓0 )

Dimostrazione: consideriamo che in ingresso abbiamo il prodotto di un segnale 𝑥(𝑡) per un fasore
𝑒 𝑗2𝜋𝑓0 𝑡 : 𝑦(𝑡) = 𝑥(𝑡)𝑒 𝑗2𝜋𝑓0𝑡

𝐹𝑇
Ricordiamo che 𝑒 𝑗2𝜋𝑓0 𝑡 ↔ 𝛿(𝑓 − 𝑓0 ), allora applicando la proprietà di convoluzione della delta:

𝑌(𝑓) = 𝑋(𝑓) ∗ 𝛿(𝑓 − 𝑓0 ) = 𝑋(𝑓 − 𝑓0 )

B. Caso Tempo Discreto:


𝐹𝑇
𝑦(𝑛) = 𝑥(𝑛)𝑒 𝑗2𝜋𝑣0𝑛 ↔ 𝑌(𝑣) = 𝑋(𝑣 − 𝑣0 )
Dimostrazione: consideriamo che in ingresso abbiamo il prodotto di un segnale 𝑥(𝑛) per un fasore
𝑒 𝑗2𝜋𝑣0𝑛 : 𝑦(𝑛) = 𝑥(𝑛)𝑒 𝑗2𝜋𝑣0𝑛
Un passaggio in più rispetto al caso TC è dovuto al dover scrivere il tutto come replica:

𝑋(𝑣) = 𝑟𝑒𝑝1 [𝑋𝑔 (𝑣)] 𝛿̃ (𝑣) = 𝑟𝑒𝑝1 [𝛿(𝑣)]

𝐹𝑇
Ricordiamo che 𝑒 𝑗2𝜋𝑣0𝑛 ↔ 𝛿̃ (𝑣 − 𝑣0 ), allora applicando la proprietà di convoluzione della delta:

𝑌(𝑣) = 𝑋(𝑣) ∗ 𝛿̃ (𝑣 − 𝑣0 ) = 𝑟𝑒𝑝1 [𝑋𝑔 (𝑣)] ∗ 𝑟𝑒𝑝1 [𝛿(𝑣 − 𝑣0 )] = 𝑟𝑒𝑝1 [𝑋𝑔 (𝑣) ∗ 𝛿(𝑣)] = 𝑋(𝑣 − 𝑣0 )

𝐹𝑇
• Proprietà di Modulazione: sia 𝑥(∙) ↔ 𝑋(∙) e 𝑓0 ∈ ℛ, 𝑣0 ∈ ℛ si ha che:

𝐹𝑇 1 1
𝑇𝐶. 𝑦(𝑡) = 𝑥(𝑡) cos(2𝜋𝑓0 𝑡 + 𝜑0 ) ↔ 𝑌(𝑓) = 𝑒 𝑗𝜑0 𝑋(𝑓 − 𝑓0 ) + 𝑒 −𝑗𝜑0 𝑋(𝑓 + 𝑓0 )
2 2
𝐹𝑇 1 𝑗𝜑 1
𝑇𝐷. 𝑦(𝑛) = 𝑥(𝑛) cos(2𝜋𝑣0 𝑛 + 𝜑0 ) ↔ 𝑌(𝑣) = 𝑒 0 𝑋(𝑣 − 𝑣0 ) + 𝑒 −𝑗𝜑0 𝑋(𝑣 + 𝑣0 )
2 2
P a g . | 46

Dimostrazione: in ambo i casi la dimostrazione è la stessa quindi supponiamo di trovarci nel caso
TC. Calcoliamo la trasformata di Fourier di tale segnale: 𝑦(𝑡) = 𝑥(𝑡) cos(2𝜋𝑓0 𝑡 + 𝜑0 )
Effettuiamo prima una serie di passaggi:

1 1
𝑦(𝑡) = 𝑥(𝑡) cos(2𝜋𝑓0 𝑡 + 𝜑0 ) = 𝑥(𝑡) [ 𝑒 𝑗2𝜋𝑓0𝑡 𝑒 𝑗𝜑0 + 𝑒 −𝑗2𝜋𝑓0 𝑡 𝑒 −𝑗𝜑0 ]
2 2

1 1
𝑦(𝑡) = 𝑥(𝑡)𝑒 𝑗2𝜋𝑓0 𝑡 𝑒 𝑗𝜑0 + 𝑥(𝑡)𝑒 −𝑗2𝜋𝑓0 𝑡 𝑒 −𝑗𝜑0
2 2

Applicando la proprietà di traslazione frequenziale alle frequenze ±𝑓0 , calcoliamo la FT di 𝑦(𝑡):

1 1
𝑌(𝑓) = 𝑒 𝑗𝜑0 𝑋(𝑓 − 𝑓0 ) + 𝑒 −𝑗𝜑0 𝑋(𝑓 + 𝑓0 )
2 2

L’effetto di una moltiplicazione con una sinusoide a frequenza 𝑓0 o 𝑣0 comporta una doppia
traslazione in frequenza, sia verso destra che verso sinistra (come nell’esempio TC in figura imposti
𝜑0 = 0, 𝑓0 > 0). Inoltre, osserviamo che a causa della moltiplicazione con 1/2 vengono anche
dimezzate le ampiezze. Risultato di quanto detto fino d’ora, alla doppia traslazione del segnale
comporta il medesimo comportamento per l’estensione spettrale:

𝒲𝑥 = (−𝑓𝑚 , 𝑓𝑚 ) → 𝑊𝑦 = (−𝑓0 , −𝑓0 + 𝑓𝑚 ) ∪ (𝑓0 − 𝑓𝑚 , 𝑓0 + 𝑓𝑚 )

In pratica, il nostro segnale passabasso è diventato passabanda ma solo se |𝑓0 | > 𝑓𝑚 perché in caso
contrario le due traslazioni si sovrappongono (e il segnale rimane passabasso). Allora possiamo
affermare che l’estensione di y può essere al più doppia rispetto a quella di x: 𝑊𝑦 = 2𝑊𝑥
Per quanto riguarda la banda il discorso è analogo, infatti nell’esempio essendo che consideriamo le
bande bilatere, quindi: 𝐵𝑦 = 2𝐵𝑥
Allora dopo la modulazione avremo che: 𝐵𝑦 = 4𝐵𝑥

Nelle telecomunicazioni la moltiplicazione di un segnale per una sinusoide prende il nome


Modulazione, dove definiamo:
- Modulatore: sistema LTV (lineare e tempo variante) che ha in ingresso 𝑥(∙) e 𝑦(∙) secondo la
proprietà appena vista. Il motivo per cui esso è tempo variante è dovuto al fatto che si tratta di
un amplificatore a guadagno variabile, ciò esso in uscita non filtra solamente il segnale ma crea
anche delle nuove componenti spettrali (cosa che non fanno i semplici filtri come i sistemi LTI);
- Segnale Modulante: è il segnale 𝑥(𝑡) da modulare;
- Segnale Portante e Frequenza Portante: sono rispettivamente il segnale sinusoidale e la sua
frequenza;
- Segnale Modulato: è il segnale 𝑦(𝑡), quindi il risultato della modulazione.
Tipicamente la modulazione viene adoperata per traslare il contenuto spettrale del segnale 𝑥(𝑡), il
quale trasporta informazione, dalle basse frequenze a frequenza più elevate, in modo da poterlo
trasmettere un cavo per lunghe distanze. Tale tecnica prendere il nome di Trasmissione in Banda
Traslata. La traslazione in frequenza però non deve precludere però la possibilità di riottenere il
segnale originale effettuando una Demodulazione. La cui qualità di ricostruzione dipende
dall’uguaglianza dei valori caratteristici di 𝑓0 e 𝜑0 demodulatore rispetto a quelli del modulatore,
operazione non semplice da realizzare visto che spesso i due sistemi si trovano geograficamente
lontani. Nella pratica per risolvere tale problema si adoperano algoritmi di sincronizzazione.
P a g . | 47

4.4.3 Proprietà della Variabile Indipendente


Elenchiamo alcune operazione che si possono effettuare sulla variabile indipendente (tempo):
𝐹𝑇
• Proprietà della Traslazione Temporale: sia 𝑥(∙) ↔ 𝑋(∙) e 𝑡0 ∈ ℛ, 𝑛0 ∈ 𝒵 si ha che:
𝐹𝑇
𝑇𝐶. 𝑦(𝑡) = 𝑥(𝑡 − 𝑡0 ) ↔ 𝑌(𝑓) = 𝑋(𝑓)𝑒 −𝑗2𝜋𝑓𝑡0
𝐹𝑇
𝑇𝐷. 𝑦(𝑛) = 𝑥(𝑛 − 𝑛0 ) ↔ 𝑌(𝑣) = 𝑋(𝑣)𝑒 −𝑗2𝜋𝑣𝑛0

Dimostrazione: in ambo i casi la dimostrazione è la stessa quindi supponiamo di trovarci nel caso
TC. Calcoliamo la trasformata di Fourier del segnale: 𝑦(𝑡) = 𝑥(𝑡 − 𝑡0 )
+∞ +∞
𝑌(𝑓) = ∫ 𝑦(𝑡)𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡 = ∫ 𝑥(𝑡 − 𝑡0 )𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡
−∞ −∞

Effettuiamo il seguente cambio di variabile: 𝑢 = 𝑡 − 𝑡0 → 𝑡 = 𝑢 + 𝑡0


+∞ +∞
𝑌(𝑓) = ∫ 𝑥(𝑢)𝑒 −𝑗2𝜋𝑓(𝑢+𝑡0 )𝑑𝑢 = [∫ 𝑥(𝑢)𝑒 −𝑗2𝜋𝑓𝑢 𝑑𝑢] 𝑒 −𝑗2𝜋𝑓𝑡0 = 𝑋(𝑓)𝑒 −𝑗2𝜋𝑓𝑡0
−∞ −∞

Gli effetti della traslazione temporale sullo spettro del segnale sono più chiari scrivendo 𝑌(𝑓) come
modulo e fase: 𝑌(𝑓) = |𝑌(𝑓)|𝑒 ∠(𝑌(𝑓)) = |𝑋(𝑓)|𝑒 ∠(𝑋(𝑓))−2𝜋𝑓𝑡0
Capiamo perciò che la traslazione temporale non modifica lo spettro di ampiezza del segnale e di
conseguenza rimarranno invariate anche l’estensione spettrale (𝒲𝑦 = 𝒲𝑥 ) e la banda (𝐵𝑦 = 𝐵𝑥 ).
Invece per quanto riguarda la fase, la traslazione temporale produce uno sfasamento additivo alla
con pendenza negativa se 𝑡0 > 0 o pendenza positiva se 𝑡0 < 0. In pratica quello che abbiamo per la
fase è uno sfasamento lineare nel dominio della frequenza.
𝐹𝑇
• Proprietà di Riflessione: sia 𝑥(∙) ↔ 𝑋(∙), si ha che:

𝑭𝑻
𝒚(∙) = 𝒙(−(∙)) ↔ 𝒀(∙) = 𝑿(−(∙))

Dimostrazione: in ambo i casi la dimostrazione è la stessa quindi supponiamo di trovarci nel caso
TC. Calcoliamo la trasformata di Fourier del segnale: 𝑦(𝑡) = 𝑥(−𝑡)
+∞ +∞
𝑌(𝑓) = ∫ 𝑦(𝑡)𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡 = ∫ 𝑥(−𝑡)𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡
−∞ −∞

Effettuiamo il seguente cambio di variabile: 𝑢 = −𝑡 → 𝑡 = −𝑢


+∞ +∞
𝑌(𝑓) = ∫ 𝑥(𝑢)𝑒 𝑗2𝜋𝑓𝑢 𝑑𝑢 = ∫ 𝑥(𝑢)𝑒 𝑗2𝜋(−𝑓)𝑢 𝑑𝑢 = 𝑋(−𝑓)
−∞ −∞

In pratica, una riflessione nel dominio del tempo corrisponde a una riflessione nel dominio della
frequenza.
𝐹𝑇
• Proprietà di Coniugazione: sia 𝑥(∙) ↔ 𝑋(∙), si ha che:

𝐹𝑇
𝑦(∙) = 𝑥 ∗(∙) ↔ 𝑌(∙) = 𝑋 ∗ (−(∙))

Dimostrazione: osserviamo che se un segnale pari allora lo sarà anche la sua trasformata di Fourier
(relazione di sinistra). Analogamente se un segnale è dispari allora anche la sua trasformata di
Fourier sarà dispari (relazione di destra):
𝐹𝑇 𝐹𝑇
𝑥(∙) = 𝑥(−(∙)) ↔ 𝑋(∙) = 𝑋(−(∙)) 𝑥(∙) = −𝑥(−(∙)) ↔ 𝑋(∙) = −𝑋(−(∙))
P a g . | 48

Ricordiamo che un segnale 𝑥(∙) può essere decomposto in una parte pari e una dispari:

1 1
𝑥(∙) = 𝑃𝑎[𝑥(∙)] + 𝐷𝑖[𝑥(∙)] = [𝑥(∙) + 𝑥(−(∙))] + [𝑥(∙) − 𝑥(−(∙))]
2 2

Applicando la proprietà di riflessione e linearità, possiamo far corrispondere alla componente pari e
dispari nel dominio del tempo alle rispettive trasformate nel dominio della frequenza:

1 𝐹𝑇 1
𝑃𝑎[𝑥(∙)] = [𝑥(∙) + 𝑥(−(∙))] ↔ 𝑃𝑎[𝑋(∙)] = [𝑋(∙) + 𝑋(−(∙))]
2 2
1 𝐹𝑇 1
𝐷𝑖[𝑥(∙)] = [𝑥(∙) − 𝑥(−(∙))] ↔ 𝐷𝑖[𝑋(∙)] = [𝑋(∙) − 𝑋(−(∙))]
2 2

Allora la trasformata di Fourier di 𝑥(∙) sarà:

1 1
𝑋(∙) = 𝑃𝑎[𝑋(∙)] + 𝐷𝑖[𝑋(∙)] = [𝑋(∙) + 𝑋(−(∙))] + [𝑋(∙) − 𝑋(−(∙))]
2 2
𝐹𝑇
Quindi possiamo affermare che: 𝑥(∙) = 𝑃𝑎[𝑥(∙)] + 𝐷𝑖[𝑥(∙)] ↔ 𝑋(∙) = 𝑃𝑎[𝑋(∙)] + 𝐷𝑖[𝑋(∙)]
Un altro tipo di decomposizione elementare come quella appena vista prevede di decomporre il
segnale in una parte reale e una immaginaria:
1 1
𝑥(∙) = 𝑅𝑒[𝑥(∙)] + 𝑗𝐼𝑚[𝑥(∙)] = [𝑥(∙) + 𝑥 ∗ (∙)] + [𝑥(∙) − 𝑥 ∗ (∙)]
2 2

Per il calcolo della trasformata di Fourier delle precedenti espressioni dobbiamo calcolare la
trasformata di Fourier di 𝑦(∙) = 𝑥 ∗ (∙). Lavoriamo per esempio nel caso TC:

+∞ +∞ +∞ ∗
𝑌(𝑓) = ∫ 𝑦(𝑡)𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡 = ∫ 𝑥 ∗ (𝑡)𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡 = [∫ 𝑥(𝑡)𝑒 𝑗2𝜋𝑓𝑡 𝑑𝑡]
−∞ −∞ −∞

+∞ ∗
𝑌(𝑓) = [∫ 𝑥(𝑡)𝑒 −𝑗2𝜋(−𝑓)𝑡 𝑑𝑡] = 𝑋 ∗ (−𝑓)
−∞

Possiamo quindi concludere che la coniugazione nel dominio del tempo corrisponde a una
coniugazione più una riflessione nel dominio della frequenza.
𝐹𝑇
• Proprietà di Riflessione e Coniugazione: sia 𝑥(∙) ↔ 𝑋(∙), si ha che:
𝐹𝑇
𝑦(∙) = 𝑥 ∗(−(∙)) ↔ 𝑌(∙) = 𝑋 ∗ ((∙))

Dimostrazione: dalla precedentemente dimostrazione abbiamo visto l’espressione della


componente reale del segnale 𝑥(∙), da essa definiamo la Componente Hermitiana la sua
trasformata di Fourier. Tale componente, se e solo 𝑋(∙) è reale, è pari proprio alla trasformata di
Fourier della componente pari 𝑃𝑎[𝑋(∙)].

1 𝐹𝑇 1
𝑅𝑒[𝑥(∙)] = [𝑥(∙) + 𝑥 ∗ (∙)] ↔ 𝐻𝑒[𝑋(∙)] = [𝑋(∙) + 𝑋 ∗ (−(∙))]
2 2

Con passaggi analoghi per la parte immaginaria di 𝑥(∙) definiamo la Componente Anti-hermitiana
la sua trasformata di Fourier. Tale componente, se e solo 𝑋(∙) è reale, è pari proprio alla trasformata
di Fourier della componente dispari 𝐷𝑖[𝑋(∙)].

1 𝐹𝑇 1
𝑗𝐼𝑚[𝑥(∙)] = [𝑥(∙) − 𝑥 ∗ (∙)] ↔ 𝐴ℎ[𝑋(∙)] = [𝑋(∙) − 𝑋 ∗ (−(∙))]
2 2
P a g . | 49

𝐹𝑇
In definitiva: 𝑥(∙) = 𝑅𝑒[𝑥(∙)] + 𝑗𝐼𝑚[𝑥(∙)] ↔ 𝑋(∙) = 𝐻𝑒[𝑋(∙)] + 𝐴ℎ[𝑋(∙)]
Passando al dominio del tempo possiamo affermare che:

1 1
𝐻𝑒[𝑥(∙)] = [𝑥(∙) + 𝑥 ∗ (∙)] 𝐴ℎ[𝑥(∙)] = [𝑥(∙) − 𝑥 ∗ (−(∙))]
2 2
Ricordando che, ad una riflessione più una coniugazione nel dominio del tempo corrisponde sempre
a una semplice coniugazione nel dominio della frequenza:

1 𝐹𝑇 1
𝐻𝑒[𝑥(∙)] = [𝑥(∙) + 𝑥 ∗ (∙)] ↔ 𝑅𝑒[𝑋(∙)] = [𝑋(∙) + 𝑋 ∗ (∙)]
2 2
1 𝐹𝑇 1
𝐴ℎ[𝑥(∙)] = [𝑥(∙) − 𝑥 ∗(−(∙))] ↔ 𝑗𝐼𝑚[𝑋(∙)] = + [𝑋(∙) − 𝑋 ∗ (∙)]
2 2

La componente hermitiana nel dominio del tempo corrisponde alla componente reale della
trasformata di Fourier di 𝑥(∙), così come la componente anti-hermitiana corrisponde alla
componente immaginaria della trasformata di Fourier di 𝑥(∙).
𝐹𝑇
• Cambiamento di Scala Temporale a TC: sia 𝑥(𝑡) ↔ 𝑋(𝑓), ∀𝑎 ∈ ℛ − {0} si ha che:

𝐹𝑇 1 𝑓
𝑦(𝑡) = 𝑥(𝑎𝑡) ↔ 𝑌(𝑓) = 𝑋( )
|𝑎| 𝑎

Dimostrazione: la trasformata di Fourier del segnale 𝑦(𝑡) = 𝑥(𝑎𝑡) si riconduce alla trasformata di
Fourier di 𝑥(𝑡) con il cambio di variabile 𝑢 = 𝑎𝑡 e 𝑎 > 0:
+∞ +∞ 𝑢=𝑎𝑡 1 +∞ 𝑓
−𝑗2𝜋(𝑎)𝑢 1 𝑓
𝑌(𝑓) = ∫ 𝑦(𝑡)𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡 = ∫ 𝑥(𝑎𝑡)𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡 =→ = ∫ 𝑥(𝑢)𝑒 𝑑𝑢 = 𝑋 ( )
−∞ −∞ 𝑎 −∞ 𝑎 𝑎

Con analoghi passaggi si può dimostrare che anche nel caso 𝑎 < 0 abbiamo banalmente che si
aggiunge un segno meno davanti all’ultimo membro, quindi possiamo scrivere in maniera più
generica 1/|𝑎|, ottenendo così proprio la regola di cambiamento di scala a TC. Ricordando che per
𝑎 > 1 abbiamo una compressione nel dominio del tempo, tale proprietà ci dice che ad essa
corrisponde una espansione nel dominio della frequenza. Se invece 0 < 𝑎 < 1 abbiamo una
espansione nel dominio del tempo che corrisponde a una compressione nel dominio della frequenza.
𝐹𝑇
• Espansione a TD: sia 𝑥(𝑛) ↔ 𝑋(𝑣) e 𝐿 ∈ 𝒩, si ha che:

𝑛 𝐹𝑇
𝑦(𝑛) = 𝑥 ( ) ↔ 𝑌(𝑣) = 𝑋(𝐿𝑣)
𝐿

Dimostrazione: sappiamo che nel tempo discreto alla compressione corrisponde la decimazione.
Analizziamo il caso della espansione nel TD considerando:

+∞ +∞ 𝑛
𝑛 𝑥 ( ) 𝑠𝑒 𝑛 è 𝑚𝑢𝑙𝑡𝑖𝑝𝑙𝑜 𝑑𝑖 𝐿
𝑌(𝑣) = ∑ 𝑦(𝑛)𝑒 −𝑗2𝜋𝑣𝑛 = ∑ 𝑥 ( ) 𝑒 −𝑗2𝜋𝑣𝑛 𝑑𝑜𝑣𝑒 𝑦(𝑛) = { 𝐿
𝐿 0 𝑎𝑙𝑡𝑟𝑖𝑚𝑒𝑛𝑡𝑖
𝑛=−∞ 𝑛=−∞

+∞
𝑛
𝑌(𝑣) = ∑ 𝑥 ( ) 𝑒 −𝑗2𝜋𝑣𝑛 = 𝑋(𝐿𝑣)
𝑛=−∞
𝐿
𝑛 𝑚𝑢𝑙𝑡𝑖𝑝𝑙𝑜 𝑑𝑖 𝐿

Si osserva che una divisione per L nel dominio del tempo corrisponde a una moltiplicazione per L
nel dominio della frequenza. Inoltre, contrariamente al caso TC, nel caso TD le ampiezze non
vengono modificate.
P a g . | 50

𝐹𝑇
• Derivazione k-esima a TC: sia 𝑥(𝑡) ↔ 𝑋(𝑓) e 𝑘 ∈ 𝒩, si ha che:

𝑑𝑘 𝐹𝑇
𝑦(𝑡) =
𝑘 𝑥(𝑡) ↔ 𝑌(𝑓) = (𝑗2𝜋𝑓)𝑘 𝑋(𝑓)
𝑑𝑡
Dimostrazione: partendo dall’equazione di sintesi
+∞ +∞
𝑑 𝑑
𝑥(𝑡) = ∫ 𝑋(𝑓)𝑒 𝑗2𝜋𝑓𝑡 𝑑𝑓 → 𝑦(𝑡) = 𝑥(𝑡) = ∫ [𝑋(𝑓)𝑒 𝑗2𝜋𝑓𝑡 ] 𝑑𝑓
−∞ 𝑑𝑡 −∞ 𝑑𝑡

+∞ +∞ +∞
𝑑 𝑗2𝜋𝑓𝑡
𝑦(𝑡) = ∫ 𝑋(𝑓) (𝑒 )𝑑𝑓 = ∫ 𝑋(𝑓)𝑗2𝜋𝑓 𝑒 𝑗2𝜋𝑓𝑡 𝑑𝑓 = ∫ 𝑌(𝑓)𝑒 𝑗2𝜋𝑓𝑡 𝑑𝑓
−∞ 𝑑𝑡 −∞ −∞

Per concludere:
𝑑 𝐹𝑇
𝑦(𝑡) = 𝑥(𝑡) ↔ 𝑌(𝑓) = 𝑗2𝜋𝑓𝑋(𝑓)
𝑑𝑡

Iterando questa relazione fino alla derivata k-esima otteniamo la relazione di sopra.
𝐹𝑇
• Integrazione a TC: sia 𝑥(𝑡) ↔ 𝑋(𝑓), si ha che:
𝑡 𝐹𝑇 𝑋(𝑓) 1
𝑦(𝑡) = ∫ 𝑥(𝜏)𝑑𝜏 ↔ 𝑌(𝑓) = + 𝑋(0)𝛿(𝑓)
−∞ 𝑗2𝜋𝑓 2

Dimostrazione: calcoliamo la trasformata di Fourier del segnale 𝑦(𝑡) (primo integrale), il quale può
essere scritto come la convoluzione per il gradino 𝑢(𝑡):
𝑡 𝑡 𝐹𝑇
𝑦(𝑡) = ∫ 𝑥(𝜏)𝑑𝜏 = ∫ 𝑥(𝜏)𝑢(𝑡 − 𝜏)𝑑𝜏 = 𝑥(𝑡) ∗ 𝑢(𝑡) ↔ 𝑌(𝑓) = 𝑋(𝑓)𝑈(𝑓)
−∞ −∞

1 1 1 𝑋(𝑓)
𝑌(𝑓) = 𝑋(𝑓) [ 𝜹(𝒇) − ] = 𝑋(0)𝛿(𝑓) +
2 𝑗2𝜋𝑓 2 𝑗2𝜋𝑓

Dove fra il termine 𝑋(𝑓) e 𝛿(𝑓) è stata applicata la proprietà di campionamento della delta. Nel caso
particolare di 𝑋(0) = 0 abbiamo la perfetta simmetria fra l’operazione di derivazione e integrazione.
In caso contrario tale impulso definisce una componente continua nel segnale 𝑦(𝑡) poiché 𝑋(0)
coincide con l’area del segnale 𝑥(𝑡).
𝐹𝑇
• Differenza k-esima a TD: sia 𝑥(𝑛) ↔ 𝑋(𝑣) e 𝑘 ∈ 𝒩, si ha che:
𝐹𝑇 𝑘
𝑦(𝑛) = ∇𝑘 [𝑥(𝑛)] ↔ 𝑌(𝑣) = (1 − 𝑒 −𝑗2𝜋𝑣 ) 𝑋(𝑣)

Dimostrazione: ricordiamo la differenza prima: 𝑦(𝑛) = ∇1 [𝑥(𝑛)] = 𝑥(𝑛) − 𝑥(𝑛 − 1)

𝑌(𝑣) = ℱ[𝑦(𝑛)] = ℱ[𝑥(𝑛) − 𝑥(𝑛 − 1)] = ℱ[𝑥(𝑛)] − ℱ[𝑥(𝑛 − 1)] = 𝑋(𝑣) − 𝑋(𝑣)𝑒 −𝑗2𝜋𝑣

𝑌(𝑣) = ℱ[𝑦(𝑛)] = (1 − 𝑒 −𝑗2𝜋𝑣 )𝑋(𝑣)

Iterando questa relazione fino alla differenza prima k-esima otteniamo la relazione di sopra.
𝐹𝑇
• Somma Corrente a TD: sia 𝑥(𝑛) ↔ 𝑋(𝑣), si ha che:

+∞
𝐹𝑇 𝑋(𝑣) 1
𝑦(𝑛) = ∑ 𝑥(𝑘) ↔ 𝑌(𝑣) = + 𝑋(0)𝛿(𝑣)
(1 − 𝑒 −𝑗2𝜋𝑣 )𝑘 2
𝑘=−∞
P a g . | 51

Dimostrazione: calcoliamo la trasformata di Fourier del segnale 𝑦(𝑛) (prima sommatoria), la quale
può essere scritta come la convoluzione per il gradino 𝑢(𝑛):
+∞ +∞
𝐹𝑇
𝑦(𝑛) = ∑ 𝑥(𝑚) = ∑ 𝑥(𝑚)𝑢(𝑛 − 𝑚) = 𝑥(𝑛) ∗ 𝑢(𝑛) ↔ 𝑌(𝑣) = 𝑋(𝑣)𝑈(𝑣)
𝑚=−∞ 𝑚=−∞

1 1 1 𝑋(𝑓)
𝑌(𝑣) = 𝑋(𝑣) [ 𝜹̃(𝒗) + ] = 𝑋(0)𝛿̃ (𝑣) +
2 (1 − 𝑒 −𝑗2𝜋𝑣 ) 2 (1 − 𝑒 −𝑗2𝜋𝑣 )

Analoghe considerazioni fatte nel caso TC, valgono anche nel caso TD.
P a g . | 52

4.5 Trasformata di Fourier di Segnali Periodici

4.5.1 Caratterizzazione della Trasformata di Fourier di Segnali Periodici


Ora che abbiamo tutti gli strumenti per adoperare la trasformata di Fourier, le sue numerose proprietà
e alcune trasformate notevoli siamo ora in grado di calcolare la trasformata di Fourier di un generico
segnale periodico (sia in TC che in TD).
A. Caso Tempo Continuo
Partiamo dall’equazione di sintesi del nostro segnale periodico di periodo 𝑇0 e frequenza fondamentale
𝑓0 = 1/𝑇0 :
+∞ +∞ +∞
𝐹𝑇 𝑘
𝑥(𝑡) = ∑ 𝑋𝑘 𝑒 𝑗2𝜋𝑘𝑓0 𝑡 ↔ 𝑋(𝑓) = ∑ 𝑋𝑘 𝛿(𝑓 − 𝑘𝑓0 ) = ∑ 𝑋𝑘 𝛿 (𝑓 − )
𝑇0
𝑘=−∞ 𝑘=−∞ 𝑘=−∞

Tale trasformata si può interpretare come una


sovrapposizione di infiniti impulsi di Dirac, centrati alle
frequenze 𝑘𝑓0 e aventi area pari al coefficiente 𝑋𝑘 della serie
di Fourier. In particolare, lo spettro di questo tipo viene
definito Spettro a Righe ed è caratteristico di qualsiasi
segnale periodico. Osserviamo tra l’altro che la distanza fra
i vari impulsi è proprio pari alla frequenza fondamentale 𝑓0 .

B. Caso Tempo Discreto


Nel caso TD i risultati sono analoghi solo che 𝑁0 −1 𝑁0 −1
bisogna tenere conto della periodicità unitaria 1 1
𝑥(𝑛) = ∑ 𝑋(𝑘)𝑤𝑁−𝑘𝑛 = ∑ 𝑋(𝑘)𝑒 𝑗2𝜋𝑘𝑣0𝑛
della trasformata di Fourier nel TD. Partiamo 𝑁0 0
𝑁0
𝑘=0 𝑘=0
sempre dall’equazione di sintesi:

𝑁0 −1 𝑁0 −1 𝑁0 −1
1 𝐹𝑇 1 1 𝑘
𝑥(𝑛) = ∑ 𝑋(𝑘)𝑒 𝑗2𝜋𝑘𝑣0𝑛 ↔ 𝑋(𝑣) = ∑ 𝑋(𝑘)𝛿̃ (𝑣 − 𝑘𝑣0 ) = ∑ 𝑋(𝑘)𝛿̃ (𝑣 − )
𝑁0 𝑁0 𝑁0 𝑁0
𝑘=0 𝑘=0 𝑘=0

Tale trasformata si può interpretare come una


sovrapposizione finita di pettini di delta (non singoli
impulsi come in TC ma gruppetti di impulsi), aventi
periodo unitario, moltiplicati per i coefficienti 𝑋(𝑘) della
DFS di 𝑥(𝑛). Tali pettini sono:

𝑋(0)𝛿̃ (𝑣)
𝑋(1)𝛿̃ (𝑣 − 𝑣0 )
𝑋(2)𝛿̃ (𝑣 − 2𝑣0 )

𝑋(𝑁0 − 1)𝛿̃ (𝑣 − (𝑁0 − 1)𝑣0 )

Se consideriamo per esempio 𝑁0 = 4 avremo una


situazione come in figura, nella quale i vari pettini si
sovrappongono fra di loro creando il segnale 𝑋(𝑣). Grazie
a tale operazione avremo degli impulsi posizionati a tutte
le frequenze 𝑣𝑘 = 𝑘𝑣0 , quindi possiamo affermare che la
𝑋(𝑣) si può scrivere anche nel seguente modo:
+∞
1
𝑋(𝑣) = ∑ 𝑋(𝑘)𝛿̃ (𝑣 − 𝑘𝑣0 )
𝑁0
𝑘=−∞
P a g . | 53

4.5.2 Estensione Spettrale e Banda di un Segnale Periodico


Ora che conosciamo la trasformata di Fourier di un segnale periodico (TC e TD) possiamo analizzare
l’estensione spettrale e la banda. Prendiamo il caso TC e osserviamo che, poiché lo spettro di 𝑥(𝑡) è
concentrato alle frequenze 𝑘𝑓0 , allora l’estensione spettrale sarà un insieme discreto contenente solo le
armoniche 𝑘𝑓0 , cioè 𝓦𝒙 =∪𝒌∈𝓩 {𝒌𝒇𝟎 }. Analoghe considerazioni valgono nel caso TD e quindi avremo le
seguenti relazione:

𝓦𝒙 =∪𝒌∈𝓩 {𝒌𝒇𝟎 } 𝓦 =∪𝒌∈𝓩∩(−𝟏/𝟐,𝟏/𝟐) {𝒌𝒇𝟎 }∁(−𝟏/𝟐, 𝟏/𝟐)


𝑻𝑪. { 𝑻𝑫. { 𝒙
𝑩𝒙 = 𝟎 𝑩𝒙 = 𝟎

Il risultato della banda nulla era prevedibile in quanto i segnali periodici essendo esprimibili come
sovrapposizione di segnali mono-frequenziali come i fasori, questi ultimi avendo banda nulla, anche
sovrapposti fra loro avranno banda nulla. Tuttavia, sovratutto nel caso TC, una definizione più
appropriata di estensione spettrale e banda è quella basata sulla definizione di banda all′𝑎% di potenza
(vista nei paragrafi precedenti). In tal caso l’estensione spettrale sarà 𝒲𝑥 = (−𝑀𝑓0 , 𝑀𝑓0 ) con 2𝑀 + 1
armoniche che contengono una frazione 𝑎 della potenza complessiva del segnale. Allora:
- Fissato un 𝑎 ∈ (0,1);
- Chiamando 𝑃𝑥 (𝑥(𝑡)) la potenza del segnale 𝑥(𝑡).
Determiniamo il valore 𝑀 tale che la potenza 𝑃𝑥 (𝑥𝑀 (𝑡)) = 𝑎𝑃𝑥 (𝑥(𝑡)). In base all’uguaglianza di Parseval,
la potenza del segnale 𝑥𝑀 (𝑡), che è quindi una funzione di M (perciò ho scritto 𝑃𝑥 (𝑀)) è pari alla
sommatoria di |𝑋𝑘 |2 :
𝑀 𝑀

𝑃𝑥 (𝑥𝑀 (𝑡)) = 𝑃𝑥 ( ∑ 𝑋𝑘 𝑒 𝑗2𝜋𝑓0 𝑡 ) = 𝑃𝑥 (𝑀) = ∑ |𝑋𝑘 |2 = 𝑎𝑃𝑥 (𝑥(𝑡))


𝑘=−𝑀 𝑘=−𝑀

Data la natura discreta di M certamente non possiamo mai avere la perfetta uguaglianza perciò sarebbe
più corretto scrivere: 𝑃𝑥 (𝑥𝑀 (𝑡)) ≥ 𝑎𝑃𝑥 (𝑥(𝑡))
In ogni caso la banda bilatera sarà: 𝐵𝑥 = 2𝑀𝑓0
Tutte le considerazioni fatte valgono per i segnali passabasso visto che abbiamo implicitamente
ragionato sull’intorno della frequenza 𝑓0 = 0 e spettro nullo al di fuori di tale intorno. Nel caso TD si
fanno ragionamenti analoghi ma in tal caso abbiamo la perfetta uguaglianza di cui parlavamo prima
visto che viene sempre ricostruito perfettamente il segnale 𝑥(𝑛).

4.5.3 Relazione tra Serie di Fourier/DFS e Trasformata di Fourier


Vediamo che relazione sussiste tra la serie di Fourier/ DFS e la trasformata di Fourier, in particolare
studiamo come è possibile legare i coefficienti di una della prime due con quest’ultima per un arbitrario
generatore 𝑥𝑔 (∙) del segnale periodico.
A. Caso Tempo Continuo +∞
Consideriamo la rappresentazione di un segnale 𝑥(𝑡) = 𝑟𝑒𝑝𝑇0 [𝑥𝑔 (𝑡)] = ∑ 𝑥𝑔 (𝑡 − 𝑘𝑇0 )
periodico 𝑥(𝑡) con periodo 𝑇0 come replicazione di un 𝑘=−∞
opportuno generatore 𝑥𝑔 (𝑡):
Applicando la proprietà di convoluzione con la delta di Dirac: 𝑥𝑔 (𝑡 − 𝑘𝑇0 ) = 𝑥𝑔 (𝑡) ∗ 𝛿(𝑡 − 𝑘𝑇0 )
Inoltre, applicando la proprietà di distribuzione della convoluzione otterremo è la seguente relazione,
la quale ci che, un segnale periodico può essere espresso come convoluzione tra un generatore 𝑥𝑔 (𝑡) per
un pettine di delta a TC di periodo 𝑇0 :

+∞ +∞ +∞

𝑥(𝑡) = ∑ 𝑥𝑔 (𝑡 − 𝑘𝑇0 ) = ∑ [𝑥𝑔 (𝑡) ∗ 𝛿(𝑡 − 𝑘𝑇0 )] = 𝑥𝑔 (𝑡) ∗ [ ∑ 𝛿(𝑡 − 𝑘𝑇0 )]


𝑘=−∞ 𝑘=−∞ 𝑘=−∞

A questo punto il nostro scopo è calcolare la trasformata di Fourier di 𝑥(𝑡).


P a g . | 54

Applichiamo la proprietà di convoluzione della trasformata di Fourier e anche la trasformata notevole


𝐹𝑇
del pettine di delta, infine definiamo 𝑥𝑔 (𝑡) ↔ 𝑋𝑔 (𝑓):

+∞ +∞ +∞
1 𝑘 𝟏 𝒌 𝑘 𝑘
𝑋(𝑓) = 𝑋𝑔 (𝑓) [ ∑ 𝛿 (𝑓 − )] = ∑ 𝑿𝒈 ( ) 𝛿 (𝑓 − ) = ∑ 𝑿𝒌 𝛿 (𝑓 − )
𝑇0 𝑇0 𝑻𝟎 𝑻𝟎 𝑇0 𝑇0
𝑘=−∞ 𝑘=−∞ 𝑘=−∞

La sostituzione in grassetto verde si chiama:


Proprietà di Campionamento in Frequenza della Trasformata di Fourier a TC: la sequenza dei
coefficienti 𝑋𝑘 della serie di Fourier coincide, a meno del fattore di proporzionalità 1/𝑇0 , con la trasformata
di Fourier 𝑋𝑔 (𝑓) del generatore 𝑥𝑔 (𝑡) campionata alle frequenze 𝑘/𝑇0 con 𝑘 ∈ 𝒵.

Questa proprietà in pratica ci suggerisce una via alternativa per il calcolo dei coefficienti 𝑋𝑘 rispetto alla
formula vista nel capitolo della Serie di Fourier, la quale a volte può essere complicata. Infatti, basta
trovare un opportuno generatore 𝑥𝑔 (𝑡) del segnale, farne
la trasformata di Fourier 𝑋𝑔 (𝑓) e campionare il tutto alle 𝐹𝑇 𝑓=𝑘/𝑇0 1 𝑘
𝑥𝑔 (𝑡) ↔ 𝑋𝑔 (𝑓) ↔ 𝑋𝑘 = 𝑋𝑔 ( )
frequenze 𝑘/𝑇0 : 𝑇0 𝑇0

B. Caso Tempo Discreto


Discorso analogo nel caso TD con riferimento alla DFS. +∞
Consideriamo la rappresentazione di un segnale 𝑥(𝑛) = 𝑟𝑒𝑝𝑁0 [𝑥𝑔 (𝑛)] = ∑ 𝑥𝑔 (𝑛 − 𝑘𝑁0 )
periodico 𝑥(𝑛) con periodo 𝑁 come replicazione di un 𝑘=−∞
opportuno generatore 𝑥𝑔 (𝑛):
Applicando la proprietà di convoluzione con l’impulso discreto: 𝑥𝑔 (𝑛 − 𝑘𝑁0 ) = 𝑥𝑔 (𝑛) ∗ 𝛿(𝑛 − 𝑘𝑁0 )
Inoltre, applicando la proprietà di distribuzione della convoluzione otterremo è la seguente relazione,
la quale ci che, un segnale periodico può essere espresso come convoluzione tra un generatore 𝑥𝑔 (𝑛)
per un pettine di delta a TD di periodo 𝑁:

+∞ +∞ +∞

𝑥(𝑛) = ∑ 𝑥𝑔 (𝑛 − 𝑘𝑁0 ) = ∑ 𝑥𝑔 (𝑛) ∗ 𝛿(𝑛 − 𝑘𝑁0 ) = 𝑥𝑔 (𝑛) ∗ [ ∑ 𝛿(𝑛 − 𝑘𝑁0 )]


𝑘=−∞ 𝑘=−∞ 𝑘=−∞

A questo punto il nostro scopo è calcolare la trasformata di Fourier di 𝑥(𝑛). Applichiamo la proprietà di
convoluzione della trasformata di Fourier e anche la trasformata notevole del pettine di delta, infine
𝐹𝑇
definiamo 𝑥𝑔 (𝑛) ↔ 𝑋𝑔 (𝑣):

+∞ +∞ +∞
1 𝑘 1 𝒌 𝑘 𝑘
𝑋(𝑣) = 𝑋𝑔 (𝑣) [ ∑ 𝛿 (𝑣 − )] = ∑ 𝑿𝒈 ( ) 𝛿 (𝑣 − ) = ∑ 𝑿(𝒌)𝛿 (𝑓 − )
𝑁0 𝑁0 𝑁0 𝑵𝟎 𝑁0 𝑇0
𝑘=−∞ 𝑘=−∞ 𝑘=−∞

Anche in questo caso possiamo definire la strada alternativa del calcolo dei coefficienti 𝑋(𝑘) attraverso
la proprietà di campionamento in frequenza della
trasformata di Fourier, la quale si esplica mediate la 𝐹𝑇 𝑣=𝑘/𝑁0 𝑘
𝑥𝑔 (𝑛) ↔ 𝑋𝑔 (𝑣) ↔ 𝑋(𝑘) = 𝑋𝑔 ( )
sostituzione in grassetto verde. Allora basta trovare un 𝑁0
opportuno generatore 𝑥𝑔 (𝑛), farne la trasformata e
campionare il tutto per 𝑣 = 𝑘/𝑁0 .
P a g . | 55

4.6 Relazione I-U dei Sistemi LTI nel Dominio della Frequenza
La risposta in frequenza 𝐻(∙) di un sistema LTI (TC o TD) è la trasformata di Fourier della risposta
impulsiva ℎ(∙), mentre quest’ultima si può definire come l’anti trasformata di Fourier di 𝐻(∙). Le formule
dell’anti trasformata di Fourier in ambo i casi sono le seguenti:

+∞ 𝟏/𝟐
𝑻𝑪. 𝒉(𝒕) = ∫ 𝑯(𝒇)𝒆𝒋𝟐𝝅𝒇𝒕 𝒅𝒇 𝑻𝑫. 𝒉(𝒏) = ∫ 𝑯(𝒗)𝒆𝒋𝟐𝝅𝒗𝒏 𝒅𝒗
−∞ −𝟏/𝟐

Grazie ad esse siamo in grado di superare i limiti della serie di Fourier e calcolare l’uscita di un sistema
anche quando il segnale in ingresso non è periodico, purché però esso sia dotato di trasformata di
Fourier. Dimostriamo le due formule:
A. Caso Tempo Continuo: partendo dalla equazione di sintesi (formula di sinistra) e ricordando che
per un singolo fasore la risposta del sistema è data dal prodotto dell’ingresso (il fasore) con la
risposta 𝐻(𝑓):
+∞
𝑥(𝑡) = ∫ 𝑋(𝑓)𝑒 𝑗2𝜋𝑓𝑡 𝑑𝑓 𝑒 𝑗2𝜋𝑓𝑡 → 𝐻(𝑓)𝑒 𝑗2𝜋𝑓𝑡
−∞

Applicando la proprietà di linearità del sistema:


+∞ +∞ +∞ +∞
𝑦(𝑡) = 𝒮 [∫ 𝑋(𝑓)𝑒 𝑗2𝜋𝑓𝑡 𝑑𝑓 ] =∫ 𝑋(𝑓)𝒮[𝑒 𝑗2𝜋𝑓𝑡 ]𝑑𝑓 =∫ 𝑋(𝑓)𝐻(𝑓)𝑒 𝑗2𝜋𝑓𝑡 𝑑𝑓 =∫ 𝑌(𝑓)𝑒 𝑗2𝜋𝑓𝑡 𝑑𝑓
−∞ −∞ −∞ −∞

Dove definiamo la risposta I-U del sistema LTI nel dominio della frequenza: 𝑌(𝑓) = 𝐻(𝑓)𝑋(𝑓)
B. Caso Tempo Discreto: partendo dalla equazione di sintesi (formula di sinistra) e ricordando che
per un singolo fasore la risposta del sistema è data dal prodotto dell’ingresso (il fasore) con la
risposta 𝐻(𝑣):
+1/2
𝑥(𝑛) = ∫ 𝑋(𝑣)𝑒 𝑗2𝜋𝑣𝑛 𝑑𝑣 𝑒 𝑗2𝜋𝑣𝑛 → 𝐻(𝑣)𝑒 𝑗2𝜋𝑣𝑛
−2/2

Applicando la proprietà di linearità del sistema ed effettuando passaggi analoghi al TC:

+1/2 +∞ +∞
𝑦(𝑛) = 𝒮 [∫ 𝑋(𝑣)𝑒 𝑗2𝜋𝑣𝑛 𝑑𝑣 ] = ∫ 𝑋(𝑣)𝐻(𝑣)𝑒 𝑗2𝜋𝑣𝑛 𝑑𝑣 = ∫ 𝑌(𝑣)𝑒 𝑗2𝜋𝑣𝑛 𝑑𝑣
−1/2 −∞ −∞

Dove definiamo la risposta I-U del sistema LTI nel dominio della frequenza: 𝑌(𝑣) = 𝐻(𝑣)𝑋(𝑣)

In conclusione, la risposta in frequenza di un sistema LTI si può esprimere anche come il rapporto la
trasformata di Fourier dell’uscita fratto quella dell’ingresso: 𝑯(∙) = 𝒀(∙)⁄𝑿(∙)

4.7 Proprietà della Risposta in Frequenza di un Sistema LTI


Abbiamo visto che un sistema LTI può essere caratterizzato nel dominio del tempo dalla sua risposta
impulsiva ℎ(∙) nel dominio del tempo oppure dalla sua risposta in frequenza 𝐻(∙) nel dominio della
frequenza. Inoltre, abbiamo sempre visto nei capitoli precedenti il legame tra le proprietà dei sistemi
LTI come istantaneità, stabilità, causalità e invertibilità alla risposta impulsiva ℎ(∙). In questo paragrafo
studieremo la medesima cosa ma in riferimento alla risposta in frequenza 𝐻(∙), bisogna però precisare
che le proprietà di stabilità e causalità avranno una trattazione incompleta in quanto nel dominio della
frequenza sono troppo complesse da trattare.
• Istantaneità
Un sistema LTI è istantaneo se e solo se la sua risposta in frequenza è del tipo 𝐻(∙) = 𝑎
Ricordiamo che nel tempo continuo la relazione era ℎ(∙) = 𝑎𝛿(𝑡), cioè la caratteristica di un
amplificatore/attenuatore ideale, perciò effettuando la trasformata di Fourier della risposta impulsiva
si ha che: ℎ(∙) = 𝑎𝛿(∙) → 𝐻(∙) = 𝑎 ∙ 1 = 𝑎
P a g . | 56

Allora un sistema LTI si dice istantaneo se la sua risposta in frequenza ha un andamento costante, cioè
è un sistema passatutto con banda illimitata (𝐵𝑥 = +∞ in TC e 𝐵𝑥 = 1 in TD).

• Stabilità
A. Caso Tempo Continuo: se un sistema LTI a TC è stabile, allora la sua risposta in frequenza 𝐻(𝑓)
è limitata, continua e infinitesima all’infinito.
B. Caso Tempo Discreto: se un sistema LTI a TD è stabile, allora la sua risposta in frequenza 𝐻(𝑣)
è limitata, continua e infinitesima all’infinito.
Come dicevamo lo studio della stabilità è incompleto perché per ricavare delle condizioni necessarie e
sufficienti dovremmo introdurre la trasformata di Laplace per il caso TC e la trasformata Zeta per il caso
TD. Per evitare di fare ciò e utilizzando solo la trasformata di Fourier possiamo solo definire delle
condizioni necessarie ma non sufficienti, come sommabilità della risposta impulsiva ℎ(∙).

• Causalità
Ricordiamo che nel dominio del tempo un sistema LTI era causale se e solo se la sua risposta impulsiva
era causale, cioè identicamente nulla per 𝑡 < 0 nel caso TC e per 𝑛 < 0 nel caso TD. Nel dominio della
frequenza trovare delle condizioni per la quale la risposta in frequenza 𝐻(∙) abbia antitrasformata ℎ(∙)
causale è piuttosto complesso e soprattutto non ammette una soluzione generale (infatti si devono
imporre delle restrizioni alla 𝐻(∙)). Una condizione accettabile è quella per la quale la risposta in
frequenza è quadrato sommabile:

+∞ 1/2
𝑇𝐶: ∫ |𝐻(𝑓)|2 𝑑𝑓 < +∞ 𝑇𝐷: ∫ |𝐻(𝑣)|2 𝑑𝑣 < +∞
−∞ −1/2

La relazione del caso TC è valida solo per segnali a banda rigorosamente o praticamente limitata (come
gran parte dei sistemi di equazioni differenziali), mentre la relazione del caso TD è valida solo per
sistemi la cui risposta in frequenza assume valori finiti (indipendentemente dalla banda). Per i sistemi
aventi risposta in frequenza che rispetta le relazioni sopracitate, lo studio della causalità si effettua
mediante le seguenti condizioni.
Condizioni di Paley Wiener:
A. Caso Tempo Continuo: sia |𝐻(𝑓)| la risposta in ampiezza di un sistema LTI TC a quadrato
sommabile su ℛ:
✓ Condizione Necessaria: se il sistema LTI è causale, allora |𝐻(𝑓)| verifica la condizione di Paley-
Wiener:
+∞ |
log(|𝐻(𝑓)|)|
∫ 𝑑𝑓 < +∞
−∞ 1 + 𝑓2

✓ Condizione Sufficiente: viceversa, se |𝐻(𝑓)| rispetta la condizione di Paley-Wiener, ad essa può


essere associata una risposta in fase 𝜑(𝑓) tale che 𝐻𝜑 (𝑓) = |𝐻(𝑓)|𝑒 𝑗𝜑(𝑓) sia la risposta in frequenza
di un sistema LTI causale.
B. Caso Tempo Discreto: sia |𝐻(𝑣)| la risposta in ampiezza di un sistema LTI TD a quadrato
sommabile su (−1/2,1/2):
✓ Condizione Necessaria: Se il sistema LTI è causale, allora |𝐻(𝑣)| verifica la condizione di Paley-
Wiener:
+1/2
∫ |log(|𝐻(𝑣)|)|𝑑𝑣 < +∞
−1/2

✓ Condizione Sufficiente: viceversa, se |𝐻(𝑣)| rispetta la condizione di Paley-Wiener, ad essa può


essere associata una risposta in fase 𝜑(𝑣) tale che 𝐻𝜑 (𝑣) = |𝐻(𝑣)|𝑒 𝑗𝜑(𝑣) sia la risposta in frequenza
di un sistema LTI causale.
È da specificare che sia nel caso TC che TD la base dei logaritmi è indifferente, tuttavia bisogna fare
attenzione alle condizioni sufficienti in quanto riguardano solo le risposta in ampiezza (quindi non ci
sono restrizioni sulle risposte in fase). Se le condizioni necessarie non sono soddisfatte allora
P a g . | 57

sicuramente il sistema non è causale. Se invece sono rispettate le condizioni sufficienti, quindi le risposte
in ampiezza |𝐻(∙)| sono le risposte in ampiezza di sistemi causali, ma non è detto che la risposta in
frequenza 𝐻(∙) sia la risposta in frequenza di un sistema causale. Questo perché come dicevamo abbiamo
restrizioni solo sulla risposta in ampiezza ma non per quella in fase.

• Invertibilità
Sia 𝐻(∙) la risposta in frequenza di un sistema LTI invertibile, il sistema inverso è anch’esso LTI con
risposta in frequenza data da: 𝐻𝑖𝑛𝑣 (∙) = 1/𝐻(∙)

Un sistema LTI con risposta impulsiva ℎ(∙) è invertibile se esiste un sistema LTI inverso con risposta
impulsiva ℎ𝑖𝑛𝑣 (∙) tale che: ℎ(∙) ∗ ℎ𝑖𝑛𝑣 (∙) = ℎ𝑖𝑛𝑣 (∙) ∗ ℎ(∙) = 𝛿(𝑡)
Passando al dominio della frequenza sappiamo che la convoluzione diventa un semplice prodotto e
definendo 𝐻(∙) = ℱ[ℎ(∙)] e 𝐻𝑖𝑛𝑣 (∙) = ℱ[ℎ𝑖𝑛𝑣 (∙)]: 𝐻(∙) ∙ 𝐻𝑖𝑛𝑣 (∙) = 𝐻𝑖𝑛𝑣 (∙) ∙ 𝐻(∙) = 1
Dalla quale poi ricaviamo la condizione sopracitata, tuttavia da un punto di vista pratica essa deve essere
valida solo all’interno della sua estensione spettrale 𝒲𝑥 e quindi solo nel range di frequenze nel quale
lo spettro di ampiezza assume valori significativi.

Per concludere, soffermiamoci in particolare sui filtri ideali visto che sono la tipologia più comune di
sistemi LTI e facciamo alcune osservazioni. I filtri ideali a TC e TD non sono realizzabili nella realtà
perché presentano le proprietà:
o Non Causalità: presentano una regione oscura in cui lo spettro di ampiezza |𝐻(𝑓)| = 0 e il logaritmo
della funzione integranda nella condizione di Paley-Wiener verrebbe +∞. Quindi nella regione
oscura essendo l’integrale non sommabile, viene violata la condizione di Paley-Wiener e quindi tutti
i filtri ideali non sono causali. Tale proprietà rende i filtri ideali non fisicamente realizzabili;
o Instabilità: il passaggio dalla banda passante 𝒲𝑝 a quella oscura 𝒲𝑠 è molto brusco (salto). Tale
proprietà rende i filtri ideali non convenienti da realizzare, soprattutto vista la possibilità che il filtro
possa trovarsi a lavorare in condizioni non previste dal progettista.
Motivo per cui si devono adottare dei filtri che siano causali e stabili come per l’appunto i Filtri Reali, i
quali rispetto ai filtri ideali presentano:
➢ La risposta in ampiezza in 𝒲𝑝 non è costante (in genere di valore unitario) ma varia in un intervallo
con delle soglie prefissate, ad esempio [1 − 𝛿𝑝 , 1 + 𝛿𝑝 ]. In particolare, la soglia 𝛿𝑝 viene chiamata
Massimo Errore Tollerabile in Banda Passante (o Passband Ripple);
➢ La transazione da 𝒲𝑝 a 𝒲𝑠 avviene con continuità in frequenza (e non con un salto come in quelli
ideali), per cui è necessario definire la Banda di Transizione 𝒲𝑡 ;
➢ La risposta in ampiezza in 𝒲𝑠 non è nulla ma assume valori trascurabili inferiori a una soglia
prefissata 𝛿𝑠 . In particolare, la soglia 𝛿𝑠 viene chiamata Massimo Errore Tollerabile in Banda
Oscura (o Stopband Ripple).
In conclusione, la tipica risposta in ampiezza di un filtro per esempio passabasso sarà quella mostrata
in figura.
P a g . | 58

CAPITOLO 5: CAMPIONAMENTO E CONVERSIONE AD/DA

5.1 Introduzione
In questo capitolo ci occuperemo della conversione dei segnali analogici a digitali e viceversa, motivo
per cui sarà necessario parlare del teorema del campionamento (o di Shannon) che fissa le condizioni
per cui è possibile ricostruire un segnale a TC a partire da una sequenza di suoi campioni. Le motivazioni
che ci spingono a dover parlare della conversione dei segnali è dovuta all’ampio utilizzo dei segnali
digitali e ai numerosi vantaggi della tecnologia digitale come:
✓ Dispositivi a costi inferiori;
✓ Facile configurabilità e programmabilità;
✓ Possibilità di memorizzare segnali di diversa natura sullo stesso supporto;
✓ Possibilità di elaborare segnali che assumere valori elevanti e che hanno una dinamica elevata;
✓ Maggiore immunità da disturbi e distorsioni.
Lo schema di principio di un elaboratore
digitale di segnali analogici è rappresentato in
figura, nella quale distinguiamo diversi
componenti:
• DSP (Digital Signal Processor): è il
microprocessore che esegue l’elaborazione desiderata;
• Convertitore A/D: esegue la conversione del segnale analogico 𝑥𝑎 (𝑡) in ingresso in un segnale
digitale 𝑥𝑞 (𝑛) in uscita. Da un punto di vista concettuale la conversione A/D si compone di due
operazioni:
1. Campionamento: esegue la conversione
𝑥(𝑛) = 𝑥𝑎 (𝑛𝑇𝑐 ) dove 𝑇𝑐 è il periodo di
campionamento, cioè il tempo che
intercorre tra il prelievo di due campioni
di 𝑥𝑎 (𝑡). Il nostro segnale da TC è
diventato TD;
2. Quantizzazione: essendo il segnale
𝑥𝑎 (𝑡) di ampiezza continua tale
operazione consente di farla variare in un insieme discreto. Il nostro segnale da ampiezza
continua è diventato ad ampiezza discreta.
Abbiamo così ottenuto il nostro segnale digitale, il quale ricordiamo è TD e ad ampiezza discreta.
Le due operazioni appena citate possono essere schematizzate con un diagramma a blocchi che
rappresenta il convertitore A/D.
• Convertitore D/A: esegue la conversione del segnale digitale 𝑦𝑞 (𝑛) in ingresso in un segnale
analogico 𝑦𝑎 (𝑡) in uscita. Tale operazione viene chiamata Interpolazione, cioè si prendono i
campioni del segnale digitale è lì rendiamo dei valori continui per ripristinare quantomeno il segnale
TC. Capiamo perciò che al campionamento corrisponde l’operazione duale di interpolazione, mentre
per la quantizzazione non esiste una operazione duale in quanto non è una operazione reversibile.
P a g . | 59

5.2 Campionamento e Interpolazione Ideale

5.2.1 Campionamento Ideale e Aliasing


Il Campionamento è l’operazione, eseguita dal sistema ibrido chiamato Campionatore, che converte
un segnale a TC 𝑥𝑎 (𝑡) in un segnale a TD 𝑥(𝑛) prelevando campioni equi spaziati dello stesso periodo di
campionamento 𝑇𝑐 , ottenendo: 𝑥(𝑛) = 𝑥𝑎 (𝑎𝑇𝑐 )
A questo punto però ci potremmo chiedere se, data una certa sequenza 𝑥(𝑛), sia possibile ricostruire
esattamente il segnale a TC 𝑥𝑎 (𝑡) di partenza. Il problema di questa domanda è che, se non sono definite
particolari condizioni, la risposta è negativa in quanto sequenze diverse campionate con il medesimo 𝑇𝑐
possono portare al medesimo segnale 𝑥𝑎 (𝑡). Immaginiamo
di avere due segnali 𝑥𝑎1 (𝑡), che varia lentamente, e 𝑥𝑎2 (𝑡),
che varia velocemente. Allora quando i due segnali
vengono campionati con la stessa 𝑇𝑐 otteniamo gli stessi
campioni (pallini neri). Se effettueremo l’interpolazione
dei vari campioni otterremo lo stesso segnale invece che i
due segnali di partenza. Tale errore è dovuto al fatto che
non abbiamo definito delle condizioni che leghino la
frequenza di campionamento e la banda del segnale. Il che
vuol dire che dobbiamo imporre dei vincoli che rendano
univoco il segnale a TC e TD.

Immaginiamo che il campionatore sia costituito da due stadi:


• Primo Stadio – Moltiplicatore: effettua la moltiplicazione
tra il segnale a TC 𝑥𝑎 (𝑡) ed un pettina di delta di periodo 𝑇𝑐
definito Pettine Campionatore Ideale ∆ 𝑇𝑐 (𝑡).
• Secondo Stadio – Convertitore 𝜹/𝒏: effettua la conversione
del segnale 𝑥𝛿 (𝑡) a TC in un segnale 𝑥(𝑛) a TD.
Quello che otteniamo in uscita al primo stadio viene definito Segnale Campionato Ideale 𝒙𝜹 (𝒕):

+∞ +∞

𝑥𝛿 (𝑡) = 𝑥𝑎 (𝑡) ∙ ∆ 𝑇𝑐 (𝑡) = 𝑥𝑎 (𝑡) ∙ [ ∑ 𝛿(𝑡 − 𝑛𝑇𝑐 )] = ∑ 𝑥𝑎 (𝑛𝑇𝑐 )𝛿(𝑡 − 𝑛𝑇𝑐 )


𝑛=−∞ 𝑛=−∞

Dire che un segnale 𝑥𝑎 (𝑡) può essere ottenuto da 𝑥(𝑛), equivale ad affermare che il primo può essere
ottenuto da 𝑥𝛿 (𝑡). Anzitutto osserviamo che la trasformata di Fourier del pettine di delta è:

+∞ +∞
𝐹𝑇1 1 𝑘
∆ 𝑇𝑐 (𝑡) = ∑ 𝛿(𝑡 − 𝑛𝑇𝑐 ) ↔ ∆ 1 (𝑓) = ∑ 𝛿 (𝑓 − )
𝑇𝑐 𝑇𝑐 𝑇𝑐 𝑓𝑐
𝑛=−∞ 𝑘=−∞
Allora 𝑋𝛿 (𝑓) sarà:
+∞ +∞ +∞
1 𝑘 1 𝑘 1 𝑘
𝑋𝛿 (𝑓) = 𝑋𝑎 (𝑓) ∗ [ ∑ 𝛿 (𝑓 − )] = ∑ [𝑋𝑎 (𝑓) ∗ 𝛿 (𝑓 − )] = ∑ 𝑋𝑎 (𝑓 − )
𝑇𝑐 𝑓𝑐 𝑇𝑐 𝑓𝑐 𝑇𝑐 𝑇𝑐
𝑘=−∞ 𝑘=−∞ 𝑘=−∞

+∞ +∞
1 𝑘 1
𝑋𝛿 (𝑓) = ∑ 𝑋𝑎 (𝑓 − ) = 𝑓𝑐 ∑ 𝑋𝑎 (𝑓 − 𝑘𝑓𝑐 ) = 𝑟𝑒𝑝1/𝑇𝑐 [𝑋𝑎 (𝑓)] = 𝑓𝑐 𝑟𝑒𝑝𝑓𝑐 [𝑋𝑎 (𝑓)]
𝑇𝑐 𝑇𝑐 𝑇𝑐
𝑘=−∞ 𝑘=−∞

Gli ultimi due membri mostrano che 𝑋𝛿 (𝑓) si possono ottenere come replicazione dello spettro di 𝑋𝑎 (𝑓)
moltiplicato per 𝑓𝑐 . In definitiva, capire se 𝑥𝑎 (𝑡) può essere ricostruito univocamente mediate 𝑥𝛿 (𝑡)
equivale, nel dominio della frequenza, a individuare le condizioni affinché 𝑋𝑎 (𝑓) possa essere ottenuto
a partire da 𝑋𝛿 (𝑓).
P a g . | 60

Chiaramente tutti gli elementi sopracitati sono ideali in quanto sappiamo che la delta di Dirac non si può
ottenere sperimentalmente ma è solo una astrazione matematica. Inoltre, un altro elemento non
corrispondente alla realtà è la struttura del campionatore mostrata in figura, la quale non rispecchia
assolutamente la maniera pratica per realizzarlo. Abbiamo adottato tale schematizzazione in quanto il
secondo stadio è sicuramente invertibile, quindi la proprietà di invertibilità è da dimostrare solo per lo
stadio moltiplicatore. La condizione di invertibilità dell’intero campionatore implica che in seguito
saremmo in grado di ricostruire il segnale 𝑥𝑎 (𝑡) di partenza. I vincoli per assicurare l’invertibilità sono
definiti dal seguente teorema.
𝐹𝑇
Teorema del Campionamento: sia 𝑥𝑎 (𝑡) ↔ 𝑋𝑎 (𝑓) un segnale a TC e siano 𝑥(𝑛) = 𝑥𝑎 (𝑛𝑇𝑐 ) i suoi
campioni presi con un periodo di campionamento 𝑇𝑐 . Se:
✓ Il segnale 𝑥𝑎 (𝑡) è a banda rigorosamente limitata, con banda monolatera 𝐵𝑥 = 𝑓𝑚 , ovvero:
𝑋𝑎 (𝑓) = 0 ∀ |𝑓 | ≥ 𝑓𝑚
✓ La frequenza di campionamento 𝑓𝑐 = 1/𝑇𝑐 soddisfa la condizione di Nyquist: 𝑓𝑐 ≥ 2𝑓𝑚
Allora il segnale 𝑥𝑎 (𝑡) è perfettamente rappresetnato dai suoi campioni 𝑥(𝑛) = 𝑥𝑎 (𝑛𝑇𝑐 ). La minima
frequenza di campionamento 𝑓𝑐,𝑚𝑖𝑛 = 2𝑓𝑚 prende il nome di Frequenza di Nyquist.

Per capire che problematiche sorgono se non viene rispettato il teorema del campionamento
immaginiamo di avere un segnale 𝑥𝑎 (𝑡) la cui trasformata di Fourier 𝑋𝑎 (𝑓) è una finestra rettangolare
con spettro limitato in (−𝑓𝑚 , 𝑓𝑚 ):
a. Se 𝑓𝑐 > 2𝑓𝑚 , le repliche di 𝑋𝑎 (𝑓) non si sovrappongono nel dominio della frequenza;
b. Se 𝑓𝑐 = 2𝑓𝑚 , le repliche di 𝑋𝑎 (𝑓) si sovrappongono perfettamente nel dominio della frequenza;
c. Se 𝑓𝑐 < 2𝑓𝑚 , le repliche di 𝑋𝑎 (𝑓) si sovrappongono nel dominio della frequenza;

Nella figura (𝑐) osserviamo la presenza del fenomeno denominato Aliasing, ovvero una
sovrapposizione in frequenza delle repliche di 𝑋𝑎 (𝑓) che generare delle componenti spettrali assunti
nel segnale originale 𝑥𝑎 (𝑡) e quindi la sua impossibilità nel ricostruirlo per interpolazione.
P a g . | 61

5.2.2 Interpolazione Ideale


L’operazione di Interpolazione Ideale è realizzata dell’Interpolatore Ideale, il quale è costituito da
due stadi:
• Primo Stadio – Convertitore 𝒏/𝜹: effettua l’operazione inversa del convertitore 𝛿/𝑛, quindi esso
associa ad ogni campione del segnale 𝑥(𝑛) un
impulso centrato nell’istante di campionamento
𝑛𝑇𝑐 e avente area pari proprio a 𝑥𝑎 (𝑛𝑇𝑐 ). In
uscita otterremo un segnale ideale 𝑥𝛿 (𝑡).
• Secondo Stadio – Passabasso Ideale: la cui risposta in frequenza 𝐻𝑟 (𝑓) è una finestra rettangolare
con banda bilatera 𝐵𝑥 = 2𝑓𝑟 , la cui antitrasformata di Fourier sarà una funzione sinc:

𝑓 𝐹𝑇 𝑡
𝐻𝑟 (𝑓) = 𝑇𝑐 ∏ ( ) ↔ ℎ𝑟 (𝑡) = 𝑠𝑖𝑛𝑐 ( ) 𝑑𝑜𝑣𝑒: 𝑓𝑚 ≤ 𝑓𝑟 ≤ 𝑓𝑐 − 𝑓𝑚
2𝑓𝑟 𝑇𝑐

L’uscita del secondo stadio e quindi dell’intero sistema interpolatore ideale sarà un segnale 𝑥𝑟 (𝑡) che
assomiglierà esattamente al segnale originale 𝑥𝑎 (𝑡) campionato in precedenza rispettando le condizioni
del teorema del campionamento: 𝑥𝑟 (𝑡) = 𝑥𝑎 (𝑡)
Cerchiamo adesso di campire perché però l’interpolazione mediate il sistema appena descritta è solo
ideale e quindi non realizzabile nella pratica.

Anzitutto ricordiamo che la relazione i-u di un sistema LTI può sempre essere espressa come prodotto
di convoluzione tra il segnale in ingresso e la sua risposta impulsiva. Allora la i-u del filtro passabasso
ideale sarà il prodotto di convoluzione tra il segnale ideale 𝑥𝛿 (𝑡) in uscita al primo stadio e la risposta
impulsiva ℎ𝑟 (𝑡) del filtro:

+∞ +∞
𝑡 𝑡
𝑥𝑟 (𝑡) = 𝑥𝛿 (𝑡) ∗ ℎ𝑟 (𝑡) = [ ∑ 𝑥𝑎 (𝑛𝑇𝑐 )𝛿(𝑡 − 𝑛𝑇𝑐 )] ∗ 𝑠𝑖𝑛𝑐 ( ) = ∑ 𝑥𝑎 (𝑛𝑇𝑐 ) [𝛿(𝑡 − 𝑛𝑇𝑐 ) ∗ 𝑠𝑖𝑛𝑐 ( )]
𝑇𝑐 𝑇𝑐
𝑛=−∞ 𝑛=−∞

+∞ +∞ +∞
𝑡 − 𝑛𝑇𝑐
𝑥𝑟 (𝑡) = ∑ 𝑥𝑎 (𝑛𝑇𝑐 )𝑠𝑖𝑛𝑐 ( ) = ∑ 𝑥(𝑛)ℎ(𝑡 − 𝑛𝑇𝑐 ) = ∑ 𝑥𝑛 (𝑡) = 𝑥𝑎 (𝑡)
𝑇𝑐
𝑛=−∞ 𝑛=−∞ 𝑛=−∞

Tale relazione prende il nome di Serie di Shannon, la quale mostra la ricostruzione ideale del segnale
𝑥𝑎 (𝑡) a partire dai suoi campioni mediate l’interpolazione ideale. In definitiva, l’idealità di tale
operazione è dovuta essenzialmente a tre motivi:
o Il segnale 𝑥𝑟 (𝑡) è ottenuto come somma di tutti i singoli contributi 𝑥𝑛 (𝑡) (passati, presenti e
futuri) come mostrato nella figura in basso a destra;
o La funzione sinc ha banda rigorosamente limitata ma è una funzione di durata illimitata;
o Viene adoperato un filtro passabasso ideale che ricordiamo essere non fisicamente realizzabile
in quanto non causale e instabile.
P a g . | 62

5.3 Campionamento e Interpolazione Reale


Nel caso del campionamento e interpolazione ideale abbiamo assunto che:
✓ Il segnale da elaborare fosse a banda rigorosamente limitata;
✓ L’interpolazione fosse ottenuta in maniera ideale adottando la serie di Shannon.
Vediamo adesso queste due operazioni quando una delle due condizioni non è verificata (nella pratica
ovviamente si ha che entrambe non sono verificate).

5.3.1 Campionamento Reale


Il campionamento che vedremo prevede di rimuovere l’ipotesi di lavorare con segnali di banda
rigorosamente limitata, ma bensì di operare su segnali di banda praticamente limitata. A causa di ciò
qualunque sia la frequenza di campionamento 𝑓𝑐 , nello spetro del
+∞
segnale campionato idealmente le repliche di 𝑋𝑎 (𝑓) si
sovrappongono in frequenza (come in figura) per effetto aliasing. 𝑋𝛿 (𝑓) = 𝑓𝑐 ∑ 𝑋𝑎 (𝑓 − 𝑛𝑓𝑐 )
Ricordiamo 𝑋𝛿 (𝑓) lo abbiamo espresso come di fianco: 𝑛=−∞
Se facciamo riferimento all’intervallo (−𝑓𝑐 , 𝑓𝑐 ) notiamo
graficamente nella figura sottostante che:
- Ogni componente spettrale di 𝑥𝑎 (𝑡) a frequenza 𝑓 ∈ (𝑓𝑐 /2, 𝑓𝑐 ) è riportata per aliasing 𝑓 − 𝑓𝑐 ∈
(𝑓𝑐 /2,0);
- Ogni componente spettrale di 𝑥𝑎 (𝑡) a frequenza 𝑓 ∈ (−𝑓𝑐 , −𝑓𝑐 /2) è riportata pernaliasing 𝑓 + 𝑓𝑐 ∈
(0, 𝑓𝑐 /2).
Il risultato di ciò è il fenomeno del
Folding (una diversa interpretazione
dell’aliasing) dello spettro nell’intorno
delle frequenze ±𝑓𝑐 /2. Allora il
segnale ricostruito 𝑥𝑟 (𝑡) differirà
maggiormente dal segnale originale
𝑥𝑎 (𝑡) in corrispondete dell’intorno di
tali frequenze. Per risolvere tale
problema bisogna allora aumentare la
𝑓𝑐 in modo che: 𝑓𝑐 ≫ 2𝑓𝑚
Tuttavia, tale soluzione dal punto vista
pratico non è realizzabile per due
problemi:
o Una maggiore 𝑓𝑐 richiede un
maggior clock e quindi
convertitori di costo molto
superiore. Infatti, il costo aumenta
proporzionalmente con la 𝑓𝑐 ;
o Una maggiore 𝑓𝑐 implica un
maggior numero di campioni da
memorizzare e quindi memorie
sempre più grandi.
La soluzione che viene utilizzata nella
pratica è il Filtro Anti-Aliasing (un
filtro passabasso), cioè di un filtro
passabasso con risposta in frequenza:
𝑓 𝑓𝑐
𝐻𝑎𝑎 (𝑓) = ∏ ( ) 𝑓𝑟𝑒𝑞𝑢𝑒𝑛𝑧𝑎 𝑑𝑖 𝑡𝑎𝑔𝑙𝑖𝑜 𝑓𝑝 =
𝑓𝑐 2

che pre-filtra il segnale 𝑥𝑎 (𝑡) in modo da ridurne il contenuto spettrale all’esterno dell’intervallo
(−𝑓𝑐 /2, 𝑓𝑐 /2) rendendolo un segnale a banda rigorosamente limitata e riducendo così il fenomeno
dell’aliasing.
P a g . | 63

5.3.2 Interpolazione Reale


Abbiamo visto che l’interpolazione ideale non è possibile realizzarla principalmente per la presenza del
filtro passabasso ideale e della serie di Shannon. Motivo per cui nell’interpolazione reale al massimo
possiamo imitare il comportamento di questi due elementi e scegliere una funzione interpolante ℎ𝑟 (𝑡)
che sia fisicamente realizzabile. Consideriamo la figura sottostante e la risposta in frequenza di un filtro
reale 𝐻𝑟 (𝑓) che:
- Approssima bene un filtro ideale nella banda passante 𝑊𝑝 e nella banda oscura 𝑊𝑠 ;
- Non approssima bene un filtro ideale nella banda di transizione 𝑊𝑡 .
L’adozione di un filtro reale comporta i seguenti problemi:
o Se l’estensione spettrale di 𝑥𝑎 (𝑡) non è interamente contenuta nella banda passante del filtro, si ha
un’attenuazione delle componenti ad alta frequenza del segnale a TC 𝑥𝑎 (𝑡);
o Se le repliche contigue centrate alle frequenze multiple di quella di campionamento cadono nella
banda di transizione del filtro o se quest’ultimo non ha un sufficiente attenuazione in banda oscura,
nella ricostruzione saranno presenti residui di tali repliche.

Tali problemi, come nel caso del campionamento reale, possono essere risolti adoperanti convertitori
molto più costosi aumentando la 𝑓𝑐 . Nella pratica per ridurre la complessità dei convertitori D/A si
adoperano teniche di interpolazione poco complesse:
A. Interpolazione a Mantenimento – ZOH (Zero
Order Hold): consiste nello scegliere come funzione
interpolatrice una finestra rettangolare.

𝒕 − 𝑻𝒄 /𝟐
𝒉𝒓(𝒕) = ∏ ( )
𝑻𝒄
In questo caso, il segnale ricostruito 𝑥𝑟 (𝑡) è una forma
d’onda costante a tratti.
P a g . | 64

B. Interpolazione Lineare – FOH (First Order Hold):


consiste nello scegliere come funzione interpolatrice
una finestra triangolare.

𝒕
𝒉𝒓(𝒕) = ⋀ ( )
𝑻𝒄
In questo caso, il segnale ricostruito 𝑥𝑟 (𝑡) è costituito
da una spezzata che collega i campioni del segnale
campionato.

Analizzando le risposte impulsive dei due filtri si nota che entrambi sono FIR (Finite Impulsive
Response) e quindi stabili, tuttavia il primo è causale mentre il secondo non lo è per due motivi:
➢ Non si annulla identicamente per 𝑡 < 0;
➢ Osservando il generico intervallo [𝑛𝑇𝑐 , (𝑛 + 1)𝑇𝑐 ], l’equazione della retta (cioè un singolo tratta
tra un punto e l’altro) richiede la conoscenza sia del campione passato 𝑥(𝑛) che futuro 𝑥(𝑛 + 1):

𝑡 − 𝑛𝑇𝑐 𝑡 − (𝑛 + 1)𝑇𝑐
𝑥𝑟 (𝑡) = 𝑥(𝑛) ⋀ ( ) + 𝑥(𝑛 + 1) ⋀ ( )
𝑇𝑐 𝑇𝑐

𝑡 − 𝑛𝑇𝑐
𝑥𝑟 (𝑡) = 𝑥(𝑛) + [𝑥(𝑛 + 1) − 𝑥(𝑛)] ( ) ∀ 𝑡 ∈ [𝑛𝑇𝑐 , (𝑛 + 1)𝑇𝑐 ]
𝑇𝑐

Per rendere il filtro FOH causale bisogna allora introdurre un ritardo pari a 𝑇𝑐 .
In conclusione, confrontando l’andamento dei due segnali ricostruiti per le due tipologie di
interpolazioni osserviamo che il primo è discontinuo mentre il secondo è continuo. Ciò vuol dire che il
segnale ottenuto da interpolazione a mantenimento avrà un maggiore contenuto spettrale rispetto al
secondo, il che lo rende poco adatto a ricostruire segnali a banda rigorosamente limitata.

5.4 Quantizzazione
Abbiamo visto che un convertitore A/D effettua la conversione di un segnale analogico in digitale,
tuttavia l’operazione di campionamento non fa altro che trasformata un segnale TC in TD. Per esempio,
campionare un segnale sinusoidale TC 𝑥𝑎 (𝑡) = 𝐴𝑐𝑜𝑠(2𝜋𝑓0 𝑡 + 𝜑0 ) vuol dire ottenere un segnale a TD del
tipo 𝑥(𝑛) = 𝑥𝑎 (𝑛𝑇𝑐 ) = 𝐴𝑐𝑜𝑠(2𝜋𝑣0 𝑛 + 𝜑0 ), la cui ampiezza può comunque
assumere con continuità qualunque valore nell’intervallo (−𝐴, 𝐴). Essendo
un segnale digitale sia TD che ampiezza discreta, è necessaria l’operazione
di Quantizzazione, cioè di discretizzazione delle ampiezze. Il
Quantizzatore (mostrato in figura) è un sistema TD che riceve in ingresso il segnale ad ampiezza
continua 𝑥(𝑛) e produce in uscita il segnale quantizzato 𝑥𝑞 (𝑛). La relazione i-u di tale sistema, il quale è
certamente non lineare, istantanea e tempo invariante sarà: 𝒙𝒒 (𝒏) = 𝑸[𝒙(𝒏)]

La discretizzazione di un numero reale implica necessariamente un suo arrotondamento e quindi un


Errore di Arrotondamento 𝒆(𝒙): 𝑒(𝑥) ≜ 𝑄(𝑥) − 𝑥
A. Per Difetto: arrotondamento al numero intero precedente, dove 𝑒𝑀𝑎𝑥 | (𝑥)| = 1;
B. Per Eccesso: arrotondamento al numero intero successivo, dove |𝑒𝑀𝑎𝑥 (𝑥)| = 1;
C. Al Numero Intero più Vicino: dove |𝑒𝑀𝑎𝑥 (𝑥)| = 1/2.
Il problema di questi metodi di arrotondamento è che una precisione fissa e non modificabile, motivo per
cui si introduce il Passo di Campionamento ∆∈ 𝑹+ e l’Intervallo di Quantizzazione (𝟎, ∆). Per
discretizzare il numero 𝑥 ∈ ℛ, se quest’ultimo è tale che 𝑥 ∈ (0, ∆) viene rappresentato come il valore
discreto Livello di Quantizzazione 𝒒 = 𝑸(𝒙) = ∆/𝟐 (punto medio dell’intervallo di quantizzazione).
La scelta del punto medio è dovuta al fatto che in tale punto abbiamo il minimo errore di
arrotondamento, cioè ∆/2. Ovviamente è possibile effettuare la medesima operazione per qualsiasi
intervallo (𝑘∆, (𝑘 + 1)∆).
P a g . | 65

Se prendiamo un segnale 𝑥(𝑛) e un suo intervallo di ampiezze [−𝑋𝑀𝑎𝑥 , 𝑋𝑀𝑎𝑥 ], suddividiamolo in 𝑀


intervalli ponendo ∆= 2𝑋𝑀𝑎𝑥 /𝑀, dove 2𝑋𝑀𝑎𝑥 è la Dinamica del Quantizzatore. La forma della relazione
i-u del Quantizzatore 𝑄(𝑥) sarà una gradina che si
appoggia alla retta 𝑦 = 𝑥. In altre parole, la legge
non lineare del quantizzatore cerca di essere
approssimata a un sistema lineare (per essere
precisi “identico” visto l’uso della bisettrice di 1° e
3° quadrante). Immaginando di avere 𝑀 = 4
avremo la situazione di fianco, dove i livelli saranno
quattro visto che 𝑏 = log 2 (𝑀) = 2 𝑏𝑖𝑡:

3 1
𝑞1 = − ( ) ∆→ 00 𝑞2 = − ( ) ∆→ 01
2 2

1 3
𝑞3 = ( ) ∆→ 10 𝑞4 = ( ) ∆→ 11
2 2

Dove quella appena realizzata è la Codifica Binaria Naturale, per la quale è sempre efficiente usare un
numero di livelli 𝑀 tali che 𝑀 = 2𝑏 (potenze di due) in modo che vengano usate tutte le strighe di bit. Se
così non fosse non tutte le 2𝑏 sarebbero utilizzate (precisamente 2𝑏 − 𝑀 sarebbero inutilizzate) e quindi
si avremmo un quantizzatore inefficiente. I campioni 𝑥(𝑛) essendo campionati con frequenza 𝑓𝑐 si
presenteranno all’ingresso del quantizzatore come 𝑓𝑐 campioni per secondo. Visto che il campione viene
codificato con 𝑏 bit, possiamo definire il Tasso Binario 𝒓𝒑 = 𝒇𝒄 ∙ 𝒃 𝒃𝒊𝒕/𝒔 la velocità del flusso di bit in
uscita al quantizzatore.

Definiamo le seguenti regioni dell’asse delle ascisse (ampiezze da rendere discrete):


• Regione Granulare 𝑹𝒈 : caratterizzata dall’andamento a gradini della funzione 𝑄(𝑥). Nel nostro
caso è la regione [−𝑋𝑀𝑎𝑥 , 𝑋𝑀𝑎𝑥 ], cioè quella in cui abbiamo ragionato fino d’ora (in prima battuta ma
ora dobbiamo considerare anche la presenza di una regione esterna);
• Regione di Sovraccarico 𝑹𝒔 : è la regione ] − ∞, −𝑋𝑀𝑎𝑥 ] ∪ [𝑋𝑀𝑎𝑥 , +∞[ che noi rappresentiamo
estendendo il primo e l’ultimo livello (come nella figura di sopra). In sostanza è la regione in cui non
dobbiamo trovarci in quanto in essa il quantizzatore a prescindere dal valore di 𝑥 restituisce sempre
lo stesso valore costante, quindi si dice che il quantizzatore va in saturazione.
I quantizzatori con le caratteristiche viste fin’ora si dicono:
➢ Uniformi: perché tutti gli intervalli hanno lo stesso passo di quantizzazione ∆;
➢ Simmetrici: perché gli intervalli sono posti simmetricamente rispetto allo zero;
➢ Senza Restituzione dello Zero: a causa della proprietà di simmetria, tra i livelli di restituzione
non esiste il livello zero e quindi l’uscita del quantizzatore non è mai nulla.
P a g . | 66

Analizziamo ora le prestazioni del quantizzatore e i criteri di 𝑀∆


dimensionamento. Anzitutto ricordiamo che l’operazione di 𝑋𝑀𝑎𝑥 = 𝑀 = 2𝑏
2
quantizzazione è irreversibile e introduce un livello di degradamento del
segnale che deve essere contenuta quanto più possibile. L’entità della degradazione dipende dai
parametri caratteristici 𝑀, 𝑋𝑀𝑎𝑥 , 𝑏, ∆ e che non sono tutti indipendenti (relazione di fianco). Per valutare
la scelta dei parametri introduciamo l’Errore di Quantizzazione 𝑒(𝑛):

𝑒(𝑛) ≜ 𝑥𝑞 (𝑛) − 𝑥(𝑛) = 𝑄[𝑥(𝑛)] − 𝑥(𝑛)

Allora passando alla formula inversa: 𝑥𝑞 (𝑛) = 𝑥(𝑛) + 𝑒(𝑛)


Possiamo rappresentare un quantizzatore come un blocco sommatore avente
due ingressi, 𝑥(𝑛) e 𝑒(𝑛), e una uscita 𝑥𝑞 (𝑛). Questo metodo di
rappresentazione ci permette di definire l’errore di quantizzazione come
Rumore di Quantizzazione, del quale però non si possono ridurne gli effetti
semplicemente aumentando 𝑥(𝑛), in quanto se si aumenta l’uno si aumenta
anche l’altro. Tuttavia, nella realtà il rumore di quantizzazione non dipende
dal segnale e ci sono diverse metodologie per ridurne gli effetti. L’errore di quantizzazione assume i
seguenti valori in base alle regioni a cui è riferito:
• Nella regione 𝑅𝑔 in cui |𝑥(𝑛)| ≤ 𝑋𝑀𝑎𝑥 abbiamo che: |𝑒(𝑛)| ≤ ∆/2
• Nella regione 𝑅𝑠 in cui |𝑥(𝑛)| > 𝑋𝑀𝑎𝑥 abbiamo che |𝑒(𝑛)| cresce al crescere dell’ampiezza del
segnale. Visto però che in genere i segnali hanno dinamica limitata ovvero hanno una ampiezza
massima che definiamo 𝑥𝑀𝑎𝑥 = max|𝑥(𝑛)|, basta scegliere una estensione 𝑋𝑀𝑎𝑥 della regione
n∈𝒵
granulare tale che risulti 𝑿𝑴𝒂𝒙 ≥ 𝒙𝑴𝒂𝒙 per evitare di mandare in saturazione il quantizzatore.
Tutti i ragionamenti fatti sono adatti per segnali con dinamica abbastanza limitata, ma se così non fosse
dovremmo adoperare una 𝑋𝑀𝑎𝑥 molto grande scelta in base ai massimi valori che assume il segnale. Ciò
comporta però avere dei passi di quantizzazione ∆ molto grandi e quindi una pessima approssimazione
del segnale. I segnali che trasportano informazione assumono valori di ampiezza contenuti per la
maggior parte del tempo e solo per intervalli limitati hanno forti variazioni. Ciò ci viene in aiuto perché
possiamo scegliere 𝑋𝑀𝑎𝑥 secondo il criterio evidenziato precedentemente per ottenere una migliore
approssimazione e accettare che in intervalli di tempo limitati il quantizzatore vada in sovraccarico per
non degradare la discretizzazione delle ampiezze del segnale.

Un altro criterio di dimensionamento si basa sul valore efficace 𝑥𝑟𝑚𝑠 = √𝑃𝑥 = √< 𝑥 2 (𝑛) >, dove 𝑃𝑥 è la
potenza del segnale in ingresso al quantizzatore. La scelta di tale grandezza è dovuta al fatto che
basandosi su una media temporale, non si limita a portare in conto solo dei valor in ampiezza assunti da
𝑥(𝑛) ma li pesa in accordo alla frazione di tempo per cui essi permangono. Il che vuol dire che i picchi di
ampiezza incideranno poco su 𝑥𝑟𝑚𝑠 visto che durano poco tempo. Per limitare l’errore di sovraccarico è
conveniente scegliere 𝑋𝑀𝑎𝑥 in modo che si proporzionale a 𝑥𝑟𝑚𝑠 , a tal scopo definiamo il Fattore di
Sovraccarico 𝑘𝑐 : 𝑘𝑐 ≜ 𝑋𝑀𝑎𝑥 /𝑥𝑟𝑚𝑠
Maggiore è 𝑘𝑐 e maggiore sarà 𝑋𝑀𝑎𝑥 , quindi minore sarà la frazione di tempo in cui il segnale lavora in
𝑅𝑠 . Anche in questo caso però aumentare troppo 𝑘𝑐 produce un peggioramento quella quantizzazione
visto che stiamo aumentando 𝑋𝑀𝑎𝑥 . Bisogna allora lavorare nel campo della probabilità modellando
𝑥(𝑛) come un segnale aleatorio e definendo quindi la sua Funzione Densità di Probabilità (pdf) 𝑷𝒔 ≜
Pr{|𝑥(𝑛)| > 𝑋𝑀𝑎𝑥 } che verifichi la probabilità di sovraccarico.

Infine, dopo aver scelto il metodo di dimensionamento, per verificare la qualità della quantizzazione si
definisce il parametro Rapporto Segnale-Rumore (SNR):

𝑃𝑥 < 𝑥 2 (𝑛) > 𝑝𝑜𝑡𝑒𝑛𝑧𝑎 𝑠𝑒𝑔𝑛𝑎𝑙𝑒 𝑖𝑛 𝑖𝑛𝑔𝑟𝑒𝑠𝑠𝑜


𝑆𝑁𝑅 ≜ = 2 =
𝑃𝑒 < 𝑒 (𝑛) > 𝑝𝑜𝑡𝑒𝑛𝑧𝑎 𝑒𝑟𝑟𝑜𝑟𝑒 𝑑𝑖 𝑞𝑢𝑎𝑛𝑡𝑖𝑧𝑧𝑎𝑧𝑖𝑜𝑛𝑒
P a g . | 67

CAPITOLO 6: PROBABILITA’ ELEMENTARE

6.1 Introduzione e Richiami di Teoria dei Sistemi


La Teoria della Probabilità è uno strumento matematico utile per lo studio dei cosiddetti Fenomeni
Aleatori, cioè fenomeni complessi o di difficile modellizzazione, il cui esito non è prevedibile a priori
ma che tuttavia presentano una qualche forma di regolarità. Quindi seppur con un certo grado di
incertezza, il comportamento di tali fenomeni può essere descritto solo attraverso opportune grandezze
globali o medie. Per esempio, il lancio di una moneta su un tavolo è un fenomeno fisico che può essere
certamente descritto in termini delle equazioni matematiche tipiche della cinematica e della dinamica.
Tuttavia, anche conoscendo tutte le caratteristiche fisiche, geometriche e ogni parametro possibile della
nostra moneta è estremamente difficile, se non praticamente impossibile, sapere esattamente quale
faccia uscirà. Intuitivamente però possiamo immaginare che, se effettuiamo un numero elevatissimo di
lanci, la probabilità che esca testa o croce sarà prossima al 50%. Perciò anche con un fenomeno così
semplice e aleatorio come il lancio di una moneta possiamo denotare qualche forma di regolarità che
viene studiata dalla teoria della probabilità. Un altro esempio potrebbe essere il movimento di un fluido
gassoso, per il quale è impossibile sapere il comportamento del gas descrivendo il comportamento di
ogni particella che lo compone, tuttavia la grandezza fisica pressione è una quantità perfettamente
definita e misurabile perché riguarda il gas a livello macroscopico (riguarda l’insieme delle singole
particelle). Abbiamo fornito alcuni esempi, certamente non esaustivi, di applicazione della teoria della
probabilità, che dovrebbero evidenziare l’ampia portata e la rilevanza di tale disciplina. Siamo adesso
pronti a porre le basi di tale teoria, che ha un forte contenuto matematico, ma che cercheremo di trattare
in modo semplice, e con continuo ricorso ad esempi. In particolare, prima di trattare nel dettaglio nello
studio della teoria della probabilità, è doveroso fare alcuni richiami alla teoria degli insiemi.

Un Insieme A è una collezione di oggetti chiamati elementi dell’insieme. L’insieme può essere definito
per enumerazione specificando quindi i suoi elementi (𝐴 = {𝑤1 , 𝑤2 , … , 𝑤𝑛 } o 𝐴 = {𝑏𝑖𝑎𝑛𝑐𝑜, 𝑟𝑜𝑠𝑠𝑜, 𝑒𝑐𝑐})
oppure descrivendo le proprietà dei suoi elementi (𝐴 = {𝑤 ∈ 𝑅 𝑡𝑎𝑙𝑖 𝑐ℎ𝑒 𝑤 > 0}). In seguito,
utilizzeremo la rappresentazione grafica dei diagrammi di Venn per descrivere i nostri insiemi, quindi
li disegneremo come porzioni del piano.
Definiamo alcuni concetti:
• B Sottoinsieme Proprio di A: B è un sottoinsieme in cui tutti i suoi elementi sono anche elementi
di A. In tal caso utilizzeremo la notazione: 𝐵⊆𝐴
• B Proprio di A: B è un sottoinsieme in cui non tutti i suoi elementi sono anche elementi di A. In tal
caso utilizzeremo la notazione: 𝐵⊂𝐴

Se abbiamo un insieme Ω composto da vari sottoinsiemi possiamo definire:


• Classe 𝓒: una collezione di alcuni sottoinsiemi di Ω;
• Collezione delle Parti di 𝛀 = 𝑷(𝛀): la classe di tutti i sottoinsiemi di Ω inclusi lo stesso insieme Ω
e l’insieme vuoto ∅.

Se abbiamo per esempio due insiemi A e B con alcuni elementi in comune si indica con:
• Unione − 𝑨 ∪ 𝑩: la somma dei due insiemi, quindi tutti gli elementi dei due insiemi. L’unione dei
due insiemi gode delle seguenti proprietà:
P a g . | 68

➢ Proprietà commutativa: 𝐴∪𝐵 = 𝐵∪𝐴


➢ Proprietà Associativa: (𝐴 ∪ 𝐵) ∪ 𝐶 = 𝐴 ∪ (𝐵 ∪ 𝐶)
L’operazione di unione si può interpretare come una operazione di OR.
• Intersezione − 𝑨 ∩ 𝑩: l’insieme che contiene gli elementi comuni ai due insiemi. L’unione dei due
insiemi gode delle seguenti proprietà:
➢ Proprietà commutativa: 𝐴∩𝐵 = 𝐵∩𝐴
➢ Proprietà Distributiva Rispetto all’Unione: (𝐴 ∩ 𝐵) ∩ 𝐶 = 𝐴 ∩ (𝐵 ∩ 𝐶)
L’operazione di intersezione si può interpretare come una operazione di AND.
• Complemento di 𝑨 = 𝑨 ̅ : è l’insieme contenente tutti gli elementi di Ω che non appartegono ad 𝐴,
cioè vale la relazione: 𝐴̅ = Ω − 𝐴
L’operazione di complemento si può interpretare come una operazione di AND.

Due insiemi A e B si dicono Mutuamente Esclusivi se: 𝐴∩𝐵 =∅


𝑛 insiemi 𝐴1 , 𝐴2 , … 𝐴𝑛 essi si dicono Mutuamente Esclusivi se: 𝐴𝑖 ∩ 𝐴𝑗 = 0 ∀𝑖 ≠ 𝑗
Allora se abbiamo questi 𝑛 insiemi mutuamente esclusivi essi formeranno una Partizione dello spazio
Ω se: ∪𝑛𝑘=1 𝐴𝑘 = Ω
Invece, il Prodotto Cartesiano di due insieme A e B è l’insieme i cui elementi sono le Coppie Ordinate
(𝑤1 , 𝑤2 ) con 𝑤1 ∈ 𝐴 e 𝑤2 ∈ 𝐵. La notazione usata è: 𝐴×𝐵
Il prodotto cartesiano tuttavia non gode della proprietà commutativa: 𝐴×𝐵 ≠𝐵×𝐴
Gode però della proprietà associativa: (𝐴 × 𝐵) × 𝐶 = 𝐴 × (𝐵 × 𝐶)

• Cardinalità 𝒄𝒂𝒓𝒅(𝑨): è il numero di elementi di A, se essi sono infiniti allora l’insieme si definisce
infinto numerabile e se si possono porre in corrispondenza biunivoca con i numeri naturali 𝒩, si
può affermare che l’insieme A è infinito continuo. Vediamo alcune proprietà della cardinalità:
- Se A e B sono mutuamente esclusivi: 𝑐𝑎𝑟𝑑(𝐴 ∪ 𝐵) = 𝑐𝑎𝑟𝑑(𝐴) + 𝑐𝑎𝑟𝑑(𝐵) − 𝑐𝑎𝑟𝑑(𝐴 ∩ 𝐵)
Invece in caso contrario: 𝑐𝑎𝑟𝑑(𝐴 ∪ 𝐵) = 𝑐𝑎𝑟𝑑(𝐴) + 𝑐𝑎𝑟𝑑(𝐵) − 𝑐𝑎𝑟𝑑(𝐴 ∩ 𝐵)
- Se 𝐴 ⊆ 𝐵 allora: 𝑐𝑎𝑟𝑑(𝐴) ≤ 𝑐𝑎𝑟𝑑(𝐵)
- 𝑐𝑎𝑟𝑑(∅) = 0
- 𝑐𝑎𝑟𝑑(𝐴 × 𝐵)= 𝑐𝑎𝑟𝑑(𝐴)𝑐𝑎𝑟𝑑(𝐵)
Le Leggi di de Morgan mettono in relazione le operazioni di unione, intersezione e complementazione:

̅̅̅̅̅̅̅̅
𝑨∪𝑩=𝑨 ̅∩𝑩
̅ ̅̅̅̅̅̅̅̅
𝑨∩𝑩=𝑨 ̅∪𝑩
̅

6.2 Definizioni Fondamentali della Teoria della Probabilità


Vediamo alcuni semplici e basilari concetti della probabilità:
• Esperimento: un esperimento aleatorio è una procedura sperimentale con un ben definito insieme
di possibili risultati, il cui esisto non è prevedibile a priori;
• Spazio Campione: lo spazio campione Ω (finito o infinito) associato ad un esperimento è l’insieme
di tutti i possibili risultati 𝜔 dell’esperimento;
• Evento: dato uno spazio campione Ω, si dice evento un sottoinsieme A di Ω. In pratica, si tratta di un
sottoinsieme specifico di risultati 𝜔 dell’esperimento.

Definiamo lo Spazio degli Eventi (𝑖𝑛𝑠𝑖𝑒𝑚𝑒 𝑑𝑖 𝑒𝑣𝑒𝑛𝑡𝑖 = 𝑖𝑛𝑠𝑖𝑒𝑚𝑒 𝑑𝑖 𝑎𝑙𝑐𝑢𝑛𝑖 𝑟𝑖𝑠𝑢𝑙𝑡𝑎𝑡𝑖 𝜔) come la classe
𝒮 (𝑆 = 𝑖𝑛𝑠𝑖𝑒𝑚𝑒 𝑑𝑖 𝑎𝑙𝑐𝑢𝑛𝑖 𝑠𝑜𝑡𝑡𝑜𝑖𝑛𝑠𝑖𝑒𝑚𝑖 𝑑𝑖 Ω) di tutti gli eventi di
interesse, nella quale possiamo definire la Probabilità come una 𝑃: 𝐴 ∈ 𝒮 → 𝑃(𝐴) ∈ [0,1]
funzione 𝑃 definita sullo spazio degli eventi 𝒮 e a valori in [0,1]:
Tale relazione ci dice che ad ogni evento (risultato dell’esperimento) viene associato un numero
compreso nell’intervallo [0,1], il quale misura il grado di incertezza associato al verificarsi dell’evento
stesso (0 = evento che non capita mai, 1 = evento che capita sempre).

Osserviamo però che fino ad ora abbiamo parlato di classe e quindi di un insieme di sottoinsiemi di Ω,
quindi ci potremmo chiedere perché non prendere semplicemente tutti i sottoinsiemi dello spazio
campione. Tale approccio viene trattato mediate gli assiomi di Kolgomorov che vedremo a breve.
P a g . | 69

6.3 Probabilità Assiomatica


Prima di passare all’effettivo approccio assiomatico della probabilità e le leggi di Kolgomorov dobbiamo
prima dare alcune definizioni circa lo spazio 𝒮 degli eventi di interesse.
• Campo: una classe 𝒮 non vuota di eventi si dice campo se soddisfa le seguenti proprietà:
✓ Chiusura Rispetto al Complemento: 𝐴 ∈ 𝒮 → 𝐴̅ ∈ 𝒮
✓ Chiusura Rispetto all’Unione: 𝐴, 𝐵 ∈ 𝒮 → 𝐴 ∪ 𝐵 ∈ 𝒮
Se sono verificate queste proprietà è facile dimostrare che:
- 𝛀, ∅ ∈ 𝓢
- Chiusura Rispetto all’Intersezione: 𝐴, 𝐵 ∈ 𝒮 → 𝐴 ∩ 𝐵 ∈ 𝒮
• 𝝈 Campo: un 𝜎 campo 𝒮 di eventi è un campo che soddisfa, oltre alle proprietà sopracitate, anche
la seguente proprietà.
✓ Chiusura Rispetto all’Unione Numerabile: {𝐴𝑛 }∞ ∞
𝑛=1 ∈ 𝒮 → ∪𝑛=1 𝐴𝑛 ∈ 𝒮

Definizione – Probabilità: assegnato uno spazio campione Ω ed un σ-campo 𝒮 di eventi di Ω, si


definisce probabilità una funzione P definita in S, a valori reali non negativi, tale da soddisfarei i tre
assiomi di Kolmogorov:
I. Assioma di Non Negatività: 𝑃(𝐴) ≥ 0 per ogni 𝐴 ∈ 𝒮
II. Assioma di Normalizzazione: 𝑃(Ω) = 1
III. Assioma di Numerabile Additività: se {𝐴𝑛 }∞ 𝑛=1 è una successione di eventi mutuamente
esclusivi (𝐴𝑖 ∩ 𝐴𝑗 = 0 ∀𝑖 ≠ 𝑗) di 𝒮, allora: 𝑃(∪𝑛=1 𝐴𝑛 = ∑∞
∞ ) 𝑛=1 𝑃(𝐴𝑛 )

L’intera teoria della probabilità discende dai precedenti assiomi in maniera deduttiva, cioè da principi
generali (assiomi) e probabilità di eventi semplici si ricavano le probabilità di eventi complessi
applicando le proprietà del calcolo della probabilità. Abbiamo già osservato che assegnare i valori di
probabilità agli eventi equivale a misurare il livello di incertezza associato agli stessi. In effetti, bisogna
osservare che una funzione definita su un insieme Ω, che soddisfa assiomi analoghi a quelli di
Kolmogorov, viene proprio definita dai matematici una misura (casi elementari di misura sono la
lunghezza, l’area, ed il volume). Pertanto, il contributo più significativo di Kolmogorov è stato in sostanza
quello di riconoscere che, per definire una corretta teoria della probabilità, quest’ultima va inquadrata
come un caso particolare della teoria della misura. Notiamo, in particolare, che l’assioma di
normalizzazione impone che la misura di Ω sia unitaria, e per questo motivo si parla anche della
probabilità come di una misura normalizzata. Va osservato che nel seguito, per mantenere la trattazione
ad un livello elementare, non faremo uso di tale analogia in maniera estesa, tuttavia sfrutteremo
l’analogia tra probabilità e misura per giustificare intuitivamente alcune proprietà della probabilità:

➢ Proprietà 1: 𝑷(∅) = 𝟎
Dimostrazione: scegliendo 𝐴1 = Ω e 𝐴𝑛 = ∅ ∀ 𝑛 > 1 (mutuamente esclusivi):
∞ ∞ ∞ ∞

⋃ 𝐴𝑛 = Ω + ∅ = Ω → 𝑃(Ω) = (⋃ 𝐴𝑛 ) = ∑ 𝑃(𝐴𝑛 ) = 𝑃(Ω) + ∑ 𝑃(∅)


𝑛=1 𝑛=1 𝑛=1 𝑛=2

Allora per avere la relazione 𝑃(Ω) uguale a sé stesso deve risultare che 𝑃(∅) = 0.

➢ Proprietà 2 - Finita Additività: 𝐴 ∩ 𝐵 = ∅ → 𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵)


Dimostrazione: segue l’assioma III e dalla proprietà 1, scegliendo 𝐴1 = A, 𝐴2 = 𝐵, 𝐴𝑛 =
∅ ∀ 𝑛 > 2.

➢ Proprietà 3: 𝑷(𝑨̅ ) = 𝟏 − 𝑷(𝑨)


̅ ̅
Dimostrazione: poiché 𝐴 ∪ 𝐴 = Ω e 𝐴 ∩ 𝐴 = ∅, per la proprietà 2 e per l’assioma II si ha che:

𝑃(𝐴 ∪ 𝐴̅) = 𝑃(𝐴) + 𝑃(𝐴̅) = 𝑃(Ω) = 1 → 𝑃(𝐴̅) = 1 − 𝑃(𝐴)


P a g . | 70

➢ Proprietà 4: 𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴 ∩ 𝐵)


Dimostrazione: utilizzando i diagrammi di Venn di seguito è facile verificare che 𝐴 ∪ 𝐵 = 𝐴 ∪
𝐴𝐵̅ , dove entrambi i termini a secondo membro sono mutuamente esclusivi. Allora stesso modo,
sempre mediante lo stesso diagramma si può dimostrare che:
𝐵 = Ω ∩ 𝐵 = (𝐴 + 𝐴̅) ∩ 𝐵 = 𝐴𝐵 ∪ 𝐴̅𝐵 → 𝑃(𝐵) = 𝑃(𝐴𝐵) + 𝑃(𝐴̅𝐵)

Applicando la proprietà 2:

𝑃(𝐴 ∪ 𝐵) = 𝑃(𝐴) + 𝑃(𝐴̅𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴𝐵) = 𝑃(𝐴) + 𝑃(𝐵) − 𝑃(𝐴 ∩ 𝐵)

➢ Proprietà 5: 𝐵 ⊆ 𝐴 → 𝑃(𝐵) ≤ 𝑃(𝐴)

Dimostrazione: se 𝐵 ⊆ 𝐴 si ha che vale la relazione 𝐴 = 𝐵 ∪ 𝐴𝐵̅, dove i due termini a secondo


membro sono mutuamente esclusivi. Allora per la proprietà 2:

𝑃(𝐴) = 𝑃(𝐵 ∪ 𝐴𝐵̅ ) = 𝑃(𝐵) + 𝑃(𝐴𝐵̅ )


Allora:
𝑃(𝐵) ≤ 𝑃(𝐴) 𝑝𝑜𝑖𝑐ℎè 𝑃(𝐵) ≤ 1

➢ Proprietà 6: 𝑃(𝐵) ≤ 1 𝑠𝑒 𝐴 = Ω
Dimostrazione: segue dalla proprietà precedente e dall’assioma II scegliendo 𝐴 = Ω.
P a g . | 71

6.4 Spazio di Probabilità ed Esempi


In sostanza, per definire una legge di probabilità occorre specificare:
1. Uno spazio campione 𝛺;
2. Un 𝜎 − campo 𝒮 di eventi di 𝛺;
3. Una funzione 𝑃 definita su 𝒮 e a valori in [0,1] che soddisfi i tre assiomi di Kolmogorov.
Si definisce Spazio di Probabilità la terna (Ω, 𝒮, 𝑃). Il problema però dell’approccio assiomatico è che
risulta essere incompleto in quanto non consente di determinare univocamente quali debbano essere le
probabilità degli eventi. Allora se si definisce una legge di probabilità che produce delle previsioni, allora
le probabilità ipotizzate sono corrette, in caso contrario bisogna cambiare legge. La Statistica si
occupare di valutare sperimentalmente le previsioni probabilistiche e/o ricavare valori di probabilità
da dati sperimentali.

Un tipico esempio di spazio di probabilità sono quelli discreti, nel quale lo spazio campione Ω =
{𝜔1 , 𝜔2 , … , 𝜔𝑛 } ha cardinalità finita e quindi presenta un numero finito o infinito numerabile di risultati
𝜔𝑖 . In tal caso possiamo scegliere come 𝜎 campo la collezione delle parti di Ω:

𝒮 = 𝒫(Ω) = {𝑡𝑢𝑡𝑡𝑖 𝑖 𝑠𝑜𝑡𝑡𝑜𝑖𝑛𝑠𝑖𝑒𝑚𝑖 𝑑𝑖 Ω, 𝑖𝑛𝑐𝑙𝑢𝑠𝑜 Ω 𝑒 ∅}

Essendo Ω finito o numerabile, allora qualunque evento 𝐴 ∈ 𝒮 può essere espresso come unione al più
numerabile di eventi elementari {𝜔𝑖 } (relazione a sinistra). Inoltre, gli eventi 𝜔𝑖 essendo mutuamente
esclusivi, la probabilità dell’evento A è la somma delle probabilità dei singoli eventi (relazione di destra
ottenuta mediante l’assioma III di additività). Nelle due relazioni 𝐼𝐴 ⊂ 𝒩 è l’insieme degli indici che
identificano gli elementi di A.
𝐴 = ⋃{𝜔𝑖 } → 𝑃(𝐴) = ∑ 𝑃({𝜔𝑖 })
𝑖∈𝐼𝐴 𝑖=𝐼𝐴

Pertanto, per assegnare la probabilità di un qualunque evento A, è sufficiente assegnare le probabilità


degli eventi elementari 𝑝𝑖 ≜ 𝑃({𝜔𝑖 }), ∀𝜔𝑖 ∈ Ω, garantendo che, per l’assioma II (normalizzazione), si
abbia:
∞ ∞

𝑃(Ω) = ∑ 𝑃({𝜔𝑖 }) = ∑ 𝑝𝑖 = 1
𝑖=0 𝑖=0

Se consideriamo il caso di un insieme Ω di cardinalità finita del tipo 𝑐𝑎𝑟𝑑(Ω) = 𝑁 ≠ ∞ e supponendo


tutti gli eventi elementari equiprobabili, allora la loro probabilità 𝑝𝑖 = 1/𝑁. Quindi La probabilità
dell’intero evento A (unione dei singoli eventi) sarà:

1 𝑐𝑎𝑟𝑑(𝐴)
𝑃(𝐴) = ∑ 𝑃({𝜔𝑖 }) = ∑ 𝑝𝑖 = ∑ =
𝑁 𝑐𝑎𝑟𝑑(Ω)
𝑖=𝐼𝐴 𝑖=𝐼𝐴 𝑖=𝐼𝐴

In conclusione, tale relazione mostra che in molti casi il calcolo delle probabilità di eventi si riduce ad
un problema puramente combinatorio, consistente cioè nel contare gli elementi di un insieme, problema
semplice in linea di principio, ma la cui applicazione a casi reali può giungere a notevoli livelli di
complessità.
P a g . | 72

CAPITOLO 7: PROBABILITA’ CONDIZIONALE E INDIPENDENZA

7.1 Introduzione
Nel precedente capitolo abbiamo visto gli aspetti principali della teoria della probabilità, le operazioni
di intersezione, unione, complemento, gli spazi di probabilità (Ω, 𝒮, 𝑃) e semplici regole per il calcolo
della probabilità. A questo punto però dobbiamo studiare le relazioni di dipendenza o indipendenza che
possono esserci fra eventi di uno spazio di probabilità, per esempio se si verifica un evento B che
influenzerà la probabilità di un evento A. Allora ciò che vedremo nei prossimi paragrafi saranno due
fondamentali concetti:
• Probabilità Condizionale
• Indipendenza

7.2 Probabilità Condizionale

7.2.1 Definizione di Probabilità Condizionale


Sia (Ω, 𝒮, 𝑃) uno spazio di probabilità e siano 𝐴, 𝐵 ∈ 𝒮 due eventi, con 𝑃(𝐵) ≠ 0.
La probabilità condizionale di A dato B: 𝑃(𝐴𝐵)
𝑃(𝐴|𝐵) =
Dove l’evento 𝐴𝐵 = 𝐴 ∩ 𝐵 e poiché 𝐴𝐵 ⊆ 𝐵 si ha che 𝑃(𝐴𝐵) ≤ 𝑃(𝐵) e quindi 𝑃(𝐵)
𝑃(𝐴𝐵) ≤ 1. Tale relazione rappresenta tra l’altro una vera e proprio legge di
probabilità che rispetto gli assiomi di Kolmogorov.
Dimostrazione:
❖ Assioma I: 𝑃(𝐴|𝐵) ≥ 0 ∀𝐴 ∈ 𝒮
❖ Assioma II:
𝑃(Ω ∩ 𝐵) 𝑃(𝐵)
𝑃(Ω|𝐵) = = =1
𝑃(𝐵) 𝑃(𝐵)
❖ Assioma III: se 𝐴1 e 𝐴2 sono mutuamente esclusivi:

𝑃[(𝐴1 ∪ 𝐴2 )𝐵] 𝑃(𝐴1 𝐵 ∪ 𝐴2 𝐵)


𝑃(𝐴1 ∪ 𝐴2 |𝐵) = =
𝑃(𝐵) 𝑃(𝐵)

Poiché anche 𝐴1 𝐵 e 𝐴2 𝐵 sono mutuamente esclusivi:

𝑃(𝐴1 𝐵) + 𝑃(𝐴2 𝐵)
𝑃(𝐴1 𝐵 ∪ 𝐴2 𝐵) = = 𝑃(𝐴1 |𝐵) + 𝑃(𝐴2 |𝐵)
𝑃(𝐵)

Una conseguenza banale della definizione di probabilità condizionale è:


Legge della Probabilità Composta: la Probabilità Congiunta 𝑃(𝐴 ∩ 𝐵) degli eventi A e B è data dalla
seguente relazione:
𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴|𝐵)𝑃(𝐵) = 𝑃(𝐵|𝐴)𝑃(𝐴)

Tale legge vale sia quando 𝑃(𝐴) e 𝑃(𝐵) sono diverse da zero sia quando sono nulle, in tal caso
banalmente si ha che 𝑃(𝐴 ∩ 𝐵) = 0. L’utilità della legge della probabilità composta è che essa consente
di calcolare la probabilità dell’evento 𝐴 ∩ 𝐵 in tre passi:
1. Si calcola prima la probabilità di A; S
2. Si calcola la probabilità di B dato A;
3. Si moltiplicano i due valori di probabilità.
Ovviamente, data la simmetria della legge, si possono scambiare i ruoli di A e B secondo convenienza.

È possibile estendere la definizione di probabilità condizionata anche al 𝑃(𝐴𝐵𝐶)


caso di più eventi condizionanti. Per esempio, si ha: 𝑃(𝐴|𝐵, 𝐶) ≜
𝑃(𝐵𝐶)
Si noti che 𝑃(𝐴|𝐵, 𝐶) è da intendersi come 𝑃(𝐴|𝐵𝐶), cioè si condiziona
all’evento BC, ovvero al fatto che si sono verificati congiuntamente l’evento
P a g . | 73

B e l’evento C. Riscrivendo la precedente, si trova allora una legge di fattorizzazione analoga alla legge
della probabilità composta: 𝑃(𝐴𝐵𝐶) = 𝑃(𝐴|𝐵, 𝐶)𝑃(𝐵𝐶)
e poiché, per la legge della probabilità composta, 𝑃(𝐵𝐶) = 𝑃(𝐵|𝐶) 𝑃(𝐶), si ottiene:

𝑃(𝐴𝐵𝐶) = 𝑃(𝐴|𝐵, 𝐶) 𝑃(𝐵|𝐶) 𝑃(𝐶)

Applicando tale relazione iterativamente al caso di n eventi 𝐴1 , 𝐴2 , … , 𝐴𝑛 , si ha la cosiddetta Regola


della Catena per il calcolo della probabilità congiunta di n eventi:

𝑃(𝐴1 𝐴2 … 𝐴𝑛 ) = 𝑃(𝐴1 ) 𝑃(𝐴2 |𝐴1 ) 𝑃(𝐴3 |𝐴1 , 𝐴2 ) ··· 𝑃(𝐴𝑛 |𝐴1 , 𝐴2 , . . . , 𝐴𝑛−1 )

La regola precedente si applica indipendentemente dall’ordine in cui si considerano gli eventi. In effetti,
poiché esistono n! distinte permutazioni degli eventi 𝐴1 , 𝐴2 , … , 𝐴𝑛 , la fattorizzazione secondo la regola
della catena può avvenirein n! modi distinti.

7.2.2 Teorema della Probabilità Totale e Teorema di Bayes


Due importanti teoremi circa la probabilità condizionale sono:
• Teorema della Probabilità Totale
Siano 𝐴1 , 𝐴2 , … 𝐴𝑛 eventi mutuamente esclusivi (𝐴𝑖 ∩ 𝐴𝑗 = ∅ ∀ 𝑖 ≠
𝑗) e sia 𝐵 ⊆ ⋃𝑛𝑖=1 𝐴𝑖 . Si ha:
𝑛

𝑃(𝐵) = ∑ 𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 )


𝑖=1
Dimostrazione: facendo riferimento alla figura di fianco, poiché
risulta che 𝐵 ⊆ ⋃𝑛𝑖=1 𝐴𝑖 → 𝐵 = 𝐵 ∩ {⋃𝑛𝑖=1 𝐴𝑖 } = {𝐵 ∩ ⋃𝑛𝑖=1 𝐴𝑖 }.
Essendo gli eventi 𝐴𝑖 mutuamente esclusivi, allora anche gli eventi
𝐵 ∩ 𝐴𝑖 lo saranno. Quindi per l’assioma III:
𝑛 𝑛
𝑙𝑒𝑔𝑔𝑒 𝑑𝑖 𝑝𝑟𝑜𝑏. 𝑐𝑎𝑚𝑝𝑜𝑠𝑡𝑎
𝑃(𝐵) = ∑ 𝑃(𝐵 ∩ 𝐴𝑖 ) = → ∑ 𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 )
𝑖=1 𝑖=1

Nella pratica può essere complicato verificare la condizione 𝐵 ⊆ ⋃𝑛𝑖=1 𝐴𝑖 , per cui spesso si assume che
gli eventi 𝐴𝑖 mutuamente esclusivi siano una partizione di Ω: ⋃𝑛𝑖=1 𝐴𝑖 = Ω
• Teorema di Bayes
Siano 𝐴1 , 𝐴2 , … 𝐴𝑛 eventi mutuamente esclusivi (𝐴𝑖 ∩ 𝐴𝑗 = ∅ ∀ 𝑖 ≠ 𝑃(𝐵 |𝐴𝑖 )𝑃(𝐴𝑖 )
𝑗) e sia 𝐵 ⊆ ⋃𝑛𝑖=1 𝐴𝑖 . Si ha: 𝑃(𝐴𝑖 |𝐵) = 𝑛
∑𝑖=1 𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 )

Dimostrazione: questo teorema è una conseguenza del teorema precedente e della legge della
probabilità composta. La legge di probabilità composta ci dice che:

𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 )
𝑃(𝐵 ∩ 𝐴𝑖 ) = 𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 ) = 𝑃(𝐴𝑖 |𝐵)𝑃(𝐵) → 𝑃(𝐴𝑖 |𝐵) =
𝑃(𝐵)

Sostituendo 𝑃(𝐵) nella relazione del teorema della probabilità totale otteniamo la relazione che ci
interessa:
𝑛 𝑛
𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 ) 𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 )
𝑃(𝐵) = ∑ 𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 ) → = ∑ 𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 ) → 𝑃(𝐴𝑖 |𝐵) = 𝑛
𝑃(𝐴𝑖 |𝐵) ∑𝑖=1 𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 )
𝑖=1 𝑖=1
Entrambi i teoremi possono estendersi al caso in cui gli eventi 𝐴𝑖 condizionanti siano in numero infinito
numerabili. Nel teorema di Bayes in genere viene definita:
• Probabilità a Priori = 𝑃(𝐴𝑖 )
• Probabilità a Posteriori = 𝑃(𝐴𝑖 |𝐵)
P a g . | 74

7.3 Indipendenza Condizionale


Due eventi A e B si dicono Condizionalmente Indipendenti, dato un terzo evento C, se:

𝑃(𝐴𝐵|𝐶) = 𝑃(𝐴|𝐶)𝑃(𝐵|𝐶)

Si noti che l’indipendenza condizionale non implica l’indipendenza di A e B, se non nel caso in cui 𝐶 =
Ω. Allo stesso modo, per quantomeno intuitivamente comprensibile, l’indipendenza tra A e B non
implica l’indipendenza condizionale rispetto ad un terzo evento C.

In molti casi interessa affrontare il seguente problema: dati più esperimenti aleatori, ognuno dei quali
descritto in termini probabilistici, descrivere l’esperimento combinato, risultante dalla combinazione
dei singoli esperimenti. Per far questo, è necessario costruire un nuovo spazio di probabilità,
denominato spazio di probabilità prodotto, sull’esperimento combinato.

Definizione – Spazio di Probabilità Prodotto: si considerino due spazi di probabilità (𝛺1 , 𝒮1 , 𝑃1 ) e


(𝛺2 , 𝒮2 , 𝑃2 ). Si definisce spazio di probabilità prodotto lo spazio di probabilità (𝛺, 𝒮, 𝑃) dove:
✓ Lo spazio campiona è il prodotto cartesiano dei due spazi campione: 𝛺 = 𝛺1 × 𝛺2
Quindi i risultati 𝜔 dell’esperimento combinato sono le coppie ordinate 𝜔 = (𝜔1 ∈ 𝛺1 , 𝜔2 ∈ 𝛺2 );
✓ Il 𝜎 campo degli eventi di 𝒮 è il più piccolo 𝜎 campo contenente gli eventi del tipo 𝐴 × 𝐵, con 𝐴 ∈ 𝒮1 e
𝐵 ∈ 𝒮2 ;
✓ La legge di probabilità P definita su 𝒮 deve soddisfare le seguenti proprietà, definite di consistenza:
- 𝑃(𝐴 × 𝛺2 ) = 𝑃1 (𝐴) ∀ 𝐴 ∈ 𝒮1
- 𝑃(𝛺1 × 𝐵) = 𝑃2 (𝐵) ∀ 𝐵 ∈ 𝒮2
Tale definizione può essere estesa anche al caso 𝑛 > 2 esperimenti.

Abbiamo già notato che le le due proprietà di consistenza consentono di determinare, a partire dagli
spazi di probabilità sui singoli esperimenti, solo le probabilità di eventi del tipo 𝐴 × Ω2 𝑒 Ω1 × 𝐵, ma non
quelle di un qualsiasi evento di S. D’altra parte, in generale, è intuitivamente accettabile che assegnare
solo le leggi di probabilità P1 e P2 sui due esperimenti componenti non consente di determinare la legge
di probabilità dell’esperimento combinato: abbiamo bisogno di qualche informazione sulla relazione di
dipendenza che c’è tra i due esperimenti.

Definizione – Esperimenti Indipendenti: siano (𝛺1 , 𝒮1 , 𝑃1 ) e (𝛺2 , 𝒮2 , 𝑃2 ) due spazi di probabilità, sia
(𝛺, 𝒮, 𝑃) lo spazio di probabilità prodotto. Gli esperimenti si diranno indipendenti se gli eventi (𝐴 × 𝛺2 ) e
(𝛺1 × 𝐵) dello spazio prodotto sono indipendenti per ogni 𝐴 ∈ 𝒮1 e 𝐵 ∈ 𝒮2 .

In sostanza, dalla precedente definizione di indipendenza, si ha che per tutti gli eventi di 𝒮 che possono
essere espressi come 𝐴 × 𝐵, con 𝐴 ∈ 𝑆1 e B ∈ S2, poiché risulta:

𝐴 × 𝐵 = (𝐴 × Ω2) ∩ (Ω1 × 𝐵)

si ha: 𝑃(𝐴 × 𝐵) = 𝑃[(𝐴 × Ω2) ∩ (Ω1 × 𝐵)] = 𝑃(𝐴 × Ω2)𝑃(Ω1 × 𝐵) = 𝑃1(𝐴) 𝑃2(𝐵)
In particolare, osserviamo che, per gli eventi elementari di Ω, si ha (𝜔1, 𝜔2) = {𝜔1} × {𝜔2}, per cui
𝑃(𝜔1, 𝜔2) = 𝑃1(𝜔1) 𝑃2(𝜔2). È facile dimostrare a questo punto, almeno per spazi di probabilità
discreti, che l’ipotesi di indipendenza consente di calcolare completamente le probabilità dello spazio
prodotto in termini delle probabilità degli spazi componenti. Infatti, un qualunque evento appartenente
al σ-campo costruito sullo spazio di probabilità prodotto potrà essere espresso come unione al più
numerabile di eventi elementari dello spazio prodotto, e quindi la sua probabilità si potrà calcolare, a
partire dalle probabilità degli eventi elementari, adoperando l’assioma di numerabile additività.
Concetti più sofisticati di teoria della misura mostrano che è possibile procedere in maniera simile anche
per spazi di probabilità continui. In definitiva, allora, nel caso di esperimenti indipendenti è possibile
specificare la legge di probabilità P sullo spazio prodotto semplicemente a partire dalle leggi di
probabilità 𝑃1 e 𝑃2 definite sugli spazi componenti.
P a g . | 75

CAPITOLO 8: VARIABILI ALEATORIE

8.1 Introduzione
Nei precedenti capitoli abbiamo costruito spazi di probabilità a partire da esperimenti i cui risultati non
era per forza numeri, tuttavia in ingegneria nasce l’esigenza di descrivere entrambi in maniera numerica.
Proprio per tale esigenza nasce il concetto di Variabile Aleatoria, quindi l’associazione di un risultato
dell’esperimento ad un numero reale. In pratica si tratta di cambiare nome ai risultati dello spazio
campione Ω e ridurre così anche la complessità nella descrizione dell’esperimento. Per essere più
rigorosi:
Definizione – Variabile Aleatoria: dato un esperimento, una variabile aleatoria 𝑋 è una funzione
costruita su Ω e che assume valori nell’insieme ℛ̅ = ℛ ∪ {−∞, ∞}:

𝑋: 𝜔 ∈ 𝛺 → 𝑋(𝜔) ∈ 𝒳 ⊆ ℛ̅

dove 𝒳 è il codominio della funzione 𝑋, quindi è l’insieme dei valori possibili assunti da quest’ultimo.

Vediamo adesso se la variabile aleatoria 𝑋 conserva le informazioni sulle probabilità degli eventi di Ω
anche nel caso in cui esso sia dotato di spazio di probabilità. A tal proposito dobbiamo chiarire il
significato della notazione: {𝑋 ≤ 𝑥} 𝑐𝑜𝑛 𝑥 ∈ ℛ̅
Tale notazione determina una semiretta sinistra dell’asse reale ℛ̅ (intervallo ] − ∞, 𝑥]) in cui cadono i
valori assunti da 𝑋. Tuttavia, il significato che noi gli daremo è completamente diverso ed essa verrà
usata per riferirci al sottoinsieme A di Ω, ovvero l’insieme dei valori 𝜔 ∈ Ω la cui immagina attraverso la
funzione 𝑋 è minore o uguale ad 𝑥: 𝐴 = {𝜔 ∈ Ω 𝑡𝑎𝑙𝑖 𝑐ℎ𝑒 𝑋(𝜔) ≤ 𝑥}
In parole povere 𝐴 non è un sottoinsieme di ℛ̅ ma bensì dello spazio campione Ω. Vediamo due proprietà
che caratterizzano una variabile aleatoria:
Definizione – Proprietà Caratteristiche di una V.A.: dato uno spazio di probabilità (Ω, 𝒮, 𝑃), una
variabile aleatoria 𝑋 è una funzione definita in Ω ed a valori 𝒳 ⊆ ℛ̅ = ℛ ∪ {−∞, ∞} tale che:
➢ {𝑋 ≤ 𝑥} è 𝑢𝑛 𝑒𝑣𝑒𝑛𝑡𝑜 ∀𝑥 ∈ ℛ̅
➢ 𝑃({𝑋 = ±∞}) = 0
P a g . | 76

8.2 Funzione di Distribuzione Cumulativa


La Funzione di Distribuzione Cumulativa (CDF) è la funzione che esprime la probabilità {𝑋 ≤ 𝑥} al
variare di 𝑥 in ℛ̅: F(𝑋) ≜ 𝑃(𝑋 ≤ 𝑥) ∀𝑥 ∈ ℛ̅
In pratica, tale funzione sarà il grafico sul
diagramma cartesiano (𝑥, 𝐹(𝑥)) che rappresenta
i diversi valori di probabilità dell’evento 𝑋 ≤ 𝑥.
Nell’esempio in figura si mostra come
all’aumentare del valore di 𝑥 corrisponde anche
un aumento della probabilità che l’evento
sopracitato sia verificato.

Tipicamente noi utilizzeremo la notazione 𝐹𝑋 (𝑥)


per indicare la CDF di 𝑋 visto che in futuro
possiamo avere anche più variabili aleatorie.

Vediamo alcune proprietà della CFD:


➢ 𝐹(+∞) = 1 𝑒 𝐹(−∞) = 0
➢ 𝐹(𝑥) è una funzione monotona crescente, ovvero se 𝑥1 < 𝑥2 → 𝐹(𝑥1 ) ≤ 𝐹(𝑥2 )
➢ 𝑃(𝑋 > 𝑥) = 1 − 𝐹(𝑥)
➢ 𝐹(𝑥) è continua da destra, ovvero 𝐹(𝑥 + ) = 𝐹(𝑥)
➢ 𝑃(𝑥1 < 𝑋 ≤ 𝑥2 ) = 𝐹(𝑥2 ) − 𝐹(𝑥1 )
➢ 𝑃(𝑋 = 𝑥) = 𝐹(𝑥) − 𝐹(𝑥 − )
➢ 𝑃(𝑥1 ≤ 𝑋 ≤ 𝑥2 ) = 𝐹(𝑥2 ) − 𝐹(𝑥1− )
➢ 𝑃(𝑥1 ≤ 𝑋 < 𝑥2 ) = 𝐹(𝑥2− ) − 𝐹(𝑥1− )
➢ 𝑃(𝑥1 < 𝑋 < 𝑥2 ) = 𝐹(𝑥2− ) − 𝐹(𝑥1 )

Le variabili aleatorie si possono classificare in base alla loro CDF:


A. Variabile Aleatoria Discreta: se la sua CFD è costante a tratti, per cui indichiamo con 𝑥𝑘 i suoi punti
di discontinuità. Per la proprietà della CFD che ci dice 𝑃(𝑋 = 𝑥) = 𝐹(𝑥) − 𝐹(𝑥 − ), la variabile
aleatoria 𝑋 assume i valori 𝑥𝑘 con probabilità 𝑝𝑘 (quindi non assume altri valori e quindi questi
ultimi hanno probabilità nulla):

0 𝑠𝑒 𝑥 ≠ 𝑥𝑘 è 𝑢𝑛 𝑝𝑢𝑛𝑡𝑜 𝑑𝑖 𝑑𝑖𝑠𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑖𝑡à
𝑃(𝑋 = 𝑥) = 𝐹(𝑥) − 𝐹(𝑥 − ) = {
𝑝𝑘 𝑠𝑒 𝑥 = 𝑥𝑘 è 𝑢𝑛 𝑝𝑢𝑛𝑡𝑜 𝑑𝑖 𝑑𝑖𝑠𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑖𝑡à

Capiamo perciò che l’insieme 𝒳 dei valori assunti da 𝑋 è un insieme discreto, cioè 𝒳 = {𝑥1 , 𝑥2 , … 𝑥𝑛 }.
Un caso particolare di variabili aleatorie discrete sono quelle di tipo Reticolare, nel quale tutti i
punti 𝑥𝑘 sono equispaziati (stessa distanza fra loro).
B. Variabile Aleatoria Continua: la continuità della CDF 𝐹𝑋 (𝑥) implica che, sempre per la stessa
proprietà 𝑃(𝑋 = 𝑥) = 𝐹(𝑥 + ) − 𝐹(𝑥 − ), risulta che 𝑃(𝑋 = 𝑥) = 0 ∀ ∑ ∑ 𝑥 ∈ ℛ̅ . Ciò vuol dire
che una variabile aleatoria continua assumerà ogni valore del suo codominio con probabilità nulla.
C. Variabile Aleatoria Mista: la sua CDF è discontinua ma non è costante a tratti. L’insieme 𝒳 di valori
assunti da 𝑋 sarà l’unione di un insieme continuo (un intervallo per esempio) e un insieme discreto
(anche vuoto).
P a g . | 77

8.3 Funzione di Densità di Probabilità


La Funzione di Densità di Probabilità (PDF) è la derivata della CDF della
variabile aleatoria 𝑋: 𝑑
𝑓(𝑥) = 𝐹(𝑥)
Bisogna però precisare che la derivata indicata nella definizione è da intendersi 𝑑𝑥
in senso generalizzato, quindi possono comparire degli impulsi di Dirac in
corrispondenza dei punti di discontinuità della CDF 𝐹(𝑥). Perciò se la variabile aleatoria 𝑋 è continua,
anche la sua 𝐹(𝑥) sarà continua e quindi 𝑓(𝑥) non conterrà impulsi. Contrariamente se 𝑋 è discreta,
allora la sua 𝐹(𝑥) sarà costante a tratti e quindi la 𝑓(𝑥) conterrà degli impulsi la cui ampiezza è pari
proprio alla probabilità 𝑝𝑖 del valore 𝑥𝑖 . Allora quando deriviamo la CDF si ottiene una PDF costituita da
soli impulsi di Dirac centrata nei valori discreti 𝑥𝑖 :

𝑓(𝑥) = ∑ 𝑝𝑖 𝛿(𝑥 − 𝑥𝑖 ) 𝑑𝑜𝑣𝑒 𝑝𝑖 ≜ 𝑃(𝑋 = 𝑥𝑖 )


𝑥𝑖 ∈𝒳

Infine, se 𝑋 è mista, allora la pdf avrà una parte continua con derivata classica e impulsi di Dirac nei
punti di discontinuità di 𝐹(𝑥). Anche in questo caso visto l’eventualità di più variabile aleatorie
utilizzeremo la notazione 𝑓𝑋 (𝑥).

Vediamo alcune proprietà della CFD:


➢ 𝑓(𝑥) ≥ 0
𝑥
➢ 𝐹(𝑥) = ∫−∞ 𝑓(𝑦)𝑑𝑦
➢ Proprietà di Normalizzazione della PDF:
+∞
∫ 𝑓(𝑥)𝑑𝑥 = 1
−∞
𝑥
➢ 𝑃(𝑥1 < 𝑋 ≤ 𝑥2 ) = 𝐹(𝑥2 ) − 𝐹(𝑥1 ) = ∫𝑥 2 𝑓(𝑥)𝑑𝑥
1
➢ 𝑋 continua, con pdf 𝑓(𝑥) continua → 𝑃(𝑥 ≤ 𝑋 ≤ 𝑥 + ∆𝑥) ≈ 𝑓(𝑥)∆𝑥 𝑝𝑒𝑟 ∆𝑥 ≪ 1

8.4 Funzione di Distribuzione di Probabilità


La Funzione di Distribuzione di Probabilità (DF) è una funzione che restituisce direttamente le
probabilità con cui la variabile aleatoria assume i suoi valori: 𝑝(𝑥) = 𝑃(𝑋 = 𝑥) 𝑐𝑜𝑛 𝑥 ∈ 𝒳
Anche in questo caso visto l’eventualità di più variabile aleatorie utilizzeremo la notazione 𝑝𝑋 (𝑥). La
comodità della DF è la possibilità di avere una funzione ordinaria prima di impulsi di Dirac. La DF però
viene utilizzata solo per le variabili aleatorie discrete in quanto:
- Per quelle continue sarebbe nulla perché una variabile aleatoria continua assumi tutti i valori di
𝒳 con probabilità nulla;
- Per quelle miste avremmo invece una descrizione incompleta di essa a causa della parte
continua.

Vediamo alcune proprietà della DF:


➢ 𝑝(𝑥) ≥ 0
➢ 𝐹(𝑥) = ∑𝑢∈𝒳,𝑢≤𝑥 𝑝(𝑢)
➢ ∑𝑢∈𝒳 𝑝(𝑢) = 1
➢ 𝑃(𝑥1 < 𝑋 ≤ 𝑥2 ) = ∑𝑢∈|𝑥1,𝑥2|∩𝒳 𝑝(𝑢)
P a g . | 78

8.5 Variabili Aleatorie Notevoli


Nella pratica le variabili aleatorie si introducono semplicemente assegnando le loro funzioni di
distribuzione, tuttavia tale semplificazione è possibile grazie al seguente teorema:
Teorema dell’Esistenza: data una funzione 𝐹(𝑥) che soddisfa le proprietà di CDF o alternativamente
𝑥
data una funzione 𝑓(𝑥) tale che 𝐹(𝑥) = ∫−∞ 𝑓(𝑦)𝑑𝑦 soddisfi le proprietà della CDF oppure una funzione
𝑝(𝑥) tale che 𝐹(𝑥) = ∑𝑢∈𝒳,𝑢≤𝑥 𝑝(𝑢) soddisfi le proprietà di CDF, è possibile costruire uno spazio di
probabilità (𝛺, 𝒮, 𝑃) ed una variabile aleatoria 𝑋 con 𝐶𝐷𝐹 𝐹(𝑥) (o PDF 𝑓(𝑥) o 𝐷𝐹 𝑝(𝑥))

Sulla base di questo teorema, potremo o costruire la variabile aleatoria su un determinato spazio di
probabilità, oppure in alternativa introdurre direttamente le variabili aleatorie attraverso le loro
funzioni di distribuzione (CDF, pdf o DF), senza specificare esplicitamente l’esperimento su cui sono
definite. Nel seguito del paragrafo introdurremo alcune delle variabili aleatorie più comunemente
utilizzate. Per le variabili discrete, riporteremo la descrizione in termini di funzione di distribuzione di
probabilità (DF) mentre tralasceremo la pdf e la CDF perché tipicamente non vengono usate nel discreto.
Notiamo preliminarmente che tutte le variabili aleatorie discrete che introdurremo saranno di tipo
reticolare. A differenza di quelle discrete, le variabili aleatorie continue saranno descritte attraverso la
pdf e la CDF (risultando la DF identicamente nulla).

8.5.1 Variabile Aleatoria di Binomiale, Binomiale Negativa e di Bernoulli


Consideriamo un esperimento, descritto dallo spazio di probabilità (Ω1 , 𝒮1 , 𝑃1 ) e si supponga di ripeterlo
𝑛 volte nelle medesime condizioni, assumendo che le varie ripetizioni siano indipendenti. Lo spazio
campione dell’esperimento combinato sarà: Ω = Ω1𝑛 = (Ω1 × Ω1 × Ω1 … 𝑛 𝑣𝑜𝑙𝑡𝑒)
Allora risulterà che:
- Il 𝜎 campo 𝒮 sarà il più piccolo 𝜎 campo contenente gli eventi del tipo: 𝐴 = 𝐴1 × 𝐴2 …
- La legge di probabilità P, nelle ipotesi scelte, è indotta dalla legge 𝑃1 e vale per tutti gli eventi 𝐴 ∈
𝒮 che possono esprimersi come prodotto cartesiano appena visto. Allora risulterà la legge di
probabilità 𝑃 sarà: 𝑃(𝐴) = 𝑃1 (𝐴1 ) ∙ 𝑃1 (𝐴2 ) ∙ …
In particolare, se Ω1 è un insieme discreto la probabilità degli eventi elementari 𝜔 = (𝜔1 , 𝜔2 , … ) si può
calcolare con una formula analoga a prima (con le 𝜔𝑖 al posto delle 𝐴𝑖 ).

Per capire quanto detto, immaginiamo il caso di uno spazio campione Ω1 = {0,1} dove indichiamo con il
termine:
a. Successo: evento 𝐴 che nel caso binario possiamo attribuire al valore 1. L’evento di successo
accade con probabilità 𝑝;
b. Insuccesso: complementare di A (quindi 𝐴̅) che nel caso binario possiamo attribuire al valore 0.
L’evento di insuccesso accade con probabilità 𝑞 = 1 − 𝑝.
Allora i possibili 𝜔 eventi (risultati dell’esperimento) saranno 2𝑛 , dove 𝑛 è la lunghezza delle stringhe
di bit che stiamo adoperando. Se per esempio 𝑛 = 8 allora avremo 28 risultati e a ciascuno di essi
corrisponderà il valore della variabile aleatoria 𝑋 (che per capirci potrebbe essere la conversione da bit
a scala naturale del risultato). Allora in base a quanto detto possiamo dire che la seguente notazione
rappresenta la probabilità che nelle 𝑛 prove ripetute, si abbiano 𝑘 successi in qualunque ordine:

𝑝(𝑘) = 𝑃(𝑋 = 𝑘)

In generale, per determinare il numero delle possibili configurazioni, posso ragionare


pensando di avere 𝑛 oggetti (le prove), di cui devo specificarne k (le prove in cui si hanno i 𝑛
( )
successi), senza sostituzioni e senza ordinamento. Pertanto, il numero di possibili 𝑘
configurazioni è pari al numero delle disposizioni di n oggetti su k posti senza sostituzioni e
senza ordinamento. Tale affermazione si esprime mediate l’indicazione di fianco. Data
l’indipendenza delle prove la probabilità di una qualsiasi configurazione 𝑘 ed 𝑛 − 𝑘 insuccessi vale
sempre 𝒑𝒌 𝒒𝒏−𝒌.
P a g . | 79

La Variabile Aleatoria Binomiale, la quale si denota con 𝑋 ~𝐵(𝑝), è definita dalla seguente DF:

𝑛
𝑝(𝑘) = ( ) 𝑝𝑟 𝑞 𝑘 𝑑𝑜𝑣𝑒: 𝑘 ∈ 𝒳 = {0,1, … , 𝑛} 𝑒 𝑛 > 0
𝑘
𝑛
Poiché le ( ) configurazioni con 𝑘 successivi sono tutte differenti e mutuamente esclusivi, allora la
𝑘
probabilità è la somma delle probabilità di tutte le configurazioni, le quali tra l’altro sono tutte
equiprobabili fra loro con probabilità 𝑝 𝑘 𝑞 𝑛−𝑘 . Le seguenti variabili aleatoria sono dei casi particolari di
quella binomiale.

La Variabile Aleatoria di Bernouilli, la quale si denota con 𝑋 ~𝐵𝑒𝑟𝑛(𝑝), è definita dal fatto che assume
valore 1 con probabilità 𝑝 e 0 con probabilità 𝑞 = 1 − 𝑝. Allora la sua DF sarà:

𝑞 𝑠𝑒 𝑘 = 0
𝑝(𝑘) = {
𝑝 𝑠𝑒 𝑘 = 1

Una variabile aleatoria di Bernoulli si può anche interpretare come variabile aleatoria indicatrice di un
evento A che si verifica con probabilità 𝑝.

La Variabile Aleatoria Binomiale Negativa, la quale si denota



con 𝑋 ~𝑁𝐵(𝑟, 𝑝), deve il suo nome al fatto che per dimostrare la 𝑛+𝑘−1 𝑘
somma unitaria della probabilità adopera l’espansione binomiale (1 − 𝑥)−𝑛 = ∑( )𝑥
𝑘
negativa (formula di fianco). Nel nostro caso specifico: 𝑘=0

𝑛+𝑘−1 𝑟 𝑘
𝑝(𝑘) = ( )𝑝 𝑞 𝑘 ∈ 𝒳 = {0,1, . . } = 𝒩 𝑟 > 0 𝑝 ∈ [0,1] 𝑞 = 1 − 𝑝
𝑘

Allora avremo che:


∞ ∞ ∞
𝑛+𝑘−1 𝑟 𝑘 𝑛+𝑘−1 𝑘
∑ 𝑝(𝑘) = ∑ ( ) 𝑝 𝑞 = 𝑝𝑟 ∑ ( ) 𝑞 = 𝑝 𝑟 (1 − 𝑞)−𝑟 = 1
𝑘 𝑘
𝑘=0 𝑘=0 𝑘=0

8.5.2 Variabile Aleatoria di Uniforme


La Variabile Aleatoria Uniforme, la quale si denota con 𝑋 ~𝑈(𝑎, 𝑏), si denota mediate la sua PDF 𝑓(𝑥)
da cui possiamo ricavare la CDF 𝐹(𝑥) mediate integrazione:

0 𝑥 ∈] − ∞, 𝑎[
1 𝑥−𝑎
𝑓(𝑥) = {𝑏 − 𝑎 𝑥 ∈ [𝑎, 𝑏] → 𝐹(𝑥) = { 𝑥 ∈ [𝑎, 𝑏]
𝑏−𝑎
0 𝑎𝑙𝑡𝑟𝑜𝑣𝑒 1 𝑥 ∈]𝑏, ∞[

8.5.3 Variabile Aleatoria di Esponenziale


La Variabile Aleatoria Esponenziale, la quale si denota con 𝑋 ~𝐸𝑥𝑝(𝜆), si denota mediate la sua PDF
𝑓(𝑥) da cui possiamo ricavare la CDF 𝐹(𝑥) mediate integrazione:

1 𝑥≥0
𝑓(𝑥) = 𝜆𝑒 −𝜆𝑥 𝑢(𝑥) → 𝐹𝑋 (𝑥) = (1 − 𝑒 −𝜆𝑥 )𝑢(𝑥) 𝑑𝑜𝑣𝑒: 𝑢(𝑥) = { 𝑒 𝜆>0
0 𝑥<0

Osserviamo che la variabile aleatoria esponenziale monolatera è una variabile aleatoria positiva (sta
solo nel primo quadrante).
P a g . | 80

8.5.4 Variabile Aleatoria di Gaussiana


La Variabile Aleatoria Gaussiana, la quale si denota
con 𝑋 ~𝑁(𝜇, 𝜎), si denota mediate la sua PDF 𝑓(𝑥):

1 (𝑥−𝜇)2

𝑓(𝑥) = 𝑒 2𝜎2 𝑑𝑜𝑣𝑒: 𝜇, 𝜎 ∈ ℛ 𝑒 𝜎 > 0
𝜎√2𝜋

Essa ha una forma tipica di una campana centrata in 𝜇


e la cui larghezza è direttamente proporzionale al
parametro 𝜎. La CDF di questo tipo di variabile sarà:

𝑥 (𝑥−𝜇)2
1 − 𝑥−𝜇
𝐹(𝑥) = ∫ 𝑒 2𝜎2 𝑑𝑦 = 𝐺( )
−∞ 𝜎√2𝜋 𝜎

Dove effettuando un banale cambio di variabili possiamo esprimere 1 𝑥 𝑦2


𝐹(𝑥) in termini di 𝐺(𝑥): 𝐺(𝑥) ≜ ∫ 𝑒− 2 𝑑𝑦
Il caso particolare 𝜇 = 0 e 𝜎 = 1 viene definita gaussiana standard √2𝜋 −∞
(quella in figura).

Dobbiamo osservare, tuttavia, che la funzione G(x) non è comunque una funzione elementare, per cui,
per determinarne i valori, è necessario ricorrere a grafici, a tabelle o a programmi al calcolatore. Una
forma alternativa per la CDF di una variabile aleatoria gaussiana si può ottenere definendo la funzione
𝑄(𝑥) (più nota, con terminologia inglese, come “Q-function”) che rappresenta la CDF complementare di
una variabile aleatoria gaussiana standard:
+∞ 𝑦2
1
𝑄(𝑥) ≜ 1 − 𝐺(𝑥) = ∫ 𝑒− 2 𝑑𝑦
√2𝜋 𝑥
Inoltre, per ogni 𝑥 > 0 vale la seguente coppia di disuguaglianze, le quali ci dicono che al crescere di 𝑥,
visto che il rapporto fra i due limiti vale 1 − 1/𝑥 2 , esse diventano sempre più vicine e approssimano la
𝑄(𝑥) con una notevole accuratezza:

1 𝑥2 1 1 𝑥2
−2 −2
𝑒 (1 − 2 ) < 𝑄(𝑥) < 𝑒
𝑥√2𝜋 𝑥 𝑥√2𝜋

Sostituiamo allora la funzione 𝑄(𝑥) al posto di 𝐺(𝑥) nella relazione con 𝐹(𝑥):

𝑥−𝜇 𝑥−𝜇
𝐹(𝑥) = 𝐺 ( ) = 1−𝑄( )
𝜎 𝜎

La variabile aleatoria gaussiana gioca un ruolo preminente nella teoria della probabilità, principalmente
in virtù del fatto che essa rappresenta una distribuzione limite. Ciò vuol dire che la PDF gaussiana
rappresenta la distribuzione della somma di un numero elevato (al limite infinito) di variabili aleatorie
indipendenti e aventi PDF arbitrarie, a patto che il contributo di ciascuna variabile aleatoria alla somma
sia trascurabile, una situazione che si verifica spesso in pratica (si pensi alla corrente elettrica che si può
guardare come la somma dei contributi elementari di corrente dei singoli elettroni).
P a g . | 81

8.6 Trasformazione di una Variabile Aleatoria


Definizione – Trasformazione di una Variabile Aleatoria: sia 𝑋 una variabile aleatoria definita sullo
spazio di probabilità (𝛺, 𝒮, 𝑃), e 𝑔(𝑥) una funzione definita su ℛ e a valori in ℛ, tale che l’insieme di
definizione di 𝑔(𝑥) contenga il codominio 𝒳 della funzione 𝒳(𝜔). La trasformazione 𝑌 = 𝑔(𝑋) definisce
una nuova variabile aleatoria ottenuta associando a 𝜔 ∈ 𝛺 il valore 𝑌(𝜔) = 𝑔[𝑋(𝜔)] ∈ ℛ.

In sostanza la nuova variabile aleatoria 𝑌 è definita su (Ω, 𝒮, 𝑃) mediante una legge in rosso che è la
funzione composta di 𝑋 e 𝑔. La condizione richiesta sull’insieme di definizione di 𝑔(𝑥) ed il codominio
𝑋 di 𝑋(𝜔) serve semplicemente a garantire che tale funzione composta abbia un insieme di definizione
non vuoto. Tuttavia, affinché 𝑌 = 𝑔(𝑋) sia effettivamente una variabile aleatoria, è necessario che la
funzione g soddisfi qualche ulteriore condizione:
✓ {𝑌 ≤ 𝑦} deve essere un evento ∀𝑦 ∈ ℛ;
✓ 𝑃({𝑌 = +∞}) = 𝑃({𝑌 = −∞}) = 0

Visto che la trasformazione 𝑌 = 𝑔(𝑋) è a sua volta una variabile aleatoria, essa avrà una CDF, PDF e DF.
• CDF: 𝐹𝑌 (𝑦) = 𝑃(𝑌 ≤ 𝑦) = 𝑃(𝑔(𝑋) ≤ 𝑦)
• PDF: per quanto riguarda la PDF dobbiamo considerare la derivata prima 𝑔′(𝑥) della funzione 𝑔(𝑥)
e il seguente teorema:

Teorema Fondamentale sulle Trasformazioni di Variabili Aleatorie: sia 𝑋 una variabile


aleatoria avente 𝑃𝐷𝐹 𝑓𝑋 (𝑥), e si consideri la trasformazione 𝑌 = 𝑔(𝑋). La PDF di 𝑌 è data da:

0 𝑠𝑒 𝑙 ′ 𝑒𝑞𝑢𝑎𝑧𝑖𝑜𝑛𝑒 𝑦 = 𝑔(𝑥) 𝑛𝑜𝑛 𝑎𝑚𝑚𝑒𝑡𝑡𝑒 𝑠𝑜𝑙𝑢𝑧𝑖𝑜𝑛𝑖


𝑓𝑌 (𝑦) = {∑ 𝑓𝑋 (𝑥𝑖 ) 𝑑𝑜𝑣𝑒 𝑥𝑖 è 𝑢𝑛𝑎 𝑠𝑜𝑙𝑢𝑧𝑖𝑜𝑛𝑒 𝑑𝑒𝑙𝑙′ 𝑒𝑞𝑢𝑎𝑧𝑖𝑜𝑛𝑒 𝑦 = 𝑔(𝑥)
|𝑔′(𝑥𝑖 )|
𝑖

• DF: viene come al solito adoperata per le variabili aleatorie discrete, per le quali chiaramente anche
𝑌 risulterà essere discreta.
𝑝𝑌 (𝑦) = 𝑃(𝑌 = 𝑦) = ∑ 𝑃(𝑋 = 𝑥) = ∑ 𝑝𝑋 (𝑥)
𝑥∈𝒳,𝑔(𝑥)=𝑦 𝑥∈𝒳,𝑔(𝑥)=𝑦
P a g . | 82

8.7 Caratterizzazione Sintetica di una Variabile Aleatoria


Un variabile aleatoria 𝑋 è completamente caratterizzata (descritta) dalla conoscenza della CDF, PDF o
DF. Esistono però dei casi in cui risulta eccessiva tale caratterizzazione oppure è difficile da ricavare, per
cui è sufficiente conoscere solo alcuni parametri numerici della variabile aleatoria 𝑋, i quali compongono
la sua Caratterizzazione Sintetica. Essa è data dai seguenti parametri:
• Media
La media (statistica) 𝐸(𝑋) di una variabile aleatoria 𝑋 con 𝑃𝐷𝐹 𝑓(𝑥) è un +∞
numero reale ottenuto dalla seguente (se l’integrale esiste ed è finito): 𝐸(𝑋) ≜ ∫ 𝑥𝑓(𝑥)𝑑𝑥
Nel caso di una variabile aleatoria discreta dobbiamo fare delle modifiche. −∞
Anzitutto la 𝑃𝐷𝐹 𝑓(𝑥) si riduce a una somma di impulsi discreti:

𝑓(𝑥) = ∑ 𝑝𝑖 𝛿(𝑥 − 𝑥𝑖 ) = ∑ 𝑃(𝑋 = 𝑥𝑖 )𝛿(𝑥 − 𝑥𝑖 )


𝑥𝑖 ∈𝒳 𝑥𝑖 ∈𝒳
Allora la media 𝐸(𝑋) si può esprimere anziché attraverso l’integrale, mediante una sommatoria dei
valori 𝑥𝑖 ∈ 𝒳 della variabile aleatoria discreta 𝑋, ciascuno pesato per la DF 𝑝(𝑥) calcolata nei punti 𝑥𝑖 (si
tratta in particolare di una somma pesata).

+∞ +∞ +∞
𝐸(𝑋) = ∫ 𝑥𝑓(𝑥)𝑑𝑥 = ∫ 𝑥 [ ∑ 𝑝𝑖 𝛿(𝑥 − 𝑥𝑖 )] 𝑑𝑥 = ∑ 𝑝𝑖 ∫ 𝑥𝛿(𝑥 − 𝑥𝑖 )𝑑𝑥 = ∑ 𝑝𝑖 𝑥𝑖
−∞ −∞ 𝑥𝑖 ∈𝒳 𝑥𝑖 ∈𝒳 −∞ 𝑥𝑖 ∈𝒳

𝐸(𝑋) = ∑ 𝑝𝑖 𝑥𝑖 = ∑ 𝑥𝑖 𝑃(𝑋 = 𝑥𝑖 ) = ∑ 𝑥𝑖 𝑝(𝑥𝑖 )


𝑥𝑖 ∈𝒳 𝑥𝑖 ∈𝒳 𝑥𝑖 ∈𝒳

Nel caso in cui i valori 𝑥𝑖 sono equiprobabili e sono in numero finito, allora la media statistica coincide
con la media aritmetica.

Vediamo adesso di calcolare la media di una variabile aleatoria 𝑌 = 𝑔(𝑋)


ottenuta con una trasformazione della variabile aleatoria 𝑋. Applicando la +∞
definizione di media per 𝑌 si ha la relazione di fianco. Allora per 𝐸(𝑌) ≜ ∫ 𝑦𝑓(𝑦)𝑑𝑦
determinare 𝐸(𝑌), dovrei prima calcolare la PDF 𝑓𝑌 (𝑦) che si ottiene in −∞

seguito alla trasformazione di 𝑋. Tale conclusione è errata in virtù del


seguente teorema:
Teorema Fondamentale della Media: sia 𝑌 = 𝐺(𝑋) una +∞
trasformazione della variabile aleatoria 𝑋 avente 𝑃𝐷𝐹 𝐸(𝑦) = 𝐸[𝑔(𝑋)] ≜ ∫ 𝑔(𝑥)𝑓𝑋 (𝑥)𝑑𝑥
𝑓𝑋 (𝑥), allora si ha che: −∞

Come visto precedentemente in caso di una variabile 𝑋 discreta si sostituisce all’integrale la


sommatoria:
𝐸(𝑌) = 𝐸[𝑔(𝑋)] = ∑ 𝑔(𝑥𝑖 )𝑝𝑋 (𝑥𝑖 )
𝑥𝑖 ∈𝒳
Enunciamo alcune utili proprietà della media:
➢ Linearità della Media: siano 𝑔(∙) e ℎ(∙) funzioni reali, e siano a e b costanti reali. Risulta che:

𝐸[𝑎𝑔(𝑋) + 𝑏ℎ(𝑋)] = 𝑎𝐸[𝑔(𝑋)] + 𝑏𝐸[ℎ(𝑋)]

In particolare: 𝐸(𝑎𝑋 + 𝑏) = 𝑎𝐸(𝑋) + 𝑏


➢ Se 𝑔(𝑥) ≥ 0 ∀ 𝑥 → 𝐸[𝑔(𝑋)] ≥ 0
➢ Se 𝑔1 (𝑥) ≥ 𝑔2 (𝑥) ∀ 𝑥 → 𝐸[𝑔1 (𝑋)] ≥ 𝐸[𝑔2 (𝑋)]
➢ Se 𝑎 ≤ 𝑔(𝑥) ≤ 𝑏 ∀ 𝑥 → 𝑎 ≤ 𝐸[𝑔(𝑋)] ≤ 𝑏
• Varianza
P a g . | 83

La varianza 𝜎 2 = 𝑉𝑎𝑟(𝑋) di una variabile aleatoria 𝑋 con media 𝜇 = 𝐸(𝑋) è una quantità positiva, infatti
è legata alla sua radice quadrata 𝜎 = √𝑉𝑎𝑟(𝑋) anche chiamata Deviazione Standard:

+∞
𝜎 2 = 𝑉𝑎𝑟(𝑋) ≜ 𝐸[(𝑋 − 𝜇)2 ] = ∫ (𝑥 − 𝜇)2 𝑓(𝑥)𝑑𝑥
−∞

Osserviamo che dimensionalmente 𝜎 2 è omogena al quadrato della variabile aleatoria 𝑋, mentre 𝜎 ha


proprio le stesse dimensioni di 𝑋.

Come abbiamo visto la varianza non è un operato lineare bensì


quadratico, perciò nasco il problema di come calcolare la varianza di 𝑉𝑎𝑟(𝑎𝑋 + 𝑏) = 𝑎2 𝑉𝑎𝑟(𝑋)
𝑌 = 𝑎𝑋 + 𝑏. Ci viene in aiuto la seguente relazione:
Dimostrazione: partendo dal primo membro.

𝑉𝑎𝑟(𝑎𝑋 + 𝑏) = 𝐸{[𝑎𝑋 + 𝑏 − 𝐸(𝑎𝑋 + 𝑏)]2 } = 𝐸{[𝑎𝑋 + 𝑏 − 𝑎𝐸(𝑋) − 𝑏]2 }

𝐸{[𝑎𝑋 + 𝑏 − 𝐸(𝑎𝑋 + 𝑏)]2 } = 𝐸{[𝑎𝑋 − 𝑎𝐸(𝑋)]2 } = 𝑎2 𝐸[𝑋 − 𝐸(𝑋)]2 = 𝑎2 𝑉𝑎𝑟(𝑋)

Notiamo che la varianza di 𝑌 non dipende da 𝑏, infatti la varianza 𝑌 = 𝑋 + 𝑏 coincide con quella in 𝑋 per
qualunque valore della traslazione 𝑏. Tale osservazione ci permette di definire una importante proprietà
della varianza, che prende il nome di Invarianza per Traslazione. In altre parole, al variare di 𝑏
chiaramente la varianza cambia, tuttavia non cambia la sua dispersione intorno alla media. Grazie a
questa proprietà possiamo scegliere un opportuno 𝑏 in modo da semplificare il calcolo di 𝜎 2 . In
particolare, scegliendo 𝑏 = −𝜇𝑋 = −(𝑚𝑒𝑑𝑖𝑎 𝑑𝑖 𝑋), otteniamo una variabile aleatoria centrata 𝑌 = 𝑋 +
𝜇𝑋 che ha media nulla e la stessa varianza di 𝑋. Per ricavare la sua PFD basta effettuare la seguente
traslazione: 𝑓𝑌 (𝑦) = 𝑓𝑋 (𝑦 + 𝜇𝑋 )

• Valor Quadratico Medio


Il valor quadratico medio 𝐸(𝑋2 ) di una variabile aleatoria 𝑋 è:
+∞
𝐸(𝑋2 ) ≜ ∫ (𝑥 − 𝜇)2 𝑓(𝑥)𝑑𝑥
−∞

Tale formula si ottiene sviluppando algebricamente il quadrato che compare nella definizione di
varianza, dalla quale si ottiene la relazione fondamentale in grassetto di seguito:

𝜎 2 = 𝐸[(𝑋 − 𝜇)2 ] = 𝐸[𝑋2 − 2𝑋𝜇 + 𝜇2 ] = 𝐸(𝑋2 ) − 2𝜇𝐸(𝑋) + 𝜇2 = 𝐸(𝑋2 ) − 𝜇2 = 𝐸(𝑋2 ) − 𝐸2 (𝑋)

𝑉𝑎𝑟(𝑋) = 𝐸(𝑋2 ) − 𝐸2 (𝑋)

Definiamo inoltre il Valore Efficace 𝑥𝑟𝑚𝑠 ≜ √𝐸(𝑋2 ) della variabile aleatoria 𝑋.

Tutte le grandezze appena citate fanno parte di una più grande classe di grandezze che prendono il nome
di Momenti di un variabile aleatoria. Vediamo una importante relazione che mette in relazione i
momenti con la probabilità:
Disuguaglianza di Chebishev: sia 𝑋 una variabile aleatoria con media 𝜇 e varianza 𝜎 2 finite. Si ha che:

𝝈𝟐
𝑷(|𝑿 − 𝝁| ≥ 𝜺) ≤ ∀𝜺>𝟎
𝜺𝟐

In altre parole, afferma la probabilità che la variabile aleatoria 𝑋 con media 𝜇 possa assumere valori
esterni a un intervallo simmetrico rispetto a quest’ultima.
L’utilità della disuguaglianza di Chebishev non sta tanto nell’accuratezza con la quale è in grado di
fornire i valori della probabilità che la variabile aleatoria X appartenga ad un intervallo centrato intorno
P a g . | 84

alla media, ma nella sua generalità e semplicità, in quanto consente di ottenere stime di tale probabilità
senza richiedere la conoscenza esplicita della pdf o CDF della variabile aleatoria, ma solo della sua
varianza.
P a g . | 85

CAPITOLO 9: COPPIE DI VARIABILI ALEATORIA

9.1 Introduzione
Fino ad ora abbiamo studiato una singola variabile aleatoria 𝑋 e definito le funzioni CDF, PDF e DF che
la caratterizzavano e ci siamo occupati anche della sua trasformazione 𝑌 = 𝑔(𝑋), il quale è chiaramente
un legame semplice visto che è di natura deterministica (se conosce 𝑋 e la funzione 𝑔 posso determinare
𝑌). Esistono tuttavia molti casi pratici in cui è possibile due variabili aleatoria su uno stesso esperimento
di probabilità, quindi in tal caso il legame fra di esse non è deterministico. Un esempio pratico di tali
osservazioni è l’esperimento probabilistico di scegliere una persona a casa in un insieme di persone.
Supponiamo di avere una variabile aleatoria 𝑋 che corrisponde all’altezza e una variabile aleatoria 𝑌 che
corrisponde al peso. Chiaramente le due variabili sono dipendenti tra loro, ma non certamente da una
semplice relazione 𝑌 = 𝑔(𝑋), la quale non si potrebbe costruire neanche sapendo tutti i parametri
possibili che influenzano altezza e peso (costituzione fisica, sesso, ecc.). Motivo per cui, essendo non
deterministico il legame tra 𝑋 e 𝑌 possiamo solo fare una approssimazione la legge di probabilità. Per
esempio, possiamo supporre che tutte le persone di altezza compresa fra 1.80 e 190 pesi intorno ai 70-
80 kg.

9.2 Funzione di Distribuzione Cumulativa


La Funzione di Distribuzione Cumulativa (CDF Congiunta) di due variabili aleatoria 𝑋 e 𝑌 costruite
sullo stesso spazio di probabilità (Ω, 𝒮, 𝑃) è la seguente:

𝐹𝑋𝑌 (𝑥, 𝑦) ≜ 𝑃(𝑋 ≤ 𝑥, 𝑌 ≤ 𝑦) ∀(𝑥, 𝑦) ∈ 𝑅̅ × 𝑅̅

Questa definizione risulta una necessità in quanto se abbiamo la situazione descritta in questa
definizione, singolarmente le CDF di 𝑋 e 𝑌 sono:

𝐹𝑋 (𝑥) = 𝑃(𝑋 ≤ 𝑥) 𝐹𝑌 (𝑦) = 𝑃(𝑌 ≤ 𝑦)

Ma non sappiamo calcolare la probabilità di eventi del tipo:

{𝑋 ≤ 𝑥} ∩ {𝑌 ≤ 𝑦}

Cioè eventi che sul piano (𝑋, 𝑌) si trovano nella regione in grigio delimitata
dalle rette di equazioni 𝑋 = 𝑥 e 𝑌 = 𝑦. Tale considerazione porta
naturalmente all’introduzione di una misura della probabilità congiunta
degli eventi sopracitati e da qui l’introduzione della CDF congiunta. Essa è chiaramente una funzione
reali di due variabili reali a valori [0,1] (nel caso della probabilità) e quindi a volte un po' complessa da
manipolare matematica. In seguito, utilizzeremo sia la notazione completa 𝐹𝑋𝑌 (𝑥, 𝑦) e a volte quella
semplificata 𝐹(𝑥, 𝑦). Elenchiamo adesso alcune proprietà della CDF congiunta:
➢ Proprietà 1:
𝐹(−∞, 𝑦) = 0 𝐹(𝑥, −∞) = 0 𝐹(+∞, +∞) = 1
➢ Proprietà 2:
𝑃(𝑥1 < 𝑋 < 𝑥2 , 𝑌 ≤ 𝑦) = 𝐹(𝑥2 , 𝑦) − 𝐹(𝑥1 , 𝑦)
𝑃(𝑋 ≤ 𝑥, 𝑦1 < 𝑌 < 𝑦2 ) = 𝐹(𝑥, 𝑦2 ) − 𝐹(𝑥, 𝑦1 )
➢ Proprietà 3:
𝑃(𝑥1 < 𝑋 < 𝑥2 , 𝑦1 < 𝑌 < 𝑦2 ) = 𝐹(𝑥2 , 𝑦2 ) − 𝐹(𝑥1 , 𝑦2 ) − 𝐹(𝑥2 , 𝑦1 ) + 𝐹(𝑥1 , 𝑦1 )
P a g . | 86

9.3 Funzione di Densità di Probabilità


La Funzione di Densità di Probabilità (PDF Congiunta) di due variabili aleatoria 𝑋 e 𝑌, costruite sullo
stesso spazio di probabilità (Ω, 𝒮, 𝑃) e CDF congiunta 𝐹𝑋𝑌 (𝑥, 𝑦), è la seguente:

𝜕2
𝑓𝑋𝑌 (𝑥, 𝑦) ≜ 𝐹 (𝑥, 𝑦)
𝜕𝑥𝜕𝑦 𝑋𝑌

Nella definizione vediamo la presenza di una derivata mista e poiché la PDF è unica, essa soddisferà le
condizioni idi Schwartz e quindi è indifferente fare la derivata di x rispetto a y o viceversa. In seguito,
utilizzeremo sia la notazione completa 𝑓𝑋𝑌 (𝑥, 𝑦) e a volte quella semplificata 𝑓(𝑥, 𝑦). Chiaramente se la
PDF congiunta è la derivata della CDF congiunta, allora vuol dire che mediante l’operazione di
integrazione della prima possiamo ricavare la seconda:
𝑥 𝑦
𝐹(𝑥, 𝑦) = ∫ ∫ 𝑓(𝑢, 𝑣)𝑑𝑢𝑑𝑣
−∞ −∞

Dimostrazione: integrando primo e secondo membro della definizione in rosso.


𝑥 𝑦 𝑥 𝑦 𝑥 𝑦
𝜕2 𝜕2
∫ ∫ 𝑓(𝑢, 𝑣)𝑑𝑢𝑑𝑣 = ∫ ∫ 𝐹(𝑢, 𝑣)𝑑𝑢𝑑𝑣 = ∫ [∫ 𝐹(𝑢, 𝑣)𝑑𝑣 ] 𝑑𝑢
−∞ −∞ −∞ −∞ 𝜕𝑥𝜕𝑦 −∞ −∞ 𝜕𝑥𝜕𝑦

𝑥 𝑦 𝑥 𝑥
𝜕 𝜕
∫ ∫ 𝑓(𝑢, 𝑣)𝑑𝑢𝑑𝑣 = ∫ [𝐹(𝑢, 𝑣)]𝑣=𝑦
𝑣=−∞ 𝑑𝑢 = ∫ [𝐹(𝑢, 𝑦) − 𝐹(𝑢, −∞)]𝑑𝑢
−∞ −∞ −∞ 𝜕𝑢 −∞ 𝜕𝑢

𝑥 𝑦 𝑥 𝑥
𝜕 𝜕
∫ ∫ 𝑓(𝑢, 𝑣)𝑑𝑢𝑑𝑣 = ∫ [𝐹(𝑢, 𝑦) − 𝐹(𝑢, −∞)]𝑑𝑢 = ∫ [𝐹(𝑢, 𝑦) − 0]𝑑𝑢
−∞ −∞ −∞ 𝜕𝑢 −∞ 𝜕𝑢

𝑥 𝑦
∫ ∫ 𝑓(𝑢, 𝑣)𝑑𝑢𝑑𝑣 = [𝐹(𝑢, 𝑦]𝑢=𝑥
𝑢=−∞ = [𝐹(𝑥, 𝑦) − 𝐹(𝑥, −∞)] = 𝐹(𝑥, 𝑦)
−∞ −∞

Nel caso particolare 𝑥 = 𝑦 = ∞ abbiamo la Condizione di +∞ +∞


Normalizzazione della PDF (ricordiamo che 𝐹(+∞, +∞) = 1), la ∫ ∫ 𝑓(𝑢, 𝑣)𝑑𝑢𝑑𝑣 = 1
quale ci dice mediate la relazione di seguito che la superfice di −∞ −∞
equazione 𝑧 = 𝑓(𝑥, 𝑦) ed il piano 𝑧 = 0 è unitario:
In definitiva, la PDF congiunta può essere interpretata mediate la relazione, la quale ci dice che la
funzione 𝑓(𝑥, 𝑦) rappresenta la probabilità che la coppia (𝑋, 𝑌) appartenga al quadrato infinitesimo di
area 𝑑𝑥, 𝑑𝑦:
𝒇(𝒙, 𝒚)𝒅𝒙𝒅𝒚 = 𝑷(𝒙 < 𝑿 ≤ 𝒙 + 𝒅𝒙, 𝒚 < 𝒀 ≤ 𝒚 + 𝒅𝒚)
P a g . | 87

In generale, se D è un qualsiasi dominio di ℛ 2 , posso vederlo come la sovrapposizione di rettangoli


infinitesimi e quindi possiamo affermare (mediate la seguente relazione) che integrando la PDF
congiunta sul dominio D ottengo la probabilità che la coppia di variabili aleatoria (𝑋, 𝑌) appartengono
ad esso:
𝑃[(𝑋, 𝑌) ∈ 𝐷] = ∬ 𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦
𝐷
Il problema chiaramente di questa formula, seppur molto semplice concettualmente, è il calcolo
dell’integrale doppio soprattutto nel caso in D sia un dominio di forma articolata.

9.4 Funzione di Distribuzione di Probabilità


La Funzione di Distribuzione di Probabilità (DF Congiunta) di due variabili aleatoria 𝑋 e 𝑌, costruite
sullo stesso spazio di probabilità (Ω, 𝒮, 𝑃), CDF congiunta 𝐹𝑋𝑌 (𝑥, 𝑦) e PDF congiunta 𝑓𝑋𝑌 (𝑥, 𝑦), è la
seguente:
𝑝𝑋𝑌 (𝑥, 𝑦) = 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) 𝑑𝑜𝑣𝑒 (𝑥, 𝑦) ∈ 𝑋 × 𝑌

La DF congiunta viene adoperata quando 𝑋 e 𝑌 sono discrete, anche se per caratterizzarle


statisticamente sono in ogni caso necessarie tutte e tre le funzioni.

9.5 Statistiche Congiunte e Marginali


Si definiscono Statistiche Congiunte della coppia di variabili aleatorie (𝑋. 𝑌) le CDF, PDF e DF
congiunte, mentre si definiscono Statistiche Marginali quelle delle singole variabili. Abbiamo visto che
non è possibile ricavare le statistiche congiunte a partire da quelle marginali, tuttavia è possibile il
contrario mediante le seguenti relazioni:
𝑃𝐷𝐹: 𝐷𝐹:
+∞
𝐶𝐷𝐹: 𝑓𝑋 (𝑥) = ∫ 𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑦 𝑝𝑋 (𝑥) = ∑ 𝑝𝑋𝑌 (𝑥, 𝑦)
𝐹𝑋 (𝑥) = 𝐹𝑋𝑌 (𝑥, +∞) −∞ 𝑦∈𝑌
𝐹𝑌 (𝑦) = 𝐹𝑋𝑌 (+∞, 𝑦) +∞
𝑓𝑌 (𝑦) = ∫ 𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥 𝑝𝑌 (𝑦) = ∑ 𝑝𝑋𝑌 (𝑥, 𝑦)
−∞ 𝑥∈𝑋

Un esempio di applicazione di queste relazioni è il caso di una coppia di variabili gaussiane (𝑋, 𝑌), le
quali indicano più precisamente con la notazione: (𝑋, 𝑌)~𝑁(𝜇𝑋 , 𝜇𝑌 𝜎𝑋 , 𝜎𝑌 , 𝜌)
La PDF congiunta è definita dalla seguente equazioni e dal tipico andamento a campana (nel disegno 3D
di seguito) presente anche nel caso bidimensionale:

1 (𝑥−𝜇𝑋 )2 (𝑥−𝜇𝑋 )(𝑦−𝜇𝑌 ) (𝑦−𝜇𝑌 )2


1 −
2(1−𝜌 2 )
[
𝜎𝑋2
−2𝜌 𝜎𝑋 𝜎𝑌 +
𝜎𝑌2
]
𝑓𝑋𝑌 (𝑥, 𝑦) = 𝑒
2𝜋𝜎𝑋 𝜎𝑦 √1 − 𝜌 2

Osserviamo che le curve di livello della funzione 𝑓𝑋𝑌 (𝑥, 𝑦), cioè
le curve ottenuto dall’intersezione della superficie della
campana con i piani orizzontali di equazione 𝑧 = 𝑐𝑜𝑠𝑡𝑎𝑛𝑡𝑒 (in
parole povere le linee sulla campana), sono ellissi definite dalla
seguente equazioni e rappresentate nel grafico di fianco.

(𝑥 − 𝜇𝑋 )2 (𝑥 − 𝜇𝑋 )(𝑦 − 𝜇𝑌 ) (𝑦 − 𝜇𝑌 )2
− 2𝜌 + = 𝑐𝑜𝑠𝑡𝑎𝑛𝑡𝑒
𝜎𝑋2 𝜎𝑋 𝜎𝑌 𝜎𝑌2

Gli assi maggiori e minori di tali ellissi sono inclinati rispetto


all’asse 𝑥 di due angoli 𝑎1 e 𝑎2 e si ottengono dalla equazione
trigonometrica:
2𝜌𝜎𝑋 𝜎𝑌
tan(2𝑎) = 2
𝜎𝑋 − 𝜎𝑌2
P a g . | 88

Notiamo che la PDF congiunti ci


coppie di variabili aleatoria gaussiane
dipende da cinque parametri:
- 𝜇𝑋 , 𝜇𝑌 che possono assumere
valori arbitrari;
- 𝜎𝑋 , 𝜎𝑌 che sono sempre positivi e
influenzano l’estensione della
campana;
- 𝜌 che influenza la strettezza delle
elissi sopracitate ed è tale che
|𝜌| ≤ 1, anche se il caso |𝜌| = 1
comporta una degenerazione
delle ellissi in segmenti e quindi
per ora lo evitiamo.
Ricordiamo che dalle statistiche
congiunte possiamo ricavare quelle
marginali, tuttavia risolvere un
integrale con una funzione integranda 𝑓𝑋𝑌 (𝑥, 𝑦) come l’abbiamo scritta prima sarebbe troppo
complesso. Motivo per cui dobbiamo manipolarla per semplificarla.

1 (𝑥−𝜇𝑋 )2 (𝑥−𝜇𝑋 )(𝑦−𝜇𝑌 ) (𝑦−𝜇𝑌 )2


1 −
2(1−𝜌 2 )
[
𝜎𝑋2
−2𝜌
𝜎𝑋 𝜎𝑌
+
𝜎𝑌2
]
𝑓𝑋𝑌 (𝑥, 𝑦) = 𝑒
2𝜋𝜎𝑋 𝜎𝑦 √1 − 𝜌 2

1 (𝑥−𝜇𝑋 )2 1 (𝑦−𝜇𝑌 )2 (𝑥−𝜇𝑋 )(𝑦−𝜇𝑌 )


1 −
2(1−𝜌 2 )

𝜎𝑋2

2(1−𝜌 2 )
[
𝜎𝑌2
−2𝜌 𝜎𝑋 𝜎𝑌 ]
𝑓𝑋𝑌 (𝑥, 𝑦) = 𝑒 𝑒
2𝜋𝜎𝑋 𝜎𝑦 √1 − 𝜌 2

Aggiungiamo e sottraiamo la quantità [𝜌 2 (𝑥 − 𝜇𝑋 )2 ]/𝜎𝑋2 nell’argomento del secondo esponenziale, così


da far comparire un quadrato perfetto. Dopo alcune manipolazioni algebriche arriviamo alla forma:

(𝑥−𝜇𝑋 )2 1 𝜎 2
1 − 1 − [ 𝑦−𝜇𝑌 −𝜌 𝑌 (𝑥−𝜇𝑋 )]
𝑓𝑋𝑌 (𝑥, 𝑦) = [ 𝑒 2 𝜎𝑋2 ] [ 𝑒 2𝜎𝑌2 (1−𝜌2 ) 𝜎𝑋
]
𝜎𝑋 √2𝜋 𝜎𝑌 √1 − 𝜌 2√2𝜋

Osserviamo che:
• La prima parentesi quadra, per un fissato valore di 𝑦, è la PDF di una variabile aleatoria
gaussiana 𝑋~𝑁(𝜇𝑋 , 𝜎𝑋 );
• La seconda parentesi quadra, per un fissato valore di 𝑥, è la PDF di una variabile aleatoria
𝜎
gaussiana 𝑌~𝑁 (𝜇𝑌 + 𝜌 𝑌 (𝑥 − 𝜇𝑋 ), 𝜎𝑌 √1 − 𝜌2 ) = 𝑁(𝑚𝑒𝑑𝑖𝑎, 𝑑𝑒𝑣𝑖𝑎𝑧𝑖𝑜𝑛𝑒 𝑠𝑡𝑎𝑛𝑑𝑎𝑟𝑑).
𝜎𝑋
Se adesso integriamo la 𝑓𝑋𝑌 (𝑥, 𝑦) rispetto ad 𝑦 otteniamo la PDF marginale 𝑓𝑋 (𝑥), per cui il secondo
fattore (essendo una PDF per ogni valore di 𝑥) ha integrale rispetto a 𝑦 unitario. In maniera del tutto
simmetrica se lo facciamo rispetto ad 𝑥 otteniamo la PDF marginale 𝑓𝑌 (𝑦). Allora così ricaveremo la PDF
delle nostre variabili aleatorie 𝑋 e 𝑌 Marginalmente Gaussiane:

+∞ (𝑥−𝜇𝑋 )2 +∞ (𝑦−𝜇𝑌 )2
1 −
2 𝜎𝑋2
1 −
2 𝜎𝑌2
𝑓𝑋 (𝑥) = ∫ 𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑦 = 𝑒 𝑓𝑌 (𝑥) = ∫ 𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥 = 𝑒
−∞ 𝜎𝑋 √2𝜋 −∞ 𝜎𝑌 √2𝜋

In conclusione, se (𝑋, 𝑌)~𝑁(𝜇𝑋 , 𝜇𝑌 𝜎𝑋 , 𝜎𝑌 , 𝜌) sono congiuntamente gaussiane allora 𝑋 e 𝑌 saranno


marginalmente gaussiane. Il viceversa, tuttavia, non è sempre vero infatti è possibile costruire variabili
aleatoria che sono marginalmente gaussiane ma che congiuntamente non lo sono.
P a g . | 89

9.6 Coppie di Variabili Aleatorie Indipendenti


Due variabili aleatorie 𝑋 e 𝑌 si dicono Indipendenti se la loro CDF congiunta 𝐹𝑋𝑌 è data dal semplice
prodotto delle CDF marginali: 𝐹𝑋𝑌 (𝑥, 𝑦) = 𝐹𝑋 (𝑥)𝐹𝑌 (𝑦)
In maniera del tutto analoga a quanto visto per la probabilità congiunta: 𝑃(𝐴𝐵) = 𝑃(𝐴)𝑃(𝐵)
Nel caso tempo di variabili discreto, la definizione di indipendenza in termini di probabilità si può
esprimere nel seguente modo: 𝑃(𝑋 = 𝑥, 𝑌 = 𝑦) = 𝑃(𝑋 = 𝑥)𝑃(𝑌 = 𝑦)
Le medesime considerazioni valgono anche per la DF: 𝑝𝑋𝑌 (𝑥, 𝑦) = 𝑝𝑋 (𝑥)𝑝𝑌 (𝑦)
Enunciamo alcune proprietà delle variabili aleatorie indipendenti:
➢ Se X e Y sono indipendenti allora la PDF congiunta sarà il prodotto delle PDF marginali e per
dimostrare tale proprietà basta derivare la definizione in rosso: 𝑓𝑋𝑌 (𝑥, 𝑦) = 𝑓𝑋 (𝑥)𝑓𝑌 (𝑦)
➢ Se X e Y sono indipendenti allora gli eventi {𝑋 ∈ 𝐼1 } e {𝑌 ∈ 𝐼2 } sono indipendenti ∀ 𝐼1 , 𝐼2 ∈ ℛ.
Dimostrazione:

𝑃(𝑋 ∈ 𝐼1 , 𝑌 ∈ 𝐼2 ) = ∬ 𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦 = ∫ 𝑓𝑋 (𝑥)𝑑𝑥 ∫ 𝑓𝑌 (𝑦)𝑑𝑦 = 𝑃(𝑋 ∈ 𝐼1 )𝑃(𝑌 ∈ 𝐼2 )


𝐼1 ×𝐼2 𝐼1 𝐼2

➢ Se X e Y sono indipendenti allora le variabili aleatoria 𝑍 = 𝑔(𝑋) e 𝑊 = ℎ(𝑦) sono indipendenti;


Dimostrazione:
𝐹𝑍𝑊 (𝑧, 𝑤) = 𝑃(𝑍 ≤ 𝑧, 𝑊 ≤ 𝑤) = 𝑃(𝑋 ∈ 𝑅𝑧 , 𝑌 ∈ 𝑅𝑊 )

Dove 𝑅𝑍 = {𝑥 ∈ ℛ ∶ 𝑔(𝑥) ≤ 𝑧} e 𝑅𝑊 = {𝑦 ∈ ℛ ∶ ℎ(𝑦) ≤ 𝑤}. Grazie alla precedente proprietà


dimostriamo l’indipendente di 𝑋 e 𝑌:

𝐹𝑍𝑊 (𝑧, 𝑤) = 𝑃(𝑋 ∈ 𝑅𝑍 )𝑃(𝑌 ∈ 𝑅𝑊 ) = 𝑃(𝑍 ≤ 𝑧)𝑃(𝑊 ≤ 𝑤) = 𝐹𝑍 (𝑧)𝐹𝑊 (𝑤)

Osserviamo che se le variabili aleatorie sono costruite su uno spazio di probabilità prodotto Ω1 × Ω2 , e
in maniera tale che:
𝑋[(𝜔1, 𝜔2)] = 𝑋(𝜔1), 𝑌[(𝜔1, 𝜔2)] = 𝑌(𝜔2)

Allora, se gli esperimenti Ω1 ed Ω2 sono indipendenti, anche le variabili aleatorie X ed Y sono


indipendenti.
P a g . | 90

9.7 Media e Momenti Congiunti di Coppie di Variabili Aleatorie


Nei paragrafi precedenti abbiamo definito la caratterizzazione sintetica di una variabile aleatoria 𝑋
come una serie di grandezze, chiamate momenti, che approssimano la nostra variabile in maniera più
semplice e approssimativa rispetto alla CDF, PDF e DF. I momenti di maggior rilievo ricordiamo essere
la media, la varianza e il valor quadratico medio. In questo capitolo, vogliamo estendere le definizioni
dei tre momenti appena citati al caso di coppie (𝑋, 𝑌) di variabili aleatorie, così da poter fornire una
caratterizzazione sintetica anche in questa casistica. Definiremo perciò i Momenti Congiunti come i
momenti associati a una coppia di variabili aleatorie. La motivazione che ci spinge a riprendere
nuovamente la caratterizzazione sintetica è la semplificazione dei calcoli rispetti a quelli che avremmo
nel caso della CDF, PDF e DF congiunta (in pratica a causa degli integrali doppi).

• Media
Il primo passo da fare è estendere il teorema fondamentale della media.
Teorema Fondamentale della Media per una Coppia di Variabili Aleatorie: sia 𝑍 = 𝑔(𝑋, 𝑌) una
trasformazione della coppia di variabili aleatorie (𝑋, 𝑌) aventi PDF congiunta 𝑓𝑋𝑌 (𝑥, 𝑦). Si ha che:
+∞ +∞
𝐸(𝑍) = 𝐸[𝑔(𝑋, 𝑌)] = ∫ ∫ 𝑔(𝑥, 𝑦)𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦
−∞ −∞
Tale definizione è ottenuta banalmente partendo dal concetto di media per la singola variabile aleatoria
𝑍, la quale sappiamo essere:
+∞
𝑍 = 𝑔(𝑋, 𝑌)
𝐸(𝑍) = ∫ 𝑧𝑓𝑍 (𝑧)𝑑𝑧 𝑑𝑜𝑣𝑒:
−∞
𝑧 = 𝑔(𝑥, 𝑦)
Nel caso in cui le due variabili siano discrete, il teorema precedente si esprime in termini di DF:

𝐸(𝑍) = 𝐸[𝑔(𝑋, 𝑌)] = ∑ 𝑔(𝑥, 𝑦)𝑝𝑋𝑌 (𝑥, 𝑦)


𝑥∈𝑋 𝑦∈𝑌
La media ricordiamo presenta l’importante proprietà della Linearità, la quale vale sia nel caso 𝑋 e 𝑌
indipendenti o meno:
𝐸[𝑎1 𝑔1 (𝑋, 𝑌) + 𝑎2 𝑔2 (𝑋, 𝑌)] = 𝑎1 𝐸[𝑔1 (𝑋, 𝑌)] + 𝑎2 𝐸[𝑔2 (𝑋, 𝑌)]

Se si sceglie 𝑔1 (𝑋, 𝑌) = 𝑋 e 𝑔2 (𝑋, 𝑌) = 𝑌: 𝐸[𝑎1 𝑋 + 𝑎2 𝑌] = 𝑎1 𝐸[𝑋] + 𝑎2 𝐸[𝑌]

• Correlazione
La correlazione di una coppia di variabili aleatorie (𝑋, 𝑌) è il momento congiunto 𝜇11 di ordine 𝑛 = 2:
+∞ +∞
𝐶𝑜𝑟𝑟(𝑋, 𝑌) ≜ 𝜇11 = 𝐸(𝑋𝑌) = ∫ ∫ 𝑥𝑦𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦
−∞ −∞

La correlazione è una grandezza che può essere interpretata sotto due punti di vista:
Interpretazione Analitica: se calcoliamo il valor quadratico medio della somma di due variabili
aleatorie, quindi 𝐸[(𝑋 + 𝑌)2 ], otteniamo la seguente relazione. Visto che la correlazione (terzo
fattore a secondo membro) può assumere qualsiasi segno o essere nulla, il valor quadratico medio
in questione può essere maggiore, minore o uguale alla somma dei valor quadratici medi delle
singole variabili: 𝐸[(𝑋 + 𝑌)2 ] = 𝐸(𝑋2 ) + 𝐸(𝑌 2 ) + 2𝐸(𝑋𝑌)
Interpretazione Geometrica: si può interpretare come prodotto scalare tra 𝑋 e 𝑌, pertanto richiede
l’introduzione del concetto di spazi vettoriali di variabili aleatorie.

L’idea è quella di interpretare le variabili aleatorie come vettori appartenenti ad un opportuno spazio
vettoriale. Osserviamo preliminarmente che, affinché si possa parlare legittimamente di vettori, è
necessario che siano definite ed abbiano senso l’operazione di somma di due vettori e l’operazione di
prodotto di un vettore per uno scalare. Ma tali operazioni corrispondono alla somma X + Y di due
variabili aleatorie ed al prodotto a X di una variabile aleatoria per una costante reale, per cui sono
P a g . | 91

perfettamente definite. Una volta assimilate le variabili aleatorie a vettori, è possibile introdurre una
serie di concetti geometrici di grande importanza. In particolare, sui vettori appartenenti a questo
spazio vettoriale, è possibile definire, con diretta interpretazione geometrica:
- Norma: ||𝑋|| ≜ √𝐸(𝑋2 )
- Distanza: 𝑑(𝑋, 𝑌) ≜ ||𝑋 − 𝑌|| = √𝐸[(𝑋 − 𝑌)2 ]
- Prodotto Scalare: < 𝑋, 𝑌 >≜ 𝐸(𝑋𝑌)
Osserviamo, in particolare, che la norma coincide con il valore efficace (e quindi la norma al quadrato
coincide con il valore quadratico medio 𝐸(𝑋2 )), mentre il prodotto scalare coincide proprio con la
correlazione tra le variabili aleatorie X ed Y.

Di particolare importanza in uno spazio vettoriale dotato di prodotto scalare è il seguente teorema.

Teorema – Disuguaglianza di Schwartz: in uno spazio vettoriale di variabili aleatorie dotato di


prodotto scalare, vale la seguente disuguaglianza: |𝐸(𝑋𝑌)| ≤ √𝐸(𝑋2 )√𝐸(𝑌 2 )
Con uguaglianza se e solo se 𝑌 = 𝑎𝑋 (in media quadratica).

La disuguaglianza di Schwartz afferma che, in valore assoluto, la correlazione non può eccedere il
prodotto dei valori efficaci delle due variabili aleatorie X e Y. Inoltre, essa consente anche di riesprimere
il prodotto scalare, e quindi la correlazione, come: < 𝑋, 𝑌 >= ||𝑋|||𝑌||cos (𝜃)
Dove 𝜃 è l’angolo (compreso tra 0e 2π) formato dai due vettori. Allora se:
𝜃 = 0: il prodotto scalare è massimo e i vettori hanno verso concorde;
𝜃 = 𝜋: il prodotto scalare è massimo e i vettori hanno verso discorde;
𝜃 = 𝜋⁄2 𝑜𝑝𝑝𝑢𝑟𝑒 𝜃 = 3𝜋/2: il prodotto scalare è nullo e i vettori sono ortogonali.
Definizione – Ortogonalità: due variabili aleatorie 𝑋 e 𝑌 si dicono ortogonali (𝑋 ⊥ 𝑌) se e solo se la loro
correlazione è nulla: 𝐸(𝑋𝑌) = 0

• Covarianza
La covarianza di una coppia di variabile aleatorie (𝑋, 𝑌) è il momento congiunto centrale 𝜎11 di ordine
𝑛 = 2:
+∞ +∞
𝐶𝑜𝑣(𝑋, 𝑌) ≜ 𝐸[(𝑋 − 𝜇𝑋 )(𝑌 − 𝜇𝑌 )] = ∫ ∫ (𝑥 − 𝜇𝑋 )(𝑦 − 𝜇𝑌 )𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦
−∞ −∞
Sviluppando la media presente in questa definizione otteniamo una semplice relazione fra quest’ultima
e la covarianza stessa:
𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸(𝑋𝑌) − 𝐸(𝑋)𝐸(𝑌) = 𝐶𝑜𝑟𝑟(𝑋, 𝑌) − 𝜇𝑋 𝜇𝑌

La covarianza è una grandezza che può essere interpretata sotto due punti di vista:
Interpretazione Analitica: se calcoliamo la varianza della somma di due variabili aleatorie, quindi
𝑉𝑎𝑟(𝑋 + 𝑌), otteniamo la seguente relazione. Visto che covarianza (terzo fattore a secondo
membro) può assumere qualsiasi segno o essere nulla, la varianza in questione può essere maggiore,
minore o uguale alla somma delle varianze delle singole variabili:

𝑉𝑎𝑟(𝑋 + 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌) + 2𝐶𝑜𝑣(𝑋, 𝑌)

Interpretazione Geometrica: si può interpretare come prodotto scalare tra le variabili aleatorie
centrate 𝑋 − 𝜇𝑋 e 𝑌 − 𝜇𝑌 . Essendo la covarianza un prodotto scalare, la disuguaglianza di Schwartz
si può applicare anche ad essa, ed assume la seguente forma. Tale relazione ci dice che |𝐶𝑜𝑣(𝑋, 𝑌)|
non può essere maggiore del prodotto delle deviazioni standard delle due variabili aleatorie X ed Y:

|𝐶𝑜𝑣(𝑋, 𝑌)| ≤ √𝐸[(𝑋 − 𝜇𝑋 )2 ]√𝐸[(𝑌 − 𝜇𝑌 )2 ] = 𝜎𝑋 𝜎𝑌


Dove l’uguaglianza avviene se e solo se 𝑌 − 𝜇𝑌 = 𝑎(𝑋 − 𝜇𝑋 ) e quindi 𝑋 e 𝑌 sono legati da una
dipendenza lineare esatta (𝑌 = 𝑎𝑋 + 𝑏 con 𝑏 = 𝜇𝑌 − 𝑎𝜇𝑋 ). Inoltre, essa consente di affermare che la
covarianza misura la dipendenza lineare tra due variabili aleatorie, in quanto è massima in modulo
se le due variabili aleatorie sono legate da una relazione lineare. In particolare, se 𝑋 − 𝜇𝑋 e 𝑌 − 𝜇𝑌
hanno:
P a g . | 92

A. Covarianza Positiva: allora le due variabili sono positivamente correlate, ciò vuol dire che se
abbiamo scostamenti (rispetto alla media) 𝑋 − µ𝑋 positivi corrispondono in media scostamenti
𝑌 − µ𝑌 positivi. Esempio: altezza e peso sono positivamente correlate perché se aumenta la
prima aumenta anche la seconda e viceversa;
B. Covarianza Negativa: allora le due variabili sono negativamente correlate, ciò vuol dire che se
abbiamo scostamenti (rispetto alla media) 𝑋 − µ𝑋 positivi corrispondono in media scostamenti
𝑌 − µ𝑌 negativi. Esempio: numero di sigarette giornaliere e speranza di vita sono
negativamente correlate perché se aumenta la prima diminuisce la seconda e viceversa

• Coefficiente di Correlazione 𝐶𝑜𝑣(𝑋, 𝑌)


Il coefficiente di correlazione 𝜌𝑋𝑌 di una coppia di variabile aleatorie (𝑋, 𝑌) è una 𝜌𝑋𝑌 ≜
𝜎𝑋 𝜎𝑌
misura relativa della dipendenza lineare (la covarianza è una misura assoluta) e
si ottiene normalizzando quest’ultima al suo valore massimo (in modulo) 𝜎𝑋 𝜎𝑌 :
In particolare, il coefficiente di correlazione è una quantità sempre minore o uguale a uno in modulo,
dove l’uguaglianza si ha se e solo se 𝑋 ed 𝑌 presentano una dipendenza lineare esatta (𝑌 = 𝑎𝑋 + 𝑏 quasi
ovunque o almeno in media quadratica): |𝜌𝑋𝑌 | ≤ 1

• Incorrelazione
Due variabili aleatorie 𝑋 e 𝑌 di dicono incorrelate se 𝐶𝑜𝑣(𝑋, 𝑌) = 0 o equivalentemente 𝜌𝑋𝑌 = 0.

Abbiamo visto che la covarianza e il coefficiente di correlazione misurano la dipendenza lineare tra due
variabili aleatorie. In particolare, il secondo risulta essere più facile da interpretare essendo stato
normalizzato. Inoltre, abbiamo visto che il caso in cui entrambe le grandezze abbiano valore unitario
implica una dipendenza lineare esatta tra 𝑋 e 𝑌. Il caso opposto, quindi sia covarianza che 𝜌𝑋𝑌 sono nulli,
viene chiamata incorrelazione. Vediamo alcune proprietà dell’incorrelazione
➢ Proprietà 1 - Fattorizzazione della Correlazione: grazie alla relazione tra covarianza e
correlazione (relazione di sinistra), la condizione di incorrelazione consente di affermare che la
media del prodotto tra 𝑋 e 𝑌 è uguale al prodotto delle medie delle due variabili:

𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸(𝑋𝑌) − 𝐸(𝑋)𝐸(𝑌) = 𝐶𝑜𝑟𝑟(𝑋, 𝑌) − 𝜇𝑋 𝜇𝑌 = 0 → 𝐸(𝑋𝑌) = 𝐸(𝑋)𝐸(𝑌)


Ricordando che la relazione di indipendenza di due variabili aleatoria è rappresentata dalla
fattorizzazione della PDF congiunta, dobbiamo collegate le due fattorizzazioni mediate il seguente
teorema:
Teorema – Relazione tra Incorrelazione e Indipendenza: se 𝑋 e 𝑌 sono due variabili aleatorie
indipedenti, allora esso sono anche incorrelate.
Dimostrazione: scriviamo esplicitamente 𝐸(𝑋𝑌) e ricordiamo che essendo indipendenti, la
PDF congiunta 𝑓𝑋𝑌 (𝑥, 𝑦) = 𝑓𝑋 (𝑥)𝑓𝑌 (𝑦):
+∞ +∞ +∞ +∞
𝐸(𝑋𝑌) = ∫ ∫ 𝑥𝑦𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦 = ∫ ∫ 𝑥𝑦𝑓𝑋 (𝑥)𝑓𝑌 (𝑦)𝑑𝑥𝑑𝑦
−∞ −∞ −∞ −∞

+∞ +∞
𝐸(𝑋𝑌) = [∫ 𝑥𝑓𝑋 (𝑥)𝑑𝑥 ] [∫ 𝑦𝑓𝑌 (𝑦)𝑑𝑦] = 𝐸(𝑋)𝐸(𝑌)
−∞ −∞

Tuttavia, il viceversa non è vero, quindi l’incorrelazione non implica l’indipendenza. Questo perché
se si fattorizzano le medie (gli integrali), non è detto che si fattorizzino anche le PDF (funzione
integrande). Una eccezione a tale regola si ha nel caso stiamo parlando di variabili aleatorie
gaussiane.
Osserviamo che se 𝑋 e 𝑌 sono indipendenti e correlate, quindi posiamo fattorizzarne le medie, allora
anche le trasformazioni 𝑍 = 𝑔(𝑋) e 𝑊 = ℎ(𝑌) sono indipendenti e correlate:

𝐸[𝑔(𝑋)𝑔(𝑌)] = 𝐸[𝑔(𝑋)]𝐸[ℎ(𝑌)]
P a g . | 93

➢ Proprietà 2: la varianza della loro somma è uguale alla somma delle singole varianze. Tale risultato
si ottiene banalmente dalla relazione di sinistra, nella quale essendo le due variabili incorrrelate,
risulta che 𝐶𝑜𝑣(𝑋, 𝑌) = 0:

𝑉𝑎𝑟(𝑋 + 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌) + 2𝐶𝑜𝑣(𝑋, 𝑌) → 𝑉𝑎𝑟(𝑋 + 𝑌) = 𝑉𝑎𝑟(𝑋) + 𝑉𝑎𝑟(𝑌)

Infine, non dobbiamo confondere l’ortogonalità e l’incorrelazione in quanto, la prima indica


l’annullamento della correlazione mentre la seconda della covarianza e del coefficiente di correlazione.
L’unico caso in cui le due terminologie coincidono è nell’eventualità che una delle due variabili sia a
media nulla. Per concludere, se 𝑋 e 𝑌 sono incorrelate allora le variabili centrato 𝑋 − 𝜇𝑋 e 𝑌 − 𝜇𝑌 sono
ortogonali.

Potrebbero piacerti anche