Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
SEGNALI
• Segnale
Un segnale è un modello matematico che descrive la variazione di una o più grandezze (misurabili) in
funzione di altre grandezze (misurabili).
Un segnale può essere, quindi, visto come una funzione che crea una correlazione fra una variabile
indipendente ed una variabile dipendente. In questo caso è di nostro interesse la variabile indipendente
che sarà di solito il tempo 𝑡 ma in generale, come nel caso dell’elaborazione delle immagini, tale variabile
potrebbe essere anche lo spazio. Detto ciò capiamo che la simbologia da utilizzare è:
𝑥: 𝒯 → 𝑋
Dove:
- 𝑥 = variabile dipendente;
- 𝒯 = dominio di 𝑥;
- 𝑋 = codominio di 𝑥.
Tuttavia, è da osservare che la notazione 𝑥(𝑡) potrebbe (dico potrebbe perché in generale si capisce dal
contesto il significato di tale notazione) essere ambigua perché può avere due significati:
a. Il valore assunto dal segnale per un particolare valore di 𝑡 (immagine mediate x di t);
b. Legge di corrispondenza in verde, per cui si usa la simbologia {𝑥(𝑡)}𝑡∈𝒯 .
Esempi di segnali sono per esempio: il moto circolare uniforme di un corpo valutato su un grafico
ampiezza-tempo in funzione della frequenza 𝑓0 (figura A e B), l’andamento di una tensione alternata
𝑉(𝑡) = 𝑉𝑀 cos(2𝜋𝑓𝑡 + 𝜑) oppure una successione matematica (figura C). Non mancano inoltre, anche
casi di segnali rappresentati in forma tabellare (figura D).
• Sistema
Un sistema è un modello matematico che descrive la relazione tra due o più segnali, dei quali alcuni sono
identificati come segnali di ingresso (cause) e altri come segnali di uscita (effetto).
Il concetto di sistema è fortemente legato al concetto di segnale in quanto un sistema senza segnali è
solo una collezione di componenti elettrici, meccanici o biochimici. Inoltre, un sistema quando è
particolarmente complesso può essere suddiviso in diversi sottosistemi. Ad esempio, un sistema di
comunicazione può essere visto come l’insieme di un sistema trasmettitore, un sistema canale e un
sistema ricevitore. A questo punto, dato un particolare sistema e un insieme di segnali d’ingresso, ci
dobbiamo porre il problema di come ricavare analiticamente (a volte è meno costoso fare calcoli
matematici piuttosto che degli esperimenti) i segnali di uscita. Quindi, considerando un sistema con un
Pag. |2
ingresso e una uscita definiamo l’operatore 𝒮 che crea una correlazione fra gli elementi dell’insieme dei
segnali di ingresso 𝐼 e gli elementi dell’insieme dei segnali di uscita 𝑈: 𝒮: 𝐼 → 𝑈
Un esempio di sistema può essere il partitore resistivo, in
figura, nel quale il segnale di ingresso è la tensione sulla serie
𝑅1 𝑅2 e il segnale di uscita è la tensione su 𝑅2 . Allora il metodo
analitico per ricavare il segnale di uscita è la classica formula
del partitore resistivo.
𝑅2
𝑉𝑜𝑢𝑡 = 𝑉𝑖𝑛
𝑅1 + 𝑅2
Visto che l’andamento di questi segnali non è perfettamente noto è necessario ricorrere alla Teoria
della Probabilità. Inoltre, questo tipo di segnali sono fondamentali nell’ingegneria dell’informazione in
quanto la loro imprevedibilità li rende adatti al trasporto delle informazioni, ad eccezione di un segnale
deterministico che non trasporta alcuna informazione visto che si tratta di una affermazione. Quando
però il segnale aleatorio viene osservato e memorizzato, allora possiamo dire che diventa a tutti gli
effetti un segnale deterministico.
Una seconda classificazione può essere riferita alla natura dei segnali di ingresso e di uscita:
• Sistemi Tempo Continuo (TC)
Un sistema si dice a tempo continuo se il segnale in ingresso e uscita sono tempo continui.
Questo tipo di sistemi in genere rappresentano sistemi del mondo fisico come per esempio una rete
elettrica, quindi tutti quei sistemi che si evolvono con continuità nel tempo.
• Sistemi Tempo Discreto (TD)
Un sistema si dice a tempo discreto se il segnale in ingresso e uscita sono tempo discreti.
Non esistono sistemi tempo discreti relativi a fenomeni naturali ma bensì solo ad attività umane come
per esempio l’economia oppure i calcolatori digitali.
• Sistemi Misto
Un sistema si dice misto (o ibrido) se l’ingresso e l’uscita sono uno tempo continuo e l’altro tempo discreto.
Sono sistemi particolarmente utili quando si vuole passare da un sistema del mondo fisico a uno virtuale
e viceversa. Tipici esempi di sistemi misti sono i convertitori A/D e D/A.
Nel tempo discreto il discorso è analogo (ma invece delle 𝑡 ci sono le 𝑛), tuttavia 𝑛0 ∈ 𝒵 (numeri
relativi) e quindi la traslazione temporale si può effettuare solo di quantità intere (niente
decimali).
Pag. |6
• Riflessione Temporale: prevede di ribaltare la scala dei tempi secondo le 𝑦(𝑡) = 𝑥(−𝑡)
seguenti relazioni (in pratica si ribalta il segnale intorno l’asse delle ordinate, {
𝑦(𝑛) = 𝑥(−𝑛)
cioè si specchia orizzontalmente):
• Cambiamento di Scala Temporale TC: è definita dall’operazione 𝑦(𝑡) = 𝑥(𝑎𝑡), (𝑎 ∈ ℛ), dove:
a. Se 𝑎 > 1 abbiamo il caso di una compressione dell’asse dei tempi. In pratica, restringendo la
distanza tra i punti dell’asse dei tempi stiamo velocizzando il segnale;
b. Se 0 < 𝑎 < 1 abbiamo il caso di espansione dell’asse dei tempi. In pratica, aumentando la
distanza tra i punti dell’asse dei tempi stiamo rallentando il segnale.
Il cambiamento di scala temporale nel tempo continuo è reversibile (basta semplicemente scegliere
1/𝑎 per ritornare al segnale originario).
Pag. |7
Prendendo in esame la sequenza di sinistra, bisogna prestare particolare attenzione alle sostituzioni,
perché dopo la riflessione e l’anticipo abbiamo che −𝑡 = −(𝑡 + 4), quindi per l’espansione di 5 non si
deve sostituire solo 𝑡 ma tutto (𝑡 + 4) (visto che è la “nuova” 𝑡). Discorso analogo nella sequenza di
destra dove 𝑡 = 𝑡/5, dove non si deve traslare di +4 solo 𝑡 ma bensì tutto 𝑡/5 (visto che è la “nuova” 𝑡).
Ritornando al discorso dell’ordine corretto delle operazioni da seguire, ciò che osserviamo che è la
sequenza di sinistra ci ha condotto al segnale da noi scelto, mentre quella di destra ci ha portato a un
segnale differente motivo per cui non è corretta. Se avessimo trovato un'altra sequenza che ci avrebbe
condotto al segnale di partenza anche quest’ultima sarebbe stata una soluzione accettabile. Discorso
analogo vale nel tempo discreto, solo che quando facciamo l’espansione dell’asse dei tempi dobbiamo
imporre la relazione vista in precedenza (se l’espansione è di 2 allora 𝐿 = 2).
______________________________________________________________________________________________________________________
1.4.3 Derivazione e Integrazione
Visto che i segnali a TC sono come delle funzioni reali o complesse di variabili reali possiamo definire le
operazioni:
• Derivazione
Si definisce derivata prima e derivata k-esima del segnale 𝑥(𝑡):
′ (𝒕)
𝒅 𝒙(𝒕 + ∆𝒕) − 𝒙(𝒕) 𝒌 (𝒕)
𝒅𝒌
𝒚(𝒕) = 𝒙 = 𝒙(𝒕) ≜ 𝐥𝐢𝐦 𝒚(𝒕) = 𝒙 = 𝒌 𝒙(𝒕)
𝒅𝒕 ∆𝒕→𝟎 ∆𝒕 𝒅𝒕
Questo integrale, che ricorrerà molto spesso nello studio dei segnali, si definisce Integrale Corrente.
Seppur vero che tutti i segnali rappresentanti fenomeni fisici naturali sono continui, condizione
necessaria (ma non sufficiente) affinché un segnale sia anche derivabile, non è sempre detto che
lavoreremo solo su di essi ma potremmo incontrare anche segnali che presentano un certo numero di
discontinuità di prima specie (salti istantanei da un valore ad un altro). Un segnale fondamentale che
presenta una discontinuità di tipo salto (in 𝑡 = 0) è il Gradino a TC, definito
come di fianco. Infatti, facendo i limiti dei rapporti incrementali da sinistra 1 𝑠𝑒 𝑡 ≥ 0
𝑢(𝑡) ≜ {
e destra nel punto 𝑡 = 0 avremo due valori diversi (rispettivamente 0 e 1). 0 𝑎𝑙𝑡𝑟𝑖𝑚𝑒𝑛𝑡𝑖
Ciò vuol dire che per ∀𝑡 ≠ 0 la rapidità del segnale è nulla, mentre in 𝑡 = 0
la rapidità del segnale è infinita (di fatto abbiamo un salto).
Questo tipo di funzioni è problematica per l’operazione di 0 𝑠𝑒 𝑡 < −𝜀
1 𝑡
derivazione e quindi dovremmo introdurre la teoria delle 𝑢𝜀 (𝑡) ≜ { (1 + ) 𝑠𝑒 |𝑡| ≤ 𝜀
distribuzioni e il concetto di derivata generalizzata. Visto che la 2 𝜀
trattazione risulterebbe troppo complessa è più semplice 1 𝑠𝑒 𝑡 < −𝜀
considerare una funzione approssimante 𝑢𝜀 (𝑡) il gradino.
Pag. |9
L’approssimazione sarà tanto migliore quanto più piccolo sarà l’errore 𝜀, quindi lim 𝑢𝜀 (𝑡) = 𝑢(𝑡)
nel caso limite di errore nullo avremo la perfetta uguaglianza tra le due funzioni. 𝜀→0
Grazie a questa manipolazione, la funzione 𝑢𝜀 (𝑡) essendo continua
e priva di salti è derivabile senza problemi nel punto 𝑡 = 0. In
particolare, la sua derivata sarà una funzione 𝛿𝜀 (𝑡) rettangolare di
base 2𝜀 e altezza 1⁄2𝜀 .
𝑑 0 𝑠𝑒 |𝑡| > 𝜀
𝛿𝜀 (𝑡) = 𝑢𝜀 (𝑡) = { 1
𝑑𝑡 𝑠𝑒 |𝑡| < 𝜀
2𝜀
Visto però che l’errore è variabile dobbiamo capire a cosa tende
l’intera famiglia di funzioni del tipo 𝛿𝜀 (𝑡) per 𝜀 → 0. Ciò che succede è che al diminuire dell’errore la
base si restringe e l’altezza aumenta, quindi per 𝜀 → 0 tale funzione sarà nulla ovunque eccetto per in
𝑡 = 0 dove varrà infinito. Questa funzione molto particolare non può fare uso del classico concetto di
funzione che noi conosciamo, motivo per cui dobbiamo effettuare una serie di manipolazioni. Anzitutto
moltiplichiamo tale funzione per un segnale generico 𝑥(𝑡) continuo nell’intervallo [−𝜀, 𝜀]. In tal modo,
stiamo definendo un Funzionale che si “appoggia” alla funzione 𝛿𝜀 (𝑡), cioè un operatore che associa alla
funzione 𝑥(𝑡) un numero reale o complesso (dato dal secondo membro della seguente relazione).
+∞
1 +𝜀
∫ 𝛿𝜀 (𝑡)𝑥(𝑡)𝑑𝑡 = ∫ 𝑥(𝑡)𝑑𝑡
−∞ 2𝜀 −𝜀
+∞
1 +𝜀 1 lim 𝑝𝑒𝑟 𝜀→0 +∞
∫ 𝛿𝜀 (𝑡)𝑥(𝑡)𝑑𝑡 = ∫ 𝑥(𝑡)𝑑𝑡 = )
∙ 2𝜀𝑥(𝑡𝜀 → lim ∫ 𝛿𝜀 (𝑡)𝑥(𝑡)𝑑𝑡 = lim 𝑥(𝑡𝜀 ) = 𝑥(0)
−∞ 2𝜀 −𝜀 2𝜀 𝜀→0 −∞ 𝜀→0
➢ Derivazione:
+∞
𝒅𝒏 𝒏[
𝒅𝒏
∫ [ 𝜹(𝒕)] 𝒙(𝒕)𝒅𝒕 = (−𝟏) 𝒙(𝒕)] ∀𝒏 ∈ 𝓝 ∀ 𝒙(𝒕)
−∞ 𝒅𝒕𝒏 𝒅𝒕𝒏 𝒕=𝟎
➢ Integrazione:
𝒕
𝒖(𝒕) = ∫ 𝜹(𝒖)𝒅𝒖
−∞
➢ Integrazione Definita:
𝒃
𝒙(𝟎) 𝒔𝒆 𝒂 < 𝟎 < 𝒃
∫ 𝜹(𝒕)𝒙(𝒕)𝒅𝒕 = { ∀ 𝒂 < 𝒃 ∈ 𝓡 ∀ 𝒙(𝒕)
𝒂 𝟎 𝒔𝒆 𝒂 > 𝟎 𝒐𝒑𝒑𝒖𝒓𝒆 𝒃 < 𝟎
∑ 𝛿(𝑛) = 1
−∞
➢ Campionamento:
+∞
∑ 𝑥(𝑛)𝛿(𝑛 − 𝑛0 ) = 𝑥(𝑛0 ) ∀ 𝑛0 ∈ 𝒵
−∞
➢ Prodotto:
𝑥(𝑛)𝛿(𝑛 − 𝑛0 ) = 𝑥(𝑛)𝛿(𝑛 − 𝑛0 ) ∀ 𝑛0 ∈ 𝒵
➢ Parità: 𝛿(−𝑛) = 𝛿(𝑛)
➢ Decimazione ed Espansione:
𝑛
𝛿(𝑛𝑀) = 𝛿(𝑛) 𝛿 ( ) = 𝛿(𝑛) ∀ 𝑀 ∈ 𝒩 ∀𝐿 ∈ 𝒩
𝐿
➢ Somma:
𝑛
𝑢(𝑛) = ∑ 𝛿(𝑚)
𝑚=−∞
P a g . | 11
+∞ 𝒁
∫ 𝒙(𝒕)𝒅𝒕 𝒐𝒑𝒑𝒖𝒓𝒆 ∫ 𝒙(𝒕)𝒅𝒕 𝑻𝑪
−∞ −𝒁
𝑨𝒙 (𝒁) ≜ +∞ 𝒁
𝟏 𝒁 𝟏 𝒁
𝐥𝐢𝐦 ∫ 𝒙(𝒕)𝒅𝒕 𝒐𝒑𝒑𝒖𝒓𝒆 ∫ 𝒙(𝒕)𝒅𝒕 𝑻𝑪
𝒁→∞ 𝟐𝒁 −𝒁 𝟐𝒁 −𝒁
< 𝒙(𝒕) >𝒛 ≜ 𝒁 𝒁
𝟏 𝟏
𝐥𝐢𝐦 ∑ 𝒙(𝒏) 𝒐𝒑𝒑𝒖𝒓𝒆 ∑ 𝒙(𝒏) 𝑻𝑫
{𝒁→∞ 𝟐𝒁 + 𝟏 𝒏=−𝒁 𝟐𝒁 + 𝟏
𝒏=−𝒁
Quindi per calcolare area e media dell’intero segnale si utilizzano le formule di sinistra, mentre per
porzioni finite del segnale (𝑍 ≠ ∞) si usano le formule di destra.
𝟏
∫ 𝒙(𝒕)𝒅𝒕 𝑻𝑪
𝑻𝟎 𝑻𝟎
< 𝒙(∙) >= 𝟏
∑ 𝑥(𝑡) 𝑻𝑫
𝑵
{ 𝟎 𝑵𝟎
La media temporale può essere intesa anche come componente continua di un segnale, dalla quale poi
è possibile ricavare la componente alternata.
• Componente Continua: coincide con la sua media temporale ed è quindi la parte “costante” del
segnale. In formule: 𝒙𝒅𝒄 ≜< 𝒙(∙) >
• Componente Alternata: è la differenza tra il segnale e la componente continua ed è quindi la parte
“variabile” del segnale. In formule: 𝒙𝒂𝒄 ≜ 𝒙(∙) − 𝒙𝒅𝒄
Possiamo quindi affermare che un qualunque segnale può essere espressa come la somma di una
componente continua e una alternata: 𝑥(∙) = 𝑥𝑑𝑐 + 𝑥𝑎𝑐
Nel caso in cui 𝑥𝑑𝑐 = 0, allora diremo che il segnale 𝑥(∙) è puramente alternativo.
P a g . | 13
+𝒁 𝒁
𝐥𝐢𝐦 ∫ |𝒙(𝒕)|𝟐 𝒅𝒕 𝒐𝒑𝒑𝒖𝒓𝒆 ∫ |𝒙(𝒕)|𝟐 𝒅𝒕 𝑻𝑪
𝒁→∞ −𝒁 −𝒁
𝜺𝒙 (𝒁) ≜ +𝒁 𝒁
Quindi per calcolare l’energia dell’intero segnale si utilizzano le formule di sinistra, mentre per porzioni
finite del segnale (𝑍 ≠ ∞) si usano le formule di destra. È importante osservare che, avendo omesso
delle costanti, dimensionalmente potremmo non avere una energia (Joule), quindi se vogliamo trovarci
alla fine con questa unità di misura dovremmo tenerne conto.
Facciamo alcune osservazioni circa la presenza del quadrato nelle due definizioni di energia. Anzitutto
essendo presente il quadrato, 𝑥(𝑡) può essere un segnale sia reale (si può omettere il modulo visto che
𝑥 2 (∙) = |𝑥(∙)|2 ) sia complesso e la sua energia sarà sempre una quantità reale e non negativa. Un’altra
osservazione deriva dal confronto tra le formule dell’area di un segnale e quelle dell’energia. Possiamo
infatti affermare che nelle formule dell’energia stiamo effettua l’area del segnale |𝑥(𝑡)|2 o |𝑥(𝑛)|2 . Grazie
a questa osservazione possiamo affermare che se 𝑥(∙) è un segnale rigorosamente limitato o al più
praticamente limitato (purché vada a zero rapidamente in modo che l’integrale o la sommatoria
convergano), allora anche l’energia sarà un valore finito. Un Segnale di Energia è un segnale 𝑥(∙) avente
energia finita e diversa da zero: 0 < 𝜀𝑥 < +∞
Osserviamo che il prodotto di un segnale di energia per una costante e la somma di due segnali di energia
sono segnali di energia, quindi l’insieme dei segnali di energia è un insieme chiuso rispetto alla somma
e al prodotto. Allora se vogliamo calcolare l’energia 𝜀𝑦 di un segnale 𝑦(∙) = 𝑎 ∙ 𝑥(∙) è facile dimostrare
che 𝜀𝑦 = |𝑎2 |𝜀𝑥 , mentre il discorso è più complesso se parliamo della somma di due segnali per il quale:
+∞
𝜀𝑥+𝑦 = ∫ |𝑥(𝑡) + 𝑦(𝑡)|2 𝑑𝑡
−∞
Sviluppando il quadrato:
|𝑥(𝑡) + 𝑦(𝑡)|2 = [𝑥(𝑡) + 𝑦(𝑡)] ∙ [𝑥(𝑡) + 𝑦(𝑡)]∗ = 𝑥(𝑡)𝑥 ∗ (𝑡) + 𝑦(𝑡)𝑦 ∗ (𝑡) + 𝑥(𝑡)𝑦 ∗ (𝑡) + 𝑦(𝑡)𝑥 ∗ (𝑡)
+∞ +∞ +∞ +∞
𝜀𝑥+𝑦 = ∫ |𝑥(𝑡) + 𝑦(𝑡)|2 𝑑𝑡 = ∫ |𝑥(𝑡)|2 𝑑𝑡 + ∫ |𝑦(𝑡)|2 𝑑𝑡 + ∫ 2𝑅𝑒[𝑥(𝑡)𝑦 ∗ (𝑡)]𝑑𝑡
−∞ −∞ −∞ −∞
𝜀𝑥+𝑦 = 𝜀𝑥 + 𝜀𝑦 + 2𝑅𝑒[𝜀𝑥𝑦 ]
Con una dimostrazione analoga anche nel TD, possiamo definire l’Energia Mutua:
+∞
∫ 𝑥(𝑡)𝑦 ∗ (𝑡)𝑑𝑡 𝑇𝐶
−∞
𝜀𝑥𝑦 ≜ +∞
∑ 𝑥(𝑛)𝑦 ∗ (𝑛) 𝑇𝐷
{𝑛=−∞
P a g . | 14
Contrariamente all’energia dei singoli segnali, quella mutua è sempre una quantità complessa. Due casi
particolari di interesse sono:
Caso 𝜺𝒙𝒚 = 𝜺𝒚𝒙 : condizione che sussiste quando stiamo parlando di segnali reali e quindi risulta che
𝜀𝑥+𝑦 = 𝜀𝑥 + 𝜀𝑦 + 2𝜀𝑥𝑦 .
Caso 𝜺𝒙𝒚 = 𝟎: due segnali di energia per il quale vale questa condizione si dicono Ortogonali e
quindi vale la cosiddetta additività delle energie: 𝜀𝑥+𝑦 = 𝜀𝑥 + 𝜀𝑦
• Potenza
È definita nel seguente modo:
𝟏 𝒁 1 𝒁
𝐥𝐢𝐦 ∫ |𝒙(𝒕)|𝟐 𝒅𝒕 𝒐𝒑𝒑𝒖𝒓𝒆 ∫ |𝒙(𝒕)|𝟐 𝒅𝒕 𝑻𝑪
𝒁→∞ 𝟐𝒁 −𝒁 2𝑍 −𝒁
𝑷𝒙 (𝒁) ≜ 𝒁 𝑍
𝟏 1
𝐥𝐢𝐦 ∑ |𝑥(𝑛)|2 𝒐𝒑𝒑𝒖𝒓𝒆 ∑ |𝑥(𝑛)|2 𝑻𝑫
𝒁→∞ 𝟐𝒁 + 𝟏 2𝑍 + 1
{ 𝒏=−𝒁 𝑛=−𝑍
Quindi per calcolare la potenza dell’intero segnale si utilizzano le formule di sinistra, mentre per
porzioni finite del segnale (𝑍 ≠ ∞) si usano le formule di destra. È importante osservare che, avendo
omesso delle costanti, dimensionalmente potremmo non avere una potenza (Watt), quindi se vogliamo
trovarci alla fine con questa unità di misura dovremmo tenerne conto. A partire dalla potenza si
definisce il Valore Efficace di un Segnale 𝑥𝑟𝑚𝑠 : 𝑥𝑟𝑚𝑠 = √𝑃𝑥 = √< |𝑥(∙)|2 >
Un Segnale di Potenza è un segnale 𝑥(∙) avente potenza finita e diversa da zero: 0 < 𝑃𝑥 < +∞
Tipici segnali di potenza sono tutta la classe di segnali di durata illimitata come segnali aperiodici e
periodici per il quale le formule viste precedente si modificano come di seguito:
1
lim ∫ |𝑥(𝑡)|2 𝑑𝑡 𝑇𝐶
𝑍→∞ 𝑇0 𝑇
0
𝑃𝑥 (𝑍) ≜< |𝑥(∙)|2 >= 1
lim ∑|𝑥(𝑛)|2 𝑇𝐷
𝑍→∞ 𝑁0
{ 𝑁0
Osserviamo che il prodotto di un segnale di potenza per una costante e la somma di due segnali di
potenza sono segnali di potenza, quindi l’insieme dei segnali di potenza è un insieme chiuso rispetto alla
somma al prodotto. Allora con ragionamenti analoghi a quanto fatto per l’energia, anche per la potenza
possiamo dire che
𝑃𝑥+𝑦 = 𝑃𝑥 + 𝑃𝑦 + 2𝑅𝑒[𝑃𝑥𝑦 ]
1 𝑍
lim ∫ 𝑥(𝑡)𝑦 ∗ (𝑡)𝑑𝑡 𝑇𝐶
𝑍→∞ 2𝑍 −𝑍
𝑃𝑥𝑦 ≜< 𝑥(∙)𝑦 ∗ (∙) > = 𝑍
1
lim ∑ 𝑥(𝑛)𝑦 ∗ (𝑛)𝑑𝑡 𝑇𝐷
𝑍→∞ 2𝑍 + 1
{ 𝑛=−𝑍
Contrariamente alla potenza dei singoli segnali, quella mutua è sempre una quantità complessa. Due casi
particolari di interesse sono:
Caso 𝑷𝒙𝒚 = 𝑷𝒚𝒙 : condizione che sussiste quando stiamo parlando di segnali reali e quindi risulta
che 𝑃𝑥+𝑦 = 𝑃𝑥 + 𝑃𝑦 + 2𝑃𝑥𝑦 .
Caso 𝑷𝒙𝒚 = 𝟎: due segnali di potenza per il quale vale questa condizione si dicono Ortogonali e
quindi vale la cosiddetta additività delle potenze: 𝑃𝑥+𝑦 = 𝑃𝑥 + 𝑃𝑦
P a g . | 15
È interessante analizzare il legame tra segnali di energia e potenza e a tal proposito enunciamo il
seguente teorema:
Teorema sulla Relazione tra i Segnali di Energia e Potenza
✓ Se 𝑥(∙) è un segnale di potenza, allora esso ha energia infinita. Per provare tale affermazione basta
osservare che nella seguente definizione, la potenza esiste ed è finita se l’energia (integrale di
|𝑥(𝑡)|2 ) è infinita.
+∞
2
1 𝑍 2
∫−∞ |𝑥(𝑡)|2 𝑑𝑡
𝑃𝑥 (𝑍) ≜< |𝑥(∙)| >= lim ∫ |𝑥(𝑡)| 𝑑𝑡 =
𝑍→∞ 2𝑍 −𝑍 lim 2𝑍
𝑍→∞
Per concludere lo studio dell’energia e della potenza dei segnali, osserviamo che spesso queste
grandezze hanno numerosi ordini di grandezza. Questo problema colpisce in particolare la potenza e
quindi in ingegneria è comodo utilizzare la conversione in Decibel e la riconversione in scala naturale:
𝑃𝑥 [𝑃𝑥]𝑑𝐵
[𝑃𝑥 ]𝑑𝐵 = 10 log10 ( ) 𝑃𝑥 = 𝑃0 10 10 𝑐𝑜𝑛 𝑃0 = 𝑝𝑜𝑡𝑒𝑛𝑧𝑎 𝑑𝑖 𝑟𝑖𝑓𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑜
𝑃0
𝑥𝑟𝑚𝑠
[𝑥𝑟𝑚𝑠 ]𝑑𝐵 = 20 log10 ( ) 𝑐𝑜𝑛 𝑥0 = √𝑃0
𝑥0
P a g . | 16
Un sistema SISO è un modello matematico che descrive la relazione tra un segnale in ingresso e un
segnale in uscita, quindi tramite l’operatore 𝒮 crea una corrispondenza fra gli elementi dell’insieme dei
segnali in ingresso ℐ e l’insieme dei segnali di uscita 𝒮: 𝒮: ℐ → 𝒰
• Relazione I-U (Ingresso-Uscita) di un Sistema TC
Un sistema SISO TC con ingresso 𝑥(𝑡) ∈ ℐ e uscita 𝑦(𝑡) ∈ 𝒰 è descritto matematicamente dalla sua
relazione i-u: 𝒚(𝒕) = 𝓢[{𝒙(𝒖)}𝒖∈𝓡 ; 𝒕]
Un tipico esempio di relazione i-u è quella dell’integratore, quindi di un
sistema che in uscita produce il seguente integrale del segnale d’ingresso:
𝑡
𝑦(𝑡) = ∫ 𝑥(𝑢)𝑑𝑢
−∞
𝑦(𝑛) = ∑ 𝑥(𝑘)
𝑘=−∞
Molto spesso capita che ci troviamo a lavorare con più sistemi che sono connessi fra loro in diversi modi:
A. Sistemi in Serie: due sistemi si dicono connessi in serie se l’uscita del primo sistema è l’ingresso
del secondo;
B. Sistemi in Parallelo: due sistemi si dicono connessi in parallelo se lo stesso ingresso è applicato
ad entrambi e le loro uscite si sommano algebricamente.
C. Sistemi in Retroazione: se l’scita del primo sistema, dopo essere stata elaborata dal sistema
due viene somma algebricamente all’ingresso del primo.
P a g . | 17
Risultato di questa proprietà è che a prescindere dove poniamo l’ingresso avremo sempre la medesima
uscita. Motivo per cui l’asse dei tempi può avere una origine arbitraria.
P a g . | 18
• Stabilità
Un sistema TC con ingresso limitato 𝑥(𝑡) e uscita 𝑦(𝑡) si dice BIBO stabile se:
|𝑥(𝑡)| ≤ 𝐾𝑥 ∀𝑡 ∈ ℛ → |𝑦(𝑡)| ≤ 𝐾𝑦 ∀𝑡 ∈ ℛ
Un sistema TD con ingresso limitato 𝑥(𝑛) e uscita 𝑦(𝑛) si dice BIBO stabile se:
|𝑥(𝑛)| ≤ 𝐾𝑥 ∀𝑛 ∈ Z → |𝑦(𝑛)| ≤ 𝐾𝑦 ∀𝑛 ∈ Z
• Linearità
Un sistema si dice lineare se soddisfa le seguenti proprietà:
➢ Omogeneità: per ogni coppia di segnali di ingresso 𝑥(∙) e di uscita 𝑦(∙) si ha che: 𝑎𝑥(∙) → 𝑎𝑦(∙)
➢ Additività: per ogni coppia di segnali di ingresso 𝑥1 (∙) e di uscita 𝑦1 (∙), e per ogni coppia per ogni
coppia di segnali di ingresso 𝑥1 (∙) e di uscita 𝑦1 (∙): 𝑥1 (∙) + 𝑥2 (∙) → 𝑦1 (∙) + 𝑦2 (∙)
Capiamo perciò che affinché un sistema sia lineare, l’insieme dei segnali ingresso ℐ e di uscita 𝒰 devono
essere chiusi rispetto alle operazioni di somma e prodotto per una costante. Questa proprietà consente
di apportare notevoli semplificazioni nell’analisi e nella sintesi dei sistemi. Tuttavia, le due proprietà
citate precedentemente possono essere riassunte mediate:
Principio di Sovrapposizione degli Effetti: un sistema è lineare se, per ogni coppia di segnali ingresso
𝑥1 (∙) e 𝑥2 (∙) e di uscita 𝑦1 (∙) e 𝑦2 (∙): 𝑎1 𝑥1 (∙) + 𝑎2 𝑥2 (∙) → 𝑎1 𝑦1 (∙) + 𝑎2 𝑦2 (∙) ∀𝑎1 , 𝑎2 ∈ 𝒞
Tale principio ovviamente si può estendere anche a più di due ingressi e uscite.
P a g . | 19
2.1 Introduzione
Un Sistema LTI è un sistema che possiede la proprietà di linearità e tempo invarianza. Sono la tipologia
di sistemi più semplici da studiare, infatti ci consentono di ricavare una relazione i-u semplice e generale
che può essere ottenuta mediate l’operazione di convoluzione (che vedremo in seguito) tra:
- Il segnale in ingresso 𝑥(𝑡) al sistema;
- La risposta impulsiva, ovvero la funzione che descrive completamente il sistema nel dominio del
tempo.
Cominciamo con suppore che in ingresso abbiamo un segnale 𝑥(∙) ∈ ℐ che può 𝑥(∙) = ∑ 𝑎𝑚 𝑥𝑚 (∙)
essere espresso come sovrapposizione di segnali elementari 𝑥𝑚 (TC o TD)
𝑚
moltiplicati per delle costanti 𝑎𝑚 ∈ 𝒞 (sono numero complessi). Grazie al
principio di sovrapposizione degli effetti possiamo esprimere l’uscita 𝑦(∙) nel seguente modo:
Dove 𝑦𝑚 ≜ 𝒮[𝑥𝑚 (∙)] = è l’uscita corrispondente all’m-esimo segnale in ingresso 𝑥𝑚 . Tuttavia, per poter
effettuare questi passaggi i segnali 𝑥𝑚 devono presentare tre proprietà fondamentali:
➢ Devono poter rappresentare tutti i segnali di interesse pratico (visto che stiamo cercando una
relazione i-u generale);
➢ Deve essere semplice calcolare i coefficienti 𝑎𝑚 ;
➢ Deve essere semplice calcolare 𝑦𝑚 dal sistema a ciascuno dei segnali 𝑥𝑚 .
I segnali 𝑥𝑚 in grado di rispettare queste proprietà sono:
• Segnali Impulsivi, da cui ricaveremo la Risposta Impulsiva ℎ(∙);
• Fasori, da cui ricaveremo la Risposta in Frequenza 𝐻(∙).
Ponendo in ingresso tale segnale a un sistema LTI TD otterremo la seguente relazione I-U:
+∞ +∞ +∞
+∞ +∞
Negli ultimi due membri abbiamo effettuato una traslazione di ciascun impulso di 𝑚 campioni, quindi
𝛿(𝑛 − 𝑚) → δ(m) e quindi ℎ(𝑛 − 𝑚) = 𝒮[𝛿(𝑛 − 𝑚)] → ℎ(𝑚) = 𝒮[𝛿(𝑚)]. In tal modo, non solo abbiamo
rappresentato la relazione I-U di un sistema LTI mediate l’operazione matematica di convoluzione (gli
ultimi due membri), ma abbiamo che definito la Risposta Impulsiva ℎ(∙) = 𝒮[𝛿(𝑛 − 𝑚)]. In pratica, la
ℎ(∙) è l’uscita 𝑦(𝑡) del sistema al quale però sono stati sostituiti tutti i segnali che la compongono con
delle delta di Dirac (per esempio se 𝑦(𝑡) = 𝑢(𝑡) − 𝑢(𝑡 − 1) → ℎ(𝑡) = 𝛿(𝑡) − 𝛿(𝑡 − 1)).
P a g . | 20
2.3 Convoluzione
La risposta al gradino 𝑠(𝑛) e la risposta impulsiva ℎ(𝑛) di un sistema LTI sono legate dalla relazione
biunivoca:
𝑛
Per concludere, è importante specificare che sia la risposta impulsiva che quella al gradino vengono
definite Risposta Canoniche, in quanto entrambe sono in grado di descrivere completamente un
sistema LTI nel dominio del tempo.
Chiaramente i sistemi istantanei sono anche primi di memoria, dove quest’ultima si può definire come
la durata temporale del segmento di segnale di ingresso che contribuisce all’uscita insieme al campione
attuale. Nel caso dei sistemi LTI la memoria può essere vista come la durata temporale 𝐷ℎ della risposta
impulsiva ℎ(∙). A tal proposito possiamo realizzare la seguente classificazione:
• Sistemi LTI con Memoria Rigorosamente Finita: 𝐷ℎ è rigorosamente finita. Esempio: i sistemi MA
o i FIR (Finitive Impulse Response);
• Sistemi LTI con Memoria Praticamente Finita: la risposta impulsiva va asintoticamente a zero e
quindi 𝐷ℎ si definisce imponendo una soglia minima per il quale ℎ(∙) risulta apprezzabile. Esempio:
i sistemi IIR (Infinite Impulse Response);
• Sistemi LTI con Memoria Infinita: 𝐷ℎ è infinita perché lo è la risposta impulsiva ℎ(∙), la quale non
decade mai verso zero. Esempio: sistemi come l’integratore e l’accumulatore con risposta impulsiva
a gradino unitario.
• Causalità
Un sistema LTI è causale se e solo se:
ℎ(𝑡) = 0 ∀𝑡 < 0
{
ℎ(𝑛) = 0 ∀𝑛 < 0
Chiaramente se le risposta impulsive non sono nulle per ∀𝑡, 𝑛 < 0 allora il sistema si dice non causale,
dove uno dei casi particolari e il Sistema Anti-causale, il quale dipende solo dagli istanti futuri (nelle
due relazioni invece di < si mette ≥). La proprietà di causalità implica che se un segnale in ingresso a un
sistema LTI TC (TD) causale è identicamente nullo per 𝑡 < 0 (𝑛 < 0) allora la corrispondente uscita è
anch’essa identicamente nulla per 𝑡 < 0 (𝑛 < 0).
• Invertibilità
Si consideri un sistema LTI invertibile con risposta impulsiva ℎ(∙) e il suo sistema inverso LTI con
risposta impulsiva ℎ𝑖𝑛𝑣 (∙). Tra i due sistemi sussiste la seguente relazione:
Nelle telecomunicazioni tale proprietà risulta fondamentale perché se dobbiamo trasmettere un segnale
con informazione 𝑥(∙) che però è distorto su un supporto fisico detto canale, il quale è modellato con un
sistema LTI con risposta impulsiva ℎ(∙),alla stazione ricevente usando il modello inverso e ℎ𝑖𝑛𝑣 (∙)
possiamo compensare le distorsioni. Tuttavia, la determinazione del sistema inverso e di ℎ𝑖𝑛𝑣 (∙) è molto
complicato dal punto di vista matematico e quindi non sempre è realizzabile la soluzione appena citata,
denominata Equalizzazione.
• Stabilità
Un sistema LTI è stabile se e solo se la sua risposta impulsiva è sommabile, ovvero:
+∞ +∞
∫ |ℎ(𝜏)|𝑑𝜏 ≤ 𝐾ℎ ∑ |ℎ(𝑚)| ≤ 𝐾ℎ
−∞ 𝑚=−∞
+∞
Dimostriamo tale proprietà nel discreto, anche se si può fare anche
𝑦(𝑛) = ∑ ℎ(𝑚)𝑥(𝑛 − 𝑚)
nel continuo sostituendo alle sommatorie gli integrali. Partendo
𝑚=−∞
dalla risposta impulsiva a TD:
+∞ +∞ +∞
|𝑦(𝑛)| = | ∑ ℎ(𝑚)𝑥(𝑛 − 𝑚)| ≤ ∑ |ℎ(𝑚)||𝑥(𝑛 − 𝑚)| ≤ 𝐾𝑥 ∑ |ℎ(𝑚)|
𝑚=−∞ 𝑚=−∞ 𝑚=−∞
𝑀
1 𝑑
𝑦(𝑡) = ∑ 𝑏𝑚 𝑚 𝑥(𝑡)
𝑎0 𝑑𝑡
𝑚=0
Se invece 𝑁 ≠ 0 allora la relazione in rosso descrive solo in maniera implicita il comportamento del
sistema. In questo caso per determinare la relazione i-u del sistema bisogna risolvere l’equazione in
rosso per ogni ingresso 𝑥(𝑡) applicato, a patto però di conoscere le condizioni iniziali e quindi il valore
dell’ingresso dall’istante in cui applichiamo un segnale al sistema. Tali condizioni iniziali si possono
esprimere nel seguente modo:
𝑦(0) = 𝑦0 𝑦 ′ (0) = 𝑦1 𝑦 ′′ (0) = 𝑦2 …
Nel tempo discreto invece abbiamo equazioni alle differenze lineari a coefficienti costanti di ordine N:
Dove:
- 𝑥(𝑛) = ingresso; 𝑁 𝑀
- 𝑦(𝑛) = uscita; ∑ 𝑎𝑘 𝑦(𝑛 − 𝑘) = ∑ 𝑏𝑚 𝑥(𝑛 − 𝑚)
- 𝑎𝑘 𝑒 𝑏𝑘 = coefficienti in genere reali dell’equazioni; 𝑘=0 𝑚=0
- 𝑁 𝑒 𝑀 = massimi gradi di differenza.
I Sistemi ARMA (Auto-Regressivi a Media Mobile) sono i più tipici esempi di sistemi descritti da
equazioni alle differenze. Tutte le considerazioni nel TC possono essere riproposte nel TD, infatti
nuovamente nel caso 𝑁 = 0:
𝑀
1
𝑦(𝑛) = ∑ 𝑏𝑚 𝑥(𝑛 − 𝑚)
𝑎0
𝑚=0
P a g . | 24
Dimostrazione: ricordiamo che un sistema LTI è descritto dalla relazione i-u di convoluzione a primo
membro e supponiamo che il segnale in ingresso sia un fasore 𝑥(𝑡) = 𝑒 𝑗2𝜋𝑓𝑡 :
+∞ +∞ +∞
𝑦(𝑡) = ∫ ℎ(𝜏)𝑥(𝑡 − 𝜏)𝑑𝜏 = ∫ ℎ(𝜏)𝑒 𝑗2𝜋𝑓(𝑡−𝜏) 𝑑𝜏 = [∫ ℎ(𝜏)𝑒 𝑗2𝜋𝑓𝜏 𝑑𝜏] 𝑒 𝑗2𝜋𝑓𝑡 = 𝐻(𝑓)𝑒 𝑗2𝜋𝑓𝑡
−∞ −∞ −∞
Essendo 𝐻(𝑓) è una quantità complessa per definizione, essa può essere espressa anche evidenziando
modulo e fase: 𝐻(𝑓) = |𝐻(𝑓)|𝑒 𝑗∠𝐻(𝑓)
La fase in particolare, la quale è definita a meno di un arbitrario multiplo intero di 2𝜋, è definita come
l’argomento di 𝐻(𝑓): ∠𝐻(𝑓) = 𝐴𝑟𝑔[𝐻(𝑓)] + 2ℎ𝜋 con ℎ ∈ 𝒵
In definitiva, l’uscita si può esprimere nel seguente modo:
Infine, osserviamo che la risposta in frequenza è limitata se la risposta impulsiva è sommabile (ovvero
il sistema è stabile):
+∞ +∞ +∞
|𝐻(𝑓)| = |∫ ℎ(𝜏)𝑒 −𝑗2𝜋𝑓𝜏 𝑑𝜏| ≤ ∫ |ℎ(𝜏)𝑒 −𝑗2𝜋𝑓𝜏 |𝑑𝜏 = ∫ |ℎ(𝜏)|𝑑𝜏
−∞ −∞ −∞
Dimostrazione: ricordiamo che un sistema LTI è descritto dalla relazione i-u di convoluzione a primo
membro. Supponiamo che il segnale in ingresso sia un fasore 𝑥(𝑡) = 𝑒 𝑗2𝜋𝑣𝑛 avremo:
+∞ +∞ +∞
Anche nel caso tempo discreto la risposta in frequenza è limitata se la risposta impulsiva è sommabile
(ovvero il sistema è stabile):
+∞ +∞ +∞ +∞
|𝐻(𝑣)| = | ∑ ℎ(𝑚)𝑒 −𝑗2𝜋𝑣𝑚 | ≤ ∑ |ℎ(𝑚)𝑒 −𝑗2𝜋𝑣𝑚 | = ∑ |ℎ(𝑚)||𝑒 −𝑗2𝜋𝑣𝑚 | = ∫ |ℎ(𝑚)|
𝑚=−∞ 𝑚=−∞ 𝑚=−∞ −∞
P a g . | 25
Tuttavia, una importante differenza rispetto al caso TC è che nel TD è legata alla seguente proprietà:
Periodicità in frequenza dei fasori TD: la risposta in frequenza 𝐻(𝑣) di un sistema LTI a TD è
definita dalla relazione in grassetto di inizio paragrafo, essa è periodica di periodo unitario:
𝐻(𝑣) = 𝐻(𝑣 + 1) ∀𝑣 ∈ ℛ
Dimostrazione:
+∞ +∞ +∞
Per ricavare queste relazioni supponiamo di trovarci nel caso in cui: 𝑥(𝑡) = 𝐴𝑐𝑜𝑠(2𝜋𝑓0 𝑡 + 𝜑0 )
Applicando la formula di Eulero possiamo esprimere tale segnale come sovrapposizione di due fasori:
I termini 𝐴⁄2 𝑒 𝑗𝜑0 e 𝐴⁄2 𝑒 −𝑗𝜑0 sono delle semplici costanti e applicando la relazione: 𝑦(𝑡) = 𝐻(𝑓)𝑒 𝑗2𝜋𝑓𝑡
𝐴 𝑗𝜑 𝐴
𝑦(𝑡) = 𝑒 0 𝐻(𝑓0 )𝑒 𝑗2𝜋𝑓0 𝑡 + 𝑒 −𝑗𝜑0 𝐻(−𝑓0 )𝑒 −𝑗2𝜋𝑓0 𝑡
2 2
Se 𝐻(−𝑓0 ) è il coniugato (uguale parte reale e complessa ma quest’ultima di segno discorde) di 𝐻(𝑓0 ):
𝐴
𝑦(𝑡) = 2ℛ𝑒 [ 𝐻(𝑓0 )𝑒 𝑗(2𝜋𝑓0 𝑡+𝜑0 )] = 𝐴|𝐻(𝑓0 )| cos(2𝜋𝑓0 𝑡 + 𝜑0 + ∠𝐻(𝑓0 ))
2
Analoghi passaggi si possono effettuare anche per il seno e anche nel caso tempo discreto, ovviamente
con un cambio di nome alle variabili.
B. Caso TD:
Si consideri una sinusoide (coseno o seno) a frequenza 𝑣0 ∈ ℛ in ingresso ad un sistema LTI a TD con
risposta impulsiva reale ℎ(𝑛), per il quale 𝐻(𝑣) è definita come abbiamo visto nel primo sotto-paragrafo
esiste finita per 𝑣 = 𝑣0 . Valgono le seguenti relazioni:
3.1 Introduzione
La descrizione nel dominio del tempo di un sistema LTI si basa sulla rappresentazione del segnale in
ingresso come sovrapposizione di impulsi traslati nel tempo (𝛿(𝑡 − 𝑡0 )) e sulla risposta impulsiva.
Tuttavia, se in ingresso al nostro sistema abbiamo un fasore è più semplice lavorare con la risposta in
frequenza e le rappresentazioni di Fourier. Sia nel TC che nel TD un segnale periodico può sempre essere
rappresentato come una sovrapposizione discreta di fasori, aventi frequenze multiple della Frequenza
Fondamentale. In particolare, tale rappresentazione si chiama:
A. Caso TC: Serie di Fourier
B. Caso TD: Discrete Fourier Serie (DFS)
Per esempio, supponiamo di trovarci nel caso TC (osservazioni analoghe valgono anche in TD) e di avere
in ingresso il seguente segnale 𝑥(𝑡), l’uscita 𝑦(𝑡) del nostro sistema sarà:
Potremmo a questo punto obiettare che questa forma di scrittura è di scarso interesse perché abbiamo
parlato solo di segnali periodici, tuttavia nel successivo capitolo osserveremo una forma di scrittura
generale (quindi vale anche per segnali non periodici) che si chiama Trasformata di Fourier.
Dimostrazione: abbiamo detto che un qualsiasi segnale periodico 𝑥(𝑡) di periodo 𝑇0 possiamo scriverlo
come somma finita di 𝑀 fasori (quindi di sinusoidi), quindi si può esprimere come:
+𝑀
𝑥(𝑡) = ∑ 𝑋𝑘 𝑒 𝑗2𝜋𝑘𝑓0𝑡
𝑘=−𝑀
La frequenza 𝑓𝑘 = 𝑘𝑓0 sono multiple della frequenza fondamentale 𝑓0 , quindi i periodi 𝑇𝑘 sono
sottomultipli del periodo fondamentale 𝑇0 . Inoltre, ciascun termine della sommatoria viene chiamato
Armonica e in particolare l’armonica con 𝑘 = ±1 vien definita Armonica Fondamentale. Indichiamo
con Problema di Analisi, la determinazione di coefficienti 𝑋𝑘 della sommatoria. Le varie armoniche
della sommatoria essendo delle sinusoidi sono certamente dei segnali di potenza e la potenza mutua fra
due armoniche avente frequenza diversa è:
1 1 𝑠𝑒 𝑘 = ℎ
𝑃𝑥𝑘 ,𝑥ℎ =< 𝑥𝑘 (𝑡)𝑥ℎ∗ (𝑡) >= ∫ 𝑒 −𝑗2𝜋(𝑘−ℎ)𝑓0 𝑡 𝑑𝑡 = 𝛿(𝑘 − ℎ) = {
𝑇0 𝑇0 0 𝑠𝑒 𝑘 ≠ ℎ
Per ricavare la formula dei 𝑋𝑘 moltiplichiamo ambo i membri della relazione di 𝑥(𝑡) ricavata
inizialmente per 𝑒 −𝑗2𝜋ℎ𝑓0 𝑡 e integriamo su 𝑇0 :
+𝑀 +𝑀
1 1
𝑥(𝑡) = ∑ 𝑋𝑘 𝑒 𝑗2𝜋𝑘𝑓0𝑡 → ∫ 𝑥(𝑡)𝑒 −𝑗2𝜋ℎ𝑓0 𝑡 𝑑𝑡 = ∑ 𝑋𝑘 ∫ 𝑒 −𝑗2𝜋(𝑘−ℎ)𝑓0 𝑡 𝑑𝑡 = 𝑋ℎ
𝑇0 𝑇0 𝑇0 𝑇0
𝑘=−𝑀 𝑘=−𝑀
Cambiando l’indice da ℎ a 𝑘.
1
𝑋𝑘 = ∫ 𝑥(𝑡)𝑒 −𝑗2𝜋𝑘𝑓0 𝑡 𝑑𝑡
𝑇0 𝑇0
+𝑀 +∞
In definitiva, la serie di Fourier definisce una corrispondenza biunivoca tra 𝑥(𝑡) e i suoi coefficienti di
𝐹𝑇
Fourier 𝑋𝑘 : 𝑥(𝑡) ↔ 𝑋𝑘
Chiaramente però se prima avevamo un numero finito di termini e quindi la serie certamente
convergeva, ora con un numero infinito di termini può accadere che la serie risulti essere non
convergente. Lo studio delle condizioni sotto il quale la serie di Fourier converge dipende dal tipo di
convergenza richiesta (puntuale, uniforme, ecc.). La serie di Fourier Converge Uniformemente se è
valida la seguente Condizione Necessaria:
Si tratta di una condizione solo necessaria ma non sufficiente perché se 𝑥(𝑡) presenta una discontinuità
allora la serie di Fourier non converge uniformemente, Questo perché la somma di una serie
uniformemente convergente di funzioni continue (quali i fasori) è sempre una funzione continua. Due
condizioni sufficienti possono essere: +∞
a. Se la successione di 𝑋𝑘 è sommabile, quindi vale la seguente relazione,
allora la serie a cui essi sono associati converge uniformemente. ∑ |𝑋𝑘 | < +∞
b. Teorema: se il segnale a TC 𝑥(𝑡), periodico di periodo 𝑇0 , è continuo 𝑘=−∞
Quindi la serie di Fourier restituisce il segnale 𝑥(𝑡) ovunque eccetto che in ben determinati intervalli di
tempo. Tale questione viene affrontata mediate le seguenti condizioni.
L’equazione di sintesi della serie di Fourier, nelle ipotesi in cui valgono le condizioni di Dirichlet,
consente di ricostruire il segnale in ogni punto in cui 𝑥(𝑡) è continua e avere nei punti di discontinuità
la semisomma del limite destro e sinistro. La convergenza uniforme garantisce invece una perfetta
ricostruzione di 𝑥(𝑡) e abbiamo visto che una delle condizioni necessarie è che i coefficienti 𝑋𝑘 → 0 per
|𝑘| → +∞. Chiaramente nella pratica siamo in grado solo di considerare un numero finito 𝑀 di
armoniche per ricostruire il segnale 𝑥(𝑡) (avremmo perciò la serie di fianco), quindi ci potremmo
chiedere quanto deve essere grande M affinché abbiamo una adeguata ricostruzione del segnale. La
risposta a questo quesito dipende dalla rapidità con cui gli 𝑋𝑘 tendono a zero per |𝑘| → +∞, maggiore è
la rapidità minore dovrà essere M per ricostruire il segnale (la nostra serie di Fourier non avrà bisogno
di molti termini per ricostruire il segnale). La rapidità di decadimento dei coefficienti 𝑋𝑘 dipende dalla
dolcezza del segnale 𝑥(𝑡), maggiore sono il numero di derivate continua del segnale in questione e
maggiore è più velocemente gli 𝑋𝑘 tenderanno a zero. Una importante proprietà per tutto ciò che
abbiamo detto a proposito del problema della rapidità di decadimento è:
𝐹𝑆
Proprietà: Sia 𝑥(𝑡) ⇔ 𝑋𝑘 un segnale a TC periodico. Se esso con le sue derivate fino a quella di ordine
𝑛, con derivata (𝑛 + 1)-esima discontinua ma limitata, i coefficienti 𝑋𝑘 della sua serie di Fourier
decadono a zero per |𝑘| → +∞ come 1/|𝑘|𝑛+2 .
P a g . | 29
𝑵𝟎 −𝟏
Analogamente a quanto visto per il caso TC, anche nel tempo discreto siamo in grado di rappresentare
il segnale periodico in ingresso come sovrapposizione di fasori aventi frequenze multiple della
fondamentale (come di fianco). Una prima differenza rispetto al caso TC è che nel discreto la sommatoria
varia da 0 fino a 𝑁0 − 1, questo perché se abbiamo due fasori per il quale
𝑁0 −1
le frequenze sono tali che 𝑣2 − 𝑣1 = 𝑘, allora essi sono praticamente
identici per la proprietà di periodicità in frequenza dei fasori in TD. Allora 𝑥(𝑡) = ∑ 𝑋𝑘 𝑒 𝑗2𝜋𝑘𝑣0𝑛
basta far variare 𝑛 in modo che abbiamo sempre 𝑣𝑘 = 𝑘𝑣0 = 𝑘/𝑁0 , 𝑘=0
cosicché avremo la successione di frequenza 0,1/𝑁0 , … , (𝑁0 − 1)/𝑁0 .
Altra differenza dal caso TC è che nel tempo discreto la DFS ricostruisce sempre esattamente il segnale
𝑥(𝑛) in ingresso al sistema in quanto non abbiamo le problematiche presenti per i segnali TC 𝑥(𝑡).
Vediamo adesso come calcolare le due equazioni con passaggi analoghi a quel del caso TC ma questa
volta semplificati dal fatto che non dobbiamo preoccuparci della convergenza uniforma della serie.
Moltiplichiamo ambo i membri dell’equazione di analisi per 𝑒 −𝑗𝜋ℎ𝑣0 𝑛 e sommando su un periodo 𝑁0 :
𝑁0 −1 𝑁0 −1 𝑁0 −1 𝑁0 −1
1 1
𝑥(𝑡) = ∑ 𝑋𝑘 𝑒 𝑗2𝜋𝑘𝑣0𝑛 → ∑ 𝑥(𝑛)𝑒 −𝑗𝜋ℎ𝑣0𝑛 = ∑ 𝑋𝑘 ∑ 𝑒 𝑗2𝜋(𝑘−ℎ)𝑛𝑣0 = 𝑋ℎ
𝑁0 𝑁0
𝑘=0 𝑛=0 𝑛=0 𝑘=0
➢ Simmetria Hermitiana
𝐹𝑆
A. Caso Tempo Continuo: sia 𝑥(𝑡) ↔ 𝑋𝑘 un segnale a TC periodico. Allora risulta che:
𝑠𝑒 𝑒 𝑠𝑜𝑙𝑜 𝑠𝑒
𝑥(𝑡) è 𝑟𝑒𝑎𝑙𝑒 ⇔ 𝑋𝑘∗ = 𝑋−𝑘
𝑠𝑒 𝑒 𝑠𝑜𝑙𝑜 𝑠𝑒
𝑥(𝑛) è 𝑟𝑒𝑎𝑙𝑒 ⇔ 𝑋(𝑘)∗ = 𝑋(−𝑘)
➢ Uguaglianza di Parseval +∞
𝐹𝑆
A. Caso Tempo Continuo: sia 𝑥(𝑡) ↔ 𝑋𝑘 un segnale a TC periodico di periodo 𝑃𝑥 = ∑ |𝑋𝑘 |2
𝑇0 . La potenza di 𝑥(𝑡) è data da: 𝑘=−∞
Dimostrazione: partendo dalla equazione di sintesi osserviamo che i fasori 𝑒 𝑗2𝜋𝑘𝑓0 𝑡 sono a due a due
ortogonali, per cui possiamo calcolare la potenza della somma di fasori come somme di potenze dei
2
singoli fasori. La potenza di un singolo fasore è data dal modulo al quadrato di |𝑋𝑘 𝑒 𝑗2𝜋𝑓0 𝑡 | = |𝑋𝑘 |2 :
+∞ +∞
𝑁0 −1 𝑁0 −1 𝑁0 −1
1 1 𝑘 1
𝑗2𝜋𝑁 𝑛
𝑥(𝑛) = ∑ 𝑋(𝑘)𝑤𝑁−𝑘𝑛 = ∑ 𝑋(𝑘)𝑒 0 = ∑ 𝑋(𝑘)𝑥𝑘 (𝑛)
𝑁0 0
𝑁0 𝑁0
𝑘=0 𝑘=0 𝑘=0
P a g . | 31
𝑁0 −1
1 (𝑘−ℎ)
𝑗2𝜋 𝑁 𝑛 1 𝑠𝑒 𝑘 = ℎ
𝑃𝑥𝑘 , 𝑥ℎ =< 𝑥𝑘 (𝑛)𝑥ℎ∗ (𝑛) >= ∑ 𝑒 0 = 𝛿(𝑘 − ℎ) = {
𝑁0 0 𝑠𝑒 𝑘 ≠ ℎ
𝑘=0
𝑁0 −1
1
𝑃𝑥 = 2 ∑ |𝑋(𝑘)|2
𝑁0
𝑘=0
In definiva, sia nel caso TC che TD l’uguaglianza di Parseval ci dice in +∞
sostanza che la potenza di un segnale periodico è pari alla somma delle 2
𝑃𝑥 = 𝑋0 + 2 ∑ |𝑋𝑘 |2
potenze delle armoniche che lo compongono. Nel caso di segnali periodici
𝑘=1
TC (ma anche TD) reali, sfruttando la simmetria Hermitiana possiamo
scrivere la relazione sulla potenza vista precedentemente come di fianco.
Inoltre, nel TC l’uguaglianza di Parseval può essere utilizzata per misurare l’accuratezza della
ricostruzione di un segnale periodico impegnando un numero finito di armoniche. Per ottenere una
valutazione quantitativa di tale accuratezza si calcola la potenza 𝑃𝑥 (𝑀) del segnale ricostruito 𝑥𝑀 (𝑡) con
2𝑀 + 1 armoniche e la si confronta con la potenza 𝑃𝑥 del segnale originario 𝑥(𝑡). Effettuando il rapporto
tra le due potenze otteniamo l’Indice di Bontà della Ricostruzione, il quale varia al variare di M.
𝑀 𝑀
𝑗2𝜋𝑘𝑓0 𝑡
𝑃𝑥 (𝑀)
𝑥𝑀 (𝑡) = ∑ 𝑥(𝑘)𝑒 → 𝑃𝑥 (𝑀) = ∑ |𝑋𝑘 |2 → 𝜀𝑀 ≜ ∈ [0,1]
𝑃𝑥
𝑘=−𝑀 𝑘=−𝑀
P a g . | 32
+∞ +∞
𝐴𝑙𝑙𝑜𝑟𝑎
𝑥(𝑡) = ∑ 𝑋𝑘 𝑒 𝑗2𝜋𝑘𝑓0 𝑡 = ∑ 𝑋𝑘 𝑥𝑘 (𝑡) → 𝑥𝑘 (𝑡) = 𝑒 𝑗2𝜋𝑘𝑓0 𝑡 → 𝑦𝑘 (𝑡) = 𝐻(𝑘𝑓0 )𝑒 𝑗2𝜋𝑘𝑓0 𝑡
𝑘=−∞ 𝑘=−∞
L’uscita quindi si può esprimere mediante la sovrapposizione degli effetti e chiamando 𝑌𝑘 = 𝑋𝑘 𝐻(𝑘𝑓0 ),
scriviamo l’equazione di sintesi della serie di Fourier di 𝑦(𝑡). Possiamo osservare che i coefficienti di
Fourier di 𝑦(𝑡) si ottengono moltiplicando quelli dell’ingresso per i campioni della risposta in frequenza
𝐻(𝑓) valutati in 𝑘𝑓0 :
+∞ +∞
𝑁0 −1 𝑁0 −1
1 1 𝐴𝑙𝑙𝑜𝑟𝑎
𝑥(𝑡) = ∑ 𝑋(𝑘)𝑒 𝑗2𝜋𝑘𝑣0 𝑛 = ∑ 𝑋(𝑘)𝑥𝑘 (𝑛) → 𝑥𝑘 (𝑛) = 𝑒 𝑗2𝜋𝑘𝑛𝑡 → 𝑦𝑘 (𝑛) = 𝐻(𝑘𝑣0 )𝑒 𝑗2𝜋𝑘𝑣0𝑛
𝑁0 𝑁0
𝑘=0 𝑘=0
L’uscita quindi si può esprimere mediante la sovrapposizione degli effetti e chiamando 𝑌(𝑘) =
𝑋(𝑘)𝐻(𝑘𝑣0 ), scriviamo l’equazione di sintesi della DFS di 𝑦(𝑛). Possiamo osservare che i coefficienti di
Fourier di 𝑦(𝑛) si ottengono moltiplicando quelli dell’ingresso per i campioni della risposta in frequenza
𝐻(𝑣) valutati in 𝑘𝑣0 :
𝑁0 −1 𝑁0 −1
1 1
𝑦(𝑛) = ∑ 𝑿(𝒌)𝑯(𝒌𝒗𝟎 )𝑒 𝑗2𝜋𝑘𝑣0𝑛 = ∑ 𝒀(𝒌)𝑒 𝑗2𝜋𝑘𝑣0 𝑛
𝑁0 𝑁0
𝑘=0 𝑘=0
P a g . | 33
I Filtri sono i sistemi che meglio ci fanno capire il principio della selettività in frequenza. In particolare,
vedremo per i filtri oltre che le espressioni analitiche delle rispettive 𝐻(𝑓) anche:
- Frequenza/e di Taglio 𝒇𝒑 o 𝒇𝒑𝟏 , 𝒇𝒑𝟐: è il valore di frequenza a cui il filtro realizza il compito per cui
è stato progettato.
- Banda Passante 𝓦𝒑 : intervallo di frequenza in cui il modulo della risposta in frequenza 𝐻(𝑓) ha
modulo costante e diverso da zero;
- Banda Oscura 𝓦𝒔 : intervallo di frequenza che non fanno parte della banda passante.
Vediamo alcuni Filtri Ideali TC e TD, ricordando che queste ultime hanno una periodicità pari a 1:
• Filtro Ideale Passa-basso o Lowpass Filter (LPF):
Viene usato per far passare inalterate le basse frequenze e attenuare (talvolta anche annullare) le alte
frequenze del segnale.
A. Caso Tempo Continuo: Le espressioni di questo tipo di filtro sono:
1 𝑠𝑒 |𝑓 | ≤ 𝑓𝑝 𝑓
𝐻𝐿𝑃𝐹 (𝑓) = { 𝑜𝑝𝑝𝑢𝑟𝑒 𝐻𝐿𝑃𝐹 (𝑓) = ∏ ( )
0 𝑠𝑒 |𝑓 | > 𝑓𝑝 2𝑓𝑝
1 𝑠𝑒 |𝑣 | ≤ 𝑣𝑝 𝑣
𝐻𝐿𝑃𝐹 (𝑣) = { 𝑜𝑝𝑝𝑢𝑟𝑒 𝐻𝐿𝑃𝐹 (𝑣) = 𝑟𝑒𝑝1 [∏ ( )]
0 𝑠𝑒 |𝑣 | > 𝑣𝑝 2𝑣𝑝
0 𝑠𝑒 |𝑓 | ≤ 𝑓𝑝 𝑓
𝐻𝐿𝑃𝐹 (𝑓) = { 𝑜𝑝𝑝𝑢𝑟𝑒 𝐻𝐻𝑃𝐹 (𝑓) = 1 − ∏ ( ) = 1 − 𝐻𝐿𝑃𝐹 (𝑓)
1 𝑠𝑒 |𝑓 | > 𝑓𝑝 2𝑓𝑝
0 𝑠𝑒 |𝑣 | ≤ 𝑣𝑝 𝑣
𝐻𝐿𝑃𝐹 (𝑣) = { 𝑜𝑝𝑝𝑢𝑟𝑒 𝐻𝐻𝑃𝐹 (𝑣) = 𝑟𝑒𝑝1 [1 − ∏ ( )]
1 𝑠𝑒 |𝑣 | > 𝑣𝑝 2𝑣𝑝
1 𝑠𝑒 𝑓𝑝1 ≤ |𝑓 | ≤ 𝑓𝑝2 𝑓 − 𝑓0 𝑓 + 𝑓0
𝐻𝐵𝑃𝐹 (𝑓) = { 𝑜𝑝𝑝𝑢𝑟𝑒 𝐻𝐵𝑃𝐹 (𝑓) = ∏ ( ) +∏( )
0 𝑎𝑙𝑡𝑟𝑖𝑚𝑒𝑛𝑡𝑖 ∆𝑓 ∆𝑓
1 𝑠𝑒 𝑣𝑝1 ≤ |𝑣 | ≤ 𝑣𝑝2 𝑣 − 𝑣0 𝑣 + 𝑣0
𝐻𝐵𝑃𝐹 (𝑣) = { 𝑜𝑝𝑝𝑢𝑟𝑒 𝐻𝐵𝑃𝐹 (𝑣) = 𝑟𝑒𝑝1 [∏ ( ) +∏( )]
0 𝑎𝑙𝑡𝑟𝑖𝑚𝑒𝑛𝑡𝑖 ∆𝑣 ∆𝑣
0 𝑠𝑒 𝑓𝑝1 ≤ |𝑓 | ≤ 𝑓𝑝2 𝑓 − 𝑓0 𝑓 + 𝑓0
𝐻𝐵𝑆𝐹 (𝑓) = { 𝑜𝑝𝑝𝑢𝑟𝑒 𝐻𝐵𝑆𝐹 (𝑓) = 1 − [∏ ( ) +∏( )]
1 𝑎𝑙𝑡𝑟𝑖𝑚𝑒𝑛𝑡𝑖 ∆𝑓 ∆𝑓
0 𝑠𝑒 𝑣𝑝1 ≤ |𝑣 | ≤ 𝑣𝑝2 𝑣 − 𝑣0 𝑣 + 𝑣0
𝐻𝐵𝑆𝐹 (𝑣) = { 𝑜𝑝𝑝𝑢𝑟𝑒 𝐻𝐵𝑆𝐹 (𝑣) = 𝑟𝑒𝑝1 [1 − [∏ ( ) +∏( )]]
1 𝑎𝑙𝑡𝑟𝑖𝑚𝑒𝑛𝑡𝑖 ∆𝑣 ∆𝑣
+∞
Dimostrazione: consideriamo per semplicità il caso TC nel quale abbiamo un segnale aperiodico 𝑥(𝑡),
il quale nell’intervallo (−𝑍/2, 𝑍/2) con 𝑍 ∈ ℛ+ soddisfa le condizioni di Dirichelet e ha frequenza
fondamentale ∆𝑓 = 1/𝑍. Allora esso può essere sviluppato in serie di Fourier mediante i suoi coefficienti
di Fourier 𝑋𝑘 , per cui il suo spettro è di natura discreta:
+∞ 𝑍/2 𝑍/2
𝑗2𝜋𝑘𝜏
−
𝑥(𝑡) = ∑ 𝑋𝑘 𝑒 𝑗2𝜋𝑘𝑓𝑡 𝑑𝑜𝑣𝑒: 𝑋𝑘 = ∫ 𝑥(𝜏)𝑒 𝑍 𝑑𝜏 = ∫ 𝑥(𝜏)𝑒 −𝑗2𝜋𝑘∆𝑓𝜏 𝑑𝜏
𝑘=−∞ −𝑍/2 −𝑍/2
Uno spettro di natura discreta però va bene per i segnali periodici ma non per quelli aperiodici, quindi
dobbiamo fare in modo che esso presenti una natura continua. Per riuscire a fare ciò, anzitutto estraiamo
dalla sommatoria il termine 𝑘 = 0 (termine in verde), dopodiché facciamo il limite per 𝑍 → +∞ in modo
da eliminarlo.
+∞ +∞
𝟏 𝒁/𝟐 1 𝑍/2 1 𝑍/2
𝑥(𝑡) = ∫ 𝒙(𝝉) 𝒅𝝉 + ∑ [∫ 𝑥(𝜏)𝑒 −𝑗2𝜋𝑘∆𝑓(𝜏−𝑡) 𝑑𝜏] = ∑ [∫ 𝑥(𝜏)𝑒 −𝑗2𝜋𝑘∆𝑓(𝜏−𝑡) 𝑑𝜏]
𝒁 −𝒁/𝟐 𝑍 −𝑍/2 𝑍 −𝑍/2
𝑘=−∞ 𝑘=−∞
𝑘≠0 𝑘≠0
Ricordando che ∆𝑓 = 1/𝑍, passiamo dal limite per 𝑍 → +∞ al limite per ∆𝑓 → 0 e inoltre applichiamo
la sostituzione 𝑓𝑘 = 𝑘∆𝑓:
+∞ 1 +∞ 1
2∆𝑓 2∆𝑓
𝑥(𝑡) = lim { ∑ [∫ 𝑥(𝜏)𝑒 −𝑗2𝜋𝑘∆𝑓(𝜏−𝑡) 𝑑𝜏] ∆𝑓 } = lim { ∑ [∫ 𝑥(𝜏)𝑒 −𝑗2𝜋𝑓𝑘 (𝜏−𝑡) 𝑑𝜏] ∆𝑓 }
∆𝑓→0 1 ∆𝑓→0 1
𝑘=−∞ −2∆𝑓 𝑘=−∞ −2∆𝑓
𝑘≠0 𝑘≠0
P a g . | 36
Tale limite ci consente di affermare che al diminuire di ∆𝑓 (quindi all’aumentare di 1/∆𝑓), tendiamo a
infittire lo spettro del segnale e quindi coprire tutto l’asse reale. Allora l’integrale fra le parentesi quadre
dipende con continuità dalla frequenza 𝑓:
1
+∞
2∆𝑓
lim ∫ 𝑥(𝜏)𝑒 −𝑗2𝜋𝑓𝑘 (𝜏−𝑡) 𝑑𝜏 = [∫ 𝒙(𝝉)𝒆−𝒋𝟐𝝅𝒇𝝉 𝒅𝝉] 𝑒 𝑗2𝜋𝑓𝑡 = 𝑿(𝒇)𝑒 𝑗2𝜋𝑓𝑡
∆𝑓→0 1
−2∆𝑓 −∞
In tal modo abbiamo ricavato l’equazione di analisi, la quale ci consente di calcolar eil peso da attribuire
ad ogni singolo fasore. Ritornando alla 𝑥(𝑡), visto che noi abbiamo anche una sommatoria su k, insieme
al limite per ∆𝑓 → 0, essa diventa una somma integrale su tutto ℛ. In particolare, sarà l’integrale della
funzione 𝑋(𝑓)𝑒 𝑗2𝜋𝑓𝑡 rispetto alla variabile 𝑓 (formalmente la differenza finita ∆𝑓 diventa un
differenziale 𝑑𝑓). Così facendo riusciamo ad ottenere l’equazione di sintesi, la quale in pratica ci dice
che, un segnale aperiodico 𝑥(𝑡) può essere rappresentato sovrapponendo nel continuo i fasori 𝑒 𝑗2𝜋𝑓𝑡
aventi frequenza variabile su ℛ e ampiezza infinitesima 𝑋(𝑓)𝑑𝑓:
+∞ +∞
𝒙(𝒕) = lim { ∑ 𝑋(𝑓)𝑒 𝑗2𝜋𝑓𝑡 ∆𝑓 } =∫ 𝑿(𝒇)𝒆𝒋𝟐𝝅𝒇𝒕 𝒅𝒇
∆𝑓→0 −∞
𝑘=−∞
𝑘≠0
Analoghi passaggi si ottengono anche nel caso tempo discreto, con la differenza però nel nome delle
variabili e negli estremi di integrazione dell’equazione di sintesi. Ciò è dovuto alla seguente proprietà:
Proprietà di Periodicità della Trasformata di Fourier a TD: la trasformata di Fourier 𝑋(𝑣) di un
segnale a TD 𝑥(𝑛) è periodica di periodo unitario: 𝑿(𝒗) = 𝑿(𝒗 + 𝟏)
Se il segnale è sommabile (l’ultimo integrale ha un valore finito), allora certamente il modulo della
trasformata di Fourier del segnale sarà finita. Si è sottolineato il modulo in quanto la sommabilità di 𝑥(𝑡)
non implica la sommabilità di 𝑋(𝑓), basti pensare al caso 𝑥(𝑡) = 𝑟𝑒𝑐𝑡(𝑡) → 𝑋(𝑓) = 𝑠𝑖𝑛𝑐(𝑓) che non è
sommabile. Con questo esempio l’unica cosa che abbiamo dimostrato è che se la 𝑥(𝑡) è sommabile,
seppur 𝑋(𝑓) non è detto che lo sia, certamente la trasformata di Fourier sarà continua, limitata e
Affrontiamo adesso il problema dell’invertibilità della trasformata di Fourier soffermandoci solo sui
segnali sommabili. Tale problema è analogo a quello visto per la serie di Fourier quando, oltre alla
sommabilità della serie doveva essere verificata anche la convergenza puntuale o uniforme. Anche per
la trasformata di Fourier intervengono le seguenti condizioni:
Condizioni di Dirichlet per la Trasformata di Fourier a TC: se il segnale 𝑥(𝑡) soddisfa le seguenti tre
condizioni:
✓ 𝑥(𝑡) è sommabile su ℛ;
✓ 𝑥(𝑡) è una funzione continua su 𝑇0 escluso in un numero finito di discontinuità di prima specie;
✓ 𝑥(𝑡) è funzione derivabile su 𝑇0 escluso in un numero finito di discontinuità di prima specie. Inoltre, in
tali punti devono essere finiti i limiti da destra e da sinistra.
Allora la funzione 𝑋(𝑓)𝑒 𝑗2𝜋𝑓𝑡 è integrabile su ℛ nel senso del valor principale di Cauchy e si ha che:
𝑍
1
lim ∫ 𝑋(𝑓)𝑒 𝑗2𝜋𝑓𝑡 𝑑𝑓 = [𝑥(𝑡 + ) + 𝑥(𝑡 − )]
𝑍→∞ −𝑍 2
Per i segnali transitori e non sommabili come la sinc, se sono trasformabili nel senso del valor principale
allora la formula di inversione è valida ancora se:
o Sono vedere le condizioni del teorema sull’esistenza della trasformata di Fourier nel senso valor
principale;
o Su ogni intervallo finito, 𝑥(𝑡) presenta un numero finito di discontinuità di seconda specie (punti
in cui è presente un asintoto e quindi i limiti da destra e sinistra non esistono e non sono finiti).
In tal caso, il segnale deve soddisfare le ultime di condizioni di Dirichlet citate pocanzi esclusi gli
intorni contenenti i punti di discontinuità.
Più complessa è il caso in cui stiamo parlando di segnali persistenti (segnali costanti o periodici), per i
quali le condizioni di Dirichlet non sono soddisfatte. Infatti, per questo tipo di segnali la trasformata di
Fourier, qualora esista, presenterà delle delta di Dirac.
P a g . | 38
B. Caso Tempo Discreto: Abbiamo visto che alcune condizioni sufficienti per
verificare l’esistenza della rappresentazione di Fourier di un segnale sono la lim 𝑥(𝑛) = 0
|𝑛|→+∞
sua sommabilità (l’integrale tra ±∞ di |𝑥(𝑡)| è minore di infinito) e le
condizioni di Dirichlet per i segnali a TC. In particolare, l’ipotesi di
sommabilità comporta che vale la relazione di fianco e quindi +∞
sicuramente sono sommabili i segnali di durata rigorosamente e
𝑋(𝑣) = ∑ 𝑥(𝑛)𝑒 −𝑗2𝜋𝑣𝑛
praticamente limitata ma non quelli di durata illimitata (come i
𝑛=−∞
segnali periodici). Partiamo allora dall’equazione di analisi:
Valgono le seguenti disuguaglianze:
+∞ +∞ +∞ +∞
|𝑋(𝑣)| = | ∑ 𝑥(𝑛)𝑒 −𝑗2𝜋𝑣𝑛 | ≤ ∑ |𝑥(𝑛)||𝑒 −𝑗2𝜋𝑣 | = ∑ |𝑥(𝑛)|1 = ∑ |𝑥(𝑛)|
𝑛=−∞ 𝑛=−∞ 𝑛=−∞ 𝑛=−∞
Se il segnale è sommabile (l’ultimo integrale ha un valore finito), allora certamente il modulo della
trasformata di Fourier del segnale sarà finita. Anzi nel TD possiamo affermare una considerazione
ancora più forte, ovvero che se 𝑥(𝑛) è sommabile allora la serie di funzione a secondo membro
dell’equazione di analisi convergono uniformemente per 𝑣 ∈ [−1/2,1/2] ad una funzione 𝑋(𝑣) continua.
Nel TD è inoltre più agevole lo studio dell’esistenza dell’antitrasformata di Fourier, per farlo partiamo
dall’equazione di sintesi del segnale 𝑥̂(𝑛) deve risultare essere uguale al segnale originale 𝑥(𝑡):
1/2
𝑥̂(𝑛) = ∫ 𝑋(𝑣)𝑒 𝑗2𝜋𝑣𝑛 𝑑𝑣 = 𝑥(𝑛)
−1/2
Dove:
1/2 [𝜋(𝑛 − 𝑚)]
∫ 𝑒 𝑗2𝜋𝑣(𝑛−𝑚) 𝑑𝑣 = sin = 𝑠𝑖𝑛𝑐(𝑛 − 𝑚) = 𝛿(𝑛 − 𝑚)
−1/2 𝜋(𝑛 − 𝑚)
Allora:
+∞
Abbiamo osservato che una condizione sufficiente ma non necessaria per l’esistenza della trasformata di
Fourier 𝑋(∙) di un segnale 𝑥(∙) è che quest’ultimo sia sommabile o quadrato sommabile (o nel caso TC
vengano verificate le condizioni del teorema dell’esistenza della FT nel senso del valor principale). A
differenza dei casi esaminati fino ad ora, i segnali persistenti non sono in generale trasformabili in senso
ordinario, ciò significa qualora esista la loro trasformata, per esempio nel caso TC potrebbero comparire
degli impulsi di Dirac oppure potrebbero esserci dei casi in cui (sia in TC che in TD) siamo costretti a
adoperare delle procedure che non richiedono calcoli diretti. Tuttavia, c’è da precisare che questa
seconda eventualità è più complessa nel caso TD, a causa della mancanza della proprietà di dualità della
trasformata di Fourier.
P a g . | 39
A differenza della classificazione precedente, di tipo qualitativo, la banda di un segnale fornisce una
caratterizzazione quantitativa (ovvero un valore numerico) dell’intervallo di frequenze in cui lo spettro
assume valori non trascurabili.
praticamente limitata. Chiaramente i segnali a banda praticamente limitata non hanno una
interpretazione e misura della banda univoca come per quelli a banda rigorosamente limitata. Alcune
interpretazioni differenti sono:
• Banda Nullo-Nullo: tale definizione si applica a segnali di durata rigorosamente limitata come la
finestra rettangolare, dove il tipo andamento dello spettro di ampiezza |𝑋(∙)| è a lobi come in figura.
Allora l’estensione spettrale di tali segnali sarà il lobo principale, mentre la banda sarà la sua
larghezza. Il motivo del nome di tale definizione di banda è perché essa è misurata tra due valori
frequenza (uno positivo e l’altro negativo) nel quale lo spettro di ampiezza |𝑋(∙)| = 0.
• Banda all’𝑎% di Energia: tale definizione si usa per i segnali a banda praticamente limitata come i
segnali di energia. A tal proposito dobbiamo citare:
𝐹𝑇
Proprietà – Uguaglianza di Parseval per la Trasformata di Fourier: sia 𝑥(∙) ↔ 𝑋(∙) con 𝑥(∙)
segnale di energia, si ha che:
+∞ +∞ +∞ +1/2
𝑇𝐶: 𝜀𝑥 = ∫ |𝑥(𝑡)|2 𝑑𝑡 =∫ |𝑋(𝑓)|2 𝑑𝑓 𝑇𝐷: 𝜀𝑥 = ∑ |𝑥(𝑛)|2 = ∫ |𝑋(𝑣)|2 𝑑𝑣
−∞ −∞ 𝑛−∞ −1/2
Dove definiamo la Densità Spettrale di Energia 𝒮𝑥 (∙) ≜ |𝑋(∙)|2 una funzione non negativa della
frequenza. Essendo lo spettro di ampiezza pari anche la densità spettrale sarà una funzione pari e
quindi 𝒮(−(∙)) = 𝒮(∙). Si noti infine che l’uguaglianza di Parseval per la trasformata di Fourier vale
solo per i segnali di energia, ed è la diretta controparte dell’uguaglianza di Parseval per la serie di
Fourier, che vale solo per i segnali di potenza periodici.
A questo punto potremmo chiederci quale correlazione ci sia tra l’energia e la banda del segnale.
Ebbene l’uguaglianza appena vista (sia nel TC che nel TD), fissando un valore 0 < 𝑎 < 1, definisce
l’estensione spettrale 𝑊𝑥 (e quindi la banda) di un segnale 𝑥(·), nel quale si trova l’𝑎% dell’energia
totale 𝜀𝑥 di tale segnale (per esempio 𝑎 = 0,95 → 𝑎% = 95%). In formule, stiamo imponendo che
l’energia del segnale nell’intervallo di frequenze 𝑊𝑥 sia pari ad una frazione 𝑎𝜀𝑥 dell’energia totale.
Gli integrali che definiscono tali osservazioni dovrebbero essere tra ±∞ ma essendo se l’estensione
spettrale è 𝑊𝑥 = (−𝑊, 𝑊), i nuovi estremi di integrazione saranno dei valori finiti.
a. Caso Tempo Continuo:
+𝑊
𝜀𝑊𝑥 = ∫ |𝑋(𝑓)|2 𝑑𝑓 = 𝑎𝜀𝑥
−𝑊
P a g . | 42
L’uguaglianza di Parseval ammette una generalizzazione con riferimento all’energia mutua tra due
segnali:
Proprietà – Uguaglianza di Parseval Generalizzata per la Trasformata di Fourier:
𝐹𝑇 𝐹𝑇
siano 𝑥(∙) ↔ 𝑋(∙) e 𝑦(∙) ↔ 𝑌(∙) dei segnali di energia, si ha che:
+∞ +∞ +∞ +1/2
𝑇𝐶: 𝜀𝑥𝑦 = ∫ 𝑥(𝑡)𝑦 ∗ (𝑡)𝑑𝑡 =∫ 𝑋(𝑓)𝑌 ∗(𝑓)𝑑𝑓 𝑇𝐷: 𝜀𝑥𝑦 = ∑ 𝑥(𝑛)𝑦 ∗ (𝑛) = ∫ 𝑋(𝑣)𝑌 ∗ (𝑣)𝑑𝑣
−∞ −∞ 𝑛−∞ −1/2
Nel caso dei segnali reali l’energia mutua 𝜀𝑥𝑦 = 𝜀𝑦𝑥 e nel caso specifico sei segnali ortogonali 𝜀𝑥𝑦 =
0. Ciò vuol dire che gli spettri dei due segnali non si sovrappongono in frequenza e quindi le loro
estensione spettrali hanno intersezione vuota: 𝒲𝑥 ∩ 𝒲𝑦 = ∅
In particolare, due segnali che presentano tale proprietà si dicono Ortogonali in Frequenza.
• Banda ad 𝑎 𝑑𝐵:
Il concetto di banda ad 𝛼 𝑑𝐵 si fonda sull’introduzione di un opportuno valore di soglia per lo spettro di
ampiezza |𝑋(·)| di un segnale 𝑥(·), considerando trascurabili i valori di |𝑋(·)| inferiori alla soglia fissata.
Tuttavia, invece di ragionare in scala naturale si passa alla
scala logaritmica mediante la conversione di fianco In questa |𝑋(𝑓)|
|𝑋(𝑓)|𝑑𝐵 = 20 log10
relazione vediamo il termina 𝑓𝑟𝑖𝑓𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑜 , il quale viene |𝑋(𝑓𝑟𝑖𝑓𝑖𝑚𝑒𝑛𝑡𝑜 )|
scelto base al segnale (passa-basso, passa-alto, ecc.) ed la
frequenza a cui |𝑋(𝑓)| assume il valore massimo. Questo tipo di rappresentazione consente di definire
un secondo parametro, detto rolloff o decadimento asintotico dello spettro di un segnale che,
insieme con la banda, caratterizza sinteticamente un segnale nel dominio della frequenza. Nel tempo
discreto ovviamente la relazione è analoga però con 𝑣 al posto di 𝑓. Le motivazioni che spingono all’uso
della scala logaritmica sono dovute all’ampio intervallo di valori che può assumere lo spettro di
ampiezza di un certo fenomeno fisico al variare della frequenza. Infatti, certi fenomeni fisici sarebbero
impossibili da descrivere in scale naturali ma con la scala logaritmica si restringe tutte l’asse delle
frequenze. I diagrammi Bode sono il tipico esempio di grafici che adoperano la scala logaritmica e infatti
sono il fondamentale strumento per rappresentare la risposta in frequenza di un sistema LTI. Nel
seguito considereremo esclusivamente il diagramma di Bode per l’ampiezza, in quanto ci consentirà di
introdurre importanti concetti relativi alla banda ad 𝛼 𝑑𝐵 e al decadimento asintotico dello spettro di
un segnale.
Ritornando al concetto di banda ad a dB, in pratica si appoggia alla definizione di estensione spettrale
Wx ad α dB per un segnale x(·) a banda praticamente limitata per circoscrivere un intervallo di
frequenza nel quale la risposta in ampiezza si discosta (in dB) dal valore assunto ad una frequenza di
riferimento al più per una prefissata aliquota (dipendente dalla scelta di α ). Il che vuol dire che tutte le
componenti spettrali del segnale le cui frequenze non appartengono all’intervallo 𝑊𝑥 sono da
considerarsi trascurabili, nel senso che non contribuiscono significativamente alla sintesi del segnale.
Tuttavia, la conoscenza della banda a α dB:
Nel caso TD: essendo la sintesi del segnale già il risultato di una integrazione su un intervallo di misura
finita, è tutto ciò che ci serve;
P a g . | 43
Nel caso TC: fornisce solo una prima informazione su quanto tali componenti siano trascurabili. Essa è
invece importante per la caratterizzazione sintetica dei segnali TC ed è legata alla rapidità con cui lo
spettro X(f) del segnale decade a zero quando f →±∞: maggiore è la rapidità di decadimento di X(f), tanto
più lo spettro di ampiezza del segnale risulta confinato nell’intervallo Wx. Si ricordi che una questione
simile è stata già affrontata per i coefficienti di Fourier di un segnale periodico (cfr.§ 5.2.2); in quella
occasione si è visto che l’effettiva rapidità con cui i coefficienti di Fourier decadono a zero nel dominio
della frequenza dipende dalla dolcezza con cui il segnale varia nel dominio del tempo, ovvero dal numero
di derivate continue che esso possiede. Un risultato analogo sussiste anche per la trasformata di Fourier
a TC:
𝐹𝑇
Proprietà - Rapidità di Decadimento a Zero della Trasformata di Fourier: sia 𝑥(∙) ↔ 𝑋(∙). Se il
segnale è continuo con le sue derivate fino a quella di ordine n, con derivata (𝑛 + 1)-esima
discontinua ma sommabile, la sua trasformata di Fourier 𝑋(𝑓) decade a zero per 𝑓 → ±∞ come
1/|𝑓 |𝑛+2 .
Tale stabilisce un legame tra l’ordine di derivabilità di un segnale (ovvero la sua “dolcezza” nel dominio
del tempo) e la velocità di decadimento a zero per 𝑓 → ±∞ della sua trasformata di Fourier. In
particolare, maggiore è il numero di derivate continue di x(t) (ovvero quanto più il segnale varia
dolcemente nel tempo), tanto più rapidamente decade a zero la sua trasformata di Fourier.
𝑭𝑻
𝒚(∙) = 𝒂𝟏 𝒙𝟏 (∙) + 𝒂𝟐 𝒙𝟐 (∙) ↔ 𝒀(∙) = 𝒂𝟏 𝑿𝟏 (∙) + 𝒂𝟐 𝑿𝟐 (∙)
𝐹𝑇
• Simmetria Hermitiana: sia 𝑥(∙) ↔ 𝑋(∙), vale la seguente relazione.
𝒔𝒆 𝒆 𝒔𝒐𝒍𝒐 𝒔𝒆
𝒙(∙) è 𝒓𝒆𝒂𝒍𝒆 ⇔ 𝑿∗ (∙) = 𝑿(−(∙))
𝐹𝑇
• Dualità della Trasformata di Fourier a Tempo Continua: sia 𝑥(𝑡) ↔ 𝑋(∙), si ha che:
𝑭𝑻
𝑿(𝒕) ↔ 𝒙(−𝒇)
𝐹𝑇
• Valore nell’Origine della Trasformata di Fourier: sia 𝑥(𝑡) ↔ 𝑋(∙), si ha che:
+∞ +∞
𝑇𝐶 𝑋(0) = ∫ 𝑥(𝑡)𝑑𝑡 𝑒 𝑥(0) = ∫ 𝑋(𝑓)𝑑𝑓
−∞ −∞
+∞ 1/2
𝑇𝐷 𝑋(0) = ∑ 𝑥(𝑛) 𝑒 𝑥(0) = ∫ 𝑋(𝑣)𝑑𝑣
𝑛−∞ −1/2
𝐹𝑇 𝐹𝑇
• Proprietà di Convoluzione della Trasformata di Fourier: siano 𝑥1 (∙) ↔ 𝑋1 (∙) e 𝑥2 (∙) ↔ 𝑋2 (∙), si
ha che:
𝐹𝑇
𝑦(∙) = 𝑥1 (∙) ∗ 𝑥2 (∙) ↔ 𝑌(∙) = 𝑋1 (∙)𝑋2 (∙)
La somma di due segnali nel dominio del tempo produce la somma delle estensioni spettrali dei due
segnali nel dominio della frequenza: 𝒲𝑦 ≤ 𝒲𝑥1 + 𝒲𝑥2
• Prodotto di Due Segnali:
𝐹𝑇
𝑦(∙) = 𝑥1 (∙) ∙ 𝑥2 (∙) ↔ 𝑌(∙) = 𝑋1 (∙) ∗ 𝑋2 (∙)
Il prodotto di due segnali nel dominio del tempo produce la somma delle bande dei due segnali nel
dominio della frequenza: 𝐵𝑦 ≤ 𝐵𝑥1 + 𝐵𝑥2
Nel caso tempo continuo la relazione a destra di 𝑌(∙) diventa:
+∞
𝑌(𝑓) = 𝑋1 (𝑓) ∗ 𝑋2 (𝑓) = ∫ 𝑋1 (𝜆)𝑋2 (𝑓 − 𝜆)𝑑𝜆
−∞
P a g . | 45
+∞ +∞ 1
+2
𝑌(𝑣) = ∑ 𝑥1 (𝑛)𝑥2 𝑒 −𝑗2𝜋𝑣𝑛 = ∑ [∫ 𝑋1 (𝜆)𝑒 𝑗2𝜋𝑣𝑛 𝑑𝜆] 𝑥2 𝑒 −𝑗2𝜋𝑣𝑛
1
𝑛=−∞ 𝑛=−∞ −2
+1/2 +∞ +1/2
𝑌(𝑣) = ∫ 𝑋1 (𝜆) [ ∑ 𝑥2 (𝑛) 𝑒 −𝑗2𝜋(𝑣−𝜆)𝑛 ] 𝑑𝜆 = ∫ 𝑋1 (𝜆)𝑋2 (𝑣 − 𝜆)𝑑𝜆
−1/2 𝑛=−∞ −1/2
𝑟𝑒𝑝1 [𝑋𝑔 (𝑣)] ∗ 𝑟𝑒𝑝1 [𝑌𝑔 (𝑣)] = 𝑟𝑒𝑝1 [𝑋𝑔 (𝑣) ∗ 𝑌𝑔 (𝑣)]
Dove la convoluzione a primo membro è periodica, mentre quella a secondo membro è aperiodica.
𝐹𝑇
• Proprietà della Traslazione Frequenziale: sia 𝑥(∙) ↔ 𝑋(∙) e 𝑓0 ∈ ℛ, 𝑣0 ∈ ℛ si ha che:
A. Caso Tempo Continuo:
𝐹𝑇
𝑦(𝑡) = 𝑥(𝑡)𝑒 𝑗2𝜋𝑓0 𝑡 ↔ 𝑌(𝑓) = 𝑋(𝑓 − 𝑓0 )
Dimostrazione: consideriamo che in ingresso abbiamo il prodotto di un segnale 𝑥(𝑡) per un fasore
𝑒 𝑗2𝜋𝑓0 𝑡 : 𝑦(𝑡) = 𝑥(𝑡)𝑒 𝑗2𝜋𝑓0𝑡
𝐹𝑇
Ricordiamo che 𝑒 𝑗2𝜋𝑓0 𝑡 ↔ 𝛿(𝑓 − 𝑓0 ), allora applicando la proprietà di convoluzione della delta:
𝐹𝑇
Ricordiamo che 𝑒 𝑗2𝜋𝑣0𝑛 ↔ 𝛿̃ (𝑣 − 𝑣0 ), allora applicando la proprietà di convoluzione della delta:
𝑌(𝑣) = 𝑋(𝑣) ∗ 𝛿̃ (𝑣 − 𝑣0 ) = 𝑟𝑒𝑝1 [𝑋𝑔 (𝑣)] ∗ 𝑟𝑒𝑝1 [𝛿(𝑣 − 𝑣0 )] = 𝑟𝑒𝑝1 [𝑋𝑔 (𝑣) ∗ 𝛿(𝑣)] = 𝑋(𝑣 − 𝑣0 )
𝐹𝑇
• Proprietà di Modulazione: sia 𝑥(∙) ↔ 𝑋(∙) e 𝑓0 ∈ ℛ, 𝑣0 ∈ ℛ si ha che:
𝐹𝑇 1 1
𝑇𝐶. 𝑦(𝑡) = 𝑥(𝑡) cos(2𝜋𝑓0 𝑡 + 𝜑0 ) ↔ 𝑌(𝑓) = 𝑒 𝑗𝜑0 𝑋(𝑓 − 𝑓0 ) + 𝑒 −𝑗𝜑0 𝑋(𝑓 + 𝑓0 )
2 2
𝐹𝑇 1 𝑗𝜑 1
𝑇𝐷. 𝑦(𝑛) = 𝑥(𝑛) cos(2𝜋𝑣0 𝑛 + 𝜑0 ) ↔ 𝑌(𝑣) = 𝑒 0 𝑋(𝑣 − 𝑣0 ) + 𝑒 −𝑗𝜑0 𝑋(𝑣 + 𝑣0 )
2 2
P a g . | 46
Dimostrazione: in ambo i casi la dimostrazione è la stessa quindi supponiamo di trovarci nel caso
TC. Calcoliamo la trasformata di Fourier di tale segnale: 𝑦(𝑡) = 𝑥(𝑡) cos(2𝜋𝑓0 𝑡 + 𝜑0 )
Effettuiamo prima una serie di passaggi:
1 1
𝑦(𝑡) = 𝑥(𝑡) cos(2𝜋𝑓0 𝑡 + 𝜑0 ) = 𝑥(𝑡) [ 𝑒 𝑗2𝜋𝑓0𝑡 𝑒 𝑗𝜑0 + 𝑒 −𝑗2𝜋𝑓0 𝑡 𝑒 −𝑗𝜑0 ]
2 2
1 1
𝑦(𝑡) = 𝑥(𝑡)𝑒 𝑗2𝜋𝑓0 𝑡 𝑒 𝑗𝜑0 + 𝑥(𝑡)𝑒 −𝑗2𝜋𝑓0 𝑡 𝑒 −𝑗𝜑0
2 2
1 1
𝑌(𝑓) = 𝑒 𝑗𝜑0 𝑋(𝑓 − 𝑓0 ) + 𝑒 −𝑗𝜑0 𝑋(𝑓 + 𝑓0 )
2 2
L’effetto di una moltiplicazione con una sinusoide a frequenza 𝑓0 o 𝑣0 comporta una doppia
traslazione in frequenza, sia verso destra che verso sinistra (come nell’esempio TC in figura imposti
𝜑0 = 0, 𝑓0 > 0). Inoltre, osserviamo che a causa della moltiplicazione con 1/2 vengono anche
dimezzate le ampiezze. Risultato di quanto detto fino d’ora, alla doppia traslazione del segnale
comporta il medesimo comportamento per l’estensione spettrale:
In pratica, il nostro segnale passabasso è diventato passabanda ma solo se |𝑓0 | > 𝑓𝑚 perché in caso
contrario le due traslazioni si sovrappongono (e il segnale rimane passabasso). Allora possiamo
affermare che l’estensione di y può essere al più doppia rispetto a quella di x: 𝑊𝑦 = 2𝑊𝑥
Per quanto riguarda la banda il discorso è analogo, infatti nell’esempio essendo che consideriamo le
bande bilatere, quindi: 𝐵𝑦 = 2𝐵𝑥
Allora dopo la modulazione avremo che: 𝐵𝑦 = 4𝐵𝑥
Dimostrazione: in ambo i casi la dimostrazione è la stessa quindi supponiamo di trovarci nel caso
TC. Calcoliamo la trasformata di Fourier del segnale: 𝑦(𝑡) = 𝑥(𝑡 − 𝑡0 )
+∞ +∞
𝑌(𝑓) = ∫ 𝑦(𝑡)𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡 = ∫ 𝑥(𝑡 − 𝑡0 )𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡
−∞ −∞
Gli effetti della traslazione temporale sullo spettro del segnale sono più chiari scrivendo 𝑌(𝑓) come
modulo e fase: 𝑌(𝑓) = |𝑌(𝑓)|𝑒 ∠(𝑌(𝑓)) = |𝑋(𝑓)|𝑒 ∠(𝑋(𝑓))−2𝜋𝑓𝑡0
Capiamo perciò che la traslazione temporale non modifica lo spettro di ampiezza del segnale e di
conseguenza rimarranno invariate anche l’estensione spettrale (𝒲𝑦 = 𝒲𝑥 ) e la banda (𝐵𝑦 = 𝐵𝑥 ).
Invece per quanto riguarda la fase, la traslazione temporale produce uno sfasamento additivo alla
con pendenza negativa se 𝑡0 > 0 o pendenza positiva se 𝑡0 < 0. In pratica quello che abbiamo per la
fase è uno sfasamento lineare nel dominio della frequenza.
𝐹𝑇
• Proprietà di Riflessione: sia 𝑥(∙) ↔ 𝑋(∙), si ha che:
𝑭𝑻
𝒚(∙) = 𝒙(−(∙)) ↔ 𝒀(∙) = 𝑿(−(∙))
Dimostrazione: in ambo i casi la dimostrazione è la stessa quindi supponiamo di trovarci nel caso
TC. Calcoliamo la trasformata di Fourier del segnale: 𝑦(𝑡) = 𝑥(−𝑡)
+∞ +∞
𝑌(𝑓) = ∫ 𝑦(𝑡)𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡 = ∫ 𝑥(−𝑡)𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡
−∞ −∞
In pratica, una riflessione nel dominio del tempo corrisponde a una riflessione nel dominio della
frequenza.
𝐹𝑇
• Proprietà di Coniugazione: sia 𝑥(∙) ↔ 𝑋(∙), si ha che:
𝐹𝑇
𝑦(∙) = 𝑥 ∗(∙) ↔ 𝑌(∙) = 𝑋 ∗ (−(∙))
Dimostrazione: osserviamo che se un segnale pari allora lo sarà anche la sua trasformata di Fourier
(relazione di sinistra). Analogamente se un segnale è dispari allora anche la sua trasformata di
Fourier sarà dispari (relazione di destra):
𝐹𝑇 𝐹𝑇
𝑥(∙) = 𝑥(−(∙)) ↔ 𝑋(∙) = 𝑋(−(∙)) 𝑥(∙) = −𝑥(−(∙)) ↔ 𝑋(∙) = −𝑋(−(∙))
P a g . | 48
Ricordiamo che un segnale 𝑥(∙) può essere decomposto in una parte pari e una dispari:
1 1
𝑥(∙) = 𝑃𝑎[𝑥(∙)] + 𝐷𝑖[𝑥(∙)] = [𝑥(∙) + 𝑥(−(∙))] + [𝑥(∙) − 𝑥(−(∙))]
2 2
Applicando la proprietà di riflessione e linearità, possiamo far corrispondere alla componente pari e
dispari nel dominio del tempo alle rispettive trasformate nel dominio della frequenza:
1 𝐹𝑇 1
𝑃𝑎[𝑥(∙)] = [𝑥(∙) + 𝑥(−(∙))] ↔ 𝑃𝑎[𝑋(∙)] = [𝑋(∙) + 𝑋(−(∙))]
2 2
1 𝐹𝑇 1
𝐷𝑖[𝑥(∙)] = [𝑥(∙) − 𝑥(−(∙))] ↔ 𝐷𝑖[𝑋(∙)] = [𝑋(∙) − 𝑋(−(∙))]
2 2
1 1
𝑋(∙) = 𝑃𝑎[𝑋(∙)] + 𝐷𝑖[𝑋(∙)] = [𝑋(∙) + 𝑋(−(∙))] + [𝑋(∙) − 𝑋(−(∙))]
2 2
𝐹𝑇
Quindi possiamo affermare che: 𝑥(∙) = 𝑃𝑎[𝑥(∙)] + 𝐷𝑖[𝑥(∙)] ↔ 𝑋(∙) = 𝑃𝑎[𝑋(∙)] + 𝐷𝑖[𝑋(∙)]
Un altro tipo di decomposizione elementare come quella appena vista prevede di decomporre il
segnale in una parte reale e una immaginaria:
1 1
𝑥(∙) = 𝑅𝑒[𝑥(∙)] + 𝑗𝐼𝑚[𝑥(∙)] = [𝑥(∙) + 𝑥 ∗ (∙)] + [𝑥(∙) − 𝑥 ∗ (∙)]
2 2
Per il calcolo della trasformata di Fourier delle precedenti espressioni dobbiamo calcolare la
trasformata di Fourier di 𝑦(∙) = 𝑥 ∗ (∙). Lavoriamo per esempio nel caso TC:
+∞ +∞ +∞ ∗
𝑌(𝑓) = ∫ 𝑦(𝑡)𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡 = ∫ 𝑥 ∗ (𝑡)𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡 = [∫ 𝑥(𝑡)𝑒 𝑗2𝜋𝑓𝑡 𝑑𝑡]
−∞ −∞ −∞
+∞ ∗
𝑌(𝑓) = [∫ 𝑥(𝑡)𝑒 −𝑗2𝜋(−𝑓)𝑡 𝑑𝑡] = 𝑋 ∗ (−𝑓)
−∞
Possiamo quindi concludere che la coniugazione nel dominio del tempo corrisponde a una
coniugazione più una riflessione nel dominio della frequenza.
𝐹𝑇
• Proprietà di Riflessione e Coniugazione: sia 𝑥(∙) ↔ 𝑋(∙), si ha che:
𝐹𝑇
𝑦(∙) = 𝑥 ∗(−(∙)) ↔ 𝑌(∙) = 𝑋 ∗ ((∙))
1 𝐹𝑇 1
𝑅𝑒[𝑥(∙)] = [𝑥(∙) + 𝑥 ∗ (∙)] ↔ 𝐻𝑒[𝑋(∙)] = [𝑋(∙) + 𝑋 ∗ (−(∙))]
2 2
Con passaggi analoghi per la parte immaginaria di 𝑥(∙) definiamo la Componente Anti-hermitiana
la sua trasformata di Fourier. Tale componente, se e solo 𝑋(∙) è reale, è pari proprio alla trasformata
di Fourier della componente dispari 𝐷𝑖[𝑋(∙)].
1 𝐹𝑇 1
𝑗𝐼𝑚[𝑥(∙)] = [𝑥(∙) − 𝑥 ∗ (∙)] ↔ 𝐴ℎ[𝑋(∙)] = [𝑋(∙) − 𝑋 ∗ (−(∙))]
2 2
P a g . | 49
𝐹𝑇
In definitiva: 𝑥(∙) = 𝑅𝑒[𝑥(∙)] + 𝑗𝐼𝑚[𝑥(∙)] ↔ 𝑋(∙) = 𝐻𝑒[𝑋(∙)] + 𝐴ℎ[𝑋(∙)]
Passando al dominio del tempo possiamo affermare che:
1 1
𝐻𝑒[𝑥(∙)] = [𝑥(∙) + 𝑥 ∗ (∙)] 𝐴ℎ[𝑥(∙)] = [𝑥(∙) − 𝑥 ∗ (−(∙))]
2 2
Ricordando che, ad una riflessione più una coniugazione nel dominio del tempo corrisponde sempre
a una semplice coniugazione nel dominio della frequenza:
1 𝐹𝑇 1
𝐻𝑒[𝑥(∙)] = [𝑥(∙) + 𝑥 ∗ (∙)] ↔ 𝑅𝑒[𝑋(∙)] = [𝑋(∙) + 𝑋 ∗ (∙)]
2 2
1 𝐹𝑇 1
𝐴ℎ[𝑥(∙)] = [𝑥(∙) − 𝑥 ∗(−(∙))] ↔ 𝑗𝐼𝑚[𝑋(∙)] = + [𝑋(∙) − 𝑋 ∗ (∙)]
2 2
La componente hermitiana nel dominio del tempo corrisponde alla componente reale della
trasformata di Fourier di 𝑥(∙), così come la componente anti-hermitiana corrisponde alla
componente immaginaria della trasformata di Fourier di 𝑥(∙).
𝐹𝑇
• Cambiamento di Scala Temporale a TC: sia 𝑥(𝑡) ↔ 𝑋(𝑓), ∀𝑎 ∈ ℛ − {0} si ha che:
𝐹𝑇 1 𝑓
𝑦(𝑡) = 𝑥(𝑎𝑡) ↔ 𝑌(𝑓) = 𝑋( )
|𝑎| 𝑎
Dimostrazione: la trasformata di Fourier del segnale 𝑦(𝑡) = 𝑥(𝑎𝑡) si riconduce alla trasformata di
Fourier di 𝑥(𝑡) con il cambio di variabile 𝑢 = 𝑎𝑡 e 𝑎 > 0:
+∞ +∞ 𝑢=𝑎𝑡 1 +∞ 𝑓
−𝑗2𝜋(𝑎)𝑢 1 𝑓
𝑌(𝑓) = ∫ 𝑦(𝑡)𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡 = ∫ 𝑥(𝑎𝑡)𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡 =→ = ∫ 𝑥(𝑢)𝑒 𝑑𝑢 = 𝑋 ( )
−∞ −∞ 𝑎 −∞ 𝑎 𝑎
Con analoghi passaggi si può dimostrare che anche nel caso 𝑎 < 0 abbiamo banalmente che si
aggiunge un segno meno davanti all’ultimo membro, quindi possiamo scrivere in maniera più
generica 1/|𝑎|, ottenendo così proprio la regola di cambiamento di scala a TC. Ricordando che per
𝑎 > 1 abbiamo una compressione nel dominio del tempo, tale proprietà ci dice che ad essa
corrisponde una espansione nel dominio della frequenza. Se invece 0 < 𝑎 < 1 abbiamo una
espansione nel dominio del tempo che corrisponde a una compressione nel dominio della frequenza.
𝐹𝑇
• Espansione a TD: sia 𝑥(𝑛) ↔ 𝑋(𝑣) e 𝐿 ∈ 𝒩, si ha che:
𝑛 𝐹𝑇
𝑦(𝑛) = 𝑥 ( ) ↔ 𝑌(𝑣) = 𝑋(𝐿𝑣)
𝐿
Dimostrazione: sappiamo che nel tempo discreto alla compressione corrisponde la decimazione.
Analizziamo il caso della espansione nel TD considerando:
+∞ +∞ 𝑛
𝑛 𝑥 ( ) 𝑠𝑒 𝑛 è 𝑚𝑢𝑙𝑡𝑖𝑝𝑙𝑜 𝑑𝑖 𝐿
𝑌(𝑣) = ∑ 𝑦(𝑛)𝑒 −𝑗2𝜋𝑣𝑛 = ∑ 𝑥 ( ) 𝑒 −𝑗2𝜋𝑣𝑛 𝑑𝑜𝑣𝑒 𝑦(𝑛) = { 𝐿
𝐿 0 𝑎𝑙𝑡𝑟𝑖𝑚𝑒𝑛𝑡𝑖
𝑛=−∞ 𝑛=−∞
+∞
𝑛
𝑌(𝑣) = ∑ 𝑥 ( ) 𝑒 −𝑗2𝜋𝑣𝑛 = 𝑋(𝐿𝑣)
𝑛=−∞
𝐿
𝑛 𝑚𝑢𝑙𝑡𝑖𝑝𝑙𝑜 𝑑𝑖 𝐿
Si osserva che una divisione per L nel dominio del tempo corrisponde a una moltiplicazione per L
nel dominio della frequenza. Inoltre, contrariamente al caso TC, nel caso TD le ampiezze non
vengono modificate.
P a g . | 50
𝐹𝑇
• Derivazione k-esima a TC: sia 𝑥(𝑡) ↔ 𝑋(𝑓) e 𝑘 ∈ 𝒩, si ha che:
𝑑𝑘 𝐹𝑇
𝑦(𝑡) =
𝑘 𝑥(𝑡) ↔ 𝑌(𝑓) = (𝑗2𝜋𝑓)𝑘 𝑋(𝑓)
𝑑𝑡
Dimostrazione: partendo dall’equazione di sintesi
+∞ +∞
𝑑 𝑑
𝑥(𝑡) = ∫ 𝑋(𝑓)𝑒 𝑗2𝜋𝑓𝑡 𝑑𝑓 → 𝑦(𝑡) = 𝑥(𝑡) = ∫ [𝑋(𝑓)𝑒 𝑗2𝜋𝑓𝑡 ] 𝑑𝑓
−∞ 𝑑𝑡 −∞ 𝑑𝑡
+∞ +∞ +∞
𝑑 𝑗2𝜋𝑓𝑡
𝑦(𝑡) = ∫ 𝑋(𝑓) (𝑒 )𝑑𝑓 = ∫ 𝑋(𝑓)𝑗2𝜋𝑓 𝑒 𝑗2𝜋𝑓𝑡 𝑑𝑓 = ∫ 𝑌(𝑓)𝑒 𝑗2𝜋𝑓𝑡 𝑑𝑓
−∞ 𝑑𝑡 −∞ −∞
Per concludere:
𝑑 𝐹𝑇
𝑦(𝑡) = 𝑥(𝑡) ↔ 𝑌(𝑓) = 𝑗2𝜋𝑓𝑋(𝑓)
𝑑𝑡
Iterando questa relazione fino alla derivata k-esima otteniamo la relazione di sopra.
𝐹𝑇
• Integrazione a TC: sia 𝑥(𝑡) ↔ 𝑋(𝑓), si ha che:
𝑡 𝐹𝑇 𝑋(𝑓) 1
𝑦(𝑡) = ∫ 𝑥(𝜏)𝑑𝜏 ↔ 𝑌(𝑓) = + 𝑋(0)𝛿(𝑓)
−∞ 𝑗2𝜋𝑓 2
Dimostrazione: calcoliamo la trasformata di Fourier del segnale 𝑦(𝑡) (primo integrale), il quale può
essere scritto come la convoluzione per il gradino 𝑢(𝑡):
𝑡 𝑡 𝐹𝑇
𝑦(𝑡) = ∫ 𝑥(𝜏)𝑑𝜏 = ∫ 𝑥(𝜏)𝑢(𝑡 − 𝜏)𝑑𝜏 = 𝑥(𝑡) ∗ 𝑢(𝑡) ↔ 𝑌(𝑓) = 𝑋(𝑓)𝑈(𝑓)
−∞ −∞
1 1 1 𝑋(𝑓)
𝑌(𝑓) = 𝑋(𝑓) [ 𝜹(𝒇) − ] = 𝑋(0)𝛿(𝑓) +
2 𝑗2𝜋𝑓 2 𝑗2𝜋𝑓
Dove fra il termine 𝑋(𝑓) e 𝛿(𝑓) è stata applicata la proprietà di campionamento della delta. Nel caso
particolare di 𝑋(0) = 0 abbiamo la perfetta simmetria fra l’operazione di derivazione e integrazione.
In caso contrario tale impulso definisce una componente continua nel segnale 𝑦(𝑡) poiché 𝑋(0)
coincide con l’area del segnale 𝑥(𝑡).
𝐹𝑇
• Differenza k-esima a TD: sia 𝑥(𝑛) ↔ 𝑋(𝑣) e 𝑘 ∈ 𝒩, si ha che:
𝐹𝑇 𝑘
𝑦(𝑛) = ∇𝑘 [𝑥(𝑛)] ↔ 𝑌(𝑣) = (1 − 𝑒 −𝑗2𝜋𝑣 ) 𝑋(𝑣)
𝑌(𝑣) = ℱ[𝑦(𝑛)] = ℱ[𝑥(𝑛) − 𝑥(𝑛 − 1)] = ℱ[𝑥(𝑛)] − ℱ[𝑥(𝑛 − 1)] = 𝑋(𝑣) − 𝑋(𝑣)𝑒 −𝑗2𝜋𝑣
Iterando questa relazione fino alla differenza prima k-esima otteniamo la relazione di sopra.
𝐹𝑇
• Somma Corrente a TD: sia 𝑥(𝑛) ↔ 𝑋(𝑣), si ha che:
+∞
𝐹𝑇 𝑋(𝑣) 1
𝑦(𝑛) = ∑ 𝑥(𝑘) ↔ 𝑌(𝑣) = + 𝑋(0)𝛿(𝑣)
(1 − 𝑒 −𝑗2𝜋𝑣 )𝑘 2
𝑘=−∞
P a g . | 51
Dimostrazione: calcoliamo la trasformata di Fourier del segnale 𝑦(𝑛) (prima sommatoria), la quale
può essere scritta come la convoluzione per il gradino 𝑢(𝑛):
+∞ +∞
𝐹𝑇
𝑦(𝑛) = ∑ 𝑥(𝑚) = ∑ 𝑥(𝑚)𝑢(𝑛 − 𝑚) = 𝑥(𝑛) ∗ 𝑢(𝑛) ↔ 𝑌(𝑣) = 𝑋(𝑣)𝑈(𝑣)
𝑚=−∞ 𝑚=−∞
1 1 1 𝑋(𝑓)
𝑌(𝑣) = 𝑋(𝑣) [ 𝜹̃(𝒗) + ] = 𝑋(0)𝛿̃ (𝑣) +
2 (1 − 𝑒 −𝑗2𝜋𝑣 ) 2 (1 − 𝑒 −𝑗2𝜋𝑣 )
Analoghe considerazioni fatte nel caso TC, valgono anche nel caso TD.
P a g . | 52
𝑁0 −1 𝑁0 −1 𝑁0 −1
1 𝐹𝑇 1 1 𝑘
𝑥(𝑛) = ∑ 𝑋(𝑘)𝑒 𝑗2𝜋𝑘𝑣0𝑛 ↔ 𝑋(𝑣) = ∑ 𝑋(𝑘)𝛿̃ (𝑣 − 𝑘𝑣0 ) = ∑ 𝑋(𝑘)𝛿̃ (𝑣 − )
𝑁0 𝑁0 𝑁0 𝑁0
𝑘=0 𝑘=0 𝑘=0
𝑋(0)𝛿̃ (𝑣)
𝑋(1)𝛿̃ (𝑣 − 𝑣0 )
𝑋(2)𝛿̃ (𝑣 − 2𝑣0 )
…
𝑋(𝑁0 − 1)𝛿̃ (𝑣 − (𝑁0 − 1)𝑣0 )
Il risultato della banda nulla era prevedibile in quanto i segnali periodici essendo esprimibili come
sovrapposizione di segnali mono-frequenziali come i fasori, questi ultimi avendo banda nulla, anche
sovrapposti fra loro avranno banda nulla. Tuttavia, sovratutto nel caso TC, una definizione più
appropriata di estensione spettrale e banda è quella basata sulla definizione di banda all′𝑎% di potenza
(vista nei paragrafi precedenti). In tal caso l’estensione spettrale sarà 𝒲𝑥 = (−𝑀𝑓0 , 𝑀𝑓0 ) con 2𝑀 + 1
armoniche che contengono una frazione 𝑎 della potenza complessiva del segnale. Allora:
- Fissato un 𝑎 ∈ (0,1);
- Chiamando 𝑃𝑥 (𝑥(𝑡)) la potenza del segnale 𝑥(𝑡).
Determiniamo il valore 𝑀 tale che la potenza 𝑃𝑥 (𝑥𝑀 (𝑡)) = 𝑎𝑃𝑥 (𝑥(𝑡)). In base all’uguaglianza di Parseval,
la potenza del segnale 𝑥𝑀 (𝑡), che è quindi una funzione di M (perciò ho scritto 𝑃𝑥 (𝑀)) è pari alla
sommatoria di |𝑋𝑘 |2 :
𝑀 𝑀
Data la natura discreta di M certamente non possiamo mai avere la perfetta uguaglianza perciò sarebbe
più corretto scrivere: 𝑃𝑥 (𝑥𝑀 (𝑡)) ≥ 𝑎𝑃𝑥 (𝑥(𝑡))
In ogni caso la banda bilatera sarà: 𝐵𝑥 = 2𝑀𝑓0
Tutte le considerazioni fatte valgono per i segnali passabasso visto che abbiamo implicitamente
ragionato sull’intorno della frequenza 𝑓0 = 0 e spettro nullo al di fuori di tale intorno. Nel caso TD si
fanno ragionamenti analoghi ma in tal caso abbiamo la perfetta uguaglianza di cui parlavamo prima
visto che viene sempre ricostruito perfettamente il segnale 𝑥(𝑛).
+∞ +∞ +∞
+∞ +∞ +∞
1 𝑘 𝟏 𝒌 𝑘 𝑘
𝑋(𝑓) = 𝑋𝑔 (𝑓) [ ∑ 𝛿 (𝑓 − )] = ∑ 𝑿𝒈 ( ) 𝛿 (𝑓 − ) = ∑ 𝑿𝒌 𝛿 (𝑓 − )
𝑇0 𝑇0 𝑻𝟎 𝑻𝟎 𝑇0 𝑇0
𝑘=−∞ 𝑘=−∞ 𝑘=−∞
Questa proprietà in pratica ci suggerisce una via alternativa per il calcolo dei coefficienti 𝑋𝑘 rispetto alla
formula vista nel capitolo della Serie di Fourier, la quale a volte può essere complicata. Infatti, basta
trovare un opportuno generatore 𝑥𝑔 (𝑡) del segnale, farne
la trasformata di Fourier 𝑋𝑔 (𝑓) e campionare il tutto alle 𝐹𝑇 𝑓=𝑘/𝑇0 1 𝑘
𝑥𝑔 (𝑡) ↔ 𝑋𝑔 (𝑓) ↔ 𝑋𝑘 = 𝑋𝑔 ( )
frequenze 𝑘/𝑇0 : 𝑇0 𝑇0
+∞ +∞ +∞
A questo punto il nostro scopo è calcolare la trasformata di Fourier di 𝑥(𝑛). Applichiamo la proprietà di
convoluzione della trasformata di Fourier e anche la trasformata notevole del pettine di delta, infine
𝐹𝑇
definiamo 𝑥𝑔 (𝑛) ↔ 𝑋𝑔 (𝑣):
+∞ +∞ +∞
1 𝑘 1 𝒌 𝑘 𝑘
𝑋(𝑣) = 𝑋𝑔 (𝑣) [ ∑ 𝛿 (𝑣 − )] = ∑ 𝑿𝒈 ( ) 𝛿 (𝑣 − ) = ∑ 𝑿(𝒌)𝛿 (𝑓 − )
𝑁0 𝑁0 𝑁0 𝑵𝟎 𝑁0 𝑇0
𝑘=−∞ 𝑘=−∞ 𝑘=−∞
Anche in questo caso possiamo definire la strada alternativa del calcolo dei coefficienti 𝑋(𝑘) attraverso
la proprietà di campionamento in frequenza della
trasformata di Fourier, la quale si esplica mediate la 𝐹𝑇 𝑣=𝑘/𝑁0 𝑘
𝑥𝑔 (𝑛) ↔ 𝑋𝑔 (𝑣) ↔ 𝑋(𝑘) = 𝑋𝑔 ( )
sostituzione in grassetto verde. Allora basta trovare un 𝑁0
opportuno generatore 𝑥𝑔 (𝑛), farne la trasformata e
campionare il tutto per 𝑣 = 𝑘/𝑁0 .
P a g . | 55
4.6 Relazione I-U dei Sistemi LTI nel Dominio della Frequenza
La risposta in frequenza 𝐻(∙) di un sistema LTI (TC o TD) è la trasformata di Fourier della risposta
impulsiva ℎ(∙), mentre quest’ultima si può definire come l’anti trasformata di Fourier di 𝐻(∙). Le formule
dell’anti trasformata di Fourier in ambo i casi sono le seguenti:
+∞ 𝟏/𝟐
𝑻𝑪. 𝒉(𝒕) = ∫ 𝑯(𝒇)𝒆𝒋𝟐𝝅𝒇𝒕 𝒅𝒇 𝑻𝑫. 𝒉(𝒏) = ∫ 𝑯(𝒗)𝒆𝒋𝟐𝝅𝒗𝒏 𝒅𝒗
−∞ −𝟏/𝟐
Grazie ad esse siamo in grado di superare i limiti della serie di Fourier e calcolare l’uscita di un sistema
anche quando il segnale in ingresso non è periodico, purché però esso sia dotato di trasformata di
Fourier. Dimostriamo le due formule:
A. Caso Tempo Continuo: partendo dalla equazione di sintesi (formula di sinistra) e ricordando che
per un singolo fasore la risposta del sistema è data dal prodotto dell’ingresso (il fasore) con la
risposta 𝐻(𝑓):
+∞
𝑥(𝑡) = ∫ 𝑋(𝑓)𝑒 𝑗2𝜋𝑓𝑡 𝑑𝑓 𝑒 𝑗2𝜋𝑓𝑡 → 𝐻(𝑓)𝑒 𝑗2𝜋𝑓𝑡
−∞
Dove definiamo la risposta I-U del sistema LTI nel dominio della frequenza: 𝑌(𝑓) = 𝐻(𝑓)𝑋(𝑓)
B. Caso Tempo Discreto: partendo dalla equazione di sintesi (formula di sinistra) e ricordando che
per un singolo fasore la risposta del sistema è data dal prodotto dell’ingresso (il fasore) con la
risposta 𝐻(𝑣):
+1/2
𝑥(𝑛) = ∫ 𝑋(𝑣)𝑒 𝑗2𝜋𝑣𝑛 𝑑𝑣 𝑒 𝑗2𝜋𝑣𝑛 → 𝐻(𝑣)𝑒 𝑗2𝜋𝑣𝑛
−2/2
+1/2 +∞ +∞
𝑦(𝑛) = 𝒮 [∫ 𝑋(𝑣)𝑒 𝑗2𝜋𝑣𝑛 𝑑𝑣 ] = ∫ 𝑋(𝑣)𝐻(𝑣)𝑒 𝑗2𝜋𝑣𝑛 𝑑𝑣 = ∫ 𝑌(𝑣)𝑒 𝑗2𝜋𝑣𝑛 𝑑𝑣
−1/2 −∞ −∞
Dove definiamo la risposta I-U del sistema LTI nel dominio della frequenza: 𝑌(𝑣) = 𝐻(𝑣)𝑋(𝑣)
In conclusione, la risposta in frequenza di un sistema LTI si può esprimere anche come il rapporto la
trasformata di Fourier dell’uscita fratto quella dell’ingresso: 𝑯(∙) = 𝒀(∙)⁄𝑿(∙)
Allora un sistema LTI si dice istantaneo se la sua risposta in frequenza ha un andamento costante, cioè
è un sistema passatutto con banda illimitata (𝐵𝑥 = +∞ in TC e 𝐵𝑥 = 1 in TD).
• Stabilità
A. Caso Tempo Continuo: se un sistema LTI a TC è stabile, allora la sua risposta in frequenza 𝐻(𝑓)
è limitata, continua e infinitesima all’infinito.
B. Caso Tempo Discreto: se un sistema LTI a TD è stabile, allora la sua risposta in frequenza 𝐻(𝑣)
è limitata, continua e infinitesima all’infinito.
Come dicevamo lo studio della stabilità è incompleto perché per ricavare delle condizioni necessarie e
sufficienti dovremmo introdurre la trasformata di Laplace per il caso TC e la trasformata Zeta per il caso
TD. Per evitare di fare ciò e utilizzando solo la trasformata di Fourier possiamo solo definire delle
condizioni necessarie ma non sufficienti, come sommabilità della risposta impulsiva ℎ(∙).
• Causalità
Ricordiamo che nel dominio del tempo un sistema LTI era causale se e solo se la sua risposta impulsiva
era causale, cioè identicamente nulla per 𝑡 < 0 nel caso TC e per 𝑛 < 0 nel caso TD. Nel dominio della
frequenza trovare delle condizioni per la quale la risposta in frequenza 𝐻(∙) abbia antitrasformata ℎ(∙)
causale è piuttosto complesso e soprattutto non ammette una soluzione generale (infatti si devono
imporre delle restrizioni alla 𝐻(∙)). Una condizione accettabile è quella per la quale la risposta in
frequenza è quadrato sommabile:
+∞ 1/2
𝑇𝐶: ∫ |𝐻(𝑓)|2 𝑑𝑓 < +∞ 𝑇𝐷: ∫ |𝐻(𝑣)|2 𝑑𝑣 < +∞
−∞ −1/2
La relazione del caso TC è valida solo per segnali a banda rigorosamente o praticamente limitata (come
gran parte dei sistemi di equazioni differenziali), mentre la relazione del caso TD è valida solo per
sistemi la cui risposta in frequenza assume valori finiti (indipendentemente dalla banda). Per i sistemi
aventi risposta in frequenza che rispetta le relazioni sopracitate, lo studio della causalità si effettua
mediante le seguenti condizioni.
Condizioni di Paley Wiener:
A. Caso Tempo Continuo: sia |𝐻(𝑓)| la risposta in ampiezza di un sistema LTI TC a quadrato
sommabile su ℛ:
✓ Condizione Necessaria: se il sistema LTI è causale, allora |𝐻(𝑓)| verifica la condizione di Paley-
Wiener:
+∞ |
log(|𝐻(𝑓)|)|
∫ 𝑑𝑓 < +∞
−∞ 1 + 𝑓2
sicuramente il sistema non è causale. Se invece sono rispettate le condizioni sufficienti, quindi le risposte
in ampiezza |𝐻(∙)| sono le risposte in ampiezza di sistemi causali, ma non è detto che la risposta in
frequenza 𝐻(∙) sia la risposta in frequenza di un sistema causale. Questo perché come dicevamo abbiamo
restrizioni solo sulla risposta in ampiezza ma non per quella in fase.
• Invertibilità
Sia 𝐻(∙) la risposta in frequenza di un sistema LTI invertibile, il sistema inverso è anch’esso LTI con
risposta in frequenza data da: 𝐻𝑖𝑛𝑣 (∙) = 1/𝐻(∙)
Un sistema LTI con risposta impulsiva ℎ(∙) è invertibile se esiste un sistema LTI inverso con risposta
impulsiva ℎ𝑖𝑛𝑣 (∙) tale che: ℎ(∙) ∗ ℎ𝑖𝑛𝑣 (∙) = ℎ𝑖𝑛𝑣 (∙) ∗ ℎ(∙) = 𝛿(𝑡)
Passando al dominio della frequenza sappiamo che la convoluzione diventa un semplice prodotto e
definendo 𝐻(∙) = ℱ[ℎ(∙)] e 𝐻𝑖𝑛𝑣 (∙) = ℱ[ℎ𝑖𝑛𝑣 (∙)]: 𝐻(∙) ∙ 𝐻𝑖𝑛𝑣 (∙) = 𝐻𝑖𝑛𝑣 (∙) ∙ 𝐻(∙) = 1
Dalla quale poi ricaviamo la condizione sopracitata, tuttavia da un punto di vista pratica essa deve essere
valida solo all’interno della sua estensione spettrale 𝒲𝑥 e quindi solo nel range di frequenze nel quale
lo spettro di ampiezza assume valori significativi.
Per concludere, soffermiamoci in particolare sui filtri ideali visto che sono la tipologia più comune di
sistemi LTI e facciamo alcune osservazioni. I filtri ideali a TC e TD non sono realizzabili nella realtà
perché presentano le proprietà:
o Non Causalità: presentano una regione oscura in cui lo spettro di ampiezza |𝐻(𝑓)| = 0 e il logaritmo
della funzione integranda nella condizione di Paley-Wiener verrebbe +∞. Quindi nella regione
oscura essendo l’integrale non sommabile, viene violata la condizione di Paley-Wiener e quindi tutti
i filtri ideali non sono causali. Tale proprietà rende i filtri ideali non fisicamente realizzabili;
o Instabilità: il passaggio dalla banda passante 𝒲𝑝 a quella oscura 𝒲𝑠 è molto brusco (salto). Tale
proprietà rende i filtri ideali non convenienti da realizzare, soprattutto vista la possibilità che il filtro
possa trovarsi a lavorare in condizioni non previste dal progettista.
Motivo per cui si devono adottare dei filtri che siano causali e stabili come per l’appunto i Filtri Reali, i
quali rispetto ai filtri ideali presentano:
➢ La risposta in ampiezza in 𝒲𝑝 non è costante (in genere di valore unitario) ma varia in un intervallo
con delle soglie prefissate, ad esempio [1 − 𝛿𝑝 , 1 + 𝛿𝑝 ]. In particolare, la soglia 𝛿𝑝 viene chiamata
Massimo Errore Tollerabile in Banda Passante (o Passband Ripple);
➢ La transazione da 𝒲𝑝 a 𝒲𝑠 avviene con continuità in frequenza (e non con un salto come in quelli
ideali), per cui è necessario definire la Banda di Transizione 𝒲𝑡 ;
➢ La risposta in ampiezza in 𝒲𝑠 non è nulla ma assume valori trascurabili inferiori a una soglia
prefissata 𝛿𝑠 . In particolare, la soglia 𝛿𝑠 viene chiamata Massimo Errore Tollerabile in Banda
Oscura (o Stopband Ripple).
In conclusione, la tipica risposta in ampiezza di un filtro per esempio passabasso sarà quella mostrata
in figura.
P a g . | 58
5.1 Introduzione
In questo capitolo ci occuperemo della conversione dei segnali analogici a digitali e viceversa, motivo
per cui sarà necessario parlare del teorema del campionamento (o di Shannon) che fissa le condizioni
per cui è possibile ricostruire un segnale a TC a partire da una sequenza di suoi campioni. Le motivazioni
che ci spingono a dover parlare della conversione dei segnali è dovuta all’ampio utilizzo dei segnali
digitali e ai numerosi vantaggi della tecnologia digitale come:
✓ Dispositivi a costi inferiori;
✓ Facile configurabilità e programmabilità;
✓ Possibilità di memorizzare segnali di diversa natura sullo stesso supporto;
✓ Possibilità di elaborare segnali che assumere valori elevanti e che hanno una dinamica elevata;
✓ Maggiore immunità da disturbi e distorsioni.
Lo schema di principio di un elaboratore
digitale di segnali analogici è rappresentato in
figura, nella quale distinguiamo diversi
componenti:
• DSP (Digital Signal Processor): è il
microprocessore che esegue l’elaborazione desiderata;
• Convertitore A/D: esegue la conversione del segnale analogico 𝑥𝑎 (𝑡) in ingresso in un segnale
digitale 𝑥𝑞 (𝑛) in uscita. Da un punto di vista concettuale la conversione A/D si compone di due
operazioni:
1. Campionamento: esegue la conversione
𝑥(𝑛) = 𝑥𝑎 (𝑛𝑇𝑐 ) dove 𝑇𝑐 è il periodo di
campionamento, cioè il tempo che
intercorre tra il prelievo di due campioni
di 𝑥𝑎 (𝑡). Il nostro segnale da TC è
diventato TD;
2. Quantizzazione: essendo il segnale
𝑥𝑎 (𝑡) di ampiezza continua tale
operazione consente di farla variare in un insieme discreto. Il nostro segnale da ampiezza
continua è diventato ad ampiezza discreta.
Abbiamo così ottenuto il nostro segnale digitale, il quale ricordiamo è TD e ad ampiezza discreta.
Le due operazioni appena citate possono essere schematizzate con un diagramma a blocchi che
rappresenta il convertitore A/D.
• Convertitore D/A: esegue la conversione del segnale digitale 𝑦𝑞 (𝑛) in ingresso in un segnale
analogico 𝑦𝑎 (𝑡) in uscita. Tale operazione viene chiamata Interpolazione, cioè si prendono i
campioni del segnale digitale è lì rendiamo dei valori continui per ripristinare quantomeno il segnale
TC. Capiamo perciò che al campionamento corrisponde l’operazione duale di interpolazione, mentre
per la quantizzazione non esiste una operazione duale in quanto non è una operazione reversibile.
P a g . | 59
+∞ +∞
Dire che un segnale 𝑥𝑎 (𝑡) può essere ottenuto da 𝑥(𝑛), equivale ad affermare che il primo può essere
ottenuto da 𝑥𝛿 (𝑡). Anzitutto osserviamo che la trasformata di Fourier del pettine di delta è:
+∞ +∞
𝐹𝑇1 1 𝑘
∆ 𝑇𝑐 (𝑡) = ∑ 𝛿(𝑡 − 𝑛𝑇𝑐 ) ↔ ∆ 1 (𝑓) = ∑ 𝛿 (𝑓 − )
𝑇𝑐 𝑇𝑐 𝑇𝑐 𝑓𝑐
𝑛=−∞ 𝑘=−∞
Allora 𝑋𝛿 (𝑓) sarà:
+∞ +∞ +∞
1 𝑘 1 𝑘 1 𝑘
𝑋𝛿 (𝑓) = 𝑋𝑎 (𝑓) ∗ [ ∑ 𝛿 (𝑓 − )] = ∑ [𝑋𝑎 (𝑓) ∗ 𝛿 (𝑓 − )] = ∑ 𝑋𝑎 (𝑓 − )
𝑇𝑐 𝑓𝑐 𝑇𝑐 𝑓𝑐 𝑇𝑐 𝑇𝑐
𝑘=−∞ 𝑘=−∞ 𝑘=−∞
+∞ +∞
1 𝑘 1
𝑋𝛿 (𝑓) = ∑ 𝑋𝑎 (𝑓 − ) = 𝑓𝑐 ∑ 𝑋𝑎 (𝑓 − 𝑘𝑓𝑐 ) = 𝑟𝑒𝑝1/𝑇𝑐 [𝑋𝑎 (𝑓)] = 𝑓𝑐 𝑟𝑒𝑝𝑓𝑐 [𝑋𝑎 (𝑓)]
𝑇𝑐 𝑇𝑐 𝑇𝑐
𝑘=−∞ 𝑘=−∞
Gli ultimi due membri mostrano che 𝑋𝛿 (𝑓) si possono ottenere come replicazione dello spettro di 𝑋𝑎 (𝑓)
moltiplicato per 𝑓𝑐 . In definitiva, capire se 𝑥𝑎 (𝑡) può essere ricostruito univocamente mediate 𝑥𝛿 (𝑡)
equivale, nel dominio della frequenza, a individuare le condizioni affinché 𝑋𝑎 (𝑓) possa essere ottenuto
a partire da 𝑋𝛿 (𝑓).
P a g . | 60
Chiaramente tutti gli elementi sopracitati sono ideali in quanto sappiamo che la delta di Dirac non si può
ottenere sperimentalmente ma è solo una astrazione matematica. Inoltre, un altro elemento non
corrispondente alla realtà è la struttura del campionatore mostrata in figura, la quale non rispecchia
assolutamente la maniera pratica per realizzarlo. Abbiamo adottato tale schematizzazione in quanto il
secondo stadio è sicuramente invertibile, quindi la proprietà di invertibilità è da dimostrare solo per lo
stadio moltiplicatore. La condizione di invertibilità dell’intero campionatore implica che in seguito
saremmo in grado di ricostruire il segnale 𝑥𝑎 (𝑡) di partenza. I vincoli per assicurare l’invertibilità sono
definiti dal seguente teorema.
𝐹𝑇
Teorema del Campionamento: sia 𝑥𝑎 (𝑡) ↔ 𝑋𝑎 (𝑓) un segnale a TC e siano 𝑥(𝑛) = 𝑥𝑎 (𝑛𝑇𝑐 ) i suoi
campioni presi con un periodo di campionamento 𝑇𝑐 . Se:
✓ Il segnale 𝑥𝑎 (𝑡) è a banda rigorosamente limitata, con banda monolatera 𝐵𝑥 = 𝑓𝑚 , ovvero:
𝑋𝑎 (𝑓) = 0 ∀ |𝑓 | ≥ 𝑓𝑚
✓ La frequenza di campionamento 𝑓𝑐 = 1/𝑇𝑐 soddisfa la condizione di Nyquist: 𝑓𝑐 ≥ 2𝑓𝑚
Allora il segnale 𝑥𝑎 (𝑡) è perfettamente rappresetnato dai suoi campioni 𝑥(𝑛) = 𝑥𝑎 (𝑛𝑇𝑐 ). La minima
frequenza di campionamento 𝑓𝑐,𝑚𝑖𝑛 = 2𝑓𝑚 prende il nome di Frequenza di Nyquist.
Per capire che problematiche sorgono se non viene rispettato il teorema del campionamento
immaginiamo di avere un segnale 𝑥𝑎 (𝑡) la cui trasformata di Fourier 𝑋𝑎 (𝑓) è una finestra rettangolare
con spettro limitato in (−𝑓𝑚 , 𝑓𝑚 ):
a. Se 𝑓𝑐 > 2𝑓𝑚 , le repliche di 𝑋𝑎 (𝑓) non si sovrappongono nel dominio della frequenza;
b. Se 𝑓𝑐 = 2𝑓𝑚 , le repliche di 𝑋𝑎 (𝑓) si sovrappongono perfettamente nel dominio della frequenza;
c. Se 𝑓𝑐 < 2𝑓𝑚 , le repliche di 𝑋𝑎 (𝑓) si sovrappongono nel dominio della frequenza;
Nella figura (𝑐) osserviamo la presenza del fenomeno denominato Aliasing, ovvero una
sovrapposizione in frequenza delle repliche di 𝑋𝑎 (𝑓) che generare delle componenti spettrali assunti
nel segnale originale 𝑥𝑎 (𝑡) e quindi la sua impossibilità nel ricostruirlo per interpolazione.
P a g . | 61
𝑓 𝐹𝑇 𝑡
𝐻𝑟 (𝑓) = 𝑇𝑐 ∏ ( ) ↔ ℎ𝑟 (𝑡) = 𝑠𝑖𝑛𝑐 ( ) 𝑑𝑜𝑣𝑒: 𝑓𝑚 ≤ 𝑓𝑟 ≤ 𝑓𝑐 − 𝑓𝑚
2𝑓𝑟 𝑇𝑐
L’uscita del secondo stadio e quindi dell’intero sistema interpolatore ideale sarà un segnale 𝑥𝑟 (𝑡) che
assomiglierà esattamente al segnale originale 𝑥𝑎 (𝑡) campionato in precedenza rispettando le condizioni
del teorema del campionamento: 𝑥𝑟 (𝑡) = 𝑥𝑎 (𝑡)
Cerchiamo adesso di campire perché però l’interpolazione mediate il sistema appena descritta è solo
ideale e quindi non realizzabile nella pratica.
Anzitutto ricordiamo che la relazione i-u di un sistema LTI può sempre essere espressa come prodotto
di convoluzione tra il segnale in ingresso e la sua risposta impulsiva. Allora la i-u del filtro passabasso
ideale sarà il prodotto di convoluzione tra il segnale ideale 𝑥𝛿 (𝑡) in uscita al primo stadio e la risposta
impulsiva ℎ𝑟 (𝑡) del filtro:
+∞ +∞
𝑡 𝑡
𝑥𝑟 (𝑡) = 𝑥𝛿 (𝑡) ∗ ℎ𝑟 (𝑡) = [ ∑ 𝑥𝑎 (𝑛𝑇𝑐 )𝛿(𝑡 − 𝑛𝑇𝑐 )] ∗ 𝑠𝑖𝑛𝑐 ( ) = ∑ 𝑥𝑎 (𝑛𝑇𝑐 ) [𝛿(𝑡 − 𝑛𝑇𝑐 ) ∗ 𝑠𝑖𝑛𝑐 ( )]
𝑇𝑐 𝑇𝑐
𝑛=−∞ 𝑛=−∞
+∞ +∞ +∞
𝑡 − 𝑛𝑇𝑐
𝑥𝑟 (𝑡) = ∑ 𝑥𝑎 (𝑛𝑇𝑐 )𝑠𝑖𝑛𝑐 ( ) = ∑ 𝑥(𝑛)ℎ(𝑡 − 𝑛𝑇𝑐 ) = ∑ 𝑥𝑛 (𝑡) = 𝑥𝑎 (𝑡)
𝑇𝑐
𝑛=−∞ 𝑛=−∞ 𝑛=−∞
Tale relazione prende il nome di Serie di Shannon, la quale mostra la ricostruzione ideale del segnale
𝑥𝑎 (𝑡) a partire dai suoi campioni mediate l’interpolazione ideale. In definitiva, l’idealità di tale
operazione è dovuta essenzialmente a tre motivi:
o Il segnale 𝑥𝑟 (𝑡) è ottenuto come somma di tutti i singoli contributi 𝑥𝑛 (𝑡) (passati, presenti e
futuri) come mostrato nella figura in basso a destra;
o La funzione sinc ha banda rigorosamente limitata ma è una funzione di durata illimitata;
o Viene adoperato un filtro passabasso ideale che ricordiamo essere non fisicamente realizzabile
in quanto non causale e instabile.
P a g . | 62
che pre-filtra il segnale 𝑥𝑎 (𝑡) in modo da ridurne il contenuto spettrale all’esterno dell’intervallo
(−𝑓𝑐 /2, 𝑓𝑐 /2) rendendolo un segnale a banda rigorosamente limitata e riducendo così il fenomeno
dell’aliasing.
P a g . | 63
Tali problemi, come nel caso del campionamento reale, possono essere risolti adoperanti convertitori
molto più costosi aumentando la 𝑓𝑐 . Nella pratica per ridurre la complessità dei convertitori D/A si
adoperano teniche di interpolazione poco complesse:
A. Interpolazione a Mantenimento – ZOH (Zero
Order Hold): consiste nello scegliere come funzione
interpolatrice una finestra rettangolare.
𝒕 − 𝑻𝒄 /𝟐
𝒉𝒓(𝒕) = ∏ ( )
𝑻𝒄
In questo caso, il segnale ricostruito 𝑥𝑟 (𝑡) è una forma
d’onda costante a tratti.
P a g . | 64
𝒕
𝒉𝒓(𝒕) = ⋀ ( )
𝑻𝒄
In questo caso, il segnale ricostruito 𝑥𝑟 (𝑡) è costituito
da una spezzata che collega i campioni del segnale
campionato.
Analizzando le risposte impulsive dei due filtri si nota che entrambi sono FIR (Finite Impulsive
Response) e quindi stabili, tuttavia il primo è causale mentre il secondo non lo è per due motivi:
➢ Non si annulla identicamente per 𝑡 < 0;
➢ Osservando il generico intervallo [𝑛𝑇𝑐 , (𝑛 + 1)𝑇𝑐 ], l’equazione della retta (cioè un singolo tratta
tra un punto e l’altro) richiede la conoscenza sia del campione passato 𝑥(𝑛) che futuro 𝑥(𝑛 + 1):
𝑡 − 𝑛𝑇𝑐 𝑡 − (𝑛 + 1)𝑇𝑐
𝑥𝑟 (𝑡) = 𝑥(𝑛) ⋀ ( ) + 𝑥(𝑛 + 1) ⋀ ( )
𝑇𝑐 𝑇𝑐
𝑡 − 𝑛𝑇𝑐
𝑥𝑟 (𝑡) = 𝑥(𝑛) + [𝑥(𝑛 + 1) − 𝑥(𝑛)] ( ) ∀ 𝑡 ∈ [𝑛𝑇𝑐 , (𝑛 + 1)𝑇𝑐 ]
𝑇𝑐
Per rendere il filtro FOH causale bisogna allora introdurre un ritardo pari a 𝑇𝑐 .
In conclusione, confrontando l’andamento dei due segnali ricostruiti per le due tipologie di
interpolazioni osserviamo che il primo è discontinuo mentre il secondo è continuo. Ciò vuol dire che il
segnale ottenuto da interpolazione a mantenimento avrà un maggiore contenuto spettrale rispetto al
secondo, il che lo rende poco adatto a ricostruire segnali a banda rigorosamente limitata.
5.4 Quantizzazione
Abbiamo visto che un convertitore A/D effettua la conversione di un segnale analogico in digitale,
tuttavia l’operazione di campionamento non fa altro che trasformata un segnale TC in TD. Per esempio,
campionare un segnale sinusoidale TC 𝑥𝑎 (𝑡) = 𝐴𝑐𝑜𝑠(2𝜋𝑓0 𝑡 + 𝜑0 ) vuol dire ottenere un segnale a TD del
tipo 𝑥(𝑛) = 𝑥𝑎 (𝑛𝑇𝑐 ) = 𝐴𝑐𝑜𝑠(2𝜋𝑣0 𝑛 + 𝜑0 ), la cui ampiezza può comunque
assumere con continuità qualunque valore nell’intervallo (−𝐴, 𝐴). Essendo
un segnale digitale sia TD che ampiezza discreta, è necessaria l’operazione
di Quantizzazione, cioè di discretizzazione delle ampiezze. Il
Quantizzatore (mostrato in figura) è un sistema TD che riceve in ingresso il segnale ad ampiezza
continua 𝑥(𝑛) e produce in uscita il segnale quantizzato 𝑥𝑞 (𝑛). La relazione i-u di tale sistema, il quale è
certamente non lineare, istantanea e tempo invariante sarà: 𝒙𝒒 (𝒏) = 𝑸[𝒙(𝒏)]
3 1
𝑞1 = − ( ) ∆→ 00 𝑞2 = − ( ) ∆→ 01
2 2
1 3
𝑞3 = ( ) ∆→ 10 𝑞4 = ( ) ∆→ 11
2 2
Dove quella appena realizzata è la Codifica Binaria Naturale, per la quale è sempre efficiente usare un
numero di livelli 𝑀 tali che 𝑀 = 2𝑏 (potenze di due) in modo che vengano usate tutte le strighe di bit. Se
così non fosse non tutte le 2𝑏 sarebbero utilizzate (precisamente 2𝑏 − 𝑀 sarebbero inutilizzate) e quindi
si avremmo un quantizzatore inefficiente. I campioni 𝑥(𝑛) essendo campionati con frequenza 𝑓𝑐 si
presenteranno all’ingresso del quantizzatore come 𝑓𝑐 campioni per secondo. Visto che il campione viene
codificato con 𝑏 bit, possiamo definire il Tasso Binario 𝒓𝒑 = 𝒇𝒄 ∙ 𝒃 𝒃𝒊𝒕/𝒔 la velocità del flusso di bit in
uscita al quantizzatore.
Un altro criterio di dimensionamento si basa sul valore efficace 𝑥𝑟𝑚𝑠 = √𝑃𝑥 = √< 𝑥 2 (𝑛) >, dove 𝑃𝑥 è la
potenza del segnale in ingresso al quantizzatore. La scelta di tale grandezza è dovuta al fatto che
basandosi su una media temporale, non si limita a portare in conto solo dei valor in ampiezza assunti da
𝑥(𝑛) ma li pesa in accordo alla frazione di tempo per cui essi permangono. Il che vuol dire che i picchi di
ampiezza incideranno poco su 𝑥𝑟𝑚𝑠 visto che durano poco tempo. Per limitare l’errore di sovraccarico è
conveniente scegliere 𝑋𝑀𝑎𝑥 in modo che si proporzionale a 𝑥𝑟𝑚𝑠 , a tal scopo definiamo il Fattore di
Sovraccarico 𝑘𝑐 : 𝑘𝑐 ≜ 𝑋𝑀𝑎𝑥 /𝑥𝑟𝑚𝑠
Maggiore è 𝑘𝑐 e maggiore sarà 𝑋𝑀𝑎𝑥 , quindi minore sarà la frazione di tempo in cui il segnale lavora in
𝑅𝑠 . Anche in questo caso però aumentare troppo 𝑘𝑐 produce un peggioramento quella quantizzazione
visto che stiamo aumentando 𝑋𝑀𝑎𝑥 . Bisogna allora lavorare nel campo della probabilità modellando
𝑥(𝑛) come un segnale aleatorio e definendo quindi la sua Funzione Densità di Probabilità (pdf) 𝑷𝒔 ≜
Pr{|𝑥(𝑛)| > 𝑋𝑀𝑎𝑥 } che verifichi la probabilità di sovraccarico.
Infine, dopo aver scelto il metodo di dimensionamento, per verificare la qualità della quantizzazione si
definisce il parametro Rapporto Segnale-Rumore (SNR):
Un Insieme A è una collezione di oggetti chiamati elementi dell’insieme. L’insieme può essere definito
per enumerazione specificando quindi i suoi elementi (𝐴 = {𝑤1 , 𝑤2 , … , 𝑤𝑛 } o 𝐴 = {𝑏𝑖𝑎𝑛𝑐𝑜, 𝑟𝑜𝑠𝑠𝑜, 𝑒𝑐𝑐})
oppure descrivendo le proprietà dei suoi elementi (𝐴 = {𝑤 ∈ 𝑅 𝑡𝑎𝑙𝑖 𝑐ℎ𝑒 𝑤 > 0}). In seguito,
utilizzeremo la rappresentazione grafica dei diagrammi di Venn per descrivere i nostri insiemi, quindi
li disegneremo come porzioni del piano.
Definiamo alcuni concetti:
• B Sottoinsieme Proprio di A: B è un sottoinsieme in cui tutti i suoi elementi sono anche elementi
di A. In tal caso utilizzeremo la notazione: 𝐵⊆𝐴
• B Proprio di A: B è un sottoinsieme in cui non tutti i suoi elementi sono anche elementi di A. In tal
caso utilizzeremo la notazione: 𝐵⊂𝐴
Se abbiamo per esempio due insiemi A e B con alcuni elementi in comune si indica con:
• Unione − 𝑨 ∪ 𝑩: la somma dei due insiemi, quindi tutti gli elementi dei due insiemi. L’unione dei
due insiemi gode delle seguenti proprietà:
P a g . | 68
• Cardinalità 𝒄𝒂𝒓𝒅(𝑨): è il numero di elementi di A, se essi sono infiniti allora l’insieme si definisce
infinto numerabile e se si possono porre in corrispondenza biunivoca con i numeri naturali 𝒩, si
può affermare che l’insieme A è infinito continuo. Vediamo alcune proprietà della cardinalità:
- Se A e B sono mutuamente esclusivi: 𝑐𝑎𝑟𝑑(𝐴 ∪ 𝐵) = 𝑐𝑎𝑟𝑑(𝐴) + 𝑐𝑎𝑟𝑑(𝐵) − 𝑐𝑎𝑟𝑑(𝐴 ∩ 𝐵)
Invece in caso contrario: 𝑐𝑎𝑟𝑑(𝐴 ∪ 𝐵) = 𝑐𝑎𝑟𝑑(𝐴) + 𝑐𝑎𝑟𝑑(𝐵) − 𝑐𝑎𝑟𝑑(𝐴 ∩ 𝐵)
- Se 𝐴 ⊆ 𝐵 allora: 𝑐𝑎𝑟𝑑(𝐴) ≤ 𝑐𝑎𝑟𝑑(𝐵)
- 𝑐𝑎𝑟𝑑(∅) = 0
- 𝑐𝑎𝑟𝑑(𝐴 × 𝐵)= 𝑐𝑎𝑟𝑑(𝐴)𝑐𝑎𝑟𝑑(𝐵)
Le Leggi di de Morgan mettono in relazione le operazioni di unione, intersezione e complementazione:
̅̅̅̅̅̅̅̅
𝑨∪𝑩=𝑨 ̅∩𝑩
̅ ̅̅̅̅̅̅̅̅
𝑨∩𝑩=𝑨 ̅∪𝑩
̅
Definiamo lo Spazio degli Eventi (𝑖𝑛𝑠𝑖𝑒𝑚𝑒 𝑑𝑖 𝑒𝑣𝑒𝑛𝑡𝑖 = 𝑖𝑛𝑠𝑖𝑒𝑚𝑒 𝑑𝑖 𝑎𝑙𝑐𝑢𝑛𝑖 𝑟𝑖𝑠𝑢𝑙𝑡𝑎𝑡𝑖 𝜔) come la classe
𝒮 (𝑆 = 𝑖𝑛𝑠𝑖𝑒𝑚𝑒 𝑑𝑖 𝑎𝑙𝑐𝑢𝑛𝑖 𝑠𝑜𝑡𝑡𝑜𝑖𝑛𝑠𝑖𝑒𝑚𝑖 𝑑𝑖 Ω) di tutti gli eventi di
interesse, nella quale possiamo definire la Probabilità come una 𝑃: 𝐴 ∈ 𝒮 → 𝑃(𝐴) ∈ [0,1]
funzione 𝑃 definita sullo spazio degli eventi 𝒮 e a valori in [0,1]:
Tale relazione ci dice che ad ogni evento (risultato dell’esperimento) viene associato un numero
compreso nell’intervallo [0,1], il quale misura il grado di incertezza associato al verificarsi dell’evento
stesso (0 = evento che non capita mai, 1 = evento che capita sempre).
Osserviamo però che fino ad ora abbiamo parlato di classe e quindi di un insieme di sottoinsiemi di Ω,
quindi ci potremmo chiedere perché non prendere semplicemente tutti i sottoinsiemi dello spazio
campione. Tale approccio viene trattato mediate gli assiomi di Kolgomorov che vedremo a breve.
P a g . | 69
L’intera teoria della probabilità discende dai precedenti assiomi in maniera deduttiva, cioè da principi
generali (assiomi) e probabilità di eventi semplici si ricavano le probabilità di eventi complessi
applicando le proprietà del calcolo della probabilità. Abbiamo già osservato che assegnare i valori di
probabilità agli eventi equivale a misurare il livello di incertezza associato agli stessi. In effetti, bisogna
osservare che una funzione definita su un insieme Ω, che soddisfa assiomi analoghi a quelli di
Kolmogorov, viene proprio definita dai matematici una misura (casi elementari di misura sono la
lunghezza, l’area, ed il volume). Pertanto, il contributo più significativo di Kolmogorov è stato in sostanza
quello di riconoscere che, per definire una corretta teoria della probabilità, quest’ultima va inquadrata
come un caso particolare della teoria della misura. Notiamo, in particolare, che l’assioma di
normalizzazione impone che la misura di Ω sia unitaria, e per questo motivo si parla anche della
probabilità come di una misura normalizzata. Va osservato che nel seguito, per mantenere la trattazione
ad un livello elementare, non faremo uso di tale analogia in maniera estesa, tuttavia sfrutteremo
l’analogia tra probabilità e misura per giustificare intuitivamente alcune proprietà della probabilità:
➢ Proprietà 1: 𝑷(∅) = 𝟎
Dimostrazione: scegliendo 𝐴1 = Ω e 𝐴𝑛 = ∅ ∀ 𝑛 > 1 (mutuamente esclusivi):
∞ ∞ ∞ ∞
Allora per avere la relazione 𝑃(Ω) uguale a sé stesso deve risultare che 𝑃(∅) = 0.
Applicando la proprietà 2:
➢ Proprietà 6: 𝑃(𝐵) ≤ 1 𝑠𝑒 𝐴 = Ω
Dimostrazione: segue dalla proprietà precedente e dall’assioma II scegliendo 𝐴 = Ω.
P a g . | 71
Un tipico esempio di spazio di probabilità sono quelli discreti, nel quale lo spazio campione Ω =
{𝜔1 , 𝜔2 , … , 𝜔𝑛 } ha cardinalità finita e quindi presenta un numero finito o infinito numerabile di risultati
𝜔𝑖 . In tal caso possiamo scegliere come 𝜎 campo la collezione delle parti di Ω:
Essendo Ω finito o numerabile, allora qualunque evento 𝐴 ∈ 𝒮 può essere espresso come unione al più
numerabile di eventi elementari {𝜔𝑖 } (relazione a sinistra). Inoltre, gli eventi 𝜔𝑖 essendo mutuamente
esclusivi, la probabilità dell’evento A è la somma delle probabilità dei singoli eventi (relazione di destra
ottenuta mediante l’assioma III di additività). Nelle due relazioni 𝐼𝐴 ⊂ 𝒩 è l’insieme degli indici che
identificano gli elementi di A.
𝐴 = ⋃{𝜔𝑖 } → 𝑃(𝐴) = ∑ 𝑃({𝜔𝑖 })
𝑖∈𝐼𝐴 𝑖=𝐼𝐴
𝑃(Ω) = ∑ 𝑃({𝜔𝑖 }) = ∑ 𝑝𝑖 = 1
𝑖=0 𝑖=0
1 𝑐𝑎𝑟𝑑(𝐴)
𝑃(𝐴) = ∑ 𝑃({𝜔𝑖 }) = ∑ 𝑝𝑖 = ∑ =
𝑁 𝑐𝑎𝑟𝑑(Ω)
𝑖=𝐼𝐴 𝑖=𝐼𝐴 𝑖=𝐼𝐴
In conclusione, tale relazione mostra che in molti casi il calcolo delle probabilità di eventi si riduce ad
un problema puramente combinatorio, consistente cioè nel contare gli elementi di un insieme, problema
semplice in linea di principio, ma la cui applicazione a casi reali può giungere a notevoli livelli di
complessità.
P a g . | 72
7.1 Introduzione
Nel precedente capitolo abbiamo visto gli aspetti principali della teoria della probabilità, le operazioni
di intersezione, unione, complemento, gli spazi di probabilità (Ω, 𝒮, 𝑃) e semplici regole per il calcolo
della probabilità. A questo punto però dobbiamo studiare le relazioni di dipendenza o indipendenza che
possono esserci fra eventi di uno spazio di probabilità, per esempio se si verifica un evento B che
influenzerà la probabilità di un evento A. Allora ciò che vedremo nei prossimi paragrafi saranno due
fondamentali concetti:
• Probabilità Condizionale
• Indipendenza
𝑃(𝐴1 𝐵) + 𝑃(𝐴2 𝐵)
𝑃(𝐴1 𝐵 ∪ 𝐴2 𝐵) = = 𝑃(𝐴1 |𝐵) + 𝑃(𝐴2 |𝐵)
𝑃(𝐵)
Tale legge vale sia quando 𝑃(𝐴) e 𝑃(𝐵) sono diverse da zero sia quando sono nulle, in tal caso
banalmente si ha che 𝑃(𝐴 ∩ 𝐵) = 0. L’utilità della legge della probabilità composta è che essa consente
di calcolare la probabilità dell’evento 𝐴 ∩ 𝐵 in tre passi:
1. Si calcola prima la probabilità di A; S
2. Si calcola la probabilità di B dato A;
3. Si moltiplicano i due valori di probabilità.
Ovviamente, data la simmetria della legge, si possono scambiare i ruoli di A e B secondo convenienza.
B e l’evento C. Riscrivendo la precedente, si trova allora una legge di fattorizzazione analoga alla legge
della probabilità composta: 𝑃(𝐴𝐵𝐶) = 𝑃(𝐴|𝐵, 𝐶)𝑃(𝐵𝐶)
e poiché, per la legge della probabilità composta, 𝑃(𝐵𝐶) = 𝑃(𝐵|𝐶) 𝑃(𝐶), si ottiene:
𝑃(𝐴1 𝐴2 … 𝐴𝑛 ) = 𝑃(𝐴1 ) 𝑃(𝐴2 |𝐴1 ) 𝑃(𝐴3 |𝐴1 , 𝐴2 ) ··· 𝑃(𝐴𝑛 |𝐴1 , 𝐴2 , . . . , 𝐴𝑛−1 )
La regola precedente si applica indipendentemente dall’ordine in cui si considerano gli eventi. In effetti,
poiché esistono n! distinte permutazioni degli eventi 𝐴1 , 𝐴2 , … , 𝐴𝑛 , la fattorizzazione secondo la regola
della catena può avvenirein n! modi distinti.
Nella pratica può essere complicato verificare la condizione 𝐵 ⊆ ⋃𝑛𝑖=1 𝐴𝑖 , per cui spesso si assume che
gli eventi 𝐴𝑖 mutuamente esclusivi siano una partizione di Ω: ⋃𝑛𝑖=1 𝐴𝑖 = Ω
• Teorema di Bayes
Siano 𝐴1 , 𝐴2 , … 𝐴𝑛 eventi mutuamente esclusivi (𝐴𝑖 ∩ 𝐴𝑗 = ∅ ∀ 𝑖 ≠ 𝑃(𝐵 |𝐴𝑖 )𝑃(𝐴𝑖 )
𝑗) e sia 𝐵 ⊆ ⋃𝑛𝑖=1 𝐴𝑖 . Si ha: 𝑃(𝐴𝑖 |𝐵) = 𝑛
∑𝑖=1 𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 )
Dimostrazione: questo teorema è una conseguenza del teorema precedente e della legge della
probabilità composta. La legge di probabilità composta ci dice che:
𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 )
𝑃(𝐵 ∩ 𝐴𝑖 ) = 𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 ) = 𝑃(𝐴𝑖 |𝐵)𝑃(𝐵) → 𝑃(𝐴𝑖 |𝐵) =
𝑃(𝐵)
Sostituendo 𝑃(𝐵) nella relazione del teorema della probabilità totale otteniamo la relazione che ci
interessa:
𝑛 𝑛
𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 ) 𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 )
𝑃(𝐵) = ∑ 𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 ) → = ∑ 𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 ) → 𝑃(𝐴𝑖 |𝐵) = 𝑛
𝑃(𝐴𝑖 |𝐵) ∑𝑖=1 𝑃(𝐵|𝐴𝑖 )𝑃(𝐴𝑖 )
𝑖=1 𝑖=1
Entrambi i teoremi possono estendersi al caso in cui gli eventi 𝐴𝑖 condizionanti siano in numero infinito
numerabili. Nel teorema di Bayes in genere viene definita:
• Probabilità a Priori = 𝑃(𝐴𝑖 )
• Probabilità a Posteriori = 𝑃(𝐴𝑖 |𝐵)
P a g . | 74
𝑃(𝐴𝐵|𝐶) = 𝑃(𝐴|𝐶)𝑃(𝐵|𝐶)
Si noti che l’indipendenza condizionale non implica l’indipendenza di A e B, se non nel caso in cui 𝐶 =
Ω. Allo stesso modo, per quantomeno intuitivamente comprensibile, l’indipendenza tra A e B non
implica l’indipendenza condizionale rispetto ad un terzo evento C.
In molti casi interessa affrontare il seguente problema: dati più esperimenti aleatori, ognuno dei quali
descritto in termini probabilistici, descrivere l’esperimento combinato, risultante dalla combinazione
dei singoli esperimenti. Per far questo, è necessario costruire un nuovo spazio di probabilità,
denominato spazio di probabilità prodotto, sull’esperimento combinato.
Abbiamo già notato che le le due proprietà di consistenza consentono di determinare, a partire dagli
spazi di probabilità sui singoli esperimenti, solo le probabilità di eventi del tipo 𝐴 × Ω2 𝑒 Ω1 × 𝐵, ma non
quelle di un qualsiasi evento di S. D’altra parte, in generale, è intuitivamente accettabile che assegnare
solo le leggi di probabilità P1 e P2 sui due esperimenti componenti non consente di determinare la legge
di probabilità dell’esperimento combinato: abbiamo bisogno di qualche informazione sulla relazione di
dipendenza che c’è tra i due esperimenti.
Definizione – Esperimenti Indipendenti: siano (𝛺1 , 𝒮1 , 𝑃1 ) e (𝛺2 , 𝒮2 , 𝑃2 ) due spazi di probabilità, sia
(𝛺, 𝒮, 𝑃) lo spazio di probabilità prodotto. Gli esperimenti si diranno indipendenti se gli eventi (𝐴 × 𝛺2 ) e
(𝛺1 × 𝐵) dello spazio prodotto sono indipendenti per ogni 𝐴 ∈ 𝒮1 e 𝐵 ∈ 𝒮2 .
In sostanza, dalla precedente definizione di indipendenza, si ha che per tutti gli eventi di 𝒮 che possono
essere espressi come 𝐴 × 𝐵, con 𝐴 ∈ 𝑆1 e B ∈ S2, poiché risulta:
𝐴 × 𝐵 = (𝐴 × Ω2) ∩ (Ω1 × 𝐵)
si ha: 𝑃(𝐴 × 𝐵) = 𝑃[(𝐴 × Ω2) ∩ (Ω1 × 𝐵)] = 𝑃(𝐴 × Ω2)𝑃(Ω1 × 𝐵) = 𝑃1(𝐴) 𝑃2(𝐵)
In particolare, osserviamo che, per gli eventi elementari di Ω, si ha (𝜔1, 𝜔2) = {𝜔1} × {𝜔2}, per cui
𝑃(𝜔1, 𝜔2) = 𝑃1(𝜔1) 𝑃2(𝜔2). È facile dimostrare a questo punto, almeno per spazi di probabilità
discreti, che l’ipotesi di indipendenza consente di calcolare completamente le probabilità dello spazio
prodotto in termini delle probabilità degli spazi componenti. Infatti, un qualunque evento appartenente
al σ-campo costruito sullo spazio di probabilità prodotto potrà essere espresso come unione al più
numerabile di eventi elementari dello spazio prodotto, e quindi la sua probabilità si potrà calcolare, a
partire dalle probabilità degli eventi elementari, adoperando l’assioma di numerabile additività.
Concetti più sofisticati di teoria della misura mostrano che è possibile procedere in maniera simile anche
per spazi di probabilità continui. In definitiva, allora, nel caso di esperimenti indipendenti è possibile
specificare la legge di probabilità P sullo spazio prodotto semplicemente a partire dalle leggi di
probabilità 𝑃1 e 𝑃2 definite sugli spazi componenti.
P a g . | 75
8.1 Introduzione
Nei precedenti capitoli abbiamo costruito spazi di probabilità a partire da esperimenti i cui risultati non
era per forza numeri, tuttavia in ingegneria nasce l’esigenza di descrivere entrambi in maniera numerica.
Proprio per tale esigenza nasce il concetto di Variabile Aleatoria, quindi l’associazione di un risultato
dell’esperimento ad un numero reale. In pratica si tratta di cambiare nome ai risultati dello spazio
campione Ω e ridurre così anche la complessità nella descrizione dell’esperimento. Per essere più
rigorosi:
Definizione – Variabile Aleatoria: dato un esperimento, una variabile aleatoria 𝑋 è una funzione
costruita su Ω e che assume valori nell’insieme ℛ̅ = ℛ ∪ {−∞, ∞}:
𝑋: 𝜔 ∈ 𝛺 → 𝑋(𝜔) ∈ 𝒳 ⊆ ℛ̅
dove 𝒳 è il codominio della funzione 𝑋, quindi è l’insieme dei valori possibili assunti da quest’ultimo.
Vediamo adesso se la variabile aleatoria 𝑋 conserva le informazioni sulle probabilità degli eventi di Ω
anche nel caso in cui esso sia dotato di spazio di probabilità. A tal proposito dobbiamo chiarire il
significato della notazione: {𝑋 ≤ 𝑥} 𝑐𝑜𝑛 𝑥 ∈ ℛ̅
Tale notazione determina una semiretta sinistra dell’asse reale ℛ̅ (intervallo ] − ∞, 𝑥]) in cui cadono i
valori assunti da 𝑋. Tuttavia, il significato che noi gli daremo è completamente diverso ed essa verrà
usata per riferirci al sottoinsieme A di Ω, ovvero l’insieme dei valori 𝜔 ∈ Ω la cui immagina attraverso la
funzione 𝑋 è minore o uguale ad 𝑥: 𝐴 = {𝜔 ∈ Ω 𝑡𝑎𝑙𝑖 𝑐ℎ𝑒 𝑋(𝜔) ≤ 𝑥}
In parole povere 𝐴 non è un sottoinsieme di ℛ̅ ma bensì dello spazio campione Ω. Vediamo due proprietà
che caratterizzano una variabile aleatoria:
Definizione – Proprietà Caratteristiche di una V.A.: dato uno spazio di probabilità (Ω, 𝒮, 𝑃), una
variabile aleatoria 𝑋 è una funzione definita in Ω ed a valori 𝒳 ⊆ ℛ̅ = ℛ ∪ {−∞, ∞} tale che:
➢ {𝑋 ≤ 𝑥} è 𝑢𝑛 𝑒𝑣𝑒𝑛𝑡𝑜 ∀𝑥 ∈ ℛ̅
➢ 𝑃({𝑋 = ±∞}) = 0
P a g . | 76
0 𝑠𝑒 𝑥 ≠ 𝑥𝑘 è 𝑢𝑛 𝑝𝑢𝑛𝑡𝑜 𝑑𝑖 𝑑𝑖𝑠𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑖𝑡à
𝑃(𝑋 = 𝑥) = 𝐹(𝑥) − 𝐹(𝑥 − ) = {
𝑝𝑘 𝑠𝑒 𝑥 = 𝑥𝑘 è 𝑢𝑛 𝑝𝑢𝑛𝑡𝑜 𝑑𝑖 𝑑𝑖𝑠𝑐𝑜𝑛𝑡𝑖𝑛𝑢𝑖𝑡à
Capiamo perciò che l’insieme 𝒳 dei valori assunti da 𝑋 è un insieme discreto, cioè 𝒳 = {𝑥1 , 𝑥2 , … 𝑥𝑛 }.
Un caso particolare di variabili aleatorie discrete sono quelle di tipo Reticolare, nel quale tutti i
punti 𝑥𝑘 sono equispaziati (stessa distanza fra loro).
B. Variabile Aleatoria Continua: la continuità della CDF 𝐹𝑋 (𝑥) implica che, sempre per la stessa
proprietà 𝑃(𝑋 = 𝑥) = 𝐹(𝑥 + ) − 𝐹(𝑥 − ), risulta che 𝑃(𝑋 = 𝑥) = 0 ∀ ∑ ∑ 𝑥 ∈ ℛ̅ . Ciò vuol dire
che una variabile aleatoria continua assumerà ogni valore del suo codominio con probabilità nulla.
C. Variabile Aleatoria Mista: la sua CDF è discontinua ma non è costante a tratti. L’insieme 𝒳 di valori
assunti da 𝑋 sarà l’unione di un insieme continuo (un intervallo per esempio) e un insieme discreto
(anche vuoto).
P a g . | 77
Infine, se 𝑋 è mista, allora la pdf avrà una parte continua con derivata classica e impulsi di Dirac nei
punti di discontinuità di 𝐹(𝑥). Anche in questo caso visto l’eventualità di più variabile aleatorie
utilizzeremo la notazione 𝑓𝑋 (𝑥).
Sulla base di questo teorema, potremo o costruire la variabile aleatoria su un determinato spazio di
probabilità, oppure in alternativa introdurre direttamente le variabili aleatorie attraverso le loro
funzioni di distribuzione (CDF, pdf o DF), senza specificare esplicitamente l’esperimento su cui sono
definite. Nel seguito del paragrafo introdurremo alcune delle variabili aleatorie più comunemente
utilizzate. Per le variabili discrete, riporteremo la descrizione in termini di funzione di distribuzione di
probabilità (DF) mentre tralasceremo la pdf e la CDF perché tipicamente non vengono usate nel discreto.
Notiamo preliminarmente che tutte le variabili aleatorie discrete che introdurremo saranno di tipo
reticolare. A differenza di quelle discrete, le variabili aleatorie continue saranno descritte attraverso la
pdf e la CDF (risultando la DF identicamente nulla).
Per capire quanto detto, immaginiamo il caso di uno spazio campione Ω1 = {0,1} dove indichiamo con il
termine:
a. Successo: evento 𝐴 che nel caso binario possiamo attribuire al valore 1. L’evento di successo
accade con probabilità 𝑝;
b. Insuccesso: complementare di A (quindi 𝐴̅) che nel caso binario possiamo attribuire al valore 0.
L’evento di insuccesso accade con probabilità 𝑞 = 1 − 𝑝.
Allora i possibili 𝜔 eventi (risultati dell’esperimento) saranno 2𝑛 , dove 𝑛 è la lunghezza delle stringhe
di bit che stiamo adoperando. Se per esempio 𝑛 = 8 allora avremo 28 risultati e a ciascuno di essi
corrisponderà il valore della variabile aleatoria 𝑋 (che per capirci potrebbe essere la conversione da bit
a scala naturale del risultato). Allora in base a quanto detto possiamo dire che la seguente notazione
rappresenta la probabilità che nelle 𝑛 prove ripetute, si abbiano 𝑘 successi in qualunque ordine:
𝑝(𝑘) = 𝑃(𝑋 = 𝑘)
La Variabile Aleatoria Binomiale, la quale si denota con 𝑋 ~𝐵(𝑝), è definita dalla seguente DF:
𝑛
𝑝(𝑘) = ( ) 𝑝𝑟 𝑞 𝑘 𝑑𝑜𝑣𝑒: 𝑘 ∈ 𝒳 = {0,1, … , 𝑛} 𝑒 𝑛 > 0
𝑘
𝑛
Poiché le ( ) configurazioni con 𝑘 successivi sono tutte differenti e mutuamente esclusivi, allora la
𝑘
probabilità è la somma delle probabilità di tutte le configurazioni, le quali tra l’altro sono tutte
equiprobabili fra loro con probabilità 𝑝 𝑘 𝑞 𝑛−𝑘 . Le seguenti variabili aleatoria sono dei casi particolari di
quella binomiale.
La Variabile Aleatoria di Bernouilli, la quale si denota con 𝑋 ~𝐵𝑒𝑟𝑛(𝑝), è definita dal fatto che assume
valore 1 con probabilità 𝑝 e 0 con probabilità 𝑞 = 1 − 𝑝. Allora la sua DF sarà:
𝑞 𝑠𝑒 𝑘 = 0
𝑝(𝑘) = {
𝑝 𝑠𝑒 𝑘 = 1
Una variabile aleatoria di Bernoulli si può anche interpretare come variabile aleatoria indicatrice di un
evento A che si verifica con probabilità 𝑝.
𝑛+𝑘−1 𝑟 𝑘
𝑝(𝑘) = ( )𝑝 𝑞 𝑘 ∈ 𝒳 = {0,1, . . } = 𝒩 𝑟 > 0 𝑝 ∈ [0,1] 𝑞 = 1 − 𝑝
𝑘
0 𝑥 ∈] − ∞, 𝑎[
1 𝑥−𝑎
𝑓(𝑥) = {𝑏 − 𝑎 𝑥 ∈ [𝑎, 𝑏] → 𝐹(𝑥) = { 𝑥 ∈ [𝑎, 𝑏]
𝑏−𝑎
0 𝑎𝑙𝑡𝑟𝑜𝑣𝑒 1 𝑥 ∈]𝑏, ∞[
1 𝑥≥0
𝑓(𝑥) = 𝜆𝑒 −𝜆𝑥 𝑢(𝑥) → 𝐹𝑋 (𝑥) = (1 − 𝑒 −𝜆𝑥 )𝑢(𝑥) 𝑑𝑜𝑣𝑒: 𝑢(𝑥) = { 𝑒 𝜆>0
0 𝑥<0
Osserviamo che la variabile aleatoria esponenziale monolatera è una variabile aleatoria positiva (sta
solo nel primo quadrante).
P a g . | 80
1 (𝑥−𝜇)2
−
𝑓(𝑥) = 𝑒 2𝜎2 𝑑𝑜𝑣𝑒: 𝜇, 𝜎 ∈ ℛ 𝑒 𝜎 > 0
𝜎√2𝜋
𝑥 (𝑥−𝜇)2
1 − 𝑥−𝜇
𝐹(𝑥) = ∫ 𝑒 2𝜎2 𝑑𝑦 = 𝐺( )
−∞ 𝜎√2𝜋 𝜎
Dobbiamo osservare, tuttavia, che la funzione G(x) non è comunque una funzione elementare, per cui,
per determinarne i valori, è necessario ricorrere a grafici, a tabelle o a programmi al calcolatore. Una
forma alternativa per la CDF di una variabile aleatoria gaussiana si può ottenere definendo la funzione
𝑄(𝑥) (più nota, con terminologia inglese, come “Q-function”) che rappresenta la CDF complementare di
una variabile aleatoria gaussiana standard:
+∞ 𝑦2
1
𝑄(𝑥) ≜ 1 − 𝐺(𝑥) = ∫ 𝑒− 2 𝑑𝑦
√2𝜋 𝑥
Inoltre, per ogni 𝑥 > 0 vale la seguente coppia di disuguaglianze, le quali ci dicono che al crescere di 𝑥,
visto che il rapporto fra i due limiti vale 1 − 1/𝑥 2 , esse diventano sempre più vicine e approssimano la
𝑄(𝑥) con una notevole accuratezza:
1 𝑥2 1 1 𝑥2
−2 −2
𝑒 (1 − 2 ) < 𝑄(𝑥) < 𝑒
𝑥√2𝜋 𝑥 𝑥√2𝜋
Sostituiamo allora la funzione 𝑄(𝑥) al posto di 𝐺(𝑥) nella relazione con 𝐹(𝑥):
𝑥−𝜇 𝑥−𝜇
𝐹(𝑥) = 𝐺 ( ) = 1−𝑄( )
𝜎 𝜎
La variabile aleatoria gaussiana gioca un ruolo preminente nella teoria della probabilità, principalmente
in virtù del fatto che essa rappresenta una distribuzione limite. Ciò vuol dire che la PDF gaussiana
rappresenta la distribuzione della somma di un numero elevato (al limite infinito) di variabili aleatorie
indipendenti e aventi PDF arbitrarie, a patto che il contributo di ciascuna variabile aleatoria alla somma
sia trascurabile, una situazione che si verifica spesso in pratica (si pensi alla corrente elettrica che si può
guardare come la somma dei contributi elementari di corrente dei singoli elettroni).
P a g . | 81
In sostanza la nuova variabile aleatoria 𝑌 è definita su (Ω, 𝒮, 𝑃) mediante una legge in rosso che è la
funzione composta di 𝑋 e 𝑔. La condizione richiesta sull’insieme di definizione di 𝑔(𝑥) ed il codominio
𝑋 di 𝑋(𝜔) serve semplicemente a garantire che tale funzione composta abbia un insieme di definizione
non vuoto. Tuttavia, affinché 𝑌 = 𝑔(𝑋) sia effettivamente una variabile aleatoria, è necessario che la
funzione g soddisfi qualche ulteriore condizione:
✓ {𝑌 ≤ 𝑦} deve essere un evento ∀𝑦 ∈ ℛ;
✓ 𝑃({𝑌 = +∞}) = 𝑃({𝑌 = −∞}) = 0
Visto che la trasformazione 𝑌 = 𝑔(𝑋) è a sua volta una variabile aleatoria, essa avrà una CDF, PDF e DF.
• CDF: 𝐹𝑌 (𝑦) = 𝑃(𝑌 ≤ 𝑦) = 𝑃(𝑔(𝑋) ≤ 𝑦)
• PDF: per quanto riguarda la PDF dobbiamo considerare la derivata prima 𝑔′(𝑥) della funzione 𝑔(𝑥)
e il seguente teorema:
• DF: viene come al solito adoperata per le variabili aleatorie discrete, per le quali chiaramente anche
𝑌 risulterà essere discreta.
𝑝𝑌 (𝑦) = 𝑃(𝑌 = 𝑦) = ∑ 𝑃(𝑋 = 𝑥) = ∑ 𝑝𝑋 (𝑥)
𝑥∈𝒳,𝑔(𝑥)=𝑦 𝑥∈𝒳,𝑔(𝑥)=𝑦
P a g . | 82
+∞ +∞ +∞
𝐸(𝑋) = ∫ 𝑥𝑓(𝑥)𝑑𝑥 = ∫ 𝑥 [ ∑ 𝑝𝑖 𝛿(𝑥 − 𝑥𝑖 )] 𝑑𝑥 = ∑ 𝑝𝑖 ∫ 𝑥𝛿(𝑥 − 𝑥𝑖 )𝑑𝑥 = ∑ 𝑝𝑖 𝑥𝑖
−∞ −∞ 𝑥𝑖 ∈𝒳 𝑥𝑖 ∈𝒳 −∞ 𝑥𝑖 ∈𝒳
Nel caso in cui i valori 𝑥𝑖 sono equiprobabili e sono in numero finito, allora la media statistica coincide
con la media aritmetica.
La varianza 𝜎 2 = 𝑉𝑎𝑟(𝑋) di una variabile aleatoria 𝑋 con media 𝜇 = 𝐸(𝑋) è una quantità positiva, infatti
è legata alla sua radice quadrata 𝜎 = √𝑉𝑎𝑟(𝑋) anche chiamata Deviazione Standard:
+∞
𝜎 2 = 𝑉𝑎𝑟(𝑋) ≜ 𝐸[(𝑋 − 𝜇)2 ] = ∫ (𝑥 − 𝜇)2 𝑓(𝑥)𝑑𝑥
−∞
Notiamo che la varianza di 𝑌 non dipende da 𝑏, infatti la varianza 𝑌 = 𝑋 + 𝑏 coincide con quella in 𝑋 per
qualunque valore della traslazione 𝑏. Tale osservazione ci permette di definire una importante proprietà
della varianza, che prende il nome di Invarianza per Traslazione. In altre parole, al variare di 𝑏
chiaramente la varianza cambia, tuttavia non cambia la sua dispersione intorno alla media. Grazie a
questa proprietà possiamo scegliere un opportuno 𝑏 in modo da semplificare il calcolo di 𝜎 2 . In
particolare, scegliendo 𝑏 = −𝜇𝑋 = −(𝑚𝑒𝑑𝑖𝑎 𝑑𝑖 𝑋), otteniamo una variabile aleatoria centrata 𝑌 = 𝑋 +
𝜇𝑋 che ha media nulla e la stessa varianza di 𝑋. Per ricavare la sua PFD basta effettuare la seguente
traslazione: 𝑓𝑌 (𝑦) = 𝑓𝑋 (𝑦 + 𝜇𝑋 )
Tale formula si ottiene sviluppando algebricamente il quadrato che compare nella definizione di
varianza, dalla quale si ottiene la relazione fondamentale in grassetto di seguito:
Tutte le grandezze appena citate fanno parte di una più grande classe di grandezze che prendono il nome
di Momenti di un variabile aleatoria. Vediamo una importante relazione che mette in relazione i
momenti con la probabilità:
Disuguaglianza di Chebishev: sia 𝑋 una variabile aleatoria con media 𝜇 e varianza 𝜎 2 finite. Si ha che:
𝝈𝟐
𝑷(|𝑿 − 𝝁| ≥ 𝜺) ≤ ∀𝜺>𝟎
𝜺𝟐
In altre parole, afferma la probabilità che la variabile aleatoria 𝑋 con media 𝜇 possa assumere valori
esterni a un intervallo simmetrico rispetto a quest’ultima.
L’utilità della disuguaglianza di Chebishev non sta tanto nell’accuratezza con la quale è in grado di
fornire i valori della probabilità che la variabile aleatoria X appartenga ad un intervallo centrato intorno
P a g . | 84
alla media, ma nella sua generalità e semplicità, in quanto consente di ottenere stime di tale probabilità
senza richiedere la conoscenza esplicita della pdf o CDF della variabile aleatoria, ma solo della sua
varianza.
P a g . | 85
9.1 Introduzione
Fino ad ora abbiamo studiato una singola variabile aleatoria 𝑋 e definito le funzioni CDF, PDF e DF che
la caratterizzavano e ci siamo occupati anche della sua trasformazione 𝑌 = 𝑔(𝑋), il quale è chiaramente
un legame semplice visto che è di natura deterministica (se conosce 𝑋 e la funzione 𝑔 posso determinare
𝑌). Esistono tuttavia molti casi pratici in cui è possibile due variabili aleatoria su uno stesso esperimento
di probabilità, quindi in tal caso il legame fra di esse non è deterministico. Un esempio pratico di tali
osservazioni è l’esperimento probabilistico di scegliere una persona a casa in un insieme di persone.
Supponiamo di avere una variabile aleatoria 𝑋 che corrisponde all’altezza e una variabile aleatoria 𝑌 che
corrisponde al peso. Chiaramente le due variabili sono dipendenti tra loro, ma non certamente da una
semplice relazione 𝑌 = 𝑔(𝑋), la quale non si potrebbe costruire neanche sapendo tutti i parametri
possibili che influenzano altezza e peso (costituzione fisica, sesso, ecc.). Motivo per cui, essendo non
deterministico il legame tra 𝑋 e 𝑌 possiamo solo fare una approssimazione la legge di probabilità. Per
esempio, possiamo supporre che tutte le persone di altezza compresa fra 1.80 e 190 pesi intorno ai 70-
80 kg.
Questa definizione risulta una necessità in quanto se abbiamo la situazione descritta in questa
definizione, singolarmente le CDF di 𝑋 e 𝑌 sono:
{𝑋 ≤ 𝑥} ∩ {𝑌 ≤ 𝑦}
Cioè eventi che sul piano (𝑋, 𝑌) si trovano nella regione in grigio delimitata
dalle rette di equazioni 𝑋 = 𝑥 e 𝑌 = 𝑦. Tale considerazione porta
naturalmente all’introduzione di una misura della probabilità congiunta
degli eventi sopracitati e da qui l’introduzione della CDF congiunta. Essa è chiaramente una funzione
reali di due variabili reali a valori [0,1] (nel caso della probabilità) e quindi a volte un po' complessa da
manipolare matematica. In seguito, utilizzeremo sia la notazione completa 𝐹𝑋𝑌 (𝑥, 𝑦) e a volte quella
semplificata 𝐹(𝑥, 𝑦). Elenchiamo adesso alcune proprietà della CDF congiunta:
➢ Proprietà 1:
𝐹(−∞, 𝑦) = 0 𝐹(𝑥, −∞) = 0 𝐹(+∞, +∞) = 1
➢ Proprietà 2:
𝑃(𝑥1 < 𝑋 < 𝑥2 , 𝑌 ≤ 𝑦) = 𝐹(𝑥2 , 𝑦) − 𝐹(𝑥1 , 𝑦)
𝑃(𝑋 ≤ 𝑥, 𝑦1 < 𝑌 < 𝑦2 ) = 𝐹(𝑥, 𝑦2 ) − 𝐹(𝑥, 𝑦1 )
➢ Proprietà 3:
𝑃(𝑥1 < 𝑋 < 𝑥2 , 𝑦1 < 𝑌 < 𝑦2 ) = 𝐹(𝑥2 , 𝑦2 ) − 𝐹(𝑥1 , 𝑦2 ) − 𝐹(𝑥2 , 𝑦1 ) + 𝐹(𝑥1 , 𝑦1 )
P a g . | 86
𝜕2
𝑓𝑋𝑌 (𝑥, 𝑦) ≜ 𝐹 (𝑥, 𝑦)
𝜕𝑥𝜕𝑦 𝑋𝑌
Nella definizione vediamo la presenza di una derivata mista e poiché la PDF è unica, essa soddisferà le
condizioni idi Schwartz e quindi è indifferente fare la derivata di x rispetto a y o viceversa. In seguito,
utilizzeremo sia la notazione completa 𝑓𝑋𝑌 (𝑥, 𝑦) e a volte quella semplificata 𝑓(𝑥, 𝑦). Chiaramente se la
PDF congiunta è la derivata della CDF congiunta, allora vuol dire che mediante l’operazione di
integrazione della prima possiamo ricavare la seconda:
𝑥 𝑦
𝐹(𝑥, 𝑦) = ∫ ∫ 𝑓(𝑢, 𝑣)𝑑𝑢𝑑𝑣
−∞ −∞
𝑥 𝑦 𝑥 𝑥
𝜕 𝜕
∫ ∫ 𝑓(𝑢, 𝑣)𝑑𝑢𝑑𝑣 = ∫ [𝐹(𝑢, 𝑣)]𝑣=𝑦
𝑣=−∞ 𝑑𝑢 = ∫ [𝐹(𝑢, 𝑦) − 𝐹(𝑢, −∞)]𝑑𝑢
−∞ −∞ −∞ 𝜕𝑢 −∞ 𝜕𝑢
𝑥 𝑦 𝑥 𝑥
𝜕 𝜕
∫ ∫ 𝑓(𝑢, 𝑣)𝑑𝑢𝑑𝑣 = ∫ [𝐹(𝑢, 𝑦) − 𝐹(𝑢, −∞)]𝑑𝑢 = ∫ [𝐹(𝑢, 𝑦) − 0]𝑑𝑢
−∞ −∞ −∞ 𝜕𝑢 −∞ 𝜕𝑢
𝑥 𝑦
∫ ∫ 𝑓(𝑢, 𝑣)𝑑𝑢𝑑𝑣 = [𝐹(𝑢, 𝑦]𝑢=𝑥
𝑢=−∞ = [𝐹(𝑥, 𝑦) − 𝐹(𝑥, −∞)] = 𝐹(𝑥, 𝑦)
−∞ −∞
Un esempio di applicazione di queste relazioni è il caso di una coppia di variabili gaussiane (𝑋, 𝑌), le
quali indicano più precisamente con la notazione: (𝑋, 𝑌)~𝑁(𝜇𝑋 , 𝜇𝑌 𝜎𝑋 , 𝜎𝑌 , 𝜌)
La PDF congiunta è definita dalla seguente equazioni e dal tipico andamento a campana (nel disegno 3D
di seguito) presente anche nel caso bidimensionale:
Osserviamo che le curve di livello della funzione 𝑓𝑋𝑌 (𝑥, 𝑦), cioè
le curve ottenuto dall’intersezione della superficie della
campana con i piani orizzontali di equazione 𝑧 = 𝑐𝑜𝑠𝑡𝑎𝑛𝑡𝑒 (in
parole povere le linee sulla campana), sono ellissi definite dalla
seguente equazioni e rappresentate nel grafico di fianco.
(𝑥 − 𝜇𝑋 )2 (𝑥 − 𝜇𝑋 )(𝑦 − 𝜇𝑌 ) (𝑦 − 𝜇𝑌 )2
− 2𝜌 + = 𝑐𝑜𝑠𝑡𝑎𝑛𝑡𝑒
𝜎𝑋2 𝜎𝑋 𝜎𝑌 𝜎𝑌2
(𝑥−𝜇𝑋 )2 1 𝜎 2
1 − 1 − [ 𝑦−𝜇𝑌 −𝜌 𝑌 (𝑥−𝜇𝑋 )]
𝑓𝑋𝑌 (𝑥, 𝑦) = [ 𝑒 2 𝜎𝑋2 ] [ 𝑒 2𝜎𝑌2 (1−𝜌2 ) 𝜎𝑋
]
𝜎𝑋 √2𝜋 𝜎𝑌 √1 − 𝜌 2√2𝜋
Osserviamo che:
• La prima parentesi quadra, per un fissato valore di 𝑦, è la PDF di una variabile aleatoria
gaussiana 𝑋~𝑁(𝜇𝑋 , 𝜎𝑋 );
• La seconda parentesi quadra, per un fissato valore di 𝑥, è la PDF di una variabile aleatoria
𝜎
gaussiana 𝑌~𝑁 (𝜇𝑌 + 𝜌 𝑌 (𝑥 − 𝜇𝑋 ), 𝜎𝑌 √1 − 𝜌2 ) = 𝑁(𝑚𝑒𝑑𝑖𝑎, 𝑑𝑒𝑣𝑖𝑎𝑧𝑖𝑜𝑛𝑒 𝑠𝑡𝑎𝑛𝑑𝑎𝑟𝑑).
𝜎𝑋
Se adesso integriamo la 𝑓𝑋𝑌 (𝑥, 𝑦) rispetto ad 𝑦 otteniamo la PDF marginale 𝑓𝑋 (𝑥), per cui il secondo
fattore (essendo una PDF per ogni valore di 𝑥) ha integrale rispetto a 𝑦 unitario. In maniera del tutto
simmetrica se lo facciamo rispetto ad 𝑥 otteniamo la PDF marginale 𝑓𝑌 (𝑦). Allora così ricaveremo la PDF
delle nostre variabili aleatorie 𝑋 e 𝑌 Marginalmente Gaussiane:
+∞ (𝑥−𝜇𝑋 )2 +∞ (𝑦−𝜇𝑌 )2
1 −
2 𝜎𝑋2
1 −
2 𝜎𝑌2
𝑓𝑋 (𝑥) = ∫ 𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑦 = 𝑒 𝑓𝑌 (𝑥) = ∫ 𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥 = 𝑒
−∞ 𝜎𝑋 √2𝜋 −∞ 𝜎𝑌 √2𝜋
Osserviamo che se le variabili aleatorie sono costruite su uno spazio di probabilità prodotto Ω1 × Ω2 , e
in maniera tale che:
𝑋[(𝜔1, 𝜔2)] = 𝑋(𝜔1), 𝑌[(𝜔1, 𝜔2)] = 𝑌(𝜔2)
• Media
Il primo passo da fare è estendere il teorema fondamentale della media.
Teorema Fondamentale della Media per una Coppia di Variabili Aleatorie: sia 𝑍 = 𝑔(𝑋, 𝑌) una
trasformazione della coppia di variabili aleatorie (𝑋, 𝑌) aventi PDF congiunta 𝑓𝑋𝑌 (𝑥, 𝑦). Si ha che:
+∞ +∞
𝐸(𝑍) = 𝐸[𝑔(𝑋, 𝑌)] = ∫ ∫ 𝑔(𝑥, 𝑦)𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦
−∞ −∞
Tale definizione è ottenuta banalmente partendo dal concetto di media per la singola variabile aleatoria
𝑍, la quale sappiamo essere:
+∞
𝑍 = 𝑔(𝑋, 𝑌)
𝐸(𝑍) = ∫ 𝑧𝑓𝑍 (𝑧)𝑑𝑧 𝑑𝑜𝑣𝑒:
−∞
𝑧 = 𝑔(𝑥, 𝑦)
Nel caso in cui le due variabili siano discrete, il teorema precedente si esprime in termini di DF:
• Correlazione
La correlazione di una coppia di variabili aleatorie (𝑋, 𝑌) è il momento congiunto 𝜇11 di ordine 𝑛 = 2:
+∞ +∞
𝐶𝑜𝑟𝑟(𝑋, 𝑌) ≜ 𝜇11 = 𝐸(𝑋𝑌) = ∫ ∫ 𝑥𝑦𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦
−∞ −∞
La correlazione è una grandezza che può essere interpretata sotto due punti di vista:
Interpretazione Analitica: se calcoliamo il valor quadratico medio della somma di due variabili
aleatorie, quindi 𝐸[(𝑋 + 𝑌)2 ], otteniamo la seguente relazione. Visto che la correlazione (terzo
fattore a secondo membro) può assumere qualsiasi segno o essere nulla, il valor quadratico medio
in questione può essere maggiore, minore o uguale alla somma dei valor quadratici medi delle
singole variabili: 𝐸[(𝑋 + 𝑌)2 ] = 𝐸(𝑋2 ) + 𝐸(𝑌 2 ) + 2𝐸(𝑋𝑌)
Interpretazione Geometrica: si può interpretare come prodotto scalare tra 𝑋 e 𝑌, pertanto richiede
l’introduzione del concetto di spazi vettoriali di variabili aleatorie.
L’idea è quella di interpretare le variabili aleatorie come vettori appartenenti ad un opportuno spazio
vettoriale. Osserviamo preliminarmente che, affinché si possa parlare legittimamente di vettori, è
necessario che siano definite ed abbiano senso l’operazione di somma di due vettori e l’operazione di
prodotto di un vettore per uno scalare. Ma tali operazioni corrispondono alla somma X + Y di due
variabili aleatorie ed al prodotto a X di una variabile aleatoria per una costante reale, per cui sono
P a g . | 91
perfettamente definite. Una volta assimilate le variabili aleatorie a vettori, è possibile introdurre una
serie di concetti geometrici di grande importanza. In particolare, sui vettori appartenenti a questo
spazio vettoriale, è possibile definire, con diretta interpretazione geometrica:
- Norma: ||𝑋|| ≜ √𝐸(𝑋2 )
- Distanza: 𝑑(𝑋, 𝑌) ≜ ||𝑋 − 𝑌|| = √𝐸[(𝑋 − 𝑌)2 ]
- Prodotto Scalare: < 𝑋, 𝑌 >≜ 𝐸(𝑋𝑌)
Osserviamo, in particolare, che la norma coincide con il valore efficace (e quindi la norma al quadrato
coincide con il valore quadratico medio 𝐸(𝑋2 )), mentre il prodotto scalare coincide proprio con la
correlazione tra le variabili aleatorie X ed Y.
Di particolare importanza in uno spazio vettoriale dotato di prodotto scalare è il seguente teorema.
La disuguaglianza di Schwartz afferma che, in valore assoluto, la correlazione non può eccedere il
prodotto dei valori efficaci delle due variabili aleatorie X e Y. Inoltre, essa consente anche di riesprimere
il prodotto scalare, e quindi la correlazione, come: < 𝑋, 𝑌 >= ||𝑋|||𝑌||cos (𝜃)
Dove 𝜃 è l’angolo (compreso tra 0e 2π) formato dai due vettori. Allora se:
𝜃 = 0: il prodotto scalare è massimo e i vettori hanno verso concorde;
𝜃 = 𝜋: il prodotto scalare è massimo e i vettori hanno verso discorde;
𝜃 = 𝜋⁄2 𝑜𝑝𝑝𝑢𝑟𝑒 𝜃 = 3𝜋/2: il prodotto scalare è nullo e i vettori sono ortogonali.
Definizione – Ortogonalità: due variabili aleatorie 𝑋 e 𝑌 si dicono ortogonali (𝑋 ⊥ 𝑌) se e solo se la loro
correlazione è nulla: 𝐸(𝑋𝑌) = 0
• Covarianza
La covarianza di una coppia di variabile aleatorie (𝑋, 𝑌) è il momento congiunto centrale 𝜎11 di ordine
𝑛 = 2:
+∞ +∞
𝐶𝑜𝑣(𝑋, 𝑌) ≜ 𝐸[(𝑋 − 𝜇𝑋 )(𝑌 − 𝜇𝑌 )] = ∫ ∫ (𝑥 − 𝜇𝑋 )(𝑦 − 𝜇𝑌 )𝑓𝑋𝑌 (𝑥, 𝑦)𝑑𝑥𝑑𝑦
−∞ −∞
Sviluppando la media presente in questa definizione otteniamo una semplice relazione fra quest’ultima
e la covarianza stessa:
𝐶𝑜𝑣(𝑋, 𝑌) = 𝐸(𝑋𝑌) − 𝐸(𝑋)𝐸(𝑌) = 𝐶𝑜𝑟𝑟(𝑋, 𝑌) − 𝜇𝑋 𝜇𝑌
La covarianza è una grandezza che può essere interpretata sotto due punti di vista:
Interpretazione Analitica: se calcoliamo la varianza della somma di due variabili aleatorie, quindi
𝑉𝑎𝑟(𝑋 + 𝑌), otteniamo la seguente relazione. Visto che covarianza (terzo fattore a secondo
membro) può assumere qualsiasi segno o essere nulla, la varianza in questione può essere maggiore,
minore o uguale alla somma delle varianze delle singole variabili:
Interpretazione Geometrica: si può interpretare come prodotto scalare tra le variabili aleatorie
centrate 𝑋 − 𝜇𝑋 e 𝑌 − 𝜇𝑌 . Essendo la covarianza un prodotto scalare, la disuguaglianza di Schwartz
si può applicare anche ad essa, ed assume la seguente forma. Tale relazione ci dice che |𝐶𝑜𝑣(𝑋, 𝑌)|
non può essere maggiore del prodotto delle deviazioni standard delle due variabili aleatorie X ed Y:
A. Covarianza Positiva: allora le due variabili sono positivamente correlate, ciò vuol dire che se
abbiamo scostamenti (rispetto alla media) 𝑋 − µ𝑋 positivi corrispondono in media scostamenti
𝑌 − µ𝑌 positivi. Esempio: altezza e peso sono positivamente correlate perché se aumenta la
prima aumenta anche la seconda e viceversa;
B. Covarianza Negativa: allora le due variabili sono negativamente correlate, ciò vuol dire che se
abbiamo scostamenti (rispetto alla media) 𝑋 − µ𝑋 positivi corrispondono in media scostamenti
𝑌 − µ𝑌 negativi. Esempio: numero di sigarette giornaliere e speranza di vita sono
negativamente correlate perché se aumenta la prima diminuisce la seconda e viceversa
• Incorrelazione
Due variabili aleatorie 𝑋 e 𝑌 di dicono incorrelate se 𝐶𝑜𝑣(𝑋, 𝑌) = 0 o equivalentemente 𝜌𝑋𝑌 = 0.
Abbiamo visto che la covarianza e il coefficiente di correlazione misurano la dipendenza lineare tra due
variabili aleatorie. In particolare, il secondo risulta essere più facile da interpretare essendo stato
normalizzato. Inoltre, abbiamo visto che il caso in cui entrambe le grandezze abbiano valore unitario
implica una dipendenza lineare esatta tra 𝑋 e 𝑌. Il caso opposto, quindi sia covarianza che 𝜌𝑋𝑌 sono nulli,
viene chiamata incorrelazione. Vediamo alcune proprietà dell’incorrelazione
➢ Proprietà 1 - Fattorizzazione della Correlazione: grazie alla relazione tra covarianza e
correlazione (relazione di sinistra), la condizione di incorrelazione consente di affermare che la
media del prodotto tra 𝑋 e 𝑌 è uguale al prodotto delle medie delle due variabili:
+∞ +∞
𝐸(𝑋𝑌) = [∫ 𝑥𝑓𝑋 (𝑥)𝑑𝑥 ] [∫ 𝑦𝑓𝑌 (𝑦)𝑑𝑦] = 𝐸(𝑋)𝐸(𝑌)
−∞ −∞
Tuttavia, il viceversa non è vero, quindi l’incorrelazione non implica l’indipendenza. Questo perché
se si fattorizzano le medie (gli integrali), non è detto che si fattorizzino anche le PDF (funzione
integrande). Una eccezione a tale regola si ha nel caso stiamo parlando di variabili aleatorie
gaussiane.
Osserviamo che se 𝑋 e 𝑌 sono indipendenti e correlate, quindi posiamo fattorizzarne le medie, allora
anche le trasformazioni 𝑍 = 𝑔(𝑋) e 𝑊 = ℎ(𝑌) sono indipendenti e correlate:
𝐸[𝑔(𝑋)𝑔(𝑌)] = 𝐸[𝑔(𝑋)]𝐸[ℎ(𝑌)]
P a g . | 93
➢ Proprietà 2: la varianza della loro somma è uguale alla somma delle singole varianze. Tale risultato
si ottiene banalmente dalla relazione di sinistra, nella quale essendo le due variabili incorrrelate,
risulta che 𝐶𝑜𝑣(𝑋, 𝑌) = 0: