Sei sulla pagina 1di 213

FONDAMENTI DI SEGNALI E

TRASMISSIONE

Dispense redatte dal Prof. Francesco Valdoni,


riviste e sistemate editorialmente dal Prof. Michele Luglio
2
3
INDICE

!! "#$%&'()"&#*+ ,!
!-!! .".$*/"+*+.*%0")"+'"+$*1*2&/(#"23)"&#"+ 4!
1.1.1! "#$%&%'%(&#!"%!)#*&+,%!%&!)#&)(!)-.#--(! /0!
1.2! $%3./".."&#*+"'*31*+'"+(#+.*5#31*+ !6!

7! .*5#31"+#*1+'&/"#"&+'*1+$*/8&+ !9!
7-!! 5*#*%31"$:+.("+.*5#31"+ !;!
12/2/! &(-+'%(&#!3(45,#))+! /6!
2.1.2! (5#.+'%(&%!#,#4#&-+.%!#!)#*&+,%!$#"#,%! /7!
7-7! 213.."<"23)"&#*+'"+.*5#31"+ !,!
2.2.1! )#*&+,%!+!-#45(!3(&-%&8(!#!+!-#45(!"%)3.#-(! /9!
2.2.2! )#*&+,%!"#-#.4%&+-%!#!)#*&+,%!+,#+-(.%! /9!
7-9! .*5#31"+3+$*/8&+2&#$"#(&+ !4!
12:2/! )#*&+,%!3(&-%&8%! /;!
2.3.2! )#*&+,%!3(&!"%)3(&-%&8%-<! /;!
2.3.3! "8.+-+!"#%!)#*&+,%! 1/!
2.3.4! )3(45()%'%(&#!"%!)#*&+,%!+!-#45(!3(&-%&8(! 16!
12:26! %458,)(!%"#+,#!"%!"%.+3! 17!
2.3.6! #&#.*%+!#!5(-#&'+!"#%!)#*&+,%!+!-#45(!3(&-%&8(! 19!
7-=! .*5#31"+3+$*/8&+'".2%*$&+ 74!
12=2/! 3+)(!*#&#.+,#!#!)#>8#&'#! 1;!
12=21! ,8&*?#''+!"#,,#!)#>8#&'#! :0!
12=2:! #&#.*%+!#!5(-#&'+!"#,,#!)#>8#&'#! :/!
7-;! 3<<"#"$:+$%3+.*5#31"+ 97!
1262/! +$$%&%-<!-.+!)#*&+,%!"%!#&#.*%+! :1!
12621! +$$%&%-<!-.+!)#*&+,%!"%!5(-#&'+! :9!
1262:! +$$%&%-<!-.+!)#*&+,%!"%!#&#.*%+!#!"%!5(-#&'+! :@!
1262=! +$$%&%-<!-.+!)#>8#&'#! :;!

9! %388%*.*#$3)"&#"+'"+.*5#31"+ =!!
9-!! %388%*.*#$3)"&#*+'"+.*5#31"+"#+.*%"*+$*/8&%31"+ =9!
:2/2/! )#.%#!"%!$(8.%#.!"%!)#*&+,%!5#.%("%3%! =:!
:2/21! .+55.#)#&-+'%(&#!%&!)#.%#!"%!$8&'%(&%!(.-(*(&+,%! ==!
:2/2:! )#.%#!"%!$(8.%#.!"%!)#*&+,%!+!"8.+-+!,%4%-+-+! =7!
:2/2=! .+55.#)#&-+'%(&#!5#.!%&-#.5(,+'%(&#!"%!3+45%(&%! =9!
9-7! %388%*.*#$3)"&#*+#*11&+.83)"&+'*"+.*5#31"+ =4!
:212/! (.-(*(&+,%''+'%(&#!"%!*.+4A)3?4%"-! 60!
9-9! %388%*.*#$3)"&#*+"#+<%*>(*#)3+'"+.*5#31"+$*/8&+2&#$"#("+ ;!!
:2:2/! -.+)$(.4+'%(&%!,%&#+.%!"%!)#*&+,%!-#45(!3(&-%&8%! 6/!
:2:21! -.+)$(.4+-+!"%!$(8.%#.!#!)8#!5.(5.%#-<! 61!
:2:2:! "%4()-.+'%(&%!"%!+,38&#!5.(5.%#-<!"#,,+!-.+)$(.4+-+!"%!$(8.%#.! 6=!
:2:2=! #)#45%!.%,#B+&-%!"%!-.+)$(.4+-#!"%!$(8.%#.! 67!
:2:26! +$$%&%-<!-.+!)#*&+,%!"%!#&#.*%+!.+55.#)#&-+-%!%&!$.#>8#&'+! 6@!
:2:27! )5#--.%!"%!#&#.*%+! 6;!
:2:29! )5#--.%!"%!5(-#&'+! 7/!
:2:2@! #)-#&)%(&#!)5#--.+,#!"#%!)#*&+,%!.#+,%! 71!
:2:2;! )5#--.%!"%)3.#-%!"%!)#*&+,%!5#.%("%3%! 7=!
9-=! $*&%*/3+'*1+23/8"&#3/*#$&+ ??!
:2=2/! 3+45%(&+4#&-(!&#,!"(4%&%(!"#,,+!$.#>8#&'+! 77!
:2=21! "%4()-.+'%(&#!"#,!3+45%(&+4#&-(!&#,!"(4%&%(!"#,,+!$.#>8#&'+! 77!
:2=2:! 3+45%(&+4#&-(!&#,!"(4%&%(!"#,!-#45(! 79!
9-;! %388%*.*#$3)"&#"+2&/81*..*+'"+.*5#31"+$*/8&+2&#$"#("+ ?@!
:262/! )#*&+,%!3(45,#))%!.+55.#)#&-+-%B%! 7@!
4
:2621! .+55.#)#&-+'%(&%!.#+,%!-.+4%-#!,C%&B%,855(!3(45,#))(! 9=!
:262:! .+55.#)#&-+'%(&#!-.+4%-#!%!3+45%(&%!"#,,C%&B%,855(!3(45,#))(! 99!

=! *1*/*#$"+.("+.*5#31"+'"+.&%5*#$*+ ,4!
=-!! .*5#31"+3#31&5"2"+&+#(/*%"2"+ @!!
=-7! *1*/*#$"+.("+.*5#31"+3#31&5"2"+'"+.&%5*#$*+ @!!
=212/! )#*&+,%!)(&(.%! @/!
=2121! )#*&+,%!"%!%44+*%&#! @1!
=-9! *1*/*#$"+.("+.*5#31"+#(/*%"2"+'"+.&%5*#$*+ @;!
=2:2/! $,8))%!)%&3.(&%!"%!"+-%!#!)#>8#&'#!&84#.%3?#! @6!
=2:21! )#*&+,%!48,-%,%B#,,(!"%!)(.*#&-#! @7!
=2:2:! )#*&+,%!D%&+.%!"%!)(.*#&-#! @9!
=2:2=! )#*&+,%!&84#.%3%!)%&3.(&%!#!+)%&3.(&%! @@!

;! .*5#31"+#*"+A"8&1"+*+>(3'%"8&1"+1"#*3%"+ @4!
5.1! $%3.<&%/3)"&#"+1"#*3%"+<%3+.*5#31"+$*/8&+2&#$"#("+ 4!!
5.1.1! 3(&)%"#.+'%(&%!)8,,+!&+-8.+!#,#--.%3+!"#%!)#*&+,%! ;1!
;-7! $%3.<&%/3)"&#"+1$"+#*"+A"8&1"+ 4;!
6212/! .%)5()-+!.%$,#))+!&#%!"(4%&%!"#,!-#45(!#!"#,,+!$.#>8#&'+! ;6!
62121! .#,+'%(&#!-.+!3(#$$%3%#&-#!"%!.%$,#))%(&#!#!%45#"#&'+! ;9!
6212:! +55.($(&"%4#&-%!)8,!3(#$$%3%#&-#!"%!.%$,#))%(&#! ;9!
;-9! $%3.<&%/3)"&#"+1$"+#*"+>(3'%"8&1"+ 4@!
62:2/! .%)5()-#!&#%!"(4%&%!"#,!-#45(!#!"#,,+!$.#>8#&'+! ;@!
62:21! 5+.+4#-.%!"%!"%$$8)%(&#!&#%!>8+".%5(,%!,-%! ;;!
62:2:! -.+)$#.%4#&-(!%&!3(&"%'%(&#!"%!+"+--+4#&-(! /0/!
;-=! >(3'%"8&1&+"'*31*+*+>(3'%"8&1"+8*%<*$$"+ !6=!
62=2/! >8+".%5(,(!%"#+,#! /0=!
62=21! >8+".%5(,%!5#.$#--%! /06!

?! <&#'3/*#$"+'"+$%3./".."&#*+ !64!
6.1! $%3./".."&#*+"'*31*+ !!!!
72/2/! 3(&"%'%(&%!5#.!%,!-.+)5(.-(!%"#+,#!"#,,+!%&$(.4+'%(&#! ///!
72/21! )%)-#4%!"%!-.+)4%))%(&#!5#.$#--%! //1!
72/2:! 4#''%!-.+)4%))%B%!5#.$#--%! //=!
72/2=! 3+&+,%!,%&#+.%!5#.$#--%! //7!
?-7! *13A&%3)"&#*+1"#*3%*+'"+.*5#31"+$*/8&+2&#$"#(&+ !!@!
7212/! #,+D(.+'%(&#!,%&#+.#!)#&'+!-+*,%(!"%!D+&"+! //@!
72121! #)#45%!"%!#,+D(.+'%(&#!,%&#+.#!)#&'+!-+*,%(!"%!D+&"+! /1/!
7212:! #,#4#&-%!)8%!$%,-.%! /1:!
7212=! #,+D(.+'%(&#!,%&#+.#!3(&!-+*,%(!"%!D+&"+! /16!
?-9! *13A&%3)"&#*+'"+.*5#31"+3+5%3'"#"+ !7,!
72:2/! .#B#.)%D%,%-<!"#,,+!#,+D(.+'%(&#!)8!)#*&+,%!+!*.+"%&%! /19!
72:21! #,+D(.+'%(&%!,%&#+.%!)8!)#*&+,%!+!*.+"%&%! /:0!
72:2:! #,+D(.+'%(&#!&(&!,%&#+.#!)8!)#*&+,%!+!*.+"%&%! /:=!
72:2=! .#)-%-8'%(&#!"#,,+!$(.4+!+!*.+"%&%! /:6!
72:26! #,+D(.+'%(&#!3(45,#))%B+!3(&!-+*,%(!"%!D+&"+! /:9!
72:27! #,+D(.+'%(&#!3(45,#))%B+!3(&!.%"8'%(&#!"#,,+!D+&"+!5.+-%3+! /:@!
?-=! /(1$"813)"&#*+ !94!
?-;! 2*##"+.(113+2&#0*%."&#*+3#31&5"2&+#(/*%"23+ !=6!
?-?! 2*##"+'"+2&'"<"23+'"+23#31*+ !=!!
7272/! 3("%$%3+!3(&!.%"(&"+&'+!)8!$,8))%!D%&+.%! /=/!
72721! 3("%$%3+!3(&!48-+4#&-(!"#,,+!3+."%&+,%-<! /=6!
?-,! 2*##"+'"+/&'(13)"&#*+3%/&#"23+ !=,!
7292/! %&-.("8'%(&#!+%!4#-("%!"%!4("8,+'%(&#!+.4(&%3+! /=9!
72921! 3#&&%!)8,,+!4("8,+'%(&#!-.+4%-#!5.("(--(! /=@!
5
7292:! 3#&&%!)8,,+!4("8,+'%(&#!+.4(&%3+!"%!+&*(,(! /=;!

,! 8%&2*.."+31*3$&%"+ !;!!
,-!! 5*#*%31"$:+.("+8%&2*.."+.$&23.$"2"+ !;7!
92/2/! )#*&+,%!+,#+-(.%!#!,(.(!)(.*#&-%! /61!
92/21! 3+.+--#.%''+'%(&#!"#%!5.(3#))%!3(&-%&8%! /6:!
92/2:! 5.(3#))%!3(&-%&8%!)-+'%(&+.%! /66!
92/2=! %&-#.3(..#,+'%(&#!&#%!5.(3#))%!)-+'%(&+.%! /69!
92/26! 5.(3#))(!)(44+!#!5.(3#))(!3(45,#))(! /6;!
92/27! 5.(3#))%!"%)3.#-%!.#+,%!)-+'%(&+.%! /70!
,-7! 8%&2*.."+.$&23.$"2"+2"21&.$3)"&#3%"+ !?7!
9212/! 5.(3#))%!3%3,()-+'%(&+.%!"%!5.%4(!#!)#3(&"(!(."%&#! /71!
92121! 5.(3#))%!.+55.#)#&-+-%!-.+4%-#!%&B%,855(!3(45,#))(! /7:!
9212:! 5.(3#))(!)-+'%(&+.%(!&(&!%&!D+&"+!D+)#! /7=!
,-9! 8%&2*.."+%388%*.*#$3$"+$%3/"$*+.*%"*+$*/8&%31"+ !?,!
92:2/! 5.(3#))%!.#+,%!3(&!$+--(.%!+,#+-(.%! /79!
92:21! 5.(3#))%!3+45%(&+-%!%&!D+&"+!D+)#! /7;!
92:2:! 5.(3#))%!3(45,#))%!3(&!$+--(.%!+,#+-(.%! /90!
92:2=! 5.(3#))(!)(44+!"%!5.(3#))%!.#+,%!3(&!$+--(.%!+,#+-(.%! /9/!
,-=! 8%&2*.."+2&#$"#("+53(.."3#"+ !,7!
92=2/! 5.(3#))%!3(&-%&8%!*+8))%+&%E!%,!.84(.#! /91!
92=21! .84(.#!*+8))%+&(!)-+'%(&+.%(!&(&!%&!D+&"+!D+)#! /9=!
92=2:! .84(.#!*+8))%+&(!D%+&3(!&#,,(!)5+'%(!"#%!)#*&+,%! /96!
,-;! 8%&2*.."+'"+/3%B&0+ !,,!
9262/! 5.(5.%#-<!"#%!5.(3#))%!"%!4+.F(B! /99!
92621! 5.(3#))%!"%!4+.F(B!+!-#45(!"%)3.#-(! /9@!
9262:! 5.(3#))%!"%!4+.F(B!+!-#45(!3(&-%&8(! /@1!

@! /*))"+$%3./".."0"+ !@9!
@-!! "#$%&'()"&#*+3"+/*))"+$%3./".."0"+ !@;!
@2/2/! 3(55%#!4#-+,,%3?#! /@6!
@2/21! $%D.#!(--%3?#! /@9!
@2/2:! -.+--#!.+"%(! /@@!
@-7! "#$%&'()"&#*+3"+/*))"+$%3./".."0"+%*31"+ !@@!
@-9! /*))"+$%3./".."0"+/*$311"2"+ !@4!
@2:2/! )-.8--8.+!"#,,#!3(55%#!4#-+,,%3?#! /@;!
@2:21! *.+&"#''#!3+.+--#.%)-%3?#!"#,,#!3(55%#!4#-+,,%3?#! /;0!
@2:2:! 3(45(.-+4#&-(!"#,,#!3(55%#!4#-+,,%3?#! /;=!
@2:2=! 4#''%!-.+)4%))%B%!3(&!3(55%#!)%44#-.%3?#! /;9!
@2:26! 4#''%!-.+)4%))%B%!3(&!3(55%#!3(+))%+,%! 100!
@-=! /*))"+$%3./".."0"+&$$"2"+ 769!
@2=2/! )-.8--8.+!"#,,#!$%D.#!(--%3?#! 10:!
@2=21! *.+&"#''#!3+.+--#.%)-%3?#!"#,,#!$%D.#!(--%3?#! 10=!
@2=2:! 3(45(.-+4#&-(!"#,,#!$%D.#!(--%3?#!+!)+,-(!"%!%&"%3#! 109!
@2=2=! 4#''%!-.+)4%))%B%!3(&!$%D.+!(--%3+!4(&(4("(! 1//!
@-;! /*))"+$%3./".."0"+%*31"+2&#+8&%$3#$*+%3'"&+ 7!7!
6
7

1 INTRODUZIONE
8
9

1.1 SISTEMI E SERVIZI DI TELECOMUNICAZIONI

La comunicazione è il processo mediante il quale la informazione fluisce tra due o più soggetti;
essi sono persone, apparati fisici o enti logici capaci di emettere o ricevere: nel primo caso si ha
una sorgente di informazione, mentre nel secondo un destinatario di informazione. Ovviamente,
un medesimo soggetto può svolgere anche simultaneamente entrambe le funzioni, in emissione e
ricezione, apparendo nella duplice veste di sorgente e destinatario; comunque, le due funzioni
possono essere, e verranno, considerate separatamente.
Se la natura degli utenti finali è la medesima e la sorgente non è di tipo elettrico la comunicazione
a distanza inizia generalmente con una operazione di trasduzione, cioè con la trasformazione della
variabile di uscita della sorgente di informazione in una grandezza elettromagnetica funzione del
tempo, denominata segnale e indicata con x(t); la comunicazione ha poi termine con un’altra
operazione di trasduzione, complementare a quella iniziale, tramite la quale il segnale ricevuto
viene convertito nella opportuna variabile accettata dal destinatario. La trasduzione può avvenire
solo ad una terminazione. Nel seguito le trasduzioni non verranno prese in esame: tali operazioni
risiedono infatti all’interno di complesse entità fisiche, denominate terminali, capaci di emettere o
ricevere informazioni in forma elettromagnetica, ossia segnali, ai quali unicamente sarà rivolta la
attenzione. Un terminale emittente, ossia una sorgente di segnale che veicola la informazione,
verrà semplicemente indicato come sorgente; un terminale ricevente, ossia un destinatario di
segnale, verrà semplicemente indicato come destinatario.
Quando il flusso di informazione tra una molteplicità di terminali si attua in forma di propagazione
a distanza di un segnale in ambiente elettromagnetico, si ha telecomunicazione. L’insieme dei
terminali, dei circuiti e degli ambienti elettromagnetici in cui si propagano i segnali contenenti le
informazioni costituisce una infrastruttura di telecomunicazione. Nel caso più elementare esso si
riduce ad un collegamento unidirezionale tra sorgente e destinatario; allorché gli utenti diventano
tanti e le possibili interconnessioni necessarie per la piena connettività dovrebbero crescere
numericamente come il fattoriale, nasce la rete di telecomunicazioni, ovvero una infrastruttura per
la maggior parte condivisa (rami e nodi) ed in parte ad uso esclusivo del singolo utente (cavo o
tratta radio “ultimo metro” e apparecchio terminale); quindi, più generalmente, si hanno
numerosissimi terminali allacciati a una struttura di grande complessità, articolata in nodi, anelli e
rami e denominata rete di telecomunicazioni (vedi Figura 1.1), che consente la effettuazione
simultanea di una pluralità di comunicazioni con collegamenti variabili nel tempo.

terminazione di rete nodo di rete


collegamento di accesso collegamento di trasporto
Figura 1.1: Schema di massima di rete di telecomunicazioni.
Spesso le reti hanno la capacità di operare con modalità bidirezionale, ossia per ogni
comunicazione rendono disponibile una coppia di collegamenti, in cui i segnali si propagano in
versi opposti; ovviamente, i terminali allacciati sono allora in grado di operare simultaneamente
sia come sorgenti che come destinatari.
Le modalità di svolgimento di un processo di comunicazione, con procedure normalizzate a livello
internazionale, costituiscono un servizio di telecomunicazione; di esso fruiscono i terminali,
perciò denominati anche utenti del servizio. L’espletamento di un servizio di telecomunicazione
richiede la attuazione di una molteplicità di funzioni, alcune orientate al trattamento della
10
informazione per la sua utilizzazione, altre invece orientate al suo trasporto a distanza, ossia al
trasferimento della informazione. Se ci si limita a queste ultime, si ha un servizio portante; esso è
comunque necessario, assieme alle funzioni dell’altro tipo, per fornire una completa capacità di
comunicazione, ossia per un teleservizio. I servizi portanti sono dunque offerti dalle reti di
telecomunicazioni per il trasferimento di informazioni tra le terminazioni di rete, che sono i punti
di interfaccia della rete verso i terminali.
La rete espleta fondamentalmente funzioni di commutazione e funzioni di trasmissione: le prime,
residenti nei nodi dello schema in Figura 1.1, consentono l’inoltro opportuno della informazione
per attuare il collegamento desiderato, mentre le seconde permettono la propagazione del segnale
che veicola la informazione, tra terminazioni di rete e nodi oppure tra nodi, rispettivamente con
collegamenti di accesso e con collegamenti di trasporto. Ulteriori importanti funzioni di
segnalazione e di gestione completano le modalità operative di una rete di telecomunicazioni: esse
consentono l’espletamento in tempo reale e ottimizzato dei molteplici servizi richiesti.
Nel seguito l’attenzione verrà concentrata unicamente sulla trasmissione, tralasciando del tutto le
altre problematiche delle reti e considerando per i terminali solo gli aspetti rilevanti nei riguardi
della trasmissione medesima. Verrà inoltre considerato un solo senso di trasferimento della
informazione, ritenendo che la operazione nel senso opposto possa svolgersi in maniera analoga.
1.1.1 Definizione di segnali in senso stretto

In senso stretto si può assumere che un segnale sia una grandezza fisica, funzione reale della
variabile indipendente reale tempo, utilizzabile come veicolo della informazione che fluisce da una
sorgente a un destinatario. Perché tale grandezza fisica possa effettivamente portare informazioni
occorre che i parametri caratteristici siano ignoti al destinatario.

1.2 Trasmissione ideale di un segnale

Dal punto di vista del comportamento esterno, una generica infrastruttura per la trasmissione della
informazione da una sorgente a un destinatario, ossia un generico sistema di trasmissione
impiegato per attuare il collegamento, è sempre rappresentabile tramite un unico blocco che,
eccitato in entrata dal segnale x(t), che in modo opportuno veicola la informazione, fornisce in
uscita un segnale di risposta y(t). Si assume che la trasmissione avvenga in maniera ideale se si
verifica la condizione:
[1.2.1] y(t) = g x(t – t0),
con g e t0 costanti reali, ossia se il segnale di uscita costituisce una replica di quello di entrata, a
meno del fattore moltiplicativo (amplificazione/attenuazione) g e del ritardo t0>0. Tali grandezze
hanno carattere irrilevante: esse sono infatti determinate, anche se non note a priori in ricezione, e
quindi non possono essere portatrici della informazione, obbligatoriamente sempre associata a
grandezze aleatorie. La relazione [1.2.1] è una condizione sufficiente, ma non necessaria affinché
si compia il trasferimento pienamente corretto della informazione: le particolari modalità con cui
questa ultima è veicolata dal segnale x(t) possono infatti consentire altre alterazioni della risposta
y(t) che risultano prive di conseguenze ai fini della fruizione della informazione ricevuta.
Il menzionato legame tra segnali uscente ed entrante riassume in modo globale il trattamento di
trasmissione a distanza che garantisce la prestazione perfetta del collegamento. Ai fini della
comprensione degli elementi essenziali è in effetti conveniente che il sistema sia rappresentato con
maggiore dettaglio, considerando più blocchi funzionali, connessi in cascata; una parte di essi, a
volte ridotta a un solo blocco come mostrato in Figura 1.2, ha nel complesso una dimensione fisica
uguale alla distanza da coprire; l’altra parte può essere invece assunta a dimensione nulla. I blocchi
della prima categoria rappresentano idealmente il mezzo trasmissivo, fondamentale responsabile
della propagazione a distanza del segnale; quelli della seconda sono gli equivalenti concettuali
degli apparati di trasmissione, di norma comprendenti circuiti elettronici o optoelettronici attivi e
suddivisibili in apparati emittenti (dal lato entrante) e apparati riceventi (dal lato uscente).
11
x(t) y(t)
apparati apparati
sorgente mezzo trasmissivo destinatario
emittenti riceventi
PE PR o
sistema di trasmissione
Figura 1.2: Schema essenziale di un sistema di trasmissione che attua un collegamento.
12
13

2 SEGNALI NEL DOMINIO DEL TEMPO


14
15

2.1 GENERALITÀ SUI SEGNALI

2.1.1 Notazione complessa

Con riferimento a un segnale localizzato in una generica sezione di un sistema di trasmissione, si


assume in seguito per esso la notazione del tipo:
x (t) , ! t " T , x " X ,
dove la funzione reale x(t), di cui è mostrato un esempio in Figura 2.1, è valida sul dominio
temporale T, che spesso è esteso a tutto l’asse dei tempi, e il codominio X del segnale, costituito
da tutti i valori assunti da x(t), ha natura elettrica.
x
x(t)

0 t

Figura 2.1: Esempio di segnale reale.


In senso lato un segnale può essere una qualsiasi grandezza rappresentativa di un segnale fisico,
ma funzione in generale complessa della variabile indipendente temporale, per cui si ha la
notazione in parte reale e parte immaginaria:
[2.1.1] x ( t ) =x R ( t ) +jx I ( t ) , ! t " T , x R " X R , x I " X I ,
dove j2=-1, XR+jX I è il codominio complesso del segnale e si è posto:

ˆ {x ( t )} = 12 #$x ( t ) +x" ( t )%& ,


[2.1.2] x R ( t ) =!
1#
ˆ {x ( t )} = j2
[2.1.3] x I ( t ) =! $x ( t ) -x ( t )%& ,
"

avendo indicato con x" (t) la funzione complessa coniugata di x(t). Con la notazione complessa in
modulo e argomento si ha inoltre:
jarg!"x( t )#$
[2.1.4] x ( t ) = x ( t ) e ,

dove

[2.1.5] x ( t ) =ˆ x 2R ( t ) +x 2I ( t ) = x ( t ) x! ( t ) ,

! xI (t ) # ' ! xR (t ) #
ˆ
[2.1.6] arg !"x ( t )#$ =artg % & + %1- &.
" x R ( t ) $ 2 %" x R ( t ) &$

Si osservi che poiché la funzione arcotangente fornisce un valore compreso nell’intervallo (-!/2,
!/2), il secondo termine del secondo membro della precedente espressione è necessario per
ricavare il valore dell’ argomento nell’intero angolo giro.
Per un segnale reale si ha la nota relazione:
[2.1.7] x ( t ) =x! ( t ) , " t # T , per x I (t) " 0,

mentre per un segnale puramente immaginario risulta:


[2.1.8] x ( t ) =-x! ( t ) , " t # T , per x R (t) " 0.
16
2.1.2 Operazioni elementari e segnali fedeli

Essendo caratterizzati da funzioni matematiche, sui segnali e tra segnali si possono effettuare tutte
le operazioni che sono consentite per le relative funzioni. In particolare, su un generico segnale
x(t) sono eseguibili le operazioni elementari di moltiplicazione per una costante e di traslazione nel
tempo, illustrate nell’esempio in Figura 2.2. Come già menzionato in precedenza, una volta
individuato in un sistema di trasmissione un segnale fisico reale x0(t), si assume che sia
equivalente dal punto di vista del trasferimento della informazione ogni altra grandezza:
[2.1.9] y(t) = g x(t – t0),
che risulti difforme da x0(t) solo per la presenza di un fattore di scala costante g, reale positivo o
negativo, e/o per una traslazione temporale, in ritardo (t0>0) oppure in anticipo (t0<0). Le
operazioni elementari di moltiplicazione per una costante reale e di traslazione nel tempo sono
dunque prive di effetto sostanziale a riguardo della comunicazione e le grandezze reali della
famiglia definita tramite la [2.1.9] si denominano segnali fedeli in senso stretto.
x g xo (t - to )
x o (t)

0 to > 0 t

Figura 2.2: Segnale reale x0(t) e sua replica fedele g x0(t - t0).
Qualora si faccia riferimento a un segnale complesso, si assume che la famiglia dei segnali fedeli
in senso lato sia più ampiamente definita tramite l’espressione:
[2.1.10] y(t) = g e-j# x(t - t0),
con # costante reale arbitraria, considerando elementare la più estesa operazione di
moltiplicazione per una costante complessa.
Passando ad altre operazioni semplici, si osserva che quella di coniugio è priva di ogni effetto se
viene applicata a un segnale reale; diversamente produce il segnale x*(t)=xR(t)-jxI(t), diverso da
x(t) e di norma non fedele. Anche la operazione di ribaltamento dell’asse dei tempi, per cui da x(t)
si ottiene x(-t ), conduce in generale a un segnale diverso e non fedele (vedi Figura 2.3a); possono
tuttavia verificarsi delle eccezioni, come ad esempio nel caso di segnale reale con andamento di
tipo simmetrico (vedi Figura 2.3b).
x(-t) x x(t) x(-t) x x(t)

a) 0 t b) 0 t

Figura 2.3 Segnale reale x(t) e segnale x(- t ) ottenuto per ribaltamento temporale.
Tra segnali sono inoltre applicabili le operazioni elementari di somma, sottrazione e
moltiplicazione, che si effettuano punto per punto. Inoltre, sui segnali è possibile effettuare
elevamento a potenza, estrazione di radice, logaritmo, derivazione, integrazione, ecc. Infine, viene
definita l’operazione di convoluzione tra due segnali nel seguente modo:
[2.1.11] x(t)$y(t) = ! x (v) y (t-v) dv
il cui significato e la cui applicazione verranno illustrati nel seguito.
17
2.2 Classificazione di segnali

2.2.1 Segnali a tempo continuo e a tempo discreto

L’attributo di segnale continuo o discreto si riferisce alla caratteristica del dominio o del
codominio della funzione che lo rappresenta.
Fino a questo punto sono stati considerati segnali definiti in ogni punto di un dominio temporale T,
o addirittura dell’intero asse temporale: si tratta della classe denominata dei segnali a tempo
continuo. Sono tuttavia contemplati anche segnali con esistenza solo in corrispondenza di istanti
discreti della variabile tempo, appartenenti alla classe dei segnali a tempo discreto. Questi ultimi,
pure avendo natura astratta, sono rilevanti nello studio dei sistemi di telecomunicazione,
particolarmente in vista del loro sempre maggiore sviluppo con le cosiddette tecniche numeriche.
L’approfondita caratterizzazione delle due classi di segnali introdotte sarà in seguito eseguita
separatamente. Per completezza e generalità si usano le seguenti definizioni:
• Se il dominio è un insieme continuo (limitato o illimitato) allora il segnale è tempo continuo
• Se il dominio è un insieme discreto (limitato o illimitato) allora il segnale è tempo discreto
• Se il codominio è un insieme continuo (limitato) allora il segnale è continuo
• Se il codominio è un insieme discreto (limitato) allora il segnale è discreto o quantizzato.
Il caso di dominio discreto corrisponde ad un segnale che si manifesta solo in alcuni istanti
significativi e tra i due istanti non è definito (non è nullo).
2.2.2 Segnali determinati e segnali aleatori

2.2.2.1 Segnali determinati


Spesso si fa riferimento a segnali determinati o certi, appartenenti alla classe deterministica,
caratterizzati da andamenti che si presuppongono noti sull’intero dominio temporale T; pertanto
nel caso reale essi sono almeno in parte rappresentabili graficamente nel piano {x, t} con un unico
tracciato o forma d’onda (vedi Figura 2.1, Figura 2.2, Figura 2.3), oppure nel caso complesso con
una coppia di forme d’onda nei piani {x R(t), t} e {x I(t), t} (o nei piani {|x(t)|, t} e {arg[x], t}).
A volte i segnali determinati sono soggetti a rappresentazioni matematiche semplici, come lo è ad
esempio quella estesa all’intero asse temporale del generico segnale armonico reale, o
semplicemente armonica reale:
[2.2.1] x(t) = A cos(%0t + &0),
dove %0 = 2!f0 è la pulsazione, f0 è la frequenza, T0=1/ f0 è il periodo, A è l’ampiezza e &0 è la fase
della particolare armonica.
I segnali determinati non trovano riscontro nell’esercizio dei sistemi di trasmissione in quanto,
essendo noti per definizione, risulterebbe poco utile il loro trasferimento ma vengono utilizzati con
efficacia nelle fasi di analisi e progetto di questi ultimi. Grazie alla completa prevedibilità degli
andamenti attesi in condizioni ideali, alcuni tipi di segnali certi con forme d’onda facilmente
misurabili sono impiegati anche nelle fasi di collaudo e di verifica delle prestazioni di apparati o di
sistemi, riscontrando in ricezione gli scostamenti rispetto agli andamenti attesi.
2.2.2.2 Segnali aleatori
Nell’esercizio di un sistema di trasmissione si hanno segnali aleatori, appartenenti alla classe
stocastica, con andamenti temporali mai completamente noti nella loro individualità; infatti i
segnali ricevuti risultano una combinazione del segnale utile con segnali della stessa natura
(disturbi) prodotti o dall’ambiente (canale di trasmissione) o dai circuiti in cui transita il segnale; a
riguardo dei segnali utili si osserva infatti che l’informazione risiede nel verificarsi di eventi
casuali, ossia incerti a priori per chi riceve (altrimenti non avrebbe senso la trasmissione), mentre
per quanto concerne i disturbi per come sono generati sono ignoti ed è ovvio che essi non
avrebbero più carattere veramente nocivo se fossero noti e, di conseguenza, eliminabili. Si possono
comunque precisare alcune grandezze che caratterizzano l’insieme di tutti i segnali potenzialmente
18
e casualmente generabili da una medesima sorgente e che, quindi, appartengono a uno stesso
processo aleatorio di generazione; individualmente tali segnali sono denominati realizzazioni del
processo.
Diviene possibile una descrizione ancora più sintetica nella condizione di processo stazionario,
ossia qualora permangano invariate nel tempo le cause fondamentali che generano l’informazione
o il disturbo e i meccanismi che poi formano i relativi segnali. Se ad esempio si fissano le idee
sulla particolare sorgente costituita da un parlatore al microfono, non si può conoscere la forma
d’onda in uscita sull’intero asse dei tempi, ma è possibile individuare delle caratteristiche comuni
a tutti i segnali audio che la sorgente considerata ha la potenzialità di emettere, particolarmente se
non mutano le condizioni né della fonte dell’informazione sonora, né del microfono, né
dell’ambiente.
I processi aleatori possono essere divisi in processi con evento isolato, processi continui e in
processi discreti.
Nel primo caso l’aleatorietà non è associata ai valori dell’andamento temporale del segnale, ma ad
uno o più parametri che possono assumere casualmente valori diversi nelle varie realizzazioni, di
tipo a tempo continuo, costituenti l’insieme di quelle generabili dal processo considerato. Una
volta che la sorgente abbia stabilito con un evento isolato dei valori particolari dei parametri
aleatori, la forma d’onda risulta completamente nota in tutto il suo sviluppo, ossia il segnale
emesso diviene certo; la sua trasmissione può essere tuttavia utile, in quanto consente la
conoscenza a distanza della informazione dell’evento isolato, residente nei valori particolari, o
determinazioni, fissati dalla sorgente per i parametri aleatori. Analiticamente un processo con
evento isolato può essere espresso con una funzione esplicita del tempo, che contiene i parametri
sotto forma di variabili aleatorie, spesso indicate con la sigla v.a.. Un esempio semplice è offerto
da un impulso rettangolare, in cui i parametri sono l’ampiezza A, la durata T e il tempo di
presentazione t0; una volta che si conoscano le determinazioni di tali v.a. è nota tutta la
realizzazione, come mostrato in Figura 2.4.
T
x
t0
A t

Figura 2.4: Esempio di realizzazione di un processo aleatorio con evento isolato.


In un processo continuo la casualità si manifesta in forma dinamica per effetto di una serie di
eventi aleatori distribuiti nel tempo, in modo che la conoscenza della forma d’onda anche a partire
da tempi assai lontani non comporta mai la prevedibilità dell’andamento futuro. L’esempio più
tipico è offerto dal rumore gaussiano, dovuto alla emissione in istanti casuali di un numero
elevatissimo di forme d’onda di assai breve durata e di piccolissima ampiezza, che sommandosi
danno luogo a realizzazioni in cui, al limite, la conoscenza dell’intero tracciato passato non ha
alcuna influenza nemmeno sul valore all’istante presente. In generale non sono possibili
rappresentazioni del processo mediante funzioni esplicite del tempo, mentre si può ricorrere a
descrizioni di tipo probabilistico, che consentono di individuare delle grandezze sintetiche
caratteristiche dell’insieme delle realizzazioni, tramite una gerarchia di funzioni di probabilità.
In un processo discreto la casualità si manifesta ancora in forma dinamica, ma con natura
essenzialmente logica: il processo è infatti costituito da una successione di eventi aleatori
distribuiti in istanti discreti dell’asse temporale. Nel caso più semplice può essere
matematicamente rappresentato tramite una serie di v.a. uniche, così che le realizzazioni, tipici
segnali a tempo discreto, risultano costituite dalla corrispondente serie delle determinazioni, ossia
dei particolari valori che la sorgente abbia stabilito per tutti i singoli eventi casuali. Come esempio
si può considerare il caso elementare di una sorgente di messaggio numerico, che a intervallo
regolare emette casualmente una delle due possibili cifre binarie, 0 e 1; si ha allora una
realizzazione del tipo:
19
....0110100010101110100101100....
La descrizione probabilistica del processo avviene caratterizzando la successione delle menzionate
v.a..
Si può concepire un processo continuo a partire da una successione temporale di eventi casuali
distribuiti in istanti discreti, ossia da un processo discreto, facendo però corrispondere ad ogni
evento l’emissione di segnali a tempo continuo tipici di processi con evento isolato; allora il
processo può essere espresso analiticamente tramite una serie temporale di funzioni esplicite del
tempo, contenenti uno o più parametri sotto forma di v.a.. Un esempio semplice è quello in cui le
funzioni esplicite sono impulsi rettangolari, di durata T invariata e tempi di presentazione
equispaziati, con ampiezze corrispondenti a una successione di v.a.; in Figura 2.5 è mostrata una
realizzazione del processo considerato. La descrizione probabilistica del processo passa per quella
del corrispondente processo discreto.

Figura 2.5: Esempio di realizzazione di un processo continuo espresso tramite una serie temporale
di processi con eventi isolati.

2.3 SEGNALI A TEMPO CONTINUO

2.3.1 Segnali continui

Un segnale a tempo continuo ha come dominio temporale un insieme continuo, che a meno di
menzione contraria verrà nel seguito inteso come l’intero asse temporale. Un tale segnale x(t) è
regolare nel generico istante t0 se esiste, finito o infinito, il limite per t che tende a t0 di x(t); il
segnale è poi continuo in t0 se si verifica:
[2.3.1] lim x ( t ) =x ( t 0 ) .
t!t 0

Qualora la precedente espressione sia soddisfatta in ogni punto del dominio temporale, si ha un
segnale continuo. Di tale tipo è ad esempio l’armonica reale (vedi [2.2.1]).
A causa della natura non ideale dei dispositivi e componenti impiegati nei reali sistemi di
trasmissione, i segnali ivi riscontrabili in pratica, siano essi segnali certi di prova o realizzazioni di
processi aleatori, sono tutti di tipo continuo. A volte si hanno tuttavia delle forme d’onda in cui
compaiono tratti estremamente ripidi, che assimilano con buona approssimazione l’andamento di
segnali non continui, ai quali sia stato fatto riferimento nelle fasi teoriche di analisi e di progetto
dei sistemi.
2.3.2 Segnali con discontinuità

2.3.2.1 Discontinuità nei segnali a tempo continuo


Un segnale a tempo continuo x(t) che non converga in t0 ha in tale istante una discontinuità di
prima specie se il suo andamento è regolare sia a sinistra che a destra di t0, ossia si ha:
[2.3.2] lim- x ( t ) =x ( t -0 ) , lim+ x ( t ) =x ( t +0 ) ,
t!t 0 t!t 0

ma si verifica la disuguaglianza dei due limiti, con valore non nullo della discontinuità
ˆ ( t +0 ) -x ( t -0 ) ! 0 .
[2.3.3] d 0 =x
20
Nell’istante t0 si definisce per il segnale non continuo il suo emivalore:
1 1 1
[2.3.4] x em ( t 0 ) =ˆ !"x ( t +0 ) +x ( t -0 )#$ = x ( t -0 ) + d 0 = x ( t +0 ) - d 0 .
2 2 2
Un segnale non continuo, che come menzionato risulta di notevole utilità ma si riscontra solo in
sede teorica, presenta spesso più di una discontinuità di prima specie.
Estendendo le considerazioni precedenti alla derivata di un segnale continuo, è possibile o meno
evidenziare una o più discontinuità di seconda specie; se anche la derivata ha un andamento
continuo, possono poi presentarsi discontinuità di terza specie osservando la derivata seconda del
segnale.
2.3.2.2 Esempi di segnali con discontinuità
Il primo esempio di segnale non continuo è offerto dal gradino unitario, con forma d’onda
mostrata in Figura 2.6a e indicato con la notazione:
" 0 , ! t<0
$$
[2.3.5] u ( t ) =ˆ # 12 , t=0 .
$
$% 1 , ! t>0

Il segnale u(t) ha l’emivalore ! nella discontinuità nell’origine; esso gode inoltre sull’intero asse
dei tempi della proprietà:
[2.3.6] u(t) + u(-t) = 1.
Un secondo esempio, con emivalore nullo nel punto di discontinuità nell’origine, è quello del
segnale segno della variabile t, mostrato in Figura 2.6.b e indicato con la notazione:
" -1 , ! t<0
$
[2.3.7] sgn ( t ) =ˆ # 0 , in t = 0 ;
$ 1 , ! t>0
%
Tra tale segnale e il gradino unitario sussiste la relazione:
[2.3.8] sgn(t) = u(t) - u(-t).
x x
1 1
u(t) sgn(t)

0 t 0 t

a) gradino unitario -1 b) segno di t -1


Figura 2.6: Esempi di segnali determinati con discontinuità di prima specie.
Un ulteriore significativo esempio di segnale non continuo, con emivalori ! nei punti di
discontinuità in |t|=T/2, è offerto dal segnale denominato impulso rettangolare unitario di durata
T (vedi Figura 2.7), per cui si usa la notazione:
( 1 , ' t <T/2
*
!t$ *
[2.3.9] rect # & = ) 1 / 2 , in t =T/2 ,
"T% *
*+ 0 , ' t > T / 2

e sussiste la relazione con il gradino unitario:


21
! t $ ! T$ ! T$
[2.3.10] rect # & = u # t + & ' u # t ' & .
"T% " 2 % " 2 %

1 x

T 0
- __ __
T
t
2 2
Figura 2.7: Impulso rettangolare unitario, con due discontinuità di prima specie.
Si noti che, al contrario dei due segnali precedentemente definiti, la funzione rect(t/T) è
contraddistinta dalla presenza di un parametro: la durata T dell’impulso. Nel caso in cui il valore
di T sia noto, il segnale considerato è del tipo determinato, come lo sono il gradino unitario e il
segnale segno; se invece si assume che T stia a indicare una v.a., la funzione rect(t/T) diviene
l’espressione esplicita di un processo aleatorio con evento isolato.
Ogni segnale con punti di discontinuità di prima specie negli istanti tk può essere generalmente
scomposto nella somma:
[2.3.11] x(t) = x C (t) + x G (t),
dove xC(t) è un segnale continuo e xG(t) è un segnale a gradini, costante a tratti (vedi esempio in
Figura 2.8):
N
[2.3.12] x G ( t ) =! d k u ( t-t k ) , d k =x ( t +k ) -x ( t -k ) .
k=1

0 tk t

Figura 2.8: Forma d’onda di un segnale a gradini.


Rammentando le relazioni che consentono di esprimere il segnale segno e l’impulso rettangolare
unitario in funzione del gradino unitario u(t), si nota che esse sono casi particolari del generico
segnale a gradini espresso tramite la [2.3.12].
2.3.3 Durata dei segnali

2.3.3.1 Segnali a tempo continuo e durata finita


Si ha un segnale a tempo continuo e durata finita se l’andamento risulta strettamente limitato nel
tempo, ossia se è identicamente nullo all’esterno di un intervallo (tm, tM), di estensione o durata
limitata D = tM-tm:
% x ! X , " t ! t ,t
' ( m M)
[2.3.13] x ( t ) = & .
'( x # 0 , " t $ ( t m ,t M )

Nel caso di durata breve si usa la denominazione di segnale impulsivo o semplicemente impulso.
Se risulta tm'0, si può assegnare alla grandezza l’attributo di segnale causale a durata finita.
Un primo esempio è lo impulso rettangolare di durata T e di ampiezza finita A (vedi Figura 2.9a):
"t%
[2.3.14] x(t) = A rect $ ' ,
# T&
22
che generalizza l’impulso rettangolare unitario, con l’aggiunta di un secondo parametro. Altri
esempi sono l’ impulso triangolare di durata T e valore massimo A (vedi Figura 2.9b):
"t% "t% " t % "t%
[2.3.15] x(t) = A tri $ ' , con tri $ ' = $1- ' rect $ ' ,
# T& # T & # T/2 & # T&
e lo impulso a coseno rialzato di durata T e valore massimo A (vedi Figura 2.9c):
1# 2" t & "t%
[2.3.16] x(t) = A 1 + cos rect $ ' .
2$
% T ' ( # T&
x x x
A A A

- __
T 0 __
T t - __
T 0 __
T t - __
T 0 __
T t
a) 2 2 b) 2 2 c) 2 2

Figura 2.9: Forme d’onda di segnali a durata limitata.


Osservando le forme d’onda dei tre esempi di segnali a tempo continuo e durata finita riportate in
Figura 2.9, si nota la presenza nel primo di due discontinuità di prima specie e nel secondo di tre
discontinuità di seconda specie, ossia della derivata; il terzo impulso è invece continuo, con
derivata continua.
2.3.3.2 Segnali a tempo continuo e durata illimitata
I segnali a tempo continuo e durata illimitata, ossia non strettamente limitati nel tempo, sono
ripartibili in tre categorie.
Si ha un segnale bilatero se esso è diverso da zero su tutto l’asse dei tempi, ad eccezione di punti o
intervalli limitati. Un esempio rilevante di segnale bilatero è il segnale sinc, definito tramite
l’espressione:
" t % sin(" t/T)
[2.3.17] sinc $ ' = .
# T& " t/T
Si noti che il segnale considerato, di tipo continuo, vale 1 nell’origine e assume valore 0 per ogni
|t| multiplo del parametro T, come mostrato in Figura 2.10. L’inviluppo della funzione considerata,
ossia il luogo dei massimi relativi del valore assoluto |sinc(t/T)|, decresce seguendo una legge di
proporzionalità inversa dalla distanza dall’origine |t|. Pertanto occorre allontanarsi dall’origine per
un elevato numero di intervalli T se si desidera che il segnale sinc abbia valori trascurabili rispetto
all’unità; ad esempio il valore assoluto è sempre inferiore a 0,01 se |t| è maggiore di 32 T.
sinc(t/T)

t/T
"t%
Figura 2.10: Forma d’onda del segnale sinc $ ' .
# T&
Un secondo esempio di segnale bilatero, ancora di tipo continuo, è offerto dal segnale gaussiano
unitario:
1" t %2
- $ '
[2.3.18] gauss(t/T) = e 2# T &
,
23
con valore massimo unitario nell’origine e andamento tanto più rapidamente decrescente
all’aumentare della distanza |t| dall’origine, quanto più è piccolo il valore del parametro T. Basta
allontanarsi dall’origine per un piccolo numero di intervalli T affinché il segnale gaussiano abbia
valori trascurabili rispetto all’unità; ad esempio il valore assoluto è sempre inferiore a 0,01 se |t| è
maggiore di 3,1 T.
Si ha un segnale monolatero destro se esso ha valore sempre nullo per ogni t minore di un istante
iniziale tm, ossia:
$& x ! 0 , " t<t
[2.3.19] x MD ( t ) = %
m
.
'& x # X , " t>t m
Nel caso tm=0 il segnale considerato si specifica come monolatero destro nell’origine; qualora
risulti tm'0 si assume spesso la denominazione di segnale causale a durata illimitata.
In Figura 2.11 sono mostrati a titolo di esempio due forme d’onda del tipo monolatero destro,
quella con discontinuità di prima specie del segnale unitario a decadimento esponenziale:
t
-
[2.3.20] ue (t/T) = e T
u(t),
dove il parametro T>0 è denominato la costante di tempo, e quella continua, ma con discontinuità
di seconda specie, del segnale a rampa:
1 t t
[2.3.21] ramp(t/T) =
T # u ( !)d!
-"
=
T
u(t).

x
1 ramp(t/T)
ue(t/T)

0
1 t/T
Figura 2.11: Forme d’onda di segnali monolateri destri dall’origine.
Considerato un istante finale tM, si ha un segnale monolatero sinistro se esso ha valore sempre
nullo per ogni t maggiore del menzionato istante, ossia si ha:
$& x ! X , " t< t
[2.3.22] x MS ( t ) = %
M
.
'& x # 0 , " t> t M
Rammentando la relazione [2.3.6], nel caso di segnale bilatero si può porre:
[2.3.23] x(t) = x(t)[u(t) + u(-t)] = xMD(t) + xMS(t),
ottenendo come mostrato in Figura 2.12 la bipartizione del segnale in una coppia di segnali
monolateri dall’origine, uno destro e uno sinistro:
[2.3.24] xMD(t) = x(t) u(t), xMS(t) = x(t) u(-t).
Ovviamente la bipartizione può essere attuata a partire da un generico istante t0, servendosi della
relazione u(t-t0)+u(-t+t0)=1, ottenuta dalla [2.3.6] con il cambio di variabile da t a t-t0.
24

Figura 2.12: Segnale bilatero (a) e sua bipartizione in segnali monolateri (b).
2.3.3.3 Segnali periodici a tempo continuo
Una notevole sottoclasse delle forme d’onda bilatere è quella dei segnali periodici a tempo
continuo, costituita dal rispetto della proprietà di ripetizione:
# !t"T
[2.3.25] x(t-kT0) = x(t), $ ,
% !k"Z
dove con Z è indicato l’insieme dei numeri interi e l’intervallo T0 di ripetizione dell’andamento
della forma d’onda è denominato periodo del segnale.
Gli esempi più classici di segnale periodico sono offerti dai segnali armonici: quello reale già
citato (vedi [2.2.1]) e la armonica complessa:
[2.3.26] A e (
j !0 t +" 0 )
= Acos(%0t+&0) + jAsin(%0t+&0).
Un segnale periodico si può ottenere anche dalla replica infinite volte di una funzione alementare.
Dato un segnale g(t) e definita la funzione di replica a intervallo T0 (l’assenza degli estremi in (
sta a indicare che la sommatoria si intende estesa da -) a )):
[2.3.27] repT0{g(t)} = (k g(t - kT0),
è immediato constatare che si genera un segnale periodico x(t) = repT0{g(t)}, di periodo T0 (vedi
Figura 2.13). Si noti che solo nel caso in cui g(t) sia limitato in un intervallo di durata D0*T0,
l’andamento del segnale periodico coincide con quello della funzione generatrice, g(t),
nell’intervallo in cui questa ultima è diversa da zero (vedi Figura 2.13b).

Figura 2.13: Forme d’onda periodiche ottenute tramite la ripetizione di una funzione generatrice
con durata maggiore (a) e minore (b) del periodo.
25
2.3.4 Scomposizione di segnali a tempo continuo

Un generico segnale reale a tempo continuo può essere additivamente scomposto in una
componente pari e in una componente dispari:
[2.3.28] x(t) = xP(t) + xD(t),
che sono rispettivamente caratterizzate dalle proprietà
[2.3.29] xP(t) = xP(-t), xD(t) = - xD(-t),
evidenziate nelle forme d’onda mostrate in Figura 2.14.

Figura 2.14: Componente pari (a) e componente dispari (b) di un segnale reale.
Poiché in base alle proprietà immediatamente sopra esplicitate si ottiene:
[2.3.30] x(-t) = xP(-t) + xD(-t) = xP(t) - xD(t),
valgono le relazioni:
1 1
[2.3.31] x P ( t ) = !"x ( t ) +x (-t )#$ , x D ( t ) = !"x ( t ) -x (-t )#$ .
2 2
Nel caso in cui sia identicamente nulla la componente dispari o la componente pari, si ha
rispettivamente la denominazione di segnale pari (xD(t)"0) o di segnale dispari (xP(t)"0). Sono
esempi di segnale pari l’impulso rettangolare Arect(t/T) e il segnale sinc(t/T); è invece ad esempio
dispari il segnale sgn(t).
Anche un segnale reale causale può essere scomposto in parte pari e dispari; si ha ad esempio per
il gradino unitario (vedi Figura 2.15a):
1
[2.3.32] u ( t ) = !"1+sgn ( t )#$ .
2
Nel caso di un impulso rettangolare unitario traslato in ritardo di un tempo t0>T/2 si ha poi (vedi
Figura 2.15b):
"t - t % 1 ( "t - t % " t + t 0 %+ 1 ( " t - t 0 % " t + t 0 %+
[2.3.33] rect$ 0 ' = *rect$ 0 ' + rect$ '-+ *rect$ ' - rect$ '
# T & 2) # T & # T &, 2 ) # T & # T &-,

1 x
1 x
u(t)

0 t 0 to t
x x
1 uP (t) 1

0 t 0 t
x uD(t) x
1/2 1/2

0 t 0 t
a) b)
Figura 2.15: Scomposizione in pare pari e parte dispari di un gradino unitario (a)
e di un impulso rettangolare unitario (b).
26
Nel caso di un generico segnale complesso a tempo continuo la scomposizione si generalizza in
una componente complessa hermitiana e in una componente complessa antihermitiana:
[2.3.34] x(t) = xH(t) + xAH(t),
che sono rispettivamente caratterizzate dalle proprietà:
[2.3.35] xH(t) = x!H (-t ) , xAH(t) = - x!AH (-t ) .

Si noti che la componente hermitiana ha parte reale pari e coefficiente della parte immaginaria
dispari, mentre la componente antihermitiana ha parte reale dispari e coefficiente della parte
immaginaria pari.
Poiché in base alle proprietà sopra esplicitate si ottiene:
[2.3.36] x! (-t ) = x!H (-t ) + x!AH (-t ) = xH(t) - xAH(t),

valgono le relazioni:
1 1
[2.3.37] x H ( t ) = "#x ( t ) +x! (-t )$% , x AH ( t ) = "#x ( t ) -x! (-t )$% .
2 2
Qualora sia identicamente nulla la componente antihermitiana o quella hermitiana, sia ha
rispettivamente le denominazione di segnale hermitiano, caratterizzato dalla:
[2.3.38] x(t) = x*(-t),
o di segnale antihermitiano, caratterizzato dalla:
[2.3.39] x(t) = - x*(-t).
In base alla [2.3.38] risulta che la contemporanea applicazione delle semplici operazioni di
coniugio e di ribaltamento temporale non produce alcun effetto su un segnale hermitiano.
2.3.5 Impulso ideale di Dirac

2.3.5.1 Proprietà dell’impulso ideale


Nell’analisi dei segnali e dei sistemi di telecomunicazione, non di rado si ricorre all’impiego di un
segnale particolare: si tratta della funzione generalizzata di Dirac, o impulso ideale di Dirac,
comunemente indicato con la notazione +(t).
L’impulso ideale viene solitamente introdotto attraverso la sua proprietà di campionamento,
espressa dalla:
# f (t 0 ) , a<t 0 <b
b %
[2.3.40] " f ( t ) ! ( t-t 0 ) dt = $ 1f t , t 0 =a, b ,
2 ( 0)
a % 0 , t 0 <a , t 0 >b
&
dove la generica funzione f(t) è supposta continua in t=t0. Si ha poi, intendendo l’integrale esteso
da -) a +) :
[2.3.41] " f (t ) ! (t-t ) dt=f (t ) .
0 0

Poiché la relazione precedente implica, ponendo in particolare f(t)"1, che +(t) sia ovunque nulla
tranne che nell’origine e che il suo integrale sia unitario, ossia che si abbia per la sua area:
[2.3.42] " ! (t ) dt=1 ,
è evidente che l’impulso ideale non è una funzione in senso ordinario. Come mostrato nel
paragrafo 2.3.5.2, l’impulso ideale +(t) può essere considerato al limite come la derivata del
gradino unitario u(t).
27
2.3.5.2 L’impulso ideale come limite di funzioni ordinarie
Come già notato l’impulso ideale non è una funzione ordinaria: per una trattazione rigorosa
sarebbe necessario introdurre il concetto di distribuzione, ovvero di entità che fa corrispondere un
valore e una funzione. Non volendo uscire in questo testo dal novero delle funzioni ordinarie,
occorre però che la grandezza +(t) che compare a fattore nell’integrale [2.3.41] sia opportunamente
interpretata, come limite di funzioni ordinarie.
In proposito si consideri il gradino unitario u(t), ottenuto come limite di funzione continua,
ponendo:
t/T0
[2.3.43] u ( t ) = lim $ sinc ( ") d" ,
T0 !0
-#

dove T0>0 e il limite va effettuato a valle della integrazione. Indicata con +(t) la derivata rispetto a
t del secondo membro della [2.3.43] :
1 " t %
[2.3.44] lim sinc $ ' = +(t),
T0 !0 T
0 # T0 &
si ottiene una delle possibili interpretazioni dell’impulso ideale come limite di funzione ordinaria,
che porta a ritenere che la +(t) possa considerarsi la derivata della funzione u(t)-c, dove c è
costante. Tale relazione, che una volta determinata la costante di integrazione porta all’integrale
definito
t
[2.3.45] $ ! ( ") d" = u(t),
-#

è in effetti rigorosa nel campo delle distribuzioni.


Dalla [2.3.44] risulta che l’impulso ideale è di tipo pari, essendo tale il segnale sinc(t/T). Pertanto,
considerando una sua generica traslazione temporale t0 si ottiene la relazione:
[2.3.46] +(t-t0) = +(t0-t).
2.3.6 Energia e potenza dei segnali a tempo continuo

Si denomina spazio funzionale, indicato con LP, la totalità dei segnali a tempo continuo x(t) per
cui esiste ed è finita la norma p-esima, definita dalla (la assenza degli estremi indica che l’integrale
è esteso da -) a +)):
p 1/p
[2.3.47] x ( t ) p =ˆ "$ ! x ( t ) dt %' ,
# &
dove p è un numero reale positivo. Pertanto L1 è lo spazio funzionale dei segnali assolutamente
integrabili e L2 è lo spazio funzionale dei segnali quadraticamente integrabili. Se i segnali x(t)
sono definiti solo in un dominio finito T, lo spazio funzionale da essi formato è indicato con la
notazione LP(T).
Avendo assunto che |x(t)|2 fornisca la potenza istantanea di x(t), in generale complesso, si ha la
seguente definizione della energia del segnale:
2
[2.3.48] Exx = x ( t )
2

2
= ! x (t) dt .

Una prima rilevante categoria di segnali è quella per cui Exx, reale per definizione, assume valore
finito: tali segnali, che formano lo spazio funzionale L2, sono denominati a energia finita o
semplicemente segnali di energia. Essi possono essere a durata finita, come negli esempi degli
impulsi rettangolare, triangolare e a coseno rialzato, ma anche illimitati nel tempo, come ad
esempio accade per i segnali sinc e gaussiano.
28
Nel caso di segnale illimitato nel tempo può essere considerata la sua approssimazione con un
segnale praticamente limitato nel tempo, individuando un intervallo, denominato durata pratica
del segnale, all’esterno del quale x(t) si approssima con lo zero in modo che l’integrale di |x(t)|2
esteso alla sola durata pratica del segnale fornisca un valore praticamente coincidente con la
effettiva energia Exx.
Qualora un segnale x(t) sia illimitato nel tempo e non abbia energia finita, si passa a considerare
un’altra grandezza, adottando la seguente definizione della potenza media temporale, o
semplicemente potenza del segnale:
1 2
[2.3.49] Wxx = lim
T!" T
# x (t)
T dt ,

dove si è introdotto il segnale troncato:


!t$
[2.3.50] xT (t) = x(t) rect # & .
"T%
Ammesso che sia finito il valore Wxx, reale per definizione, il tipo di segnale considerato è
denominato a potenza finita o semplicemente segnale di potenza. Per esso si definisce anche la
grandezza:
[2.3.51] xeff = Wxx ,
denominata valore efficace del segnale.
Nel caso dei segnali periodici, sottoclasse tipica dei segnali di potenza, indicata con Exx(T0)
l’energia di x(t) calcolata solo all’interno di un qualsiasi intervallo di durata pari al periodo T0 e
indipendente dal particolare intervallo scelto, la potenza del segnale può essere espressa tramite la:
E xx ( T0 ) 1 0
T /2
2
[2.3.52] Wxx = = ! x ( t ) dt .
T0 T0 -T /2
0

Nel caso di segnale periodico generato per ripetizione di una funzione generatrice g(t) (vedi
[2.3.27]), si noti che Exx(T0) coincide con la energia Egg della funzione generatrice, se quest’ultima
ha durata non maggiore di T0, altrimenti è in generale diversa.
L’integrale del segnale esteso a tutto l’asse temporale,
[2.3.53] area[x(t)] = ! x ( t ) dt ,

è denominato area del segnale. Tale grandezza, in generale complessa, è sempre finita nei segnali
di energia.
Solo per i segnali di potenza può risultare diverso da zero il valore medio temporale, o
semplicemente valore medio del segnale, definito dalla:
1
[2.3.54] x = lim # x (t ) dt .
T!" T
T

Un segnale con valore medio diverso da zero può essere scomposto in due addendi: uno di valore
costante, pari al valore medio temporale x , e l’altro a valore medio nullo:
[2.3.55] xa (t) = x(t) - x .
Nel caso di segnale reale, i due addendi considerati, x e xa(t), si denominano rispettivamente
componente continua e componente alternata.
Spesso si considerano segnali di potenza reali, con codominio X finito, denominati segnali
simmetrici: essi sono privi di componente continua e hanno valori massimo e minimo opposti;
denominato valore di picco il comune valore assoluto, ossia xp=xM=|xm|, si definisce il fattore di
picco:
29
x x
[2.3.56] Fp = p = p .
xeff Wxx

Come noto il fattore di picco di una armonica reale ha valore 2 ; per ogni altro segnale
simmetrico il fattore di picco ha valore maggiore.
Si noti che i segnali di potenza sono di tipo ideale, poiché nella realtà non esistono segnali che non
abbiano valori nulli nelle parti più estreme dell’asse dei tempi. Nella pratica si considerano però
spesso come segnali di potenza quelle forme d’onda di energia che hanno durata molto maggiore
dell’intervallo temporale (a volte addirittura ridotto all’ordine dei secondi) entro il quale interessa
osservare il segnale e per le quali la potenza media temporale valutata solo nell’intervallo di
osservazione praticamente non varia al variare dell’estensione di quest’ultimo; il segnale di
potenza è poi in effetti quello che si ottiene estrapolando all’esterno del tempo di osservazione
l’andamento al suo interno.

2.4 SEGNALI A TEMPO DISCRETO

2.4.1 Caso generale e sequenze

Dal tipico andamento di un segnale a gradini è facile dedurre che esso risulta completamente
caratterizzato quando siano noti gli istanti tk di discontinuità e l’insieme, corrispondentemente
ordinato, dei livelli. In base a tale osservazione appare motivata l’introduzione del segnale a
tempo discreto, entità astratta ma assai valida sul piano logico-matematico, che è definito solo su
un insieme discreto numerabile {tn} di istanti temporali; questi possono essere in numero finito o
infinito, distribuiti nel tempo in modo generico oppure con equispaziatura tra elementi adiacenti,
come mostrato in Figura 2.16.

Figura 2.16: Insieme discreto di definizione di un segnale a tempo discreto, con distribuzione
generica (a) e con equispaziatura nel tempo (b).
Il caso più frequente e interessante è quello di istanti discreti equispaziati, con generico intervallo
costante T, per i quali si può stabilire la seguente assai semplice corrispondenza biunivoca con
l’insieme dei numeri interi:
[2.4.1] tn= nT.
Il segnale a tempo discreto è allora denominato sequenza e viene indicato con la notazione x(n),
dove il generico k-esimo elemento, o campione della sequenza, assume il valore, che può essere
sia reale che complesso:
[2.4.2] xk = x(kT).
Alle sequenze sono applicabili le operazioni elementari di moltiplicazione per una costante e di
traslazione temporale, così come quelle di coniugio e di ribaltamento temporale, con esecuzione da
compiersi campione per campione. Valgono parimenti i concetti di sequenze reali o complesse e di
sequenze tra loro fedeli, immediatamente deducibili dalle definizioni fornite per i segnali a tempo
continuo.
Se tutti i campioni xk hanno valori noti, si ottiene una sequenza determinata o certa. Si può invece
considerare che gli elementi siano variabili aleatorie, indicate con la notazione Xk: allora la
30
successione di tali v.a. diviene la rappresentazione di un processo aleatorio discreto, come già
accennato nel paragrafo 2.2.2.2.
Il primo elementare esempio di sequenza determinata è il campione unitario, mostrato in Figura
2.17a ed espresso con la notazione:
#% 1 , n=0
[2.4.3] +(n) = $ ,
%& 0 , ! n " 0

che corrisponde nel dominio del tempo discreto all’impulso di Dirac +(t), introdotto come segnale
elementare a tempo continuo, ma che non va assolutamente confuso con esso in quanto la
definizione, le proprietà analitiche ed il quadro matematico di riferimento sono estremamente
differenti.
Un secondo esempio è la sequenza a gradino unitario, mostrata in Figura 2.17b, per cui si usa
porre:
"$ 0 , ! n < 0
[2.4.4] u(n) = # .
%$ 1 , ! n > 0

Si noti che il valore nell’origine, per n=0, è unitario, a differenza dell’analogo segnale a tempo
continuo in cui si ha l’emivalore !. Vale di conseguenza la proprietà:
[2.4.5] u(n) + u(-n-1) = 1.
Tra le due particolari sequenze introdotte si ha poi la relazione:
[2.4.6] +(n) = u(n) - u(n-1).

Figura 2.17: Campione unitario (a) e sequenza a gradino unitario (b).


2.4.2 Lunghezza delle sequenze

Servendosi della serie dei campioni unitari traslati si ottiene la seguente rappresentazione di una
generica sequenza a lunghezza illimitata, denominata sequenza bilatera, con campioni che
possono essere non nulli per qualsiasi valore di k :
[2.4.7] x(n) = ,k xk+(n-k),
dove la sommatoria si intende estesa da -) a +). Nel caso in cui i campioni siano nulli per ogni k
minore di un numero intero km e maggiore di un altro intero kM>km, si ha una sequenza a
lunghezza limitata, spesso denominata stringa di campioni; nella sua rappresentazione del tipo
[2.4.7] i menzionati valori km e kM compaiono come estremi della sommatoria.
31
Nell’ambito delle sequenze bilatere si possono avere le sequenze periodiche, caratterizzate dal
continuo ripetersi di una medesima stringa di campioni, a cui corrisponde la proprietà:
[2.4.8] x(n-hN0) = x(n),
con h intero e con passo ripetizione N0, che deve essere un numero intero finito maggiore di uno.
L’intervallo temporale T0=N0T è il periodo della sequenza.
In modo analogo ai segnali a tempo continuo, a partire da numero intero km si definisce una
sequenza monolatera destra qualora i suoi campioni siano tutti nulli per k<km, per cui si pone:
!
[2.4.9] x MD (n) = " x k +(n - k);
k =k m

con km'0 si ha poi una sequenza causale. Considerato un numero intero kM si ha invece una
sequenza monolatera sinistra se i suoi campioni sono tutti nulli per k>kM, per cui si pone:
kM
[2.4.10] x MS (n) = " x k +(n - k).
k=-!

Servendosi della proprietà [2.3.23] è sempre possibile suddividere una sequenza bilatera in una
coppia di sequenze monolatere, una destra e una sinistra; ciò equivale a spezzare la sommatoria
nella [2.4.7].
Si possono infine applicare alle sequenze le considerazioni svolte sulla scomposizione dei segnali
a tempo continuo: si hanno così nel caso reale sequenze pari (xk=x-k) e sequenze dispari (xk=-x-k)
e nel caso complesso sequenze hermitiane (x k =x!-k ) e sequenze antihermitiane (x k =-x!-k ) .
2.4.3 Energia e potenza delle sequenze

Una sequenza x(n), in quanto diversa da zero solo in un insieme numerabile di istanti, non
possiede né energia né potenza, secondo la definizione adottata per i segnali a tempo continuo. È
tuttavia possibile definire in modo convenzionale le menzionate grandezze anche per le sequenze,
facendo riferimento al segnale a gradini corrispondente, ottenuto da quello a tempo discreto
mediante l’operazione di tenuta dei campioni, illustrata in Figura 2.18.

Figura 2.18: Segnale a gradini ottenuto da una sequenza con l’operazione di tenuta dei campioni.
Con il procedimento menzionato si ottengono così le grandezze convenzionali:
[2.4.11] Exx = T , k |ck|2,
1 N
2
[2.4.12] Wxx = lim # ck ,
N!" 2N+1
k=-N

denominate energia della sequenza e potenza della sequenza, che sono finite e diverse da zero
rispettivamente nel caso di sequenza di energia o di sequenza di potenza. Nel secondo caso si
definisce il valore medio della sequenza:
1 N
[2.4.13] x = lim # ck .
N!" 2N+1
k=-N
32
La potenza di una sequenza periodica, come nell’analogo tipo di segnali a tempo continuo, può
essere espressa in base all’energia Exx(T0) della sequenza troncata in un generico intervallo che
corrisponde al periodo T0=N0T, ottenendo:
E xx ( T0 ) 1 N0 2
[2.4.14] Wxx = = !c .
N 0 k=1 k
T0

2.5 AFFINITÀ TRA SEGNALI

Nell’esercizio delle telecomunicazioni è importante poter valutare quantitativamente le affinità tra


segnali, quando uno dei due viene traslato rispetto all’altro.
Tale valutazione viene effettuata utilizzando delle funzioni di correlazione definite
opportunamente, che dipendono da una variabile temporale - che rappresenta l’entità della
traslazione di uno dei due segnali rispetto all’altro.
2.5.1 Affinità tra segnali di energia

Un primo caso importante riguarda i segnali di energia che, come già esposto, rappresentano
praticamente la totalità dei segnali utilizzati nelle telecomunicazioni. La misura dell’affinità tra
segnali di energia rappresenta un fattore importante in diverse applicazioni che vanno dal radar
alle comunicazioni mobili.
2.5.1.1 Funzione di intercorrelazione di segnali di energia
Nello spazio funzionale L2 si considerino due generici segnali di energia, x(t) e y(t), aventi
rispettivamente energie Exx e Eyy; si definisce la funzione di intercorrelazione temporale, o
correlazione mutua temporale, dei due segnali mediante la seguente espressione:
[2.5.1] Cxy(-) = " x ( t + !) y ( t ) dt .
*

Si usa anche la notazione equivalente:


[2.5.2] Cxy(-) " (x(t+-), y(t)).
La funzione introdotta cambia con l’inversione dell’ordine dei segnali, ma si ha la proprietà:
[2.5.3] C yx (! ) = C!xy (-! ) .

I valori assunti nell’origine (per -=0) dalle due funzioni di intercorrelazione si denominano
energie mutue; grazie alla relazione precedente si ottiene:
*
[2.5.4] Exy ! Cxy(0) = ! x (t ) y (t ) dt = "# ! y (t ) x (t ) dt$% = C (0) ! E
* * !
yx
!
yx ,

ossia le energie mutue sono l’una la complessa coniugata dell’altra.


Per la funzione di intercorrelazione sussiste la seguente proprietà:
[2.5.5] |Cxy(-)|2 * Exx Eyy ;
Il lettore interessato alla dimostrazione della [2.5.3] e della [2.5.5] è inviato al paragrafo 2.5.1.2.
Con riferimento alla corrispondente funzione adimensionale normalizzata, denominata funzione di
indice di intercorrelazione:
Cxy ( " )
[2.5.6] !xy ( " ) =ˆ ,
E xx E yy

risulta di conseguenza:
[2.5.7] .xy(-)"1.
33
In particolare per -=0 e rammentando le [2.5.4] si ottengono dalla [2.5.5] le seguenti relazioni
sulle energie:
[2.5.8] |Exy|2 = |Eyx|2 * Exx Eyy, Exy Eyx * Exx Eyy.
La funzione di intercorrelazione è in grado di evidenziare l’affinità in senso lato tra due segnali di
energia, intendendo che tale tipo di affinità sia misurata dal massimo del valore assoluto della
funzione di indice di intercorrelazione. Due segnali non hanno allora alcuna affinità in senso lato e
si denominano incorrelati, qualora sia identicamente nulla la loro funzione di intercorrelazione:
[2.5.9] Cxy (-) " 0, ossia .xy(-) " 0 ;
essi hanno invece la massima affinità in senso lato se si verifica:
[2.5.10] |.xy(-)|max = 1.
È molto interessante rimarcare che tale ultimo evento accade se e solo se si ha una coppia di
segnali fedeli, per i quali vale la relazione y(t)=g e- j! x(t-t0); il massimo di valore unitario di |.xy(-)|
si ottiene poi proprio in corrispondenza del particolare valore -=-t0. Il lettore interessato troverà la
dimostrazione nel paragrafo 2.5.1.2. I segnali fedeli sono dunque quelli, e solo quelli, tra i quali si
può verificare la massima intercorrelazione, ossia la massima affinità in senso lato.
2.5.1.2 Dimostrazione delle proprietà della funzione di intercorrelazione
Scambiando tra loro x e y nella definizione della funzione di intercorrelazione, coniugando e poi
applicando il cambio di variabile t’=t+- si ottiene:

" y ( t + !) x ( t ) dt = $% # x (t ) y (t+") dt&' = $% # x ( t'-! ) y" ( t') dt'&' = "#C xy (-! )$% ;
! "
* &
[2.5.11]Cyx(-)= !

che dimostra la proprietà [2.5.3].


Considerata una coppia di generiche funzioni complesse a(t) e b(t), appartenenti allo spazio
funzionale L2, sussiste la disuguaglianza di Schwartz:
2 2 2
[2.5.12] ! a (t ) b (t ) dt " ! a (t) dt ! b ( t ) dt ,

dove il segno di uguaglianza vale se e solo se è soddisfatta la relazione:


[2.5.13] b(t) = Ka*(t),
con K = g e j! costante complessa arbitraria. Applicando alla funzione di intercorrelazione la
disuguaglianza di Schwartz, ossia ponendo a(t) " x(t+-) e b(t) " y*(t), si ottiene:
2 2 2 2 2
[2.5.14]|Cxy(-)|2= # x (t+!) y (t ) dt
"
$ # x ( t+!) dt # y ( t ) dt = ! x (t) dt ! y (t) dt =ExxEyy,

ossia risulta dimostrata la proprietà [2.5.5].


In base alla [2.5.13] il valore massimo E xx E yy di |Cxy(-)| si ottiene se e solo se si verifica:

[2.5.15] y*(t) = g e j! x*(t+-),


a cui per -=-t0 corrisponde la già nota definizione di segnale fedele. Si ricava allora:
[2.5.16] |Cxy(-)|max = |Cxy(-t0)| = # x (t-t ) ge
0 x ( t-t 0 ) dt = |g| Exx.
j! "

Tenuto conto della [2.5.14], che unitamente alla precedente fornisce:


E yy
[2.5.17] |g| = ,
E xx
34
si dimostra pertanto che se e solo se i due segnali sono tra loro fedeli con un ritardo t0, il modulo
della funzione di intercorrelazione può essere unitario, assumendo tale valore in -=-t0.
2.5.1.3 Funzione di autocorrelazione di un segnale di energia
Correlando un segnale di energia con se stesso si ottiene la funzione di autocorrelazione
temporale:
[2.5.18] Cxx(-) = " x ( t + !) x ( t ) dt .
*

Come caso particolare della [2.5.3] vale la proprietà:


[2.5.19] C xx ( ! ) = C"xx (-! ) ;

la funzione di autocorrelazione è dunque hermitiana, con valore reale nell’origine che coincide con
l’energia del segnale:
[2.5.20] Cxx(0) = Exx.
Tale valore è quello massimo che può assumere il modulo della funzione di autocorrelazione,
poiché come caso particolare della [2.5.5] sussiste la disuguaglianza:
[2.5.21] |Cxx(-)| * Exx.
Nel caso frequente di segnale reale la funzione di autocorrelazione diviene reale e pari, ossia si ha
C xx ( ! ) = C"xx ( ! ) = Cxx(--).
La funzione di autocorrelazione evidenzia per ogni - la diminuzione dell’affinità in senso stretto
che si verifica tra un segnale e la sua stessa forma d’onda traslata nel tempo, rispetto alla piena
correlazione che si ha per -=0. Essa è anche un indice di quanta memoria un segnale abbia di sé
stesso, ossia di quanto globalmente i valori al tempo (t+-) risentano di quelli al tempo t.
Nel caso di segnale a durata finita D, si perde totalmente l’affinità in senso stretto, ossia la
memoria del segnale, per ogni traslazione, in anticipo o in ritardo, che sia maggiore di D; in tale
caso infatti la funzione di autocorrelazione è anch’essa limitata in durata, ma nell’intervallo
temporale doppio 2D, dato che per |-|>D i due segnali x(t) e x(t+-) risultano non nulli in intervalli
temporalmente separati, dando luogo all’azzeramento della funzione integranda nella funzione di
autocorrelazione. Un esempio tipico è offerto dall’impulso rettangolare A rect(t/T), con funzione
di autocorrelazione che risulta essere un impulso triangolare nella variabile indipendente -, con
valore massimo A2 e durata 2T (vedi Figura 2.19).

Figura 2.19: Impulso rettangolare (a) e sua funzione di autocorrelazione (b).


2.5.1.4 Prodotto scalare di segnali di energia
Il valore nella origine (per -=0) della funzione di intercorrelazione tra due segnali, ossia la
grandezza costante, in generale complessa, definita dalla:
[2.5.22] (x,y)= ! x ( t ) y ( t ) dt ,
*

è denominata prodotto scalare dei due segnali.


35
Per quanto visto in precedenza, i prodotti scalari coincidono con le energie mutue, ossia si ha:
(x,y)=Cxy(0)=Exy e (y,x)=Cyx(0)=Eyx= E !xy . I due prodotti scalari hanno dunque lo stesso modulo;
sono poi uguali nel caso di segnali reali. Dalla proprietà [2.5.5] si può scrivere:
[2.5.23] |(x,y)|* E xx E yy ,

dove il segno di uguaglianza vale se e solo se si verifica y(t)=g e- j! x(t), ossia i due segnali sono tra
loro fedeli senza ritardo; con riferimento all’indice di intercorrelazione:

[2.5.24] .xy =ˆ
( x,y) ,
E xx E yy

risulta che esso ha modulo minore di uno, tranne nel caso già evidenziato di segnali legati dalla
semplice relazione di proporzionalità complessa.
L’indice di intercorrelazione fornisce una misura dell’affinità in senso stretto tra due segnali di
energia, ossia senza prendere in considerazione alcuna traslazione temporale. Due forme si
denominano segnali paralleli quando risulti .xy=1, ossia si abbia y(t)=|g| x(t), e segnali antipodali
nel caso particolare .xy=-1, con g=-1 e #=0, ossia y(t)=-x(t). Al diminuire di |.xy| corrisponde una
decrescente affinità in senso stretto tra i segnali, fino al caso .xy=0, ossia di prodotto scalare nullo
(x,y)=0, in cui le due forme si denominano segnali ortogonali.
Le precedenti denominazioni a carattere geometrico prendono origine dalle considerazioni svolte
nel paragrafo 2.5.1.5, a cui si rimanda il lettore desideroso di approfondimenti.
La condizione di ortogonalità tra segnali di energia, ossia l’annullarsi del loro prodotto scalare
(x,y)=0, assume spesso una notevole rilevanza: è opportuno pertanto soffermarsi su tale situazione.
In primo luogo si osserva che due segnali possono essere ortogonali senza che ciò implichi la non
esistenza di affinità in senso lato, ossia che i segnali siano incorrelati (vedi [2.5.9]); infatti per -/0
la funzione di intercorrelazione di una coppia di segnali ortogonali può essere diversa da zero o
addirittura assumere il valore massimo in modulo. Ciò accade ad esempio per un qualsiasi segnale
a durata limitata D e per una forma d’onda ad esso fedele con traslazione |t0| maggiore di 2D, che
assicura la separazione nel dominio del tempo dei due segnali e di conseguenza l’annullarsi del
loro prodotto scalare, pure contemplando che si abbia la piena affinità in senso lato.
Si tenga poi presente che la separazione nel tempo di una coppia di segnali è condizione
sufficiente, ma non necessaria per la loro ortogonalità; possono infatti essere ortogonali anche
segnali non strettamente limitati nel tempo.
2.5.1.5 Analogie geometriche formali del prodotto scalare
Tenuto conto che l’energia è il quadrato della norma seconda (vedi [2.3.47]), per il segnale somma
x(t)+y(t) si ha l’espressione:
2 2
[2.5.25] x ( t ) +y ( t ) 2 =(x+y,x+y) = (x,x) + (y,y)+20{(x,y)} = Exx+Eyy+2 E xx E yy cos1 = x ( t ) 2 +
2
y ( t ) 2 +2 x ( t ) 2
y ( t ) 2 cos1,

dove si è posto
! {( x,y)}
[2.5.26] cos1 = = 0{.xy} * 1.
E xx E yy

Nel caso di segnali paralleli si ha .xy=1 e quindi cos1 = 1; si ricava allora la relazione particolare:
2 2
[2.5.27] x ( t ) +y ( t ) 2 = !" x ( t ) 2 + y ( t ) 2 #$ ,
36
formalmente identica a quella che si avrebbe considerando in luogo dei segnali paralleli x(t) e y(t)
una coppia di vettori paralleli nello spazio. Nel caso di segnali ortogonali si verifica (x,y)=0 e, a
maggiore ragione, risultano allora 0{ ( x,y) }=0 e cos1 = 0; si ricava allora l’espressione:
2 2 2
[2.5.28] x ( t ) +y ( t ) 2 = x ( t ) 2 + y ( t ) 2 ,

formalmente identica a quella che si avrebbe considerando in luogo dei segnali ortogonali x(t) e
y(t) una coppia di vettori ortogonali nello spazio.
2.5.1.6 Famiglie di segnali ortogonali
Un insieme {xk(t)} di segnali di energia costituisce una famiglia di segnali ortogonali se si
verifica:
[2.5.29] (xk, xh ) = Exkxh = 0, ! h / k ;
se poi si ha:
#% 0 , ! h " k
[2.5.30] (xk, xh ) = Exkxh = $
%& 1 , h = k ,

si ottiene il sottocaso di una famiglia di segnali ortonormali.


Ci si sofferma a titolo di esempio su due importanti famiglie di segnali ortogonali e su alcune loro
proprietà, rinviando al seguito le dimostrazioni.
Una prima famiglia di segnali ortogonali è l’insieme discreto e numerabile {xk(t)} formato dalle
armoniche complesse unitarie troncate nel generico intervallo T,
!t$
[2.5.31] xk(t) = e jk!t rect # & ,
"T %
dove k è intero e si è posto 2=2!/T, per le quali si ha:

"t% T/2
#% 0 , ! h " k
[2.5.32] (xk, xh) = ( e jk!t e-jh!t rect $# T '& dt = " -T/2
e(
j k-h )!t
dt = $
%& T , h = k .

Le energie dei segnali considerati hanno dunque tutte il comune valore:


[2.5.33] Exkxh= T.
Si ha inoltre:
T/2
# 0 ,! k"0
[2.5.34] area[xk(t)] = # e jk!t dt = $
"T /2 % T , k =0 ,
ossia l’unica funzione della famiglia con area non nulla è quella per k=0, che diviene l’impulso
rettangolare unitario. Si osserva infine che ogni membro complesso della famiglia, con k/0,
!t$ !t$
e jk!t rect # & = [cosk2t + j sink2t] rect # & ,
"T % "T %
è in effetti composto da una coppia di addendi che sono a loro volta ortogonali tra loro, come il
lettore può facilmente dimostrare.
Una seconda famiglia di segnali ortogonali è quella costituita dall’impulso sinc(t/T) e dalle sue
forme traslate nel tempo di una quantità multipla del parametro finito T,
!t $
[2.5.35] xk(t) = sinc # -k & ,
"T %
per cui si ha (il lettore potrà successivamente verificare servendosi della [3.3.54]):
37

' sinc #" Tt -k &% sin c #" Tt -h &% dt


! $ ! $ # 0 ,! h"k
[2.5.36] (xk, xh) = =$
% T , h =k .
Le energie dei segnali reali considerati hanno dunque tutte lo stesso valore:
!t$
[2.5.37] Exkxh = ' sinc 2
# & dt = T.
"T %
Si ha inoltre:
!t$
[2.5.38] area[xk(t)] = ' sinc #" T &% dt = T,
ossia tutte le funzioni hanno area dello stesso valore. Si ha infine la particolare proprietà:
!t $
[2.5.39] ( k sinc # -k & = 1.
"T %
2.5.2 Affinità tra segnali di potenza

2.5.2.1 Correlazioni nei segnali di potenza


Nel caso di due generici segnali di potenza x(t) e y(t), aventi rispettivamente potenze Wxx e Wyy, si
definiscono la funzione di intercorrelazione temporale dei due segnali:
1 T/2
[2.5.40] Rxy (-) ! lim $- x ( t+# ) y* ( t ) dt ,
T!" T T/2

e, come caso particolare y(t)"x(t), la funzione di autocorrelazione temporale del segnale di


potenza:
1 T/2
[2.5.41] Rxx ( ! ) =ˆ lim % x ( t+! ) x$ ( t ) dt .
T"# T - T/2

Con l’accortezza di sostituire le funzioni del tipo C(-) con le analoghe del tipo R(-) e le energie
con le potenze, sono applicabili ai segnali di potenza tutte le considerazioni svolte sull’affinità e
valgono le proprietà esposte nei paragrafi 2.5.1.1 e 2.5.1.3 sui segnali di energia.
Poiché nei segnali di potenza si ha la possibile esistenza di valori medi temporali x e y non nulli,
si definiscono ulteriormente la funzione di covarianza temporale dei due segnali:
1 T/2
[2.5.42] Kxy(-) ! lim $x ( t+# ) -x &'$%y ( t ) -y&' dt ,
(

T!" T
) -T/2 %

e, come caso particolare, la funzione di autocovarianza temporale del segnale di potenza:


1 T/2
[2.5.43] Kxx(-) ! lim $%x ( t+# ) -x &'$%x ( t ) -x &' dt .
(

T!" T
* ) T/2

Le funzioni sopra introdotte, applicate alle sole componenti xa(t) e ya(t) a valore medio nullo dei
segnali, coincidono con le precedenti nel caso x = y =0; in generale si hanno le semplici relazioni:
[2.5.44] Rxy(-) = Kxy(-) + xy * ,
[2.5.45] Rxx(-) = Kxx(-) + Wc,
dove si è indicato con Wc =xx ! la potenza associata alla sola componente x del segnale. Dato che
Kxx(0) è uguale alla potenza della sola componente xa(t), si evince che la potenza del generico
segnale è pari alla somma delle potenze delle due componenti considerate separatamente.
38
Nel caso particolare di segnali entrambi periodici con il medesimo periodo T0, le funzioni di
intercorrelazione e autocorrelazione sono anch’esse periodiche nella variabile indipendente -, con
periodo T0, e assumono le forme:
1 T0 /2
[2.5.46] Rxy ( ! ) = # x ( t+! ) y" ( t ) dt =Rxy ( !-kT0 ) ,
To -T0 /2

1 T0 /2
[2.5.47] Rxx ( ! ) = # x ( t+! ) x" ( t ) dt =Rxx ( !-kT0 ) .
T0 -T0 /2

Si lascia al lettore il compito di dimostrare che per l’armonica complessa unitaria e jk!ot , di periodo
T0=2!/20, e per le sue componenti delle parti reale e immaginaria, cos20t e sin20t, si hanno le
funzioni di autocorrelazione mostrate nella Tabella 2.1.
Tabella 2.1: Funzione di autocorrelazione di segnali armonici
x(t) e j!0t cos!0 t sin!0 t
1 1
Rxx(-) e j!0 " cos!0 " cos!0!
2 2
2.5.2.2 Famiglie di segnali incoerenti e incorrelati
Due segnali di potenza sono incoerenti se la loro funzione di intercorrelazione è identicamente
nulla, ossia si ha:
[2.5.48] Rxy(-) " 0 ;
essi si denominano incorrelati qualora si verifichi la condizione meno severa:
[2.5.49] Kxy(-) " 0,
che non prende in considerazione l’esistenza dei valori medi temporali.
Un insieme di segnali di potenza costituisce una famiglia di segnali incoerenti se, indicati con x(t)
e y(t) due diversi generici membri, si verifica la [2.5.48]; l’insieme forma invece una famiglia di
segnali incorrelati se si verifica la [2.5.49].
Un esempio di famiglia di segnali incoerenti è offerto dall’insieme continuo { e j!t } delle
armoniche complesse unitarie. Considerati due generici membri e j!xt e e y , con
j! t

%x=2!fx/%y=2!fy, si ha infatti applicando la [2.5.40]:


1 T/2 j #x -# y )t
[2.5.50] Rxy(-) = e j!x " lim $- e( dt = e j! x" lim sinc[(fx-fy)T],
T!" T T/2 T!"

che per fx/fy comporta valore nullo per ogni - grazie alla proprietà della funzione sinc di tendere a
zero al tendere all’infinito, positivo o negativo, del suo argomento. Si lascia al lettore il compito di
dimostrare che gli insiemi continui {cos%t} e {sin%t} formano ancora entrambi, ma
separatamente, due famiglie di segnali incoerenti.
2.5.3 Affinità tra segnali di energia e di potenza

La definizione matematica di prodotto scalare tra due segnali di energia può essere estesa a tutti i
casi nei quali l’operazione di integrazione conduce a un valore finito, anche se uno dei due segnali
è di potenza. Il risultato della operazione:
[2.5.51] (x,y) = ! x ( t ) y ( t ) dt ,
*

formalmente identica al prodotto scalare ma applicata diversamente, consente allora la valutazione


dell’affinità in senso stretto, o correlazione, esistente tra i due segnali.
Ammesso che dalla correlazione risulti un valore (x,y)=Exy finito e posto che y(t) sia un segnale di
energia, si può definire il segnale, anch’esso di energia:
39
E xy
[2.5.52] xy(t) = y(t) ;
E yy
allora il segnale di potenza x(t) può essere scomposto in due addendi:
[2.5.53] x(t) = xy(t) + x0(t),
il primo proporzionale per definizione a y(t) tramite il fattore Exy che misura la correlazione, ossia
l’affinità in senso stretto tra i due segnali, e il secondo ortogonale al primo. Infatti si ha:
E xy
[2.5.54] Exy = (xy+x0,y) = (xy,y) (x y ,y) + (x0,y) = E + (x0,y),
E yy yy
per cui deve essere (x0,y)=0.
La componente ortogonale x0(t) è un segnale di potenza dato che lo è x(t).
2.5.4 Affinità tra sequenze

Per una data coppia di sequenze, x(n) e y(n), si definiscono le sequenze della variabile
indipendente intera 3:
[2.5.55] Cxy(3) " x4y = T ,k x(k+3) y*(k),
1 N
[2.5.56] Rxy(3) = lim $ x ( k+#) y* ( k ) ,
N!" 2N+1
k=-N

denominate sequenze di intercorrelazione temporale, rispettivamente di energia o di potenza, tra


le due sequenze. Nel caso di potenza si definisce inoltre la sequenza di covarianza temporale:
1 N
[2.5.57] Kxy(3) = lim $%x ( k+#) -x &'$%y ( k ) -y&' = Rxy(3) - xy !
(

N!" 2N+1
)
k=-N

Nel caso della identità x(n)"y(n), le tre precedenti espressioni forniscono rispettivamente le
sequenze di autocorrelazione, Cxx(3) o Rxx(3), e la sequenza di autocovarianza temporale, Kxx(3),
della sequenza data.
Le sequenze di intercorrelazione, autocorrelazione, covarianza e autocovarianza sopra definite
hanno significati analoghi a quelli delle corrispondenti funzioni relative ai segnali a tempo
continuo: sono quindi in grado di valutare l’affinità in senso lato tra sequenze.
Nel caso di sequenze di energia sono applicabili le relazioni analoghe a quelle ottenute nei
paragrafi 2.5.1.1 e 2.5.1.3 sui segnali di energia a tempo continuo, con la sostituzione delle
funzioni del tipo C(-) con le sequenze del tipo C(3). Similmente accade per le sequenze di
potenza, considerando le sequenze del tipo R(3) e K(3) in luogo delle funzioni del tipo R(-) e K(-).
In particolare, risultano le seguenti proprietà per le sequenze di potenza reali:
5 le sequenze di intercorrelazione e di covarianza sono reali e pari e si ha:

[2.5.58] Ryx(3) = Ryx(-3) = Rxy(3) = Rxy(-3),


[2.5.59] Kyx(3) = Kyx(-3) = Kxy (3) = Kxy(-3);
5 le potenze mutue sono reali e uguali:
[2.5.60] Wyx = Wxy = Rxy(0) = Kxy(0) + xy ;
5 sussiste la limitazione:
[2.5.61] R 2xy (! ) * Wxx Wyy;

5 le sequenze di autocorrelazione e di autocovarianza sono reali e pari:


[2.5.62] Rxx(3) = Rxx(-3),
40
[2.5.63] Kxx(3) = Kxx(-3);
5 la potenza è data dalla:
[2.5.64] Wxx = Rxx (0) = Kxx (0) + x 2 ;
5 sussiste la limitazione, con il massimo in 3=0:
[2.5.65] R 2xx ( !) * Wxx2 .
41

3 RAPPRESENTAZIONI DI SEGNALI
42
43

3.1 RAPPRESENTAZIONE DI SEGNALI IN SERIE TEMPORALI

3.1.1 Serie di Fourier di segnali periodici

Un generico segnale di potenza periodico x(t), di periodo T0, ammette di essere rappresentato a
partire da un insieme discreto e numerabile di infinite armoniche complesse di ampiezza unitaria:
[3.1.1] e jk!0t = cos k20t + j sin k20t,
con k intero e 20=2!/T0. Tramite una combinazione lineare a coefficienti complessi costanti di tali
funzioni, si ha infatti la rappresentazione (al solito l’assenza degli estremi nella sommatoria indica
che essa si intende estesa da -) a +)):
[3.1.2] x(t) = "k Ck e jk! t , 0

denominata sviluppo in serie di Fourier, con i coefficienti di Fourier Ck. Si noti che tale sviluppo
consente di scomporre il segnale periodico in infiniti addendi che ne costituiscono le componenti
armoniche, alle frequenze fk=k/T0 e con ampiezze |Ck| e fasi arg{Ck}.
Per ricavare i valori dei coefficienti di Fourier Ck consideriamo le particolari funzioni di energia a
durata limitata:
[3.1.3] 6k(t) = e jk!0t rect(t/T0),
ottenute dalle armoniche complesse unitarie per troncamento nell’intervallo (-T0/2, T0/2), che
formano un insieme ortogonale, con il comune valore dell’energia E k h=T0 (vedi paragrafo 6 6

2.5.1.6); si effetui per ogni k la correlazione tra il segnale x(t) e ciascuna delle 6k(t), operazione
che evidenzia l’affinità tra il segnale periodico e la k-esima funzione dell’insieme ortogonale. Si
ha infatti, invertendo l’ordine tra integrale e sommatoria:
# t &
[3.1.4] (x,6k) = )! C e h e
jh"0 t -jk"0 t
rect % ( dt = "h Ch ( !h ,!k ) = T0Ck,
$ T0 '
h

da cui si ottiene Ck=(x,6k)/T0 e quindi le desiderate espressioni dei coefficienti di Fourier:


T /2
1 0
x ( t ) e-jk!0t dt ,
T0 -T"/2
[3.1.5] Ck =
0

dove la correlazione può essere estesa al solo intervallo (-T0/2, T0/2), eliminando dall’integrando la
funzione rect(t/T0), dato che le funzioni 6k(t) sono tutte nulle all’esterno dell’intervallo medesimo.
I coefficienti Ck rappresentano quindi la misura dell’affinità tra il segnale periodico x(t) e ciascuna
6k(t).
Inserendo la rappresentazione in serie [3.1.2] nella espressione generale della potenza dei segnali
periodici (vedi [2.3.52]), si ottiene:
T0 /2
1
[3.1.6] Wxx =
To
"k "h Ck C!h " e(
j k-h )!0 t
dt .
-T0 /2

Le funzioni armoniche integrande per h/k hanno periodi che sono sottomultipli di T0 e quindi gli
integrali sono tutti nulli, ad eccezione di quello per h=k, che vale T0; si ricava quindi la seguente
proprietà dei coefficienti di Fourier:
2
[3.1.7] !k C k = Wxx.
44
3.1.2 Rappresentazione in serie di funzioni ortogonali

3.1.2.1 Segnali di energia rappresentati tramite una base


In analogia al caso appena considerato dei segnali periodici, fissata una certa classe di segnali sulla
base del dominio di definizione e di altre proprietà, sono possibili anche per i segnali di energia
rappresentazioni in serie temporali tramite l’uso di opportune funzioni ausiliarie, appartenenti
anch’esse a un insieme di determinate caratteristiche. Casi di particolare interesse, considerati
nell’immediato seguito, si hanno quando le funzioni utilizzate appartengono a un insieme discreto,
come nel caso dello sviluppo in serie di Fourier per segnali periodici.
Lo spazio funzionale dei segnali di energia, indicato con L2(T) dove il dominio di definizione T
può anche estendersi all’intero asse dei tempi, oltre che lineare e normale risulta uno spazio
metrico una volta definita la distanza tra due segnali generici x(t) e y(t) ad esso appartenenti:
2 1/2
[3.1.8] d(x, y) =ˆ x ( t ) -y ( t ) 2 = "$ ! x ( t ) -y ( t ) dt %' .
# T &
Si supponga di disporre di un insieme discreto di funzioni {6k(t)}, con pedice k=1, 2,.., N,
appartenenti a L2(T) e per cui valga la relazione di ortonormalità:
& 0 , $ h%k
[3.1.9] ( !k ,!h ) = # !k ( t ) !"h ( t ) dt = ' .
( 1 , h=k
Considerato un segnale x(t), appartenente ad L2(T) e definito per ogni valore di t nel dominio T, a
partire dall’insieme {6k(t)} si può costruire una sua rappresentazione in serie temporale, in
generale imperfetta, tramite la combinazione lineare delle funzioni ortonormali 6k(t):
N
[3.1.10] x! ( t ) = " ! k #k ( t ) ,
k=1

dove i coefficienti 7k, determinabili sulla base del criterio di minimizzare l’errore quadratico
medio di approssimazione ossia di rendere minimo il quadrato della distanza d( x, x! ), risultano dai
prodotti scalari (il lettore interessato alla dimostrazione è inviato al paragrafo 3.1.2.2):
[3.1.11] ! k = ( x,"k ) = $ x ( t ) "#k ( t ) dt .
T

Si noti che per calcolare i coefficienti 7k il segnale x(t) deve essere conosciuto sull’intero dominio
T, ossia la rappresentazione riguarda i segnali determinati.
L’insieme {6k(t)} è ritenuto soddisfacente per rappresentare una certa classe di segnali x(t) se la
accuratezza della rappresentazione migliora indefinitamente all’aumentare del numero N delle
funzioni utilizzate; l’insieme ortonormale {6k(t)} costituisce allora una base per la classe dei
segnali considerati. Si usa pertanto scrivere per N che tende all’infinito:
[3.1.12] x(t) = ( kXk6k(t), con Xk= 7k= (x,!k ) ,
dove il passaggio dalla notazione 7k a quella Xk indica il verificarsi della situazione soddisfacente
e il segno di uguaglianza nella rappresentazione va inteso nel senso della approssimazione lineare
in media(1); si ha poi la proprietà:
[3.1.13] (k|Xk|2 = Exx.
Si pone in evidenza che per particolari classi di segnali può accadere che si ottenga la situazione
soddisfacente con un numero finito N di funzioni ortonormali; in tale caso l’insieme {6k(t)}

(1) Si può asserire che i punti dove la rappresentazione non converge al valore del segnale sono contenuti in un insieme
di misura nulla rispetto a T.
45
costituisce un sistema completo, il numero finito N è denominato dimensione della base e la
rappresentazione assume la forma:
N
[3.1.14] x(t) = ! X k "k ( t ) , con Xk = 7k = (x, 6k),
k=1

Si ha poi in luogo della [3.1.13]:


N
2
[3.1.15] ! Xk = Exx.
k=1

Le rappresentazioni in serie temporali considerate possono essere applicate anche impiegando un


insieme di funzioni solamente ortogonale, ossia con energie E k h/1. In tale caso però le 6 6

espressioni dei coefficienti si modificano nelle:


1 1
[3.1.16] Xk = 7k =
E !k !k
( x,!k ) = E # x (t ) ! (t ) dt ,
T
"
k
!k !k

e si hanno le proprietà:
N
2 2
[3.1.17] ( k X k E6k6k = Exx, ! Xk E6k6k = Exx.
k=1

Come già accennato, i coefficienti Xk possono essere ricavati solo se è noto l’andamento del
segnale x(t) sull’intero dominio T, ossia le rappresentazioni in serie temporali tramite un insieme
di funzioni ortogonali riguardano i segnali determinati. È tuttavia possibile considerare le [3.1.12]
e [3.1.14] come rappresentazioni esplicite di un processo aleatorio continuo, assumendo che Xk
siano delle variabili aleatorie.
3.1.2.2 Ottimizzazione della rappresentazione con funzioni ortogonali
La scelta dei coefficienti 7k che ottimizza la rappresentazione x! (t) è quella che rende minimo il
quadrato della sua distanza dal segnale x(t), espresso dalla:
2
[3.1.18] d2(x, x! ) = ! x (t ) -x! ( t ) dt = (x- x! , x- x! ) = (x,x) - (x, x! ) - (x, x! )* + ( x! , x! ).
T

Servendosi della [3.1.10] e tenuto conto della ortogonalità dell’insieme {6k(t)} si ottiene:
N N N N
*
[3.1.19] d2(x, x! ) = (x,x) - $ !"k ( x,#k ) - # ! k ( x,"k ) + " " ! k !#h ( $k ,$h ) =
k=1 k=1 k=1 h=1

N N
2
=Exx - 2 % ! " k ( x,#k )
{ }
$
+ " !k E6k 6k =
k=1 k=1

N N N
2
= Exx - 2 $ ! {" k } ! {( x,#k )} - 2 $ ! {" k } ! {( x,#k )} + '#$! {" k }%& E k k + g! ( t ) E k k.
6 6 6 6

k=1 k=1 k=1

Il valore d 2min del quadrato della distanza si ricava uguagliando a zero le derivate parziali della
[3.1.19] rispetto a 0{7k} e 8{7k}; si perviene allora al sistema:
N N
[3.1.20] # ! {( x,"k )} - # ! {" k } E k k = 0, 6 6

k=1 k=1

N N
[3.1.21] # ! {( x,"k )} - # ! {" k } E k k = 0, 6 6

k=1 k=1

che fornisce la soluzione ottima espressa nella [3.1.16].


46
Con la soluzione trovata e sempre in virtù dell’ortogonalità dell’insieme {6k(t)}, si ottiene per
ogni k:
N
[3.1.22] (x- x! , 6k) = (x, 6k) - ( x! , 6k) = 7kE k k - 6 6 # ! h ("h ,"k ) = 0,
h=1

ossia il segnale di errore x(t)- x! (t) della rappresentazione imperfetta risulta ortogonale a ogni
funzione 6k(t) e, di conseguenza, è ortogonale anche a x! (t) . Ciò comporta la relazione:
N
2 2 2
[3.1.23] d 2min = x - x! =E xx -! ! k E k k. 6 6

k=1

La rappresentazione in serie temporale di funzioni ortogonali è dunque soddisfacente per una data
classe di segnali se
lim d min =0 ,
N!"

ossia se si verifica l’uguaglianza di Parceval:


"
2
[3.1.24] # !k E k k = Exx.
6 6

k=1

3.1.3 Serie di Fourier di segnali a durata limitata

Nello spazio funzionale L2 si consideri l’insieme ortogonale delle armoniche complesse troncate
nell’intervallo (-T/2, T/2):
!t$
[3.1.25] 6k(t) = e jk!t rect # & ,
"T%
dove k è intero, 2=2!/T e tutte le 6k(t) hanno la medesima energia E k k=T; si noti che per essere 6 6

T generico tali funzioni ampliano quelle usate nel caso dei segnali periodici. Con riferimento a un
qualsiasi segnale di energia g(t) a durata D limitata, si ottiene allora la rappresentazione in serie
temporale del tipo [3.1.10], in generale imperfetta:
N
t ! $
[3.1.26] g! ( t ) = " ! k e jk!t rect # & ,
k=1 "T%
dove i coefficienti 7k sono dati dalle:
1 1
T/2
[3.1.27] 7k =
E !k !k
( x,!k ) = "
T -T/2
g ( t ) e-jk!t dt ,

avendo eliminato dall’integrando la funzione rettangolare stanti i valori stabiliti come estremi di
integrazione.
A patto di estendere all’infinito la serie, ossia per N9), la rappresentazione considerata si rivela
soddisfacente per la classe dei segnali di energia che sono nulli all’esterno di un intervallo (tm, tM )
tutto contenuto entro (-T/2, T/2), condizione che implica necessariamente che la durata D= tM - tm
non sia maggiore di T; in Figura 3.1 è mostrato un esempio di segnale della classe menzionata.
Infatti, considerata una tale forma d’onda g(t) come quella da cui si genera la funzione periodica
x(t)=repT[g(t)], è allora lecito porre:
!t$
[3.1.28] g(t) = x(t) rect # & ;
"T%
servendosi della rappresentazione di x(t) in serie di Fourier (vedi [3.1.2]), si ha poi:
47
t ! $
[3.1.29] g(t) = "k Ck e jk!t rect # & ,
"T %
che confrontata con la [3.1.26] mostra che la rappresentazione, denominata serie di Fourier a
durata limitata, è soddisfacente per la classe dei segnali considerata, con durata D*T, purché si
usino i coefficienti di Fourier Ck=7k, ossia si ponga:
1
T/2
[3.1.30] Ck = " g(t)e-jk!t dt .
T -T/2

Figura 3.1: Segnale di energia a durata limitata e contenuta nell’intervallo (-T/2, T/2).
Rammentando le [3.1.17], vale inoltre la proprietà:
2
[3.1.31] T (k C k = Egg,

dove è al solito indicata con Egg l’energia del segnale g(t).


Si noti che per un assegnato segnale di energia della classe considerata lo sviluppo in serie di
Fourier non è unico: al variare della durata T delle armoniche complesse unitarie troncate, purché
sempre scelta nel rispetto della condizione che l’intervallo (-T/2, T/2) contenga quello (tm, tM ),
sono infatti diversi i coefficienti Ck e quindi le componenti armoniche troncate che, sommandosi,
ricostruiscono la forma d’onda del segnale g(t).
Inoltre si osserva che ovunque sia collocato l’intervallo finito (tm, tM ) all’esterno del quale il
segnale g(t) è nullo, e indipendentemente dalla sua durata finita D, è sempre possibile ottenere una
rappresentazione soddisfacente in serie di Fourier facendo in modo che le funzioni ortogonali
siano non nulle in un intervallo di estensione T che comprenda interamente quello (tm, tM ); ad
esempio si può assumere nelle [3.1.25] la funzione di troncamento rect[(t-t0)/D] con l’opportuna
traslazione temporale t0, al centro dell’intervallo (tm, tM ), come mostrato in Figura 3.2.

Figura 3.2: Segnale di energia a durata limitata esattamente contenuta nell’intervallo (t0-T/2,
t0+T/2).
Si segnala infine che la rappresentazione imperfetta con un numero N finito di addendi, applicabile
anche nel caso di segnali solo praticamente limitati nel tempo, può tornare utile per motivi di
calcolo numerico, sempre che si possa ottenere una sufficiente approssimazione.
3.1.4 Rappresentazione per interpolazione di campioni

Nello spazio funzionale L2 si consideri l’insieme ortogonale delle funzioni reali, con durata
illimitata e parametro Tc generico:
48
! t $
[3.1.32] 6k(t) = sinc # -k & ,
" Tc %
aventi tutte il medesimo valore dell’energia E k k=Tc. Con riferimento a un qualsiasi segnale di
6 6

energia reale a durata illimitata, ossia appartenente al medesimo spazio L2, si ottiene la
rappresentazione in serie temporale del tipo [3.1.10], in generale imperfetta:
N
! t $
[3.1.33] x! (t) = ! ! k si nc # -k & ,
k=1 " Tc %
dove i coefficienti 7k risultano reali e dati dalle:
1
1
' x (t ) sinc #" Tt -k &%dt .
! $
[3.1.34] 7k= (x,!k ) =
E !k !k Tc c

Grazie alla particolare proprietà delle funzioni ortogonali considerate, per cui nell’istante kTc la
k-esima funzione assume valore unitario e tutte le altre con h/k hanno valore nullo, si osserva che
la [3.1.33] per t=tk=kTc fornisce 7k= x! (kTc): i coefficienti sono pertanto i valori istantanei della
rappresentazione x! (t) negli istanti equispaziati tk.
Nell’intento di individuare le condizioni per cui la rappresentazione considerata diviene
soddisfacente, si evidenzia preliminarmente che occorre di norma assumere un numero N infinito
di funzioni ortogonali, stante la durata illimitata dei segnali da rappresentare. Con N infinito, si
ottiene poi che facendo tendere Tc a zero la rappresentazione è soddisfacente. Rammentando la
[2.3.44], dalla [3.1.34] si ottiene infatti:
1
' x (t ) sinc #" Tt -k &%dt
! $
[3.1.35] 7k = lim
Tc !0 Tc c
= " x (t ) ! (t-kT ) dt = x(kTc),
c

e poiché grazie alle proprietà delle funzioni considerate si ha anche 7k= x! (kTc), risulta che la
rappresentazione x! (t) ha in istanti estremamente tra loro ravvicinati gli stessi valori del segnale
x(t), così da consentire di porre, almeno per Tc90:
!t $
[3.1.36] x(t) = (k cksinc # -k & ,
" Tc %
dove i coefficienti reali sono i valori del segnale x(t), o campioni del segnale:
[3.1.37] ck=x(kTc),
negli istanti di campionamento equispaziati tk=kTc.
Come dimostrato in seguito, la rappresentazione sopra considerata, dovuta a Nyquist, è
soddisfacente con Tc non infinitesimo per una classe assai ampia di segnali di energia reali a
durata illimitata, purché si scelga Tc minore di un determinabile valore limite superiore TN,
denominato intervallo di Nyquist. La rappresentazione in serie temporale [3.1.16] ricostruisce
dunque il segnale per interpolazione dei campioni ck a intervallo di campionamento Tc<TN,
tramite infinite funzioni ottenute dall’impulso sinc per traslazione temporale kTc (vedi Figura 3.3).

Figura 3.3: Rappresentazione di un segnale per interpolazione dei suoi campioni.


49
Rammentando le [3.1.17], vale inoltre la proprietà:
[3.1.38] Tc (k ck2 = Exx,
dove è al solito indicata con Exx l’energia del segnale x(t).
Come nel caso della serie di Fourier di segnali a durata limitata, la rappresentazione per
interpolazione di campioni non è unica: al variare dell’intervallo di campionamento Tc che
determina la scelta delle funzioni ortogonali, nel rispetto della condizione Tc<TN risultano infatti
diversi i campioni ck, oltre che le funzioni interpolanti 6k(t).
La rappresentazione può essere inoltre applicata anche a una opportuna classe di segnali di
potenza, per cui sia determinabile un valore non nullo dell’intervallo di Nyquist; in tale caso
l’accuratezza soddisfacente può dimostrarsi effettuando la interpolazione in serie per valore di N
finito e, quindi, passando al limite per N9). Come esempio immediato, la [3.1.33] è
soddisfacente nel caso elementare x(t)=c costante reale; per N9), infatti, tenuto conto delle
proprietà delle funzioni ortogonali considerate (vedi paragrafo 2.5.1.6), che hanno tutte area di
valore Tc e una volta sommate danno il valore 1 per ogni t, dalle [3.1.34] i coefficienti 7k risultano
tutti uguali alla costante c e quindi dalla [3.1.33] si ottiene x! (t) =c=x(t).
Per motivi di calcolo numerico può tornare infine utile l’impiego della rappresentazione imperfetta
ottenuta con i campioni effettivi ck, in numero N finito, dell’andamento troncato nel tempo del
segnale x(t); in tale caso l’approssimazione del segnale x! (t) ottenuto per interpolazione non è
adeguata solo nei suoi tratti estremi.

3.2 Rappresentazione nello spazio dei segnali

Si torni a considerare la rappresentazione x! (t) , con i coefficienti 7k=(x,6k). Da tale ultima


espressione, grazie alla ortonormalità della famiglia {6k(t)} risulta che alle N funzioni 6k(t)
corrispondono le ennuple di valori
(1,0,..,0), (0,1,..,0),.., (0,0,..,1),
alle quali si possono associare N versori, 6 k, tutti tra loro ortogonali, che definiscono uno spazio
euclideo ad altrettante dimensioni, denominato spazio dei segnali. Ammesso che le N funzioni
6k(t) siano reali, la relazione 7k=(x,6k) stabilisce una corrispondenza tra un segnale reale x(t) e una
ennupla di valori reali, (71, 72 , ......, 7N), a cui si può associare un vettore x! , che risulta la
proiezione del segnale nello spazio a N dimensioni appena sopra definito. Ogni coefficiente 7k è
dunque la k-esima componente del vettore x! secondo 6 k, ossia si ha:
[3.2.1] 7k = x! :6
6 k,
che ancora più giustifica la denominazione di prodotto scalare della operazione 7k=(x,6k) nel
dominio del tempo.
Come già evidenziato in precedenza, in generale occorre un numero infinito di funzioni
ortonormali per rappresentare in modo soddisfacente qualsiasi segnale nel suo intervallo di
definizione; tuttavia la desiderata accuratezza può essere raggiunta, per particolari categorie di
segnali, anche per N finito. In tale caso diviene biunivoca la corrispondenza tra un segnale x(t), per
cui vale nel dominio del tempo la rappresentazione:
N
[3.2.2] x(t) = " x k !k ( t ) , xk = (x,6k),
k =1

e la sua rappresentazione vettoriale nella base euclidea {6


6 k}, come illustrato in Figura 3.4, indicata
con la notazione:
N
[3.2.3] x = " x k !k , xk = x:6
6 k.
k =1

Si ricava anche il seguente legame tra il modulo | x | del vettore e la energia del segnale:
50
N
[3.2.4] |x|2= x.x = ! x 2k = Exx.
k =1

Figura 3.4: Rappresentazione di un segnale nello spazio dei segnali


L’utilità della rappresentazione introdotta risiede nel fatto che non compare la variabile temporale.
Si consideri una coppia di segnali, x(t) e y(t), che siano entrambi rappresentabili tramite una base
{6k(t)} a N dimensioni con le ennuple xk e yk (k = 1 2,.., N); si ottiene per il prodotto scalare dei due
,

corrispondenti vettori, x e y, nello spazio dei segnali:


N
[3.2.5] x.y = ! x k y k .
k =1

Introducendo nella definizione di prodotto scalare nel dominio del tempo i segnali rappresentati
come combinazioni lineari delle funzioni di base 6k(t), si perviene al medesimo risultato, ossia si
ha:

[3.2.6] x.y = (x,y).


Infatti per la ortonormalità delle funzioni reali di base si ottiene:
N N N N N
[3.2.7] ( x,y) = ! x ( t ) y* ( t ) dt = ! # x k "k ( t )# y h "h ( t ) dt = # # x k y h " !k ( t ) !h ( t ) dt = ! x k y k .
k =1 h=1 k=1 h=1 k =1

Si noti che per (x,y)=0 i due vettori rappresentativi x e y sono effettivamente ortogonali nello
spazio dei segnali.
3.2.1 Ortogonalizzazione di Gram-Schmidt

Vale la pena di richiamare un importante caso di categoria di segnali rappresentabili in modo


soddisfacente tramite una base ortonormale, ossia in uno spazio a dimensione finita: si tratta del
generico insieme discreto, {xi(t)}, costituito da un numero finito M di segnali, per cui il metodo di
ortogonalizzazione di Gram-Schmidt garantisce la piena validità della rappresentazione facendo
ricorso a precisabili funzioni ortonormali in numero finito N * M. Il metodo consiste nell’effettuare
delle operazioni su ogni xi(t) per ricavare una funzione di base 6i(t) ortonormale a tutte le funzioni
precedentemente determinate. Nel primo passo si pone:
x1 ( t )
[3.2.8] 61(t) = .
x1 ( t )

Nel secondo passo si determina il segnale ortogonale a x1(t) :


51
[3.2.9] w2(t) = x2(t) – (x2, 61) 61(t),
ricavando quindi la seconda funzione di base:
w2 ( t )
[3.2.10] !2 ( t ) = .
w2 ( t )

Al k-esimo passo si ha il segnale ortogonale a tutti i precedenti:


k-1
[3.2.11] wk(t) = xk(t) - " ( x k ,!i ) !i ( t ) ,
i=1

e la corrispondente funzione di base:


wk ( t )
[3.2.12] !k ( t ) = .
wk ( t )

Le 6(t) sono combinazioni lineari dei segnali xi(t); se questi sono linearmente indipendenti
esistono tutte le 6(t); altrimenti solo N"M di esse risultano non identicamente nulle.

3.3 RAPPRESENTAZIONE IN FREQUENZA DI SEGNALI TEMPO CONTINUI

3.3.1 Trasformazioni lineari di segnali tempo continui

Siano x(v) una funzione complessa, con codominio X, di una variabile indipendente reale v e w(z)
una funzione complessa, con codominio W, di una variabile indipendente z, in generale complessa
e diversa da v. In via del tutto generale una trasformazione, indicata con la notazione
[3.3.1] w(z) = T{x(v), z},
è definita come una legge di corrispondenza stabilita da un ente matematico, denominato
operatore, tra le funzioni di entrata x(v) e quelle di uscita w(z). La x(v) è denominata operando, la
w(z) è denominata trasformata.
Nel seguito si limita l’attenzione alle trasformazioni lineari, per le quali l’operatore soddisfa la
condizione di additività, in modo che vale la nota proprietà della sovrapposizione degli effetti:
[3.3.2] T{[c1x1(v) + c2x2(v)], z} = c1T{x1(v), z} + c2T{x2(v), z}.
In presenza di linearità e supponendo continui i domini delle variabili indipendenti, la
trasformazione può assumere l’espressione:
[3.3.3] T{x(v), z} = ! x (v) h (z,v) dv = (x (v),h (z,v)) ,
n
!
n

dove la funzione hn(z, v), in genere complessa, viene denominata nucleo della trasformazione
lineare.
Assumendo che l’operando sia un segnale x(t) tempo continuo (v=t) e che la variabile z non sia
una variabile temporale, si ha specificatamente una trasformazione lineare di segnale tempo
continuo e la trasformata, usualmente indicata con la lettera maiuscola:
[3.3.4] X(z) " T{x(t), z} = ! x (t ) h (z,t ) dt ,
n

assume il significato di rappresentazione del segnale x(t) nel dominio continuo di z, diverso da
quello temporale.
Un esempio tipico di trasformazione lineare di segnale tempo continuo è quello offerto dalla sua
rappresentazione nel dominio della frequenza con la trasformata di Fourier, in cui la variabile
z=f=%/2! è reale e il nucleo della trasformazione si particolarizza nella funzione:
[3.3.5] hn(f, t) = e-j!t .
52
Un secondo esempio è quello della trasformazione di Laplace, che permette la rappresentazione
dei segnali nel dominio della variabile complessa s=7+j%.
3.3.2 Trasformata di Fourier e sue proprietà

3.3.2.1 Trasformata di Fourier


Tanto nel caso di segnali periodici, quanto in quello dei segnali a durata finita è stato messa in
evidenza una rappresentazione di tipo armonico, in cui appunto il segnale risulta come somma di
una serie discreta di componenti armoniche complesse, infinitamente estese nel tempo oppure
troncate.
Anche nel caso di segnali bilateri di energia, a durata illimitata, può essere effettuata un’analisi
armonica, purché si faccia riferimento all’insieme continuo di funzioni tra loro incoerenti, formato
dalle armoniche complesse di modulo unitario alle frequenze generiche f=% /2! e con fasi nulle:
[3.3.6] e j!t = cos%t + j sin%t,
e purché in luogo dei coefficienti complessi discreti si consideri la funzione complessa:
[3.3.7] X(f) = " x (t) e -j!t
dt = ( x ( t ),e j!t ) ,

appartenente allo spazio funzionale L2 nel dominio della frequenza, denominata trasformata di
Fourier del segnale x(t).
La trasformazione considerata nella [3.3.7] è reversibile, ossia si ha la antitrasformata di Fourier:
[3.3.8] x(t) = " X (f ) e j!t
df = ( X ( f ),e-j!t ) ,

che appare come una rappresentazione soddisfacente con riferimento all’insieme continuo delle
funzioni [3.3.6]. Si osservi che nella [3.3.8] il segnale appare infatti composto da infinite
componenti armoniche complesse X(f) e j!t df.
Si usano spesso le notazioni:
X(f) " F {x ( t )} , x(t) " F -1 {X ( f )} .
La corrispondenza biunivoca tra il segnale nello spazio funzionale L2 nel dominio del tempo e la
sua trasformata di Fourier nello spazio L2 nel dominio della frequenza è poi indicata nel seguito
con la notazione:
x(t) ; X(f).
Si noti che per ottenere la trasformata di Fourier il segnale x(t) deve essere conosciuto sull’intero
dominio del tempo, ossia la rappresentazione considerata riguarda i segnali determinati; essa è
tuttavia formalmente applicabile anche a segnali di energia casuali quando l’aleatorietà riguardi
esclusivamente dei parametri.
La funzione complessa X(f), di norma espressa in modulo, |X(f)|, e in argomento, arg{X(f)}, è
rappresentabile graficamente con la coppia dei tracciati |X(f)| e arg{X(f)}, rispettivamente nei
piani |F|, f e arg{F}, f, denominati spettro di ampiezza e spettro di fase del segnale (vedi esempio
in Figura 3.5). La trasformata di Fourier viene pertanto anche indicata come lo spettro del segnale.

a) b)
Figura 3.5: Spettro di ampiezza (a) e spettro di fase (b) di un segnale.
53
Oltre che per i segnali di energia appartenenti allo spazio funzionale L2 nel dominio del tempo,
ossia quadraticamente integrabili, l’integrale che conduce alla funzione X(f) converge nel caso dei
segnali appartenenti a L1, cioè assolutamente integrabili. Inoltre la trasformata di Fourier può
esistere per segnali di altro tipo, come si constaterà in seguito.
3.3.2.2 Proprietà generali della trasformata di Fourier
Gli operatori che conducono alla trasformata e alla antitrasformata di Fourier godono anzitutto
della proprietà di linearità, ossia a una combinazione lineare a coefficienti costanti di più segnali
corrisponde la combinazione lineare, con i medesimi coefficienti, dei rispettivi spettri dei segnali,
e viceversa; è allora lecito porre:
[3.3.9] c1x1(t) + c2x2(t) +... ; c1X1(f) + c2X2(f)+...
In particolare, per un segnale complesso vale la corrispondenza biunivoca:
[3.3.10] xR(t)+jxI(t) ; F {x R ( t )} + j F {x I ( t )} .

La coppia di operatori manifesta inoltre la proprietà di dualità; posto che sia F{x(t)}=X(f),
scambiando nelle funzioni la variabile tempo con la variabile frequenza si ottiene infatti:
[3.3.11] F{X(t)}= x(-f).
Nella Tabella 3.1 sono riportate altre notevoli proprietà generali della trasformata di Fourier. Il
lettore è invitato a titolo di esercizio a seguire le dimostrazioni riportate nel paragrafo 3.3.3.
Tabella 3.1: Alcune notevoli proprietà della trasformata di Fourier
PROPRIETÀ SEGNALE TRASFORMATA
Scalatura x(at) 1 !f $
X# &
|a | "a%
Inversione di segno x(-t) X(-f )
Traslazione nel tempo x(t+t0) X(f) e j2!ft 0
Traslazione in frequenza x(t) e j2!f0t X(f-f0)
Coniugazione nel tempo x*(t ) X*(-f)
Coniugazione in frequenza x*(-t ) X*(f)
Derivazione nel tempo dn (j2!f)n X(f)
x( t )
dt n
Derivazione in frequenza (-j2!t)n x(t) dn
X(f)
dfn
Integrazione nel tempo " x(t)dt X(f)
j2" f
3.3.2.3 Proprietà di convoluzione della trasformata di Fourier
Due ulteriori importanti proprietà della trasformata di Fourier fanno riferimento alla operazione
denominata integrale di convoluzione tra due segnali tempo continui, in generale complessi,
indicata con la notazione x(t)$y(t) e definita mediante la espressione:
[3.3.12] x(t)$y(t) = " x(v) y(t - v) dv ,
dove v è una variabile temporale. L’operatore introdotto, che come si constaterà in seguito, ha una
notevole rilevanza, è applicabile tanto a una coppia di segnali di energia, quanto a un segnale di
energia e uno di potenza; nel primo caso si ottiene un segnale di energia, mentre nel secondo si ha
un segnale di potenza.
54
L’operazione di convoluzione gode delle proprietà associativa, distributiva e commutativa, tipiche
dell’usuale operazione di prodotto; in particolare è indifferente all’ordine dei due segnali, per cui
si ha:
[3.3.13] " x(v) y(t - v) dv = " y(v) x(t - v) dv .
Applicando l’operatore della trasformata di Fourier all’integrale di convoluzione tra una coppia di
segnali di energia e servendosi della proprietà di traslazione nel tempo, si ottiene:
[3.3.14] (x(t) " y(t),e j # t ) = ## x(v) y(t - v)e dvdt = # x(v)[ # y(t - v)e
-j " t -j" t
]
dt dv =
# x(v)Y (f)e dv = X(f) Y(f),
-j" v

dimostrando l’importante proprietà di convoluzione nel tempo:


[3.3.15] F{x(t)!y(t)} = X(f) Y(f).
Con procedimento analogo e applicando l’operatore della antitrasformata di Fourier all’integrale di
convoluzione tra le trasformate X(f) e Y(f) di due segnali di energia, si dimostra la proprietà di
convoluzione in frequenza:
[3.3.16] F{x(t)y(t)} = X(f)$Y(f).
3.3.2.4 Trasformata di Fourier di segnale reale
Nel caso frequente di segnale reale, con x(t)=xR(t) e xI(t)=0, che ammetta la trasformata di Fourier
si ottiene:
[3.3.17] X(f) = " x (t ) cos!t dt -j " x (t )sin!t dt = X (f) + jXI(f),
R R R

e cambiando f con -f :
[3.3.18] X(-f) = " x (t ) cos!t dt +j " x (t )sin!t dt = X (f) - jXI(f).
R R R

La trasformata X(f) di un segnale reale risulta dunque una funzione hermitiana, ossia si ha la
proprietà particolare:
[3.3.19] x( t ) = x*( t ) ; X(f) = X*(-f);
lo spettro di ampiezza è dunque una funzione pari, |X(f)|=|X(-f)|, mentre quello di fase è una
funzione dispari, arg{X(f)}=-arg{X(-f)}.
Dalla osservazione degli andamenti degli spettri mostrati a titolo di esempio in Figura 3.5, si può
dedurre che il segnale a cui tali spettri si riferiscono è reale.
Se poi il segnale oltre che reale è una funzione pari, anche la sua trasformata gode della medesima
particolarità, ossia si ha la proprietà, ancora più particolare:
[3.3.20] x( t ) = x*( t ) = x(-t ) ; X(f) = X*(f) = X(-f).
3.3.3 Dimostrazioni di alcune proprietà della trasformata di Fourier

Proprietà di scalatura
[3.3.21] F{x(at)}= # x ( at ) e! j"t dt ;

con il cambio di variabile t’=at si ricava:


1 1 $f '
"
! j t'
[3.3.22] F{x(at)}= sgn(a) # x ( t ') e a dt ' = X & ) ;
a a %a(
Proprietà di inversione di segno
Applicando la scalatura con a=-1 si ha direttamente:
55
[3.3.23] F{x(-t)}=X(-f)
Proprietà di traslazione nel tempo
Si ha:
[3.3.24] F{x(t+t0)}= # x ( t + t 0 ) e! j"t dt

con il cambio di variabile t’=t+t0 si ricava:


[3.3.25] F{x(t+t0)}= # x ( t ') e dt ' = e j"t 0 X ( f )
! j"( t '!t 0 )

Proprietà di traslazione in frequenza


Si ricava immediatamente:
[3.3.26] F {x ( t ) e j!0t } = # x (t) e e dt = # x (t) e dt = X ( f " f0 )
j!0 t " j!t " j(!"!0 )t

Proprietà di coniugazione nel tempo


Si ricava immediatamente:
*
[3.3.27] F {x* ( t )} = # x (t) e* ! j"t
dt = $% # x ( t ) e j"t dt &' = X* (!f )

Proprietà di coniugazione in frequenza


Si ha:
*
[3.3.28] X*(f)= $% # x ( t ) e! j"t dt &' = # x (t) e
* j"t
dt

con il cambio di variabile t’=-t si ricava:


[3.3.29] X*(f)= # x (!t ') e
* ! j"t '
dt ' = F{x*(-t)}

Proprietà di derivazione nel tempo


Si ha:
#! d n x ( t ) #% d n x ( t ) ( j)t
[3.3.30] F " &= * e dt ;
$# dt '# dt n
n

integrando per parti si ha:

#! d n x ( t ) #% * d n(1x ( t ) ( j)t - d n(1x ( t ) ( j)t


0

[3.3.31] F " & = , e / + j) 1 dt n(1 e dt


$# dt '# + dt
n n(1
.(0
dove il primo termine è nullo poiché x(t) è un segnale di energia; iterando si ottiene:
#! d n x ( t ) #% n n
[3.3.32] F " & = ( j() * x (t) e ) j(t
dt = ( j() X(f)
$# dt '#
n

Proprietà di derivazione in frequenza


Si ricava immediatamente:
d n X (f ) d n $ d n e! j"t n
[3.3.33] = n % # x ( t ) e! j"t dt &' = # x (t) dt = (! j") X ( f )
df n df df n

Proprietà di integrazione nel tempo


Si ha:
$t ' t t
1
[3.3.34] F % # x ( u ) du( = # # x (u) du e! j*t dt = # # x (u) du d ( e! j*t ) =
&!" ) !" !" -j*
56
integrando per parti si ottiene:
' + e! j*t t 1 1
"
$t .
[3.3.35] F % # x ( u ) du( = -! # x ( u ) du0 + # x (t) e ! j*t
dt = X (f )
&!" ) , j* !" /!" j* j*

nell’ipotesi area [x(t)]=0, altrimenti si ha l’addendo {area[x(t)+(t)}/2.


3.3.4 Esempi rilevanti di trasformate di Fourier

3.3.4.1 Trasformata dell’impulso rettangolare unitario e del segnale sinc


L’impulso rettangolare unitario rect(t/T), con andamento temporale mostrato in Figura 3.6a, è un
esempio tipico di segnale appartenente alla spazio L2 e a durata limitata. Applicando ad esso
l’operatore della trasformata di Fourier si ottiene:
! t $ -j't T/2
e- j!T/2 -e j!T/2
[3.3.36] (rect(t/T), e j!t ) = rect
( "T% # & e dt = " e -j!t
dt = ,
-T/2
-j!

determinando la seguente espressione della trasformata di Fourier:


[3.3.37] F{rect(t/T)} = T sinc(fT).
Essendo il segnale reale e pari, tale è anche la trasformata di Fourier, con il solo spettro di
ampiezza mostrato in Figura 3.6b.

a) b)
Figura 3.6: Impulso rettangolare unitario nel tempo (a) e suo spettro (b).
Il segnale sinc(t/T), con la forma d’onda mostrata in Figura 3.7a, è un classico esempio di segnale
ancora appartenente alla spazio L2, ma a durata illimitata. A partire dalla [3.3.22], applicando le
proprietà di dualità e scalatura della trasformata di Fourier si ottiene direttamente la seguente
espressione:
[3.3.38] F{sinc(t/T)} = T rect(fT),
ancora di tipo reale e pari, con il solo spettro di ampiezza tracciato in Figura 3.7b.

a) b)
Figura 3.7: Segnale sinc(t/T) nel tempo (a) e suo spettro (b).
57
I due segnali considerati si scambiano dunque tra loro passando dalla rappresentazione nel
dominio del tempo a quella nel dominio della frequenza. In particolare, il primo è limitato nel
tempo e illimitato in frequenza, mentre il secondo è illimitato nel tempo e limitato in frequenza.
3.3.4.2 Trasformata di segnali particolari
Come già accennato, la trasformata di Fourier può convergere anche nel caso di segnali particolari,
che non sono né quadraticamente, né assolutamente integrabili, ovverosia che non appartengano né
allo spazio funzionale L2, né a quello L1.
Nel caso dell’impulso ideale, rammentando la sua proprietà di campionamento si ha ad esempio:
[3.3.39] (+(t), e j!t ) = # ! (t) e -j"t
dt = e-j!t
t=0
= 1,

ossia la trasformata di Fourier dell’impulso ideale è costante in frequenza e unitaria:


[3.3.40] F{+(t)} = 1.
Considerando l’antitrasformata di Fourier applicata all’impulso ideale nel dominio della
frequenza, +(f), si ricava analogamente:
[3.3.41] F -1 {! ( f )} = # ! (f ) e j"t
df = e j!t = 1,
f=0

per cui si può evidenziare la trasformata di Fourier del segnale costante nel tempo e unitario:
[3.3.42] F{1} = +(f).
Allo scopo di determinare la trasformata di Fourier di altri segnali particolari è opportuno fare
riferimento al segnale unitario a decadimento esponenziale, e-t/T u(t) con T>0, che appartiene allo
spazio L2; come il lettore può ricavare a titolo di esercizio, il segnale considerato ha la trasformata:
T T
[3.3.43] F {e-t /T u ( t )} = = .
1+ j!T 1+ j2!fT
In base a tale ultima espressione e ponendo:
[3.3.44] sgn(t) = lim {e-t /T u ( t ) -e t /T u (-t )} ,
T!"

si ottiene la trasformata di Fourier di quest’ultimo:


T T -j2#T 2 1
[3.3.45] F{sgn(t)}= lim
T!" { -
1+j#T 1-j#T
= lim
T!" 1+# T
2 2 = }
j!f
. { }
Rammentando l’espressione u(t)=[1+sgn(t)]/2 e la [3.3.27], si determina poi immediatamente la
trasformata di Fourier del gradino unitario:
1 1
[3.3.46] F{u(t)} = +(f) + .
2 j2!f

Pur essendo un segnale di potenza, anche una generica armonica complessa A e j(!ot+! ) , a frequenza
f0=20/2!=1/T0 e con ampiezza A e fase &, ammette la trasformata di Fourier. Poiché si ottiene:
, e j!t ) = Ae j! $ e ( dt ,
j "0 -#)t
[3.3.47] (A e (
j !0 t+")

calcolando l’integrale con gli estremi -T/2 e T/2 e poi passando al limite per T9) (il lettore
interessato faccia anche riferimento alla [2.3.43]) risulta infatti:
[3.3.48] F Ae (
{ j !o t +")
} = Ae j!
+(f-f0).

Nel caso di una generica armonica reale, tenuto conto che si può porre:
58
1 # j(!ot +") -j(!ot +") %
[3.3.49] A cos(20t + &) = A e +e &,
2 $
si ottiene la trasformata di Fourier:
1 1
[3.3.50] F{A cos(20t + &)} = A e j! +(f-fo) + A e-j! +(f+f0),
2 2
che come atteso, per essere reale il segnale, è una funzione hermitiana nella frequenza. Lo spettro,
nullo per ogni f tranne che in corrispondenza dei valori discreti ±fo, si denomina discreto o spettro
a righe, dato che viene convenzionalmente disegnato, come mostrato in Figura 3.8, con righe di
altezza uguale al modulo oppure all’argomento dell’area di ciascuna componente discreta.

Figura 3.8: Raffigurazione convenzionale dello spettro discreto di ampiezza (a) e di fase (b) di un
segnale armonico reale.
3.3.5 Affinità tra segnali di energia rappresentati in frequenza

Nel paragrafo 2.5.1 sono state svolte interessanti considerazioni sull’affinità tra due generici
segnali di energia x(t) e y(t), a partire dalla funzione di intercorrelazione Cxy(-) desumibile dai loro
andamenti in funzione del tempo. Si desidera in questa sede approfondire l’argomento,
supponendo di conoscere le rappresentazioni in frequenza dei segnali, ossia le trasformate di
Fourier X(f) e Y(f).
Se si effettua il cambio di variabile da t a -v nell’integrale che definisce la funzione di
intercorrelazione tra una coppia di segnali di energia, questa assume la forma del particolare
prodotto di convoluzione (vedi [3.3.12]):
[3.3.51] Cxy(-) = (x(t+-), y(t)) = x(-)$y*(--),
stabilendo così una interessante relazione tra le due funzioni. In base alla proprietà di
convoluzione nel tempo (vedi [3.3.15]) della trasformata di Fourier risulta allora:
[3.3.52] F {Cxy(-)} = X(f) Y*(f).
Si ottiene di conseguenza la seguente espressione della funzione di intercorrelazione in funzione
degli spettri dei segnali:
[3.3.53] Cxy(-) = F -1 {X ( f ) Y! ( f )} = # X (f ) Y (f ) e
* j!"
df ;

ponendo in particolare -=0, il prodotto scalare assume poi le forme:


[3.3.54] (x,y) = ! x ( t ) y ( t ) dt = ! X (f ) Y (f ) df ,
* *

che mostrano come tale grandezza abbia nel dominio della frequenza una forma duale rispetto a
quella della sua definizione nel dominio del tempo.
L’ultimo membro della [3.3.53] permette di individuare una interessante condizione sufficiente
perché i due segnali siano privi di ogni affinità, ossia risultino incorrelati: se infatti gli spettri dei
due segnali sono diversi da zero in intervalli di frequenza separati si ha X(f)Y*(f)"0, ossia
l’integrando è nullo per ogni frequenza, in modo che la funzione di intercorrelazione risulta
identicamente nulla per ogni -, ossia si verifica Cxy(-)"0.
59
Con analogo ragionamento sulla [3.3.54], la menzionata separazione in frequenza di una coppia di
segnali è anche condizione sufficiente, ma non necessaria per la loro ortogonalità, così come è
stato già osservato per la separazione nel tempo, che comporta x(t)y*(t)"0.
Si rammenta che la massima affinità in senso lato si verifica se e solo se i segnali sono tra loro
fedeli, ossia sussiste la relazione y(t)=g e- j! x(t-to); passando alle rappresentazioni in frequenza si
ottiene allora la corrispondente espressione:
[3.3.55] Y(f) = gX(f) e
- j(!t o +" )
,
per cui la generica famiglia di segnali di energia fedeli è caratterizzata in frequenza da spettri di
ampiezza proporzionali e da differenze degli spettri di fase con andamenti lineari (proporzionali
nel caso di segnali reali con g>0).
3.3.6 Spettri di energia

3.3.6.1 Densità spettrale di energia di un segnale


Se nella espressione [3.3.53] si pone y(t)"x(t), si ottiene la funzione di autocorrelazione in
funzione dello spettro X(f) del segnale di energia:
2
[3.3.56] Cxx(-) = F -1 {X ( f ) X! ( f )} = # X (f ) e j!" df .

Rammentando che il valore nell’origine Cxx(0), per -=0, fornisce l’energia Exx del segnale, si
ricavano allora le seguente espressioni:
2
dt = ! X ( f ) df ;
2
[3.3.57] Exx = ! x (t)
esse mostrano come nel dominio della frequenza la energia abbia forma duale rispetto a quella
della sua definizione nel dominio del tempo (teorema di Parseval) e inoltre suggeriscono la
denominazione di densità spettrale di energia, o spettro di energia, per il quadrato dello spettro di
ampiezza:
[3.3.58] Exx(f) = X(f) X*(f) = |X(f)|2,
funzione, sempre reale, che rivela con il suo andamento come l’energia si distribuisca sull’asse
delle frequenze.
Trasformando ambo i membri della [3.3.56] si perviene alla seguente relazione nel dominio della
frequenza, denominata di Wiener-Khintchine:
[3.3.59] Exx(f) = F{Cxx(-)} = # C ( !) e
xx
- j"!
d! ,

da cui risulta in modo diretto che lo spettro di energia è la trasformata di Fourier della funzione di
autocorrelazione.
Nel caso particolare, ma frequente, di segnale reale la funzione di autocorrelazione è reale e pari;
di conseguenza anche lo spettro di energia assume le medesime caratteristiche, ossia si ha
Exx(f)=Exx(-f).
Nelle rappresentazioni grafiche la funzione Exx(f) è preferita rispetto allo spettro di ampiezza
|X(f)|, e spesso non viene tracciata direttamente, ma tramite la sua espressione in decibel:
E (f)
E[dB] = 10 log xx ,
E xxM
prendendo come riferimento il suo valore massimo, indicato con ExxM. Per tale via risulta infatti
possibile evidenziare valori molto piccoli rispetto a quello massimo, come mostrato nell’esempio
in Figura 3.9 che si riferisce allo spettro di energia dell’impulso rettangolare, Exx(f)=T2 sinc2(fT).
60

Figura 3.9: Rappresentazione in decibel dello spettro di energia dell’impulso rettangolare.


3.3.6.2 Densità spettrale di energia della somma di due segnali
Si consideri il segnale z(t)=x(t)+y(t), somma di due segnali di energia. Mentre grazie alla proprietà
di linearità della trasformata di Fourier lo spettro di z(t) è la somma di quelli dei suoi addendi,
ossia si ha Z(f)=X(f)+Y(f), ciò non vale in generale per lo spettro di energia (o di ampiezza);
infatti si ha:
[3.3.60] Ezz(f) = [X(f) + Y(f)] [X*(f) + Y*(f)] = Exx(f) + Eyy(f) + 20{Exy(f)},
dove si è posto per le densità spettrali mutue di energia, o spettri mutui di energia, tra i due
segnali:
[3.3.61] Exy(f) = X(f) Y*(f), Eyx(f) = Y(f) X*(f) = E !xy ( f ) ,

funzioni complesse. Si noti che trasformando ambo i membri della [3.3.53] si perviene alla
seguente relazione nel dominio della frequenza:
[3.3.62] Exy(f) = F{Cxy(-)} = # C ( !) e
xy
- j"!
d! .

In generale non sono sommabili nemmeno le energie dei due segnali, dato che procedendo alla
integrazione sull’intero asse delle frequenze risulta:
[3.3.63] Ezz = ! E (f )df = Exx + Eyy+ 2 & !"#E (f )$%df .
zz xy

Se i segnali sono privi di ogni affinità, ossia sono incorrelati, come accade nel caso della
separazione in frequenza, le densità spettrali mutue sono identicamente nulle: di conseguenza i
segnali risultano sia sommabili in spettro di energia, che sommabili in energia. La incorrelazione è
condizione necessaria e sufficiente affinché due segnali siano sommabili in spettro di energia,
mentre è condizione sufficiente, ma non necessaria affinché essi siano sommabili in energia.
Infatti, tale situazione si verifica anche se risulta:
[3.3.64] & !"#E (f )$%df = 0,
xy

con densità spettrale mutua di energia non identicamente nulla. Tenuto conto della [3.3.62],
l’integrale a primo membro nella [3.3.64] corrisponde al valore nell’origine (per -=0) della
funzione di intercorrelazione, ossia al prodotto scalare; si può pertanto affermare che due segnali
ortogonali, per cui si ha Cxy(0)=0, sono sempre sommabili in energia.
61
3.3.7 Spettri di potenza

3.3.7.1 Densità spettrale di potenza di un segnale


Con riferimento a un segnale di potenza, considerando il corrispondente segnale di energia
troncato xT(t) e la sua trasformata di Fourier, si definisce la densità spettrale di potenza o anche
spettro di potenza del segnale:
1 1
[3.3.65] Wxx(f) = lim X T ( f ) X#T ( f ) = lim |XT(f)|2,
T!" T T!" T
funzione sempre reale che indica come la potenza si distribuisca sull’asse della frequenza.
Considerando la funzione di autocorrelazione temporale Rxx(-), nell’ipotesi che sia possibile
invertire l’ordine tra l’integrale e il limite, si ha la relazione di Wiener-Khintchine:
[3.3.66] Wxx(f) = F{Rxx(-)}= # R xx ( ! ) e- j"! d! ,

da cui risulta in modo diretto che lo spettro di potenza è la trasformata di Fourier della funzione di
autocorrelazione. Passando al dominio del tempo, per -=0 si ricava inoltre:
[3.3.67] Wxx = Rxx(0) = ! W (f ) df .
xx

Nel caso particolare, ma frequente, di segnale reale la funzione di autocorrelazione temporale è


reale e pari; di conseguenza anche lo spettro di potenza del segnale assume le medesime
caratteristiche, ossia si ha Wxx(f)=Wxx(-f).
3.3.7.2 Densità spettrale di potenza della somma di due segnali
Con considerazioni analoghe al caso dei segnali di energia, per il segnale z(t)=x(t)+y(t), somma di
due segnali di potenza, si perviene alla espressione:
[3.3.68] Wzz(f) = Wxx(f) + Wyy(f) + 20{Wxy(f)},
dove si è posto per le densità spettrali mutue di potenza, o spettri mutui di potenza, tra i due
segnali:
1 1
[3.3.69] Wxy(f) = lim X ( f ) YT# ( f ) , Wyx(f) = lim YT ( f ) X#T ( f ) = Wxy! ( f ) ,
T!" T T T!" T

funzioni complesse per cui valgono le seguenti relazioni nel dominio della frequenza:
[3.3.70] Wxy(f) = F{Rxy(-)}, Wyx(f) = F{Ryx(-)}.
In generale non sono sommabili nemmeno le potenze dei due segnali, dato che procedendo alla
integrazione sull’intero asse delle frequenze risulta:
[3.3.71] Wzz = ! W (f )df = Wxx + Wyy + 2 & !"#W (f )$%df .
zz xy

Se i segnali sono incoerenti, come accade nel caso della separazione in frequenza che applicato
alle [3.3.69] comporta Wxy(f) " Wyx(f)"0, i segnali risultano sia sommabili in spettro di potenza,
che sommabili in potenza. La incoerenza è condizione necessaria e sufficiente affinché due segnali
siano sommabili in spettro di potenza, mentre è condizione sufficiente, ma non necessaria affinché
essi siano sommabili in potenza: infatti tale situazione si verifica anche se risulta:
[3.3.72] & !"#W (f )$%df = 0,
xy

con densità spettrale mutua di potenza non identicamente nulla. Tenuto conto della [3.3.70],
l’integrale a primo membro nella [3.3.72] corrisponde al valore nell’origine (per -=0) della
funzione di intercorrelazione; si può pertanto affermare che due segnali per cui risulti Rxy(0)=0
sono sempre sommabili in potenza.
62
3.3.8 Estensione spettrale dei segnali reali

3.3.8.1 Considerazioni sulla estensione degli spettri di energia


Con riferimento a un segnale di energia, dalle proprietà della trasformata di Fourier risulta che se
la durata è finita, ossia il segnale è strettamente limitato in tempo, il suo spettro di energia E(f) è
illimitato in frequenza (vedi ad esempio Figura 3.6). In modo duale, se lo spettro risulta diverso da
zero solo entro un intervallo di frequenza finito, ossia si ha un segnale strettamente limitato in
frequenza, l’andamento nel tempo si estende illimitatamente (vedi ad esempio Figura 3.7). Si ha
poi il caso in cui sono illimitate entrambe le rappresentazioni, nel dominio del tempo e in quello
della frequenza (vedi ad esempio il segnale unitario a decadimento esponenziale).
Limitando nell’immediato seguito le considerazioni ai soli segnali reali, si osserva che un generico
segnale di energia reale è completamente caratterizzato anche su un solo semiasse delle frequenze,
dato che lo spettro di energia, oltre che reale, è una funzione pari. Facendo allora riferimento alle
sole frequenze non negative, nel caso di stretta limitazione in frequenza di E(f), ossia di segnale
strettamente limitato in frequenza, è allora chiaramente determinabile il valore massimo, fM, oltre
il quale lo spettro di energia è nullo; potrebbe inoltre esistere un valore minimo, fm, al di sotto del
quale lo spettro di energia è nullo, come mostrato nell’esempio in Figura 3.10a; diversamente, si
assume che sia abbia fm=0, come nel caso in Figura 3.10b.

Figura 3.10: Spettri di energia di segnali reali strettamente limitati in frequenza.


Sempre con riferimento al solo semiasse destro delle frequenze, nel caso di spettro di energia
teoricamente illimitato è comunque possibile (vedi ad esempio Figura 3.11a e Figura 3.11b)
trascurare le componenti spettrali al di sopra di un opportuno valore positivo di frequenza, che si
assume come massimo, fM, e talvolta (vedi ad esempio Figura 3.11b) anche quelle al di sotto di un
altro valore positivo, assunto come minimo, fm; si adotta allora la denominazione di segnale
praticamente limitato in frequenza.

Figura 3.11: Spettri di energia di segnali reali praticamente limitati in frequenza.


Per un segnale solo praticamente limitato in frequenza il valore massimo fM non è precisamente
definito, come accade anche per quello minimo fm se è diverso da zero; di norma è opportuno che i
menzionati valori siano scelti in modo che l’integrale di 2E(f) esteso tra tali estremi fornisca un
valore praticamente coincidente con quello della energia E del segnale, ossia si abbia:
fM
[3.3.73] 2 ! E ( f ) df = Em,M < E,
fm
63
con differenza relativa molto inferiore a uno (ad esempio inferiore a 0,01).
La ipotesi di simultanea stretta limitazione di un segnale di energia nel tempo e nella frequenza è a
rigore esclusa. Tuttavia nel caso di segnali fisici non si può che ammettere una durata limitata, cui
corrisponde una estensione teoricamente infinita degli spettri; d’altra parte, per la impossibilità di
ottenere da circuiti fisici una risposta apprezzabilmente diversa da zero per frequenze comunque
grandi, è sempre possibile la individuazione pratica di una frequenza massima limitata. Con
soddisfacente approssimazione è dunque sempre possibile considerare un segnale praticamente
limitato in tempo e in frequenza, che abbia tanto l’andamento temporale, quanto lo spettro
compresi in intervalli finiti.
3.3.8.2 Larghezza di banda dei segnali reali
Come discusso in precedenza è possibile, con rigore oppure in modo pratico, individuare un
intervallo (fm, fM) all’esterno del quale la densità spettrale di energia di un generico segnale di
energia reale è per lo meno trascurabile. Nel caso di segnali di potenza reali, teoricamente sempre
illimitati nel tempo, si può procedere analogamente alla individuazione dell’intervallo in frequenza
fuori dal quale la densità spettrale di potenza W(f) è nulla o può essere trascurata; in tale caso gli
estremi dell’intervallo vengono scelti in modo che risulti:
fM
[3.3.74] 2 ! W ( f ) df = Wm,M < W,
fm

ancora con differenza relativa rispetto alla potenza W molto inferiore a uno (ad esempio inferiore a
0,01).
Per qualsiasi segnale reale, si può allora definire la larghezza di banda monolatera, o
semplicemente la banda, mediante la:
[3.3.75] B = fM – fm,
e si ha la denominazione di segnale limitato in banda. Introdotta la frequenza centrale della
banda:
1
[3.3.76] fa = (f +f ) ,
2 M m
si considera spesso anche la banda relativa del segnale reale:
B f -f
[3.3.77] =2 M m .
fa fM +fm
Sempre con riferimento al generico segnale reale, nel seguito si adotteranno le definizioni che
seguono. Un segnale in banda base è quello in cui gli estremi della banda monolatera, teorica o
pratica, rispettano la condizione:
[3.3.78] 0"fm<<fM ;
si può allora confondere la banda con la frequenza massima, ponendo B<fM, e la frequenza di
centro banda con la metà della sua larghezza. Di norma in tali casi (vedi esempi in Figura 3.10 e
Figura 3.11a) non interessa fare riferimento alla banda relativa, che comunque è attorno al valore
2. Un segnale a banda relativa contenuta è caratterizzato da una banda relativa, teorica o pratica,
che rispetta la condizione:
B 2
[3.3.79] < , ossia fM<2fm;
fa 3
si deduce anche immediatamente che la banda risulta minore della frequenza minima, ossia si ha
B<fm (vedi esempio in Figura 3.11a). Nell’ambito di tale seconda categoria, si possono poi
distinguere segnali a banda relativa stretta, per cui risulta anche B<<fa, e ancora segnali a banda
relativa molto stretta, con B minore di fa per più di un ordine di grandezza.
64
Alla prima categoria di segnali, con fM>>fm, appartengono di norma quelli direttamente forniti
dalle sorgenti di informazione o che sono il frutto di trattamenti compiuti su una molteplicità di
segnali di sorgente allo scopo di ottenere delle forme d’onda evolute, capaci di veicolare su una
medesima via fisica tutta la informazione posseduta dall’insieme dei segnali trattati.
Fanno parte della seconda categoria, con fM<2fm, i segnali che in seguito a particolari elaborazioni
effettuate a partire dalla loro forma in banda base hanno assunto una nuova rappresentazione, assai
spesso con B<<fa, più consona alle caratteristiche dei mezzi di trasmissione per grande distanza.
3.3.9 Spettri discreti di segnali periodici

3.3.9.1 Spettro di segnale di potenza rappresentato in serie di Fourier


Nel paragrafo 3.3.4.2 è stato evidenziato che una generica armonica, seppure sia un segnale di
potenza, ammette la trasformata di Fourier. Grazie alla proprietà di linearità ciò si verifica dunque
per un generico segnale di potenza che sia rappresentabile tramite lo sviluppo in serie di Fourier.
Si consideri un segnale periodico x(t) di periodo T0, rappresentato tramite lo sviluppo in serie di
Fourier (vedi [3.1.2]) dove al solito si è posto 20=2!f0=2!/T0; rammentando che si ha F{ e j!ot
}=+(f-f0), la trasformata di Fourier risulta:

[3.3.80] X ( f ) = $ !k C k e jk"ot e- j#t dt=!k C k F {e jk"ot } = ,k Ck+(f-kf0),

che mostra come la rappresentazione nel dominio della frequenza di un generico segnale periodico
sia di tipo discreto, in corrispondenza dei valori kf0 delle componenti armoniche, con spettro
composto da righe tutte tra loro spaziate a intervallo f0=1/T0 e con valori, in generale complessi,
forniti dai coefficienti di Fourier.
Come mostrato nel paragrafo 3.3.9.2, lo spettro di potenza può essere ottenuto come trasformata di
Fourier della funzione di autocorrelazione temporale. Per tale via si ottiene lo spettro discreto di
potenza:
2
[3.3.81] Wxx(f) = !k C k +(f - kf0),

di cui è mostrato un esempio in Figura 3.12.

Figura 3.12: Raffigurazione convenzionale dello spettro discreto di potenza di un segnale


periodico.
Integrando la densità spettrale di potenza Wxx(f) espressa dalla [3.3.66], è immediato ritrovare che
la potenza del segnale periodico può essere calcolata sommando tutti i quadrati dei moduli dei suoi
coefficienti dei Fourier (vedi [3.1.7]).
3.3.9.2 Calcolo dello spettro discreto di potenza
Utilizzando l’espressione [2.5.47] della funzione di autocorrelazione, in cui si introduce la
rappresentazione in serie di Fourier del segnale periodico, si ricava:
T0 /2
1
[3.3.82] Rxx(-) =
T0
"k "h Ck Ch! e jk!o! " e(
j k-h )!o t
dt ,
-T0 /2

ed ancora, essendo gli integrali tutti nulli tranne per h=k:


65
2
[3.3.83] Rxx(-) = !k C k e jk!0! .

Tramite la relazione di Wiener-Khintchine Wxx(f)=F{Rxx(-)} e ancora applicando la F{ e j!0t }=+(f–


f0), si dimostra allora che lo spettro discreto di potenza del segnale periodico ha la forma [3.3.66].
3.3.9.3 Espressioni particolari dei coefficienti di Fourier
Spesso il segnale periodico è espresso nella forma di replica x(t)=repT0{g(t)}, senza limitazioni
sulla durata della funzione generatrice di energia g(t). Allora si ottengono i coefficienti di Fourier
(vedi [3.1.5]):
T /2
1 0
[3.3.84] C k = ! g ( t-nT0 )e-jk#0t dt ;
T0 -T"/2 n
0

scambiando l’ordine tra integrale e sommatoria, con il cambio di variabile v=t-nT0 e tenuto conto
che si ha e-jk20nT0=1, si ricava poi:
-nT +T /2
1 0 0
1 1
[3.3.85] Ck =
T0
(n " g ( v ) e-jk!0v dv =
T0 ! g (v)e -jk"0 v
dv =
T0
G(kf0),
-nT -T /2
0 0

che permette di calcolare i coefficienti di Fourier in base alla conoscenza della trasformata di
Fourier G(f) della funzione generatrice g(t).
Utilizzando le precedenti espressioni dei coefficienti di Fourier si ottiene in definitiva la
rappresentazione in serie temporale, denominata somma di Poisson:
1
[3.3.86] x(t) = repT0[g(t)] = ( G(kf0) ejk20t,
T0 k
e la conseguente rappresentazione spettrale discreta del segnale periodico:
1
[3.3.87] X(f) = F{repT0[g(t)]} = ( G(kf0) +(f - kf0).
T0 k
Ancora, non avendo espresso alcuna ipotesi limitativa sulla durata della funzione generatrice,
quest’ultima può essere particolarizzata nel segnale troncato in un periodo xT0(t)=x(t)rect(t/T0);
indicata con XT0(f) la corrispondente trasformata di Fourier, risultano allora i coefficienti:
1
[3.3.88] Ck = XT0(kf0).
T0
3.3.9.4 Spettro del segnale replica dell’impulso ideale
Si consideri il particolare segnale periodico definito come replica a intervallo T0 dell’impulso
ideale nel tempo:
[3.3.89] repT0[+(t)] = (h +(t - hT0).
In base alla rappresentazione nel tempo con la somma di Poisson (vedi [3.3.86]) e rammentando
che la particolare funzione generatrice, ossia l’impulso ideale, ha trasformata con valore costante
unitario, si ricava l’espressione:
1
[3.3.90] repT0[+(t)] = ( ejk20t,
T0 k
dalla quale si deduce che tutti i coefficienti di Fourier del particolare segnale periodico considerato
sono uguali all’inverso del periodo. Confrontando le due precedenti espressioni si ottiene inoltre la
relazione:
66
"
[3.3.91] T0(h +(t - hT0) = (k ejk20t = 1+2# cos k!0 t .
k=1

Ponendo Ck=1/T0 nella espressione [3.3.80] dello spettro del generico segnale periodico, risulta:
1 1
[3.3.92] F{repT0[+(t)]} = ,k +(f - kf0) = repf0[+(f)],
T0 T0
ossia si dimostra che lo spettro discreto della replica a intervallo T0 dell’impulso ideale nel tempo
è, a meno del fattore 1/T0, la replica a intervallo f0 dell’impulso ideale in frequenza. Lo spettro
considerato viene a volte denominato pettine di righe spettrali e la replica corrispondente pettine di
righe temporali.
Poiché F{+(t)}=1, grazie alle proprietà di linearità e di traslazione nel tempo della trasformata di
Fourier si ottiene:
[3.3.93] F{repT0[+(t)]} = (h e-jh2!fT0 ;
confrontando tale espressione con la precedente si ottiene la relazione:
1 "
[3.3.94] ( k +(f - kf0) = (h e-jh2! fT0 = 1+2# cosh!T0 ,
T0 h=1

che nel dominio della frequenza ha la forma analoga a quella della relazione [3.3.76] nel dominio
del tempo.

3.4 TEOREMA DEL CAMPIONAMENTO

3.4.1 Campionamento nel dominio della frequenza

Come noto (vedi [3.1.29]), un segnale di energia g(t) a durata finita nell’intervallo (-D/2, D/2) è
rappresentabile nel dominio del tempo tramite lo sviluppo in serie di Fourier a durata limitata entro
un intervallo (-T/2, T/2), purché sia stato scelto T>D, con i coefficienti di Fourier Ck dati dalla
[3.1.30]. Indicata con G(f) la trasformata di Fourier del segnale g(t) considerato, come dimostrato
nel paragrafo 3.4.2 si ricava:
[3.4.1] G(f) = (kG(k/T) sinc[(fT-k)],
dove i campioni G(k/T) alle frequenze di campionamento equispaziate fk=k/T sono
semplicemente legati ai coefficienti della serie di Fourier tramite la:
[3.4.2] G(k/T) = T Ck.
La rappresentazione [3.4.1], nota come teorema del campionamento nel dominio della frequenza,
ricostruisce perfettamente lo spettro per interpolazione dei suoi campioni alle frequenze multiple
di 1/T, purché sia soddisfatta la condizione rispetto alla durata D del segnale:
[3.4.3] T>D.
Le rappresentazioni ottenute per campioni dello spettro sono da tenersi presenti anche per segnali
che siano solo praticamente limitati nel tempo, per i quali (ad esempio per motivi di calcolo
numerico) si assume la esistenza di una durata pratica finita.
3.4.2 Dimostrazione del campionamento nel dominio della frequenza

Tenute presenti la trasformata di Fourier del segnale considerato g(t):


T/2
[3.4.4] G(f) = " g (t ) e-j!t dt = " g (t) e -j!t
dt ,
-T/2
67
e l’espressione dei coefficienti di Fourier Ck, qui riportata per comodità:
1
T/2
[3.4.5] Ck = " g (t ) e-jk!t dt ,
T -T/2

si osserva che ponendo nell’ultimo membro della [3.4.4] %k=k2=2!k/T si ottiene la elementare
relazione [3.4.2] tra i coefficienti Ck e i campioni G(k/T) dello spettro alle frequenze discrete
multiple di 1/T. Allora la rappresentazione nel tempo in serie di Fourier assume l’aspetto:
1 !t$
[3.4.6] g(t) = (k G(k/T) ejk2t rect # & .
T "T%
Applicando la trasformazione di Fourier ad ambo i membri della espressione precedente e
rammentando la proprietà di convoluzione in frequenza, si ottiene:
1 1
[3.4.7] G(f) = (k G(k/T) F{ejk2t}$F{ rect(t/T) } = (k G(k/T) +(f - k/T) $ Tsinc(fT) =
T T
!k$
= - G # & ( ' ( v-k/T ) sinc )*( f-v) T+, dv ;
k "T%
in virtù della proprietà fondamentale dell’impulso ideale, si ricava infine la rappresentazione per
interpolazione di campioni [3.4.1].
3.4.3 Campionamento nel dominio del tempo

La rappresentazione per interpolazione di campioni nel dominio del tempo, duale rispetto a quella
[3.4.1] nel dominio della frequenza, è già stata introdotta nel paragrafo 3.1.4 come un caso
particolare di serie temporale con funzioni ortogonali. È stato tuttavia anticipato, ma non
dimostrato, che la rappresentazione può essere rigorosamente soddisfacente solo per una
opportuna classe di segnali reali di energia a durata illimitata. In questa sede si intende dimostrare
tale enunciato, che costituisce il teorema del campionamento nel dominio del tempo.
Effettuando la trasformata di Fourier su entrambi i membri della rappresentazione per
interpolazione dei campioni (vedi [3.1.36]), si ottiene:
' ! t $*
[3.4.8] X( f ) = (k ck F (sinc # -k &+ = Tc (k x(kTc) e-jk 2!fTc rect(fTc),
) " Tc %,
in cui, considerando la variabile t in luogo della frequenza f e il parametro T al posto di fc=1/Tc si
riconosce una rappresentazione in serie di Fourier del tipo [3.1.29]. In base a quanto dimostrato in
precedenza essa è dunque valida purché fc sia maggiore o uguale alla estensione dell’intervallo
all’esterno del quale deve essere nulla la funzione X(f); supposto che il segnale considerato abbia
spettro strettamente limitato con frequenza massima fM, ossia entro l’intervallo di estensione 2fM,
si ottiene allora la seguente condizione affinché sia soddisfacente la [3.1.33] e quindi la
rappresentazione per interpolazione dei campioni nel tempo:
[3.4.9] fc>2fM,
ossia
1
[3.4.10] Tc<TN = ,
2fM
dove TN è il già menzionato intervallo di Nyquist.
Riassumendo, la rappresentazione per interpolazione di campioni nel dominio del tempo è
rigorosamente soddisfacente per la classe dei segnali reali di energia a durata illimitata, ma con
spettro strettamente limitato in frequenza, a patto che l’intervallo di campionamento rispetti la
condizione [3.4.10].
68
La rappresentazione per campioni risulta anche valida per segnali reali di potenza, sempre che essi
siano strettamente limitati in banda e sia soddisfatta la condizione [3.4.10] sull’intervallo di
campionamento.
Infine, nel caso di segnali solo praticamente limitati in banda l’approssimazione della
rappresentazione è tanto migliore, quanto più sono trascurabili le componenti spettrali escluse
dalla banda pratica.

3.5 RAPPRESENTAZIONI COMPLESSE DI SEGNALI TEMPO CONTINUI

3.5.1 Segnali complessi rappresentativi

3.5.1.1 Segnale analitico


Si consideri un segnale di energia reale x(t), con la condizione che esso abbia trasformata di
Fourier X(f) nulla nell’origine, ossia che valga la X(0)=0. Dato che X(f) è una funzione
hermitiana, la rappresentazione in frequenza è ridondante, nel senso che è sufficiente la
conoscenza anche di una sola delle due porzioni di spettro che si estendono rispettivamente sul
solo semiasse negativo o positivo delle frequenze, rispettivamente indicate con X-(f) e X+(f) (vedi
Figura 3.13a).

Figura 3.13: Esempio di spettro di ampiezza di un segnale reale (a) e corrispondente spettro
diverso da zero, e doppio, sul solo semiasse positivo delle frequenze (b).
La menzionata ridondanza nel dominio della frequenza può essere eliminata facendo riferimento
allo spettro, anch’esso completamente rappresentativo, definito dalla:
[3.5.1] Ax(f) = X(f) [1+ sgn(f)] = 2X+(f),
diverso da zero sul solo asse positivo e ivi pari al doppio dello spettro di x(t) (vedi Figura 3.13b);
poiché Ax(f) non è hermitiana, il segnale ax(t)=F-1{Ax(f)}, ottenibile come antitrasformata di
Fourier e denominato segnale analitico, risulta però complesso.
Procedendo dalla [3.5.1], con la proprietà di convoluzione nel tempo si ottiene la seguente
espressione del segnale analitico:
[3.5.2] ax(t) = F -1{X(f) [1+ sgn(f)]} = x(t) + x(t) $ F -1{sgn(f)},
che può essere posta nella forma (il lettore interessato ad approfondire è inviato al paragrafo
3.5.1.5):
69
[3.5.3] ax(t) = x(t) + j x̂ ( t ) ,

dove x̂(t) è un segnale reale in corrispondenza biunivoca con x(t), denominato sua trasformata di
Hilbert. Il segnale analitico è dunque certamente rappresentativo di quello reale x(t), che infatti si
desume da ax(t) con la semplice relazione:
[3.5.4] x(t) = 0{ax(t)}.
È opportuno notare che mentre il segnale reale x(t) è ridondato nella sua rappresentazione in
frequenza, per definizione il corrispondente segnale complesso ax(t) non ha più tale caratteristica,
ma è invece ridondato nel tempo, essendo rappresentativa anche la sua sola parte immaginaria.
Seppure introdotto in base alla sua trasformata di Fourier, il segnale analitico risulta in
corrispondenza biunivoca con x(t) tramite relazioni nel dominio del tempo che sussistono anche se
non sono applicabili gli operatori di Fourier. Ciò permette di servirsi della rappresentazione
complessa con ax(t) anche nel caso di segnale di potenza, purché esso oltre che reale sia a valore
medio nullo, ossia valga la x =0.
3.5.1.2 Inviluppo complesso
Si consideri un segnale di energia reale x(t) a banda monolatera limitata, con estremi fm e fM, e la
sua rappresentazione tramite lo spettro Ax(f)=2X+(f) del segnale analitico (vedi [3.5.1]), che risulta
per definizione diverso da zero nel solo intervallo (fm, fM) e deve essere nullo nell’origine nel caso
di fm=0. Assunto come riferimento una frequenza nota fc arbitraria, purché appartenente al
menzionato intervallo (fm*fc*fM), si consideri poi lo spettro traslato Ax(f+fc), che in tal modo
comprende l’origine dell’asse delle frequenze, come mostrato nell’esempio in Figura 3.14.

Figura 3.14: Esempio di spettro di ampiezza dell’inviluppo complesso.


Risulta ancora completamente rappresentativa di x(t) la grandezza complessa nel dominio del
tempo definita tramite la antitrasformata di Fourier:
[3.5.5] !x(t) = ax(t) e- j!ct = F -1{Ax(f+fc)},
che assume la denominazione di inviluppo complesso rappresentativo o semplicemente inviluppo
complesso del segnale reale x(t).
Rammentando che si ha x(t)=0{ax(t)}, dalla definizione dell’inviluppo complesso si può ricavare
la importante relazione:
[3.5.6] x(t)=! {!x ( t ) e j"ct } ,

che permette di ricostruire in modo semplice il segnale reale x(t) a partire dal suo corrispondente
inviluppo complesso !x(t), una volta nota la frequenza arbitraria di riferimento fc.
L’andamento dello spettro X(f) del segnale è ottenibile da quello dell’inviluppo complesso,
Ix(f)=Ax(f+fc), con le operazioni di traslazione in frequenza della quantità fc, ribaltamento e
coniugio, evidenziate nella:
1
[3.5.7] X(f) = [ I x (f-fc ) + I!x (-f-fc ) ].
2
70
La precedente ricostruzione dello spettro è schematicamente illustrata in Figura 3.15, dove si può
notare come si ricavano i due addendi, riferendosi per semplicità solo ai moduli. In effetti I x ( f-fc )
si ottiene con una semplice traslazione in frequenza, mentre I!x (-f-fc ) richiede in aggiunta un
ribaltamento rispetto alla origine e un coniugio.

Figura 3.15: Esempio di spettro di ampiezza dell’inviluppo complesso (a) e di ricostruzione dello
spettro di ampiezza del segnale reale (b).
Si noti che mentre lo spettro X(f) è hermitiano, tale proprietà non è invece in generale soddisfatta
per Ix(f), a meno che non sia possibile scegliere un valore della frequenza fc per cui sia soddisfatta
la particolare condizione:
[3.5.8] X+(fc+f) = X!+ (fc-f),
nella quale il semispettro X+(f) risulta simmetrico in ampiezza e antimetrico in fase rispetto alla
frequenza fc. Risultando allora hermitiano lo spettro Ix(f), l’inviluppo complesso diviene reale.
Seppure introdotto in base alla trasformata di Fourier del segnale analitico, l’inviluppo complesso
risulta in corrispondenza biunivoca con il segnale analitico ax(t), e quindi con il segnale x(t),
tramite relazioni nel dominio del tempo che sussistono anche se non sono applicabili gli operatori
di Fourier. Ciò permette di servirsi della rappresentazione complessa tramite = x(t) anche nel caso di
segnale di potenza, purché esso oltre che reale sia a valore medio nullo.
3.5.1.3 Caratteristiche dell’inviluppo complesso
Si osserva innanzi tutto che la rappresentazione tramite l’inviluppo complesso consente di
estendere ai segnali la notazione complessa di Steinmetz, tipica della elettrotecnica, per la quale si
rammenta che si ha:
[3.5.9] a(t)=! { Ae j!ct } ,

dove il fasore complesso A=Aej , con modulo A e argomento 7 costanti reali, è rappresentativo
7

solo della funzione del tipo a(t)=A cos(%ct+7), armonica pura alla frequenza fc=%c/2!, di ampiezza
A e fase 7. Esplicitando un generico inviluppo complesso =(t) in modulo, |=(t)| = =(t), e argomento,
arg{=(t)}=7(t):
[3.5.10] =(t) = =(t) e
j!( t )
,
71
nel piano complesso 0,8 il segnale considerato può essere infatti raffigurato tramite un vettore
(vedi Figura 3.16): esso tuttavia non è più costante, come apparirebbe il fasore A, ma variabile nel
tempo.

Figura 3.16: Raffigurazione dell’inviluppo complesso nel piano complesso.


Sono ovviamente dipendenti dal tempo anche le coordinate del vettore che raffigura nel piano 0,8
l’inviluppo complesso, ossia la sua parte reale, 0{=(t)}=ac(t), e il coefficiente 8{=(t)} = as(t) della
sua parte immaginaria, per cui si ha la notazione:
[3.5.11] =(t) = ac(t) + jas(t),
L’energia dell’inviluppo complesso è uguale a quella del segnale analitico, poiché hanno spettri
che differiscono solo per la traslazione della quantità fc che non ha influenza nella espressione
della energia nel dominio della frequenza (vedi [3.3.42]). Tenuto conto di ciò e utilizzando la
[3.5.1] si ottiene:
!
2
[3.5.12] E =
== & !"1+sgn (f )#$ X (f ) X% (f ) df = 4 " E xx (f ) df ,
0

ossia l’energia dell’inviluppo complesso ha valore doppio di quella del segnale di cui è
rappresentativo:
[3.5.13] E = == " ! (t ) dt
2
= 2Exx;

tale risultato è in linea con la natura ridondata nel tempo, e non più nella frequenza, dell’inviluppo
complesso, analoga a quella del segnale analitico a cui è strettamente legato per definizione.
Inoltre, l’energia risulta dalla somma delle energie delle sue componenti reale ac(t) e immaginaria
ac(t); infatti a partire dalla [3.5.11] si ottiene:
[3.5.14] E =
== ! a (t ) dt + ! a (t ) dt
2
c
2
s = Eacac + Easas.

Alle due precedenti espressioni ne corrispondono altre analoghe per il caso di segnali reali di
potenza a valore medio nullo, ottenibili per semplice sostituzione delle energie con le potenze.
3.5.1.4 Segnali analitici sinistro e destro
Una volta indicate con x-(t)=F-1{X-(f)} e x+(t)=F -1{X+(f)} le rispettive antitrasformate delle due
porzioni dello spettro di x(t) che si estendono rispettivamente sul solo semiasse negativo o positivo
delle frequenze, essendo X(f)=X-(f)+X+(f) grazie alla linearità dell’operatore di Fourier si ha:
[3.5.15] x(t) = x-(t) + x+(t),
ossia anche nel dominio del tempo il segnale appare scomponibile in due segnali complessi,
denominati segnale analitico sinistro e segnale analitico destro.
Stante la relazione X-(f)= X!+ (-f ) che deriva dalla hermitianità della trasformata X(f), applicando
ad essa la proprietà di coniugazione nel tempo si ottiene:
72
[3.5.16] x-(t) = x!+ ( t ) ,

ossia i due segnali sono l’uno il coniugato dell’altro. Rammentando che si è posto Ax(f)=2X+(f), si
ha ax(t)=2x+(t) e quindi in base alla [3.5.3] si ottengono le relazioni:
1 1
[3.5.17] x+(t) = [x(t) + j x̂ ( t ) ], x-(t) = [x(t) - j x̂ ( t ) ] ;
2 2
i segnali analitici sinistro e destro sono dunque entrambi rappresentativi del segnale reale x(t). Si
hanno poi le relazioni di inversione:
[3.5.18] x(t) = 20{x-(t)} = 20{x+(t)},
che consentono di determinare in modo assai semplice il segnale reale x(t) una volta noto uno
qualsiasi dei due segnali complessi considerati.
Dato che per definizione gli spettri di x-(t) e x+(t) sono separati sull’asse delle frequenze, le densità
spettrali mutue di energia sono identicamente nulle; quindi i due segnali sono tra loro incorrelati e,
a maggiore ragione, ortogonali.
3.5.1.5 Trasformata di Hilbert
Nel paragrafo 3.5.1.1 è stata introdotto il segnale reale x̂ ( t ) , per cui si è posto (vedi [3.5.2] e
[3.5.3]):
[3.5.19] x(t) $ F-1{sgn(f)} = j x̂ ( t ) .

Applicando la proprietà di dualità alla espressione [3.3.30] risulta:


j
[3.5.20] F -1{sgn(f)} = ;
!t
si ottiene allora:
1
[3.5.21] x(t) $ F -1{sgn(f)} = jx(t) $ .
!t
Dal confronto con la relazione [3.5.19] si evince la definizione della trasformata di Hilbert di x(t):
1 1 x ( ")
[3.5.22] x̂ ( t ) = x(t) $ = # d" ,
!t ! t-"
che è un segnale reale completamente rappresentativo di x(t), di energia o di potenza se
quest’ultimo è rispettivamente dell’uno o dell’altro tipo.
Dalla [3.5.20] si ha direttamente:

[3.5.23] F {!jt } = sgn(f) ;


ammesso che x(t) sia un segnale di energia, applicando alla [3.5.22] l’operatore di Fourier e
servendosi della proprietà di convoluzione nel tempo, si ricava lo spettro della trasformata di
Hilbert x̂ ( t ) :

[3.5.24] X̂ ( f ) = - jsgn(f) X(f),

e si ha la relazione inversa,
[3.5.25] X(f) = jsgn(f) X̂ ( f ) .

Da quest’ultima passando al dominio del tempo si ottiene:


73
-1
[3.5.26] x(t) = x̂ ( t ) $ ;
!t
la trasformata inversa di Hilbert risulta allora espressa tramite la relazione:
-1 1 x̂ ( " )
[3.5.27] x(t) = x̂ ( t ) $ =- # d" ,
!t ! t-"
che è valida qualunque sia la natura, di energia o di potenza, del segnale.
Dalla [3.5.24] si ricava immediatamente l’uguaglianza | X̂ ( f ) | = |X(f)|, per cui il segnale e la sua
trasformata di Hilbert hanno lo stesso spettro di energia e, quindi, la stessa funzione di
autocorrelazione:
[3.5.28] E x̂x̂ ( f ) = Exx(f), Cxx(-) = C x̂x̂ ( ! ) .

Tenendo presente anche la [3.5.25], si determinano le seguenti relazioni a riguardo degli spettri
mutui di energia e delle funzioni di intercorrelazione:
[3.5.29] E xx̂ ( f ) = - E x̂x ( f ) = jsgn(f) Exx(f), C xx̂ ( ! ) = - C x̂x ( ! ) .

Posto -=0 nell’ultima relazione e tenuto conto che le funzioni di intercorrelazione sono reali, i
segnali x(t) e x̂(t) risultano ortogonali; dato che entrambi gli spettri mutui di energia sono
puramente immaginari, ossia si ha 0{ E xx̂ ( f ) }=0, i due segnali considerati sono poi anche
sommabili in spettro di energia (vedi [3.3.45]), oltre che in energia.
Si rammenta che la trasformata di Hilbert, come il segnale analitico, è applicabile anche ai segnali
reali di potenza, purché essi siano a valore medio nullo. In tale caso valgono le relazioni analoghe
alle [3.5.28] e [3.5.29], ottenute sostituendo le funzioni del tipo E(f) e C(! ) con le corrispondenti
del tipo W(f) e R(-); in particolare le densità spettrali mutue di potenza, Wx̂x ( f ) = Wx!x̂ ( f ) , sono
puramente immaginarie, ossia si ha 0{ Wxx̂ ( f ) }=0, per cui il segnale x(t) e la sua trasformata di
Hilbert x̂ ( t ) risultano sommabili in spettro di potenza (vedi [3.3.53]), oltre che in potenza.

3.5.1.6 Approfondimenti sull’inviluppo complesso


In base alla definizione dell’inviluppo complesso e rammentando la [3.5.3], si ottiene:
[3.5.30] ! (t) = [x(t) + j x̂ ( t ) ] e- j!ct ,

e separando le parti reale e immaginaria:


[3.5.31] ac(t) = x(t) cos(%ct) + x̂ ( t ) sin(%ct),

[3.5.32] as(t) = x̂ ( t ) cos(%ct) - x(t) sin(%ct).

Nel caso di segnale di energia, applicando l’operatore di Fourier alla [3.5.31] e servendosi della
[3.5.24] si ricava lo spettro di ac(t):
[3.5.33] Ac(f)=X(f) $ F{cos(%ct)} – j [sgn(f)X(f)] $ F{sin(%ct)} ;
essendo F{cos(%ct)}= [+(f - fc) + +(f + fc)]/2 e F{sin(%ct)}= - j [+(f - fc) - +(f + fc)]/2 si ha poi:
1 1
[3.5.34] Ac(f) = { X ( f )!"1-sgn ( f )#$} $+(f - fc) + {X ( f )!"1+sgn ( f )#$} $+(f + fc) =
2 2
= X-(f) $ +(f - fc) + X+(f) $ +(f + fc),
e per la proprietà fondamentale dell’impulso ideale risulta:
[3.5.35] Ac(f) = X-(f-fc) + X+(f+fc).
74
Procedendo in modo analogo a partire dalla [3.5.32] si ottiene:
[3.5.36] As(f) = j [X-(f - fc) – X+(f + fc)].
È immediato verificare che risulta, come deve:
[3.5.37] ! (f) = Ac(f) + jAs(f) = 2X+(f + fc) = A(f + fc).
Una volta riformulata in base alla hermitianità di X(f) la particolare condizione [3.5.8], che
diviene:
[3.5.38] X+(fc + f ) = X-(f - fc),
si constata immediatamente che dalla [3.4.36] si ha As(f)"0 e dalla [3.5.35] allora risulta:
[3.5.39] Ac(f) = 2X+(f + fc) = ! (f) ,
dimostrando la menzionata condizione affinché I(f) sia hermitiana, ossia l’inviluppo complesso
! (t) sia reale.
3.5.2 Rappresentazioni reali tramite l’inviluppo complesso

3.5.2.1 Segnali in banda traslata


Pur costituendo una rappresentazione di validità generale, l’inviluppo complesso è tipicamente
impiegato nel caso di segnali reali limitati in banda, sia di energia che di potenza, ottenuti a partire
da segnali in banda base tramite opportune trasformazioni che, basandosi sull’impiego effettivo di
una oscillazione armonica a frequenza fc, danno luogo a segnali elaborati con contenuti spettrali
non nulli solo in una banda attorno a tale frequenza. Nel seguito un segnale reale elaborato del tipo
menzionato, spesso distinto con la notazione s(t) e per cui si usa comunemente la rappresentazione
tramite l’inviluppo complesso (vedi [3.5.6]):
[3.5.40] s(t)=! {! (t)e j"ct } ,

viene denominato segnale in banda traslata.


Spesso il valore elevato scelto per fc nelle trasformazioni accennate conduce a valori molto piccoli
della banda relativa a valle dell’operazione e allora si ha un segnale in banda traslata stretta;
possono tuttavia esistere anche segnali in banda traslata ottenuti con valori di fc tali per cui, anche
dopo la trasformazione, l’estremo inferiore della banda risulta nettamente minore di quello
superiore, come accade per il segnale su cui è stato effettuato il trattamento: non si può quindi
escludere che un segnale in banda traslata sia del tipo in banda base.
3.5.2.2 Caratteristiche generali dei segnali in banda traslata
Si consideri un segnale reale s(t), del tipo in banda traslata, rappresentato tramite il suo inviluppo
complesso ! (t) , che in base alla collocazione del suo spettro di ampiezza può essere considerato un
segnale del tipo in banda base. Scomposto quest’ultimo in parte reale, ac(t), e parte immaginaria,
as(t), si ottiene dalla [3.5.40] la seguente particolare rappresentazione del segnale:
[3.5.41] s(t) = ac(t) cos(%ct) – as(t) sin(%ct).
Si noti che le due funzioni reali in banda base ac(t) e as(t) forniscono la valutazione della entità
variabile nel tempo delle due armoniche reali in quadratura alla frequenza fc=%c/2!; pertanto esse
sono rispettivamente denominate ampiezza istantanea in fase e ampiezza istantanea in
quadratura.
Servendosi della espressione dell’inviluppo complesso in modulo, =(t), e argomento, 7(t), ancora
dalla [3.5.40] si ricava una nuova forma del segnale in banda traslata, con espressione:
[3.5.42] s(t) = =(t) cos[%ct + &(t)],
75
dove la funzione reale &(t), definita anche oltre l’intervallo (0, 2! ) e introdotta per generalità della
rappresentazione, corrisponde all’argomento 7(t) a meno di un multiplo intero di angolo giro,
ossia si ha:
[3.5.43] &(t) = 7(t) + 2!n.
Dalla [3.5.42] si nota che il modulo =(t) dell’inviluppo complesso è una funzione che passa per
tutti i massimi relativi di s(t), negli istanti tn nei quali si verifica %ctn+&(tn)=2!n; perciò =(t) si
denomina inviluppo istantaneo o, brevemente, inviluppo del segnale in banda traslata; in Figura
3.17 è riportato un caso a titolo di esempio. Ancora dalla osservazione della [3.5.42], appare bene
giustificata la denominazione di fase istantanea del segnale in banda traslata, che viene attribuita
alla funzione &(t) strettamente legata all’argomento dell’inviluppo complesso. Anche le due
grandezze reali =(t) e &(t) possono essere considerati segnali del tipo in banda base.

Figura 3.17: Esempio di inviluppo di un segnale in banda traslata.


Sia la coppia di grandezze ac(t) e as(t) che compaiono nella forma [3.5.41], che quella delle
grandezze =(t) e &(t) che compaiono nella forma [3.5.42] sono entrambe separatamente in grado di
caratterizzare un segnale in banda traslata. Tra di esse sussistono le relazioni:
[3.5.44] ac(t) = =(t) cos[&(t)],
[3.5.45] as(t) = =(t) sin[&(t)],
e quelle corrispondenti di inversione:

[3.5.46] =(t) = !"a c2 ( t ) +a s2 ( t )#$ ,

! a (t) $ !
[3.5.47] &(t) = artg # s & + {1-sgn "#a c ( t )$%} + 2!n ;
" ac (t) % 2
l’ultima espressione, in cui si è assunta per la funzione polidroma arctg(x) la prima determinazione
nello intervallo (- !/2; !/2), fornisce il valore dell’argomento 7(t) dell’inviluppo complesso a meno
di un multiplo intero di angolo giro.
Come si avrà ampiamente occasione di constatare in seguito, in sede dei fondamenti della
modulazione, dando per nota la frequenza fc il contenuto informativo è tutto riconducibile alla
coppia dei segnali ac(t) e as(t), così come alla corrispondente coppia formata da =(t) e &(t). Si può
76
comunque verificare, in particolare, che una sola delle grandezze di una coppia sia responsabile
del trasferimento della informazione, come ad esempio nel caso di ampiezza istantanea unica, per
cui a meno di una inessenziale fase costante si può porre:
[3.5.48] sa(t) = ac(t) cos(%ct),
oppure nel caso di variabilità del solo inviluppo, tipicamente con fase costante nulla,
[3.5.49] s=(t) = =(t) cos(%ct),
o ancora di variabilità del solo argomento, tipicamente con inviluppo costante,
[3.5.50] s (t) = Accos[%ct + &(t)].
7

3.5.2.3 Caratteristiche particolari dei segnali a fase continua


Osservando l’espressione [3.5.47] della fase istantanea &(t), si nota che nell’istante in cui ac(t) si
annulla con inversione del segno la discontinuità di valore ! prodotta dal secondo addendo a
secondo membro compensa quella introdotta dal primo addendo, sempre che nello stesso istante
as(t) sia diversa da zero; la funzione &(t) risulta invece discontinua in ogni particolare istante in cui
avvenga la inversione di segno simultanea di entrambe le ampiezze istantanee, oppure di una sola
di esse nel caso che l’altra sia identicamente nulla, istante in cui necessariamente si annulla anche
l’inviluppo =(t) (vedi [3.5.46]). Altre manifestazioni di discontinuità nella fase istantanea si
possono ovviamente verificare in corrispondenza di discontinuità in ac(t) e as(t). In conclusione si
può avere un segnale a fase continua, caratterizzato da assenza di discontinuità nella funzione
&(t), se le ampiezze istantanee sono continue e l’inviluppo non è mai nullo (oppure si azzera, ma
senza inversione di segno delle ampiezze).
Si osserva che la frequenza fc di una oscillazione armonica può essere definita come la derivata
rispetto al tempo dell’argomento della funzione circolare, rapportata all’angolo giro. Nel caso di
un segnale in banda traslata a fase continua, oltre che alla funzione fase istantanea &(t), si può fare
riferimento alla frequenza istantanea del segnale, definita per estensione del caso armonico
tramite la:

1 d #$!c t+" ( t )%& 1 d! ( t )


[3.5.51] f(t) = = fc + .
2! dt 2! dt
Introdotta anche la deviazione istantanea di frequenza del segnale:
[3.5.52] >f(t) = f(t) - fc,
si ottiene la relazione:
1 d! ( t )
[3.5.53] >f(t) = .
2! dt
Essa mostra in generale la esistenza di un preciso legame a carattere lineare tra la deviazione
istantanea di frequenza e la fase istantanea del segnale a fase continua, in modo che ogni
trattamento che riguardi quest’ultima interessa anche la prima grandezza, e viceversa. Con
riferimento a >%(t)=2!>f(t) invece che a &(t), si può anche ottenere la seguente espressione del
segnale a fase continua:
t
[3.5.54] s(t) = =(t) cos $&! c t+ # !! ( t )dt ') .
% -" (
Si noti che così come è possibile osservare il valore della frequenza di una oscillazione armonica
tramite l’inverso del periodo, individuato dagli istanti consecutivi in cui l’andamento temporale
crescente attraversa l’asse delle ascisse, parimenti tramite gli inversi degli intervalli tra due
attraversamenti consecutivi crescenti dell’asse dei tempi di un segnale a fase continua, si possono
77
conoscere i valori mediati negli intervalli della frequenza istantanea, come mostrato nell’esempio a
inviluppo costante in Figura 3.18.

Figura 3.18: Esempio di segnale in banda traslata a inviluppo costante.


3.5.3 Rappresentazione tramite i campioni dell’inviluppo complesso

Nel caso di generico segnale reale strettamente limitato in banda, con frequenza massima fM e
minima fm/0, a prescindere che esso sia stato trasformato in segnale in banda traslata o che non
abbia subito tale tipo di elaborazione, è comunque valida la rappresentazione del tipo [3.5.41]:
[3.5.55] x(t) = ac(t) cos(%at) – as(t) sin(%at),
in cui viene scelta come riferimento per l’inviluppo complesso =(t) =ac(t)+jas(t) la frequenza
centrale fa=(fM+fm)/2 della banda monolatera.
Le ampiezze istantanee in fase e in quadratura, ac(t) e as(t), risultano allora segnali reali del tipo in
banda base con frequenza massima faM =fM - fa=B/2 e frequenza minima fam=0. Sono pertanto a
loro volta rappresentabili per interpolazione dei loro campioni, nelle forme:
! t $
[3.5.56] ai(t) = (kcik sinc # -k & , i = c, s,
" Ta c %
dove k è intero, i valori dei campioni sono dati dalle cik=ai(kTac) e l’intervallo di campionamento
rispetta la condizione:
1 1
[3.5.57] Tac< = .
2 fa M B
Assumendo comunque il massimo intervallo di campionamento consentito, la rappresentazione
applicata direttamente al segnale x(t) ne consente la ricostruzione a partire dalla sequenza dei
campioni a intervallo TN=1/2fM<1/2B, mentre quella applicata sulla parte reale e sul coefficiente
della parte immaginaria dell’inviluppo complesso richiede due sequenze di campioni invece di
una, ma con intervallo TaN=1/2faM=1/B almeno doppio, con risparmio del numero totale di
campioni necessari per unità di tempo. Tale risparmio è in pratica nullo se il segnale x(t) è del tipo
in banda base, per cui si può assumere B<fM, mentre diviene molto significativo nel caso di banda
relativa stretta, con B<<fa.
Come già accennato, si può presumere che ogni segnale fisico sia in pratica simultaneamente
limitato sia in durata T, che in banda B; da ciò deriva che esso è sempre rappresentabile con buona
approssimazione tramite un insieme finito di campioni reali. Il numero minimo N di tali elementi
rappresenta il numero dei gradi di libertà del segnale considerato; poiché in generale occorrono
due sequenze di campioni relativi all’inviluppo complesso, esso corrisponde al doppio del numero
intero che approssima il rapporto T/TaN. In definitiva risulta:
78
[3.5.58] N < 2BT,
indipendentemente dalla collocazione della banda del segnale sull’asse delle frequenze. Quanto
sopra evidenziato è assai rilevante per la valutazione della quantità di informazione che può essere
trasferita con un segnale.
79

4 ELEMENTI SUI SEGNALI DI SORGENTE


80
81

4.1 SEGNALI ANALOGICI O NUMERICI

Allo scopo di esaminare dal punto di vista informativo le caratteristiche dei segnali emessi da
terminali che operano come sorgenti, è opportuno soffermarsi brevemente sui flussi di
informazione che sotto forma di grandezze non elettromagnetiche possono accedere ai trasduttori
contenuti all’interno di tali sorgenti.
A seconda della natura della informazione è anzitutto possibile la suddivisione in due
fondamentali categorie:
• flussi di informazione continui, in cui si ha una grandezza non elettromagnetica che varia nel
tempo assumendo valori in un codominio continuo;
• flussi di informazione discreti, o flussi di dati, in cui si ha una successione temporale in istanti
discreti di simboli numerabili, come nel caso esemplare di caratteri a stampa.
In ragione dell’essenza del flusso di informazione generato, la forma d’onda emessa in
corrispondenza dalla sorgente si distingue allora in:
• segnale analogico, con andamento temporale analogo a quello del flusso informativo, ossia
con valore istantaneo proporzionale alla grandezza variabile con continuità;
• segnale numerico o digitale, con andamento temporale di vario tipo, ma emesso in modo da
essere comunque veicolo perfetto del flusso di dati.
In un segnale analogico di sorgente in generale ogni valore istantaneo è associato alla
informazione, in modo che il trasferimento ideale di quest’ultima non può che avvenire
consegnando al terminale destinatario la forma d’onda inalterata o una sua versione fedele
(totalmente correlata), con la eccezione della possibilità teorica di un andamento diverso, ma con
gli stessi campioni significativi, raramente perseguita sul piano pratico. Come si avrà occasione di
verificare in seguito, nel caso numerico si può invece ottenere il trasferimento ideale del flusso di
dati anche facendo pervenire al destinatario un segnale profondamente diverso da quello emesso
dalla sorgente.
La presente sezione si limita alla raccolta di alcuni elementi sui segnali analogici di sorgenti
sonore e di immagini, allo sviluppo di concetti basilari sui flussi di dati e sui corrispondenti segnali
numerici, nonché ad alcune considerazioni riguardanti la conversione di segnali analogici in forma
numerica.
4.2 ELEMENTI SUI SEGNALI ANALOGICI DI SORGENTE

4.2.1 Segnali sonori

È denominato segnale sonoro quello generato da un trasduttore acusto-elettrico, tipicamente un


microfono, capace di emettere la grandezza elettrica con dipendenza dal tempo analoga a quella di
un flusso di informazione variabile con continuità e giungente in forma di onda acustica alla
sorgente considerata; un tale segnale ha come utilizzatore finale un trasduttore elettro-acustico,
l’altoparlante oppure l’auricolare nel caso sia sufficiente un livello acustico molto basso. I segnali
sonori, del tipo analogico, sono modellizzabili come forme d’onda di potenza, a valore medio
nullo e con andamento continuo a carattere simmetrico, ossia con valori massimo e minimo uguali
in modulo.
Nelle telecomunicazioni i segnali sonori non sono tanto caratterizzati in ragione delle particolari
forme d’onda o potenze, assai mutevoli per le diverse voci (uomini e donne), le varie lingue o le
differenti possibili fonti musicali, quanto per la estensione che viene assegnata al loro spettro; è
noto infatti che le componenti spettrali udibili si estendono da una decina di Hz a circa 15.000 Hz,
ma spesso non appare necessaria la trasmissione dell’informazione sonora nell’intera banda
udibile. Come discusso in un successivo capitolo, la riduzione entro alcune bande di trasmissione
standardizzate, tipiche di un ridotto numero di diverse applicazioni, si ottiene tramite una
elaborazione lineare con taglio di banda, sia superiore che inferiore, ossia con opportuno filtro
passa-banda.
82
Il segnale sonoro a cui è assegnata la banda più stretta è il segnale telefonico. La densità spettrale
di potenza vocale W(f), relativa alla potenza totale W, ha una distribuzione del tipo mostrato in
Figura 4.1, ma ai fini del riconoscimento della persona che parla, ossia allo scopo di garantire
almeno la qualità commerciale in una conversazione tramite telefono, è sufficiente trasmettere le
sole componenti spettrali situate all’interno della banda telefonica netta, con estensione
monolatera da 300 Hz a 3.400 Hz, mentre la sola intelligibilità è ottenibile anche abbassando la
frequenza massima a 2.000 Hz. Spesso si fa riferimento alla banda telefonica lorda, con
estensione dallo zero fino a 4 kHz, con l’intento di definire l’intervallo entro il quale non devono
cadere componenti spettrali di eventuali altri segnali indesiderati.

Figura 4.1: Spettro di potenza di segnale vocale.


Maggiore è l’estensione spettrale del segnale audio, caratterizzato da una qualità gradevole
dell’ascolto, a cui si assegna una banda crescente in ragione della qualità desiderata. Nella
versione audio normale, tipica della radiodiffusione sonora classica, la banda si estende da 50 Hz
a 4.500 Hz; in quella audio musicale, tipica della radiodiffusione di qualità, lo spettro è più ampio
con estremo inferiore attorno a 30 Hz e superiore attorno a 12 kHz; infine, la banda più estesa è
quella del segnale ad alta fedeltà, con estremi all’esterno dell’intervallo da 20 Hz a 15 kHz.
4.2.2 Segnali di immagine

4.2.2.1 Segnale di immagine per scansione


Molti segnali di immagine, modellizzabili come segnali di potenza, derivano dalla interpretazione
analogica di una sequenza temporale di immagini ottiche fisse, operata all’interno del terminale di
sorgente da trasduttori con il metodo della scansione per righe. Come schematizzato in Figura 4.2,
un trasduttore ottico-elettrico esplora una alla volta ciascuna immagine piana per righe successive,
sufficientemente distanziate tra loro, muovendosi lungo ciascuna di esse a velocità v costante.

Figura 4.2: Immagine fissa sottoposta a scansione per righe.


Una prima grandezza caratteristica della operazione è il tempo di immagine, indicato con Tim,
somma del tempo di esplorazione di tutta l’immagine e del tempo morto necessario al fine di
predisporre il sensore alla scansione di una nuova immagine; la grandezza inversa fim=1/Tim è la
frequenza di immagine. Una seconda grandezza è il tempo di riga, indicato con H, in cui viene
83
esaminata una riga (tempo effettivo di riga) e si predispone il sensore alla scansione della riga
successiva (tempo morto di riga); la grandezza inversa fri=1/H è la frequenza di riga. Il rapporto
tra i due tempi, o l’inverso di quello tra le due frequenze considerate:
Tim fri
[4.2.1] N ! = ,
H fim
denominato numero di righe, è dunque maggiore del numero di righe effettive Ne in cui è
scomposta l’immagine, in ragione del tempo morto prima dell’inizio di una nuova scansione, così
che si può porre:
[4.2.2] Ne ! ?im N,
con ?im poco minore di uno. Similmente si pone per il tempo effettivo di riga:
!ri
[4.2.3] He ! ?ri H = ,
fri
ancora con ?ri poco minore di uno.
Supponendo per semplicità che il sensore emetta con continuità un segnale analogico di valore
istantaneo x(t) proporzionale a una sola grandezza ottica, ad esempio la luminosità dell’areola
osservata al momento, a seguito della scansione per righe si ottiene ad esempio un andamento del
tipo mostrato in Figura 4.3, in cui al nero (luminosità nulla) e al bianco (luminosità massima)
corrispondono il valore minimo (xm=xN=0) e massimo (xM=xB=AM) del segnale, mentre tramite
degli impulsi di cancellazione si impongono valori nulli in corrispondenza dei tempi morti di riga.

Figura 4.3: Esempio di un tratto di segnale ottenuto per scansione per righe.
Si può notare che nel segnale di immagine considerato, oltre alla componente di informazione
dovuta alla variazione di luminosità dell’areola istantaneamente esplorata, sono anche presenti una
componente continua, legata alla luminosità media della sequenza di immagini, e due serie di
componenti armoniche, con i periodi fondamentali Tim e H, ossia con frequenze multiple di quelle
di immagine e di riga. La estensione spettrale è solo teoricamente illimitata: è infatti possibile
determinare un estremo superiore di banda finito fM, sia ammettendo una risoluzione finita nella
scansione, sia assimilando le discontinuità dovute alla cancellazione con tratti di segnale a ripidità
forte, ma finita; il lettore interessato ad approfondire è inviato al paragrafo 4.2.2.2.
4.2.2.2 Larghezza di banda di segnale di immagine per scansione
Si osservi che la distanza d tra due righe scandite adiacenti fornirebbe la distanza di
campionamento in verticale dell’immagine se la riga fosse priva di spessore; in effetti poiché il
sensore opera con areola piccola, ma finita, si può ritenere che la risoluzione verticale
dell’immagine sia peggiore, assumendo per la distanza di campionamento la grandezza:
h
[4.2.4] dc =ˆ 2d= 2 ,
Ne
dove si rammenta che h è l’altezza dell’immagine. Imponendo la stessa risoluzione anche in
orizzontale, si ricava che il tempo necessario al sensore per coprire la distanza di campionamento
dc, ossia l’intervallo di campionamento del segnale, vale:
84
d d
[4.2.5] Tc = c = c H e ,
v b
dove v è la velocità di esplorazione di una riga, di lunghezza b pari alla base dell’immagine. La
frequenza massima della banda occupata dalla sola componente della informazione si ottiene
dunque dalla espressione:
1 1 b Ne 1 b !im 1 b !im 2
[4.2.6] fM = = = Nfri = N fim ,
2Tc 2 2 h H e 2 2 h !ri 2 2 h !ri
in cui la presenza di N 2 è legata alla bidimensionalità dell’immagine.
Tenuto conto della [4.2.1], dalla precedente espressione si ricava che grossolanamente risulta
fM@N fri ; se allora il numero di righe N è molto elevato, nella banda limitata da fM possono essere
contenute moltissime armoniche della frequenza di riga, in modo da potere senz’altro ritenere che
gli impulsi di cancellazione risultano assai ripidi. In definitiva la [4.2.6] fornisce dunque la
frequenza massima della banda del segnale considerato.
4.2.2.3 Segnale video in bianco e nero
Grazie alla persistenza delle immagini sulla retina dell’occhio umano è possibile sottoporre a
quest’ultimo una sequenza di diverse immagini fisse senza che sia percepita la discontinuità
nell’evoluzione della visione: è però necessario che sia fim > 15 Hz se si vuole ottenere la
sensazione di continuità del movimento e che si abbiano almeno 45 illuminazioni al secondo per
evitare il fastidio dello sfarfallio (variazione periodica di luminosità). Nel caso della televisione si
applica il metodo della scansione per righe interallacciate dell’immagine, che viene pertanto
suddivisa in due quadri, uno per le righe dispari, esplorato per primo, e l’altro per le righe pari,
esplorato successivamente. Nello standard analogico europeo si adotta la frequenza di immagine
fim=25 Hz, che consente una buona sensazione di moto continuo, a cui corrisponde una frequenza
di quadro doppia, sufficiente ad abolire lo sfarfallio.
Nel vecchio standard analogico europeo con b /h=4/3, il numero di righe N è pari a 625, così da
ottenere i valori:
fri = 15.625 Hz, H = 64 µs ;
il numero effettivo di righe Ne è stabilito pari a 585, mentre il tempo effettivo di riga He è 82% di
H, in modo che risulti:
?im = 0,935, ?ri = 0,82.
Con tali dati si ottiene una notevole estensione spettrale, con frequenza massima attorno a 5 MHz
(il lettore interessato può servirsi della [4.2.6]).
Nel caso di segnale in bianco e nero, il valore istantaneo del segnale x(t) uscente dal trasduttore,
denominato segnale di visione, è proporzionale alla luminosità dell’areola simultaneamente
esplorata, tranne che nei tempi morti necessari per i ritorni orizzontali e verticali, durante i quali si
hanno gli impulsi di cancellazione. Allo scopo di garantire il sincronismo al trasduttore in
ricezione che restituisce l’immagine nei tempi morti orizzontali, di durata 0,18 H=11,52 µs,
vengono inseriti degli impulsi di sincronismo di riga (vedi Figura 4.4), quasi rettangolari di durata
0,09 H con un livello corrispondente al nero (xN=0) e l’altro livello di valore minore (xm=Am<0,
con Am/AM=-3 /7), mentre nei tempi morti verticali tra un quadro e il successivo, di durata
0,064 /2fim=1,28 ms, vengono aggiunti altri segnali di sincronismo di quadro, composti da più
impulsi quasi rettangolari con i menzionati due livelli, 0 e Am<0. Il segnale così completato
costituisce il segnale video in bianco e nero.
Nel caso del colore la scansione è dello stesso tipo, ma con un sensore multiplo basato sulla
tricromia. Si hanno in effetti tre segnali simultanei differenti, che assieme al segnale di
sincronismo vengono manipolati in modo complesso per ottenere un segnale video a colori di tipo
compatibile, ossia usufruibile anche da un apparato solo predisposto per il segnale in bianco e
nero. Il segnale a colori è in effetti composto di un segnale di luminanza, che reca l’informazione
di luminosità e ha le stesse caratteristiche temporali e spettrali del segnale in bianco e nero, e da
85
una coppia di segnali di crominanza che vengono elaborati e addizionati al precedente con una
opportuna tecnica, che ne permette la separazione e la restituzione individuale, pure
condividendone la banda, che resta dunque di estensione invariata.

Figura 4.4: Impulsi di sincronismo inseriti nelle cancellazioni.


I segnali video oltre ad una componente continua hanno delle componenti spettrali che si
estendono fino alla frequenza zero, senza le quali si perderebbe l’informazione lentamente
variabile relativa alla luminosità media della scena; nella pratica è tuttavia possibile trasmettere i
segnali video abolendo la parte più bassa del loro spettro, purché al di sotto di fIM=25 Hz, così da
ottenere fm>0: è infatti possibile ripristinare i livelli assoluti del segnale originario in base alla
misura dell’altezza degli impulsi di sincronismo del segnale trasmesso con limitazione inferiore di
banda, dato che l’altezza considerata è una grandezza determinata.

4.3 ELEMENTI SUI SEGNALI NUMERICI DI SORGENTE

4.3.1 Flussi sincroni di dati e sequenze numeriche

Si consideri una sorgente di informazione che generi un flusso sincrono di dati D(n) costituito
dalla successione regolare, a intervallo temporale costante T, di simboli Dk che appartengano a un
insieme discreto numerabile e finito {Dq}, con q=1, 2,.., M. Tale insieme dei simboli, denominato
alfabeto M-nario per essere M'2 la sua cardinalità, può essere qualsiasi, come ad esempio
l’alfabeto delle lettere latine, l’insieme dei caratteri di una tastiera o, nel frequente caso M=2,
l’alfabeto binario composto dalle cifre binarie, o bit, corrispondenti ai numeri 0 e 1.
Una volta stabilita una corrispondenza biunivoca tra i simboli dell’alfabeto della sorgente e un pari
numero di diversi valori di segnale, indicata con la notazione
[4.3.1] {Dq} ; {xq}, q=1, 2,.., M,
al flusso di informazione D(n) può essere associata una sequenza reale x(n) in cui il generico
campione xk assuma uno dei valori dell’insieme {xq}, ovviamente anch’esso discreto numerabile e
finito; in tale modo si ottiene una sequenza a valori discreti, o sequenza numerica, che può essere
pensata come veicolo dei simboli del corrispondente flusso sincrono di dati, con la sua stessa
temporizzazione.
Poiché si ha un nuovo simbolo ad ogni intervallo di tempo costante T, tale grandezza, caratteristica
comune del flusso di dati e della sequenza numerica, viene denominata tempo di simbolo; la
grandezza inversa,
1
[4.3.2] R = ,
T
che fornisce il numero di simboli per unità di tempo del flusso di informazione, così come il
numero di campioni reali discreti per unità di tempo dalla corrispondente sequenza numerica, si
denomina allora ritmo di simbolo. Nel caso di alfabeto binario, l’intervallo precisabile con Tb è
denominato in particolare tempo di bit e la grandezza inversa,
86
1
[4.3.3] Rb = ,
Tb
che fornisce il numero di bit per unità di tempo del flusso di informazione, così come il numero di
campioni reali binari per unità di tempo dalla corrispondente sequenza numerica, è allora il ritmo
di bit. L’unità di misura di quest’ultimo è il bit al secondo per cui si usa la notazione bit/s; spesso
si impiegano i suoi multipli, ossia kbit/s (103), Mbit/s (106) e Gbit/s (109).
4.3.2 Segnali multilivello di sorgente

Le sequenze numeriche x(n) essendo segnali a tempo discreto sono assai utili sul piano logico, ma
restano grandezze astratte. Da esse è però immediato dedurre una tipologia delle forme d’onde a
cui realmente possono tendere i segnali numerici a tempo continuo emessi da terminali in cui la
sorgente di informazione genera un flusso sincrono di dati: ipotizzando l’impiego di semplici
circuiti elettronici a scatto istantaneo e tenuta per un tempo T, si hanno tipicamente in uscita dai
terminali dei segnali sincroni a gradini del tipo:
!t $
[4.3.4] x(t) = (k xk rect # -k & ,
"T %
nei quali ogni campione discreto xk della sequenza si manifesta concretamente tramite un livello di
segnale avente pari valore, che si conserva costante per tutto un tempo di simbolo T. La forma
sincrona del tipo [4.3.4] viene spesso denominata in generale segnale multilivello; con riferimento
alla cardinalità M, si hanno poi i casi particolari di segnale binario (M=2), segnale ternario
(M=3), segnale quaternario (M=4) e così via.
Stante lo stretto legame tra un segnale multilivello e la corrispondente sequenza numerica il ritmo
di simbolo R, o il ritmo binario Rb, e il tempo di simbolo T, o il tempo di bit Tb, sono grandezze
caratteristiche anche del segnale multilivello, o del segnale binario.
A titolo di esempio, in Figura 4.5a è mostrato un tratto di segnale quaternario, mentre in Figura
4.5b è riportata la corrispondente stringa del flusso di simboli; è immediato verificare che la
corrispondenza biunivoca [4.3.1] si particolarizza nelle associazioni: D1;x1=-3, D2;x2=-1,
D3;x3=1, D4;x4=3.

Figura 4.5: Esempio di un tratto di un segnale multilivello.


I segnali multilivello in quanto ottenibili combinando linearmente impulsi rettangolari unitari
traslati nel tempo (vedi [4.3.3]) hanno estensione spettrale teoricamente illimitata, ossia sono
ideali. Per effetto della limitazione pratica della banda, i segnali numerici concretamente emessi
dalle sorgenti che operano in ba se a flussi sincroni di dati hanno andamenti che si discostano
lievemente da quelli ideali, con transizioni ripide in luogo delle discontinuità e valori quasi
costanti per ogni tempo di simbolo (vedi Figura 4.6); la banda effettiva risulta limitata ma
comunque molto estesa, con estremo superiore fM di gran lunga maggiore dell’inverso di T.
I segnali multilivello, o meglio i segnali numerici che li assimilano bene, hanno forme che bene si
adattano al loro trattamento nell’ambito di un singolo apparato, essendo poco critico il
riconoscimento dei livelli tramite campionamento effettuato in presenza di errori negli istanti di
lettura; sono invece difficili da gestire nella loro trasmissione a distanza, poiché in molti casi
87
imporrebbero requisiti di banda troppo severi in ragione dell’impiego economico dei mezzi
trasmissivi. Come trattato in un successivo capitolo, è possibile ottenere forme diverse di segnali
numerici, con estensione spettrale ridotta, senza che si abbia degradazione dei flussi di dati
associati.

Figura 4.6: Esempio di un tratto di un segnale numerico di sorgente.


Nella pratica della trasmissione il segnale da trasferire è assai spesso di tipo binario, dato che nei
terminali di sorgente è frequente l’impiego di particolari trattamenti, che esulano dallo scopo del
testo e sono denominati metodi di codifica di sorgente, che tra l’altro convertono gli alfabeti M-
nari in quello binario.
4.3.3 Segnali binari di sorgente

Spesso si usa una corrispondenza biunivoca tra i simboli sq dell’alfabeto, con cardinalità
esprimibile tramite la
MS=2S
e le altrettante parole binarie di S cifre binarie o bit (0 e 1); ad esempio
s1;00, s2;01, s3;10, s4;11.
Essendo S intero, il numero Ms vale 2 o 4, 8, 16, 32, 64, ecc.
Al flusso di dati s(n), con tempo di simbolo Ts, risulta così associato un flusso binario b(n) con
tempo di bit Tb ! TS/S, con Tb"TS
La grandezza inversa Rb!RS si denomina ritmo binario e si misura in bit/s.
Ponendo ad esempio x1;0, x2;1, al flusso s(n) risulta associata una sequenza binaria x(n) con
TS=kTb; passando alla forma a tempo continuo si ha poi il segnale binario di sorgente.
Il tempo di bit Tb e il ritmo binario Rb sono grandezze caratteristiche anche del segnale binario.
Ovviamente un segnale binario è il caso particolare di un segnale multilivello per la cardinalità di
alfabeto M=2. Nell’esempio in Figura 4.7 si è assunto:
s1 ; 000 s2 ; 001 s3 ; 010 s4 ; 011
s5 ; 100 s6 ; 101 s7 ; 110 s8 ; 111
bit 0 ; x1=0 bit 1 ; x2=A

Figura 4.7: Segnale binario di sorgente


88
4.3.4 Segnali numerici sincroni e asincroni

I segnali multilivello espressi tramite la serie temporale [4.3.4] hanno tutti la proprietà di
conservare sempre inalterato l’intervallo temporale tra addendi adiacenti: a ciascuno di essi spetta
pertanto l’attributo sincrono, aggettivo che di norma viene sottinteso stante la rarità dei casi in cui
viene a mancare la menzionata proprietà. Tuttavia, quando si verifica i segnali numerici vengono
detti asincroni. In tale secondo tipo di segnali non è possibile fare riferimento a un unico
intervallo temporale, dato che si ha la più generale rappresentazione:
! t-t $
[4.3.5] xa(t) = (k xk rect # k & ,
" Tk %
dove gli istanti tk si succedono senza essere più vincolati dalla regolarità. In luogo del ritmo di
simbolo, si considera allora la velocità di segnalazione:
1
[4.3.6] RV = ,
TV
essendo TV il minimo valore degli intervalli tk-tk-1. L’unità di misura di RV è il baud, che esprime
il numero massimo di simboli veicolabili dal segnale asincrono nella unità di tempo.
Un esempio di segnale asincrono binario è quello mostrato in Figura 4.8a, corrispondente allo
storico messaggio S O S (tre punti, tre linee, tre punti) nell’alfabeto di Morse. Un caso attuale,
ancora binario, è invece quello esemplificato in Figura 4.8b, relativo alla emissione di caratteri di
tastiera che avviene come successione asincrona, con tempi di inizio casuali, di brevi segnali di
energia associati a stringhe di pochi bit (il bit iniziale, o start, e quello finale, o stop, sono sempre
invariati, mentre la parola costituita dagli 8 bit intermedi di ciascuna stringa è tipica del carattere).

Figura 4.8: Esempi di tratti di segnali asincroni binari.


89

5 SEGNALI NEI BIPOLI E QUADRIPOLI LINEARI


90
91

5.1 TRASFORMAZIONI LINEARI FRA SEGNALI TEMPO CONTINUI

Con riferimento a quanto già introdotto nel paragrafo 3.3.1, si richiama la seguente espressione di
una generica trasformazione lineare:
[5.1.1] T{x(v), z} = ! x (v) h (z, v) dv = (x (v), h (z, v)) ,
n
!
n

che agendo su un operando x(v), funzione complessa di una variabile indipendente continua e
reale v, conduce alla trasformata, funzione complessa di una variabile indipendente continua z.
Assumendo che l’operando sia un segnale x(v) tempo continuo (v=t) e che la trasformata sia una
funzione ancora della variabile indipendente reale t, si ottiene specificatamente una
trasformazione lineare fra segnali tempo continui:
[5.1.2] y(t) " T{x(v), t} = ! x (v) h (t,v) dv = (x (v), h (t, v)) ,
n
!
n

dove per non generare confusione la variabile temporale in entrata è rimasta indicata con la
notazione v. Tale tipo di trasformazione è tipicamente quella che un segnale in entrata, o
eccitazione, subisce nella interazione con un sistema lineare, che ne fornisce una versione
trasformata in uscita, denominata risposta.
Un sistema lineare eccitato con l’impulso ideale all’istante v0 fornisce la risposta:
[5.1.3] " ! (v-v ) h (t,v) dv = hn(t, v0);
0 n

il nucleo della trasformazione calcolato nel valore v0 è allora interpretabile come la risposta
all’impulso ideale applicato in tale istante. In particolare, assunta in entrata l’eccitazione +(v) con
v0=0, si denomina risposta impulsiva il corrispondente segnale in uscita (vedi Figura 5.1), indicato
con:
[5.1.4] h(t) = hn(t, 0).

Figura 5.1: Risposta impulsiva h(t) e risposta all’impulso ideale applicato al tempo v0.
Una trasformazione fra segnali può godere anche della proprietà della tempo invarianza o
invarianza alla traslazione che si verifica qualora ad un segnale di ingresso corrisponde,
indipendentemente dall’istante di applicazione del segnale di ingresso stesso, sempre la stessa
risposta, a meno di una traslazione della stessa entità di quella del segnale di ingresso.
Nel caso di trasformazione lineare tempo invariante (LTI) ovvero lineare invariante alla
traslazione (LIT) i parametri caratterizzanti l’operatore sono fissi nel tempo e si ha la proprietà
della sostanziale immutabilità temporale dell’effetto, ossia a una eccitazione traslata di un tempo
generico t0 corrisponde sempre la stessa risposta a meno della traslazione della stessa quantità.
Allora la risposta hn(t, v) all’impulso ideale al generico tempo v deve coincidere con la risposta
92
impulsiva a meno della traslazione della quantità v, in modo che risulti la particolare espressione
del nucleo (vedi Figura 5.1, con v=v0):
[5.1.5] hn(t, v) = h(t-v).
Una trasformazione LTI fra segnali può essere dunque espressa nella forma:
[5.1.6] y(t) = ! x (v) h (t-v) dv = (x (v), h (t-v)) ,
!

ossia la risposta è il risultato della operazione di convoluzione (vedi [2.1.11]) tra il segnale di
eccitazione x(t) e la risposta impulsiva h(t):
[5.1.7] y(t) = h(t)$x(t).
Di norma, considerata una risposta impulsiva con durata D non nulla e almeno praticamente finita,
la trasformazione [5.1.6] mostra che il valore istantaneo y(t) della risposta al tempo t risulta dalla
interpolazione di tutti i valori istantanei del segnale in entrata x(v) in corrispondenza
dell’intervallo temporale, di estensione D, in cui è diversa da zero la funzione h(t-v) (vedi Figura
5.2); perciò si assume che una trasformazione LTI sia in generale del tipo con memoria.

Figura 5.2: Valore istantaneo y(t) della risposta calcolato tramite la interpolazione continua dei
valori della eccitazione x(v) con i valori della funzione h(t-v).
Un caso particolare molto significativo è quello di trasformazione LTI priva di memoria,
caratterizzata da una risposta impulsiva di durata infinitesima g+(t-t0), con g e to costanti, ossia con
nucleo h(t-v)=g+(t-v-t0); si verifica immediatamente che le risposte sono segnali fedeli:
[5.1.8] y(t) = " x (v) g! (t-v-t ) dv = gx(t-t0),
0

in cui per ricostruire ciascun valore istantaneo in uscita è sufficiente un solo corrispondente valore
istantaneo in entrata.
Si rammenti infine che nella generica trasformazione lineare tempo variante la risposta hn(t, v)
all’impulso ideale al generico tempo v non gode più della proprietà di rimanere invariata a meno
della traslazione della quantità v.
5.1.1 Considerazioni sulla natura elettrica dei segnali

5.1.1.1 Tensione diretta e tensione riflessa


Si consideri il trasferimento elementare della informazione in una generica sezione di un sistema
di trasmissione in cui la connessione tra le due parti sia realizzata con una coppia di fili metallici.
Come schematizzato in Figura 5.3, le parti del sistema a monte e a valle della connessione possono
essere rappresentate rispettivamente da un bipolo generatore G e da un bipolo utilizzatore U,
mentre nella sezione si può evidenziare la coppia di grandezze reali costituita dalla tensione v(t)
tra i due fili di connessione e la corrente i(t) entrante in uno di essi e uscente dall’altro. Si noti che
sia la tensione che la corrente concorrono al trasferimento della informazione, in modo che in
generale è doveroso considerare in ogni sezione di un sistema di trasmissione una coppia di
grandezze reali funzioni del tempo.
93

Figura 5.3: Rappresentazione di una connessione bifilare in generale (a) e nel caso di adattamento
ideale (b).
L’informazione risulta correttamente trasferita da una parte all’altra del sistema di trasmissione se
è rispettata nella connessione la condizione di adattamento ideale, secondo la quale il generatore è
una sorgente di f.e.m. eg(t) con resistenza interna costante, reale e positiva R e l’utilizzatore è
rappresentabile con una resistenza di pari valore (vedi Figura 5.3b). Infatti, in tale situazione si ha
v(t)=Ri(t)=eg(t)/2, per cui v(t) e i(t) non solo risultano proporzionali, e quindi fedeli tra loro, ma
sono anche fedeli a eg(t); si ottiene inoltre il massimo trasferimento di potenza, ossia la potenza
istantanea w(t)=v(t) i(t) è tutta assorbita dall’utilizzatore. Nella condizione di adattamento ideale, ai
fini della informazione si può dunque fare riferimento a una sola delle due grandezze nella sezione
considerata.
Si consideri il caso, schematizzato in Figura 5.4, in cui il generatore sia ideale e invece non lo sia
l’utilizzatore, per cui si ammetta comunque la rappresentazione tramite un bipolo passivo LTI
(Lineare Tempo Invariante), caratterizzato con la impedenza Z(f)/R. La connessione non avviene
più in modo ideale: venendo a cadere la relazione di proporzionalità tra v(t) e i(t), non si può
assumere infatti né che le grandezze siano segnali tra loro fedeli, né che siano fedeli alla f.e.m.
eg(t).

Figura 5.4: Connessione bifilare con generatore ideale e utilizzatore LTI.


Con riferimento alla Figura 5.4, si nota che la f.e.m. eg(t) si ripartisce nella caduta di tensione Ri(t)
sulla resistenza interna del generatore ideale e nella tensione v(t) ai capi del bipolo utilizzatore,
ossia si ha eg(t)=Ri(t)+v(t); risulta allora che qualsiasi combinazione lineare di v(t) e i(t) nella
forma k[v(t)+Ri(t)], con k costante reale, è fedele rispetto alla f.e.m eg(t), indipendentemente dalla
impedenza Z(f) dell’utilizzatore. In base a tale considerazione si è indotti a definire nella sezione
di connessione la coppia di grandezze reali:
1 1
[5.1.9] vd(t) = [v(t) + R i(t)], vr(t) = [v(t) - R i(t)],
2 2
in cui la prima risulta comunque fedele alla f.e.m. eg(t), rivelandosi come la grandezza
significativa per il trasferimento della informazione, mentre la seconda addirittura si annulla nella
condizione di connessione ideale (Z(f)=R), mostrando di essere associata allo scostamento da tale
situazione. Le [5.1.9] per inversione forniscono le relazioni:
[5.1.10] v(t) = vd(t) + vr(t), i(t) = id(t) + ir(t),
dove si è posto
1 1
[5.1.11] id(t) = vd(t), ir(t) = - vr(t).
R R
Servendosi delle precedenti relazioni, la potenza istantanea ceduta al bipolo utilizzatore passivo
LTI assume l’espressione:
[5.1.12] w(t) = [vd(t) + vr(t)][id(t) + ir(t)] = vd(t) id(t) + vd(t) ir(t) + vr(t) id(t) + vr(t) ir(t) =
94
1
= [ v 2 ( t ) - vd(t) vr(t) + vr(t) vd(t) - v 2r ( t ) ] = wd(t) + wr(t),
R d
avendo posto:
1 2 1 2
[5.1.13] wd(t) = v d ( t ) , wr(t) = - v (t) .
R R r
Si nota che la potenza istantanea wd(t) è sempre positiva, ossia la grandezza significativa vd(t)
fornisce in modo immediato tramite la prima delle [5.1.13] la potenza che in ogni istante la
sorgente invia all’utilizzatore, mentre la potenza istantanea wr(t) è sempre negativa, così che vr(t) è
responsabile della estrazione dall’utilizzatore della potenza che le compete in base alla seconda
delle [5.1.13]. Da ciò derivano le denominazioni di tensione diretta e tensione riflessa,
rispettivamente per le grandezze vd(t) e vr(t) in cui è stata scomposta la tensione v(t) nella sezione.
5.1.1.2 Segnale diretto e segnale riflesso
Le grandezze v(t) e i(t), e parimenti la coppia vd(t) e vr(t), perdono significato nel caso in cui la
connessione sia materialmente realizzata con una struttura in cui non sia ammessa la propagazione
del campo elettromagnetico con modo TEM (TEM=Trasverso Elettrico e Magnetico), ossia con
vettori elettrico e magnetico ortogonali tra loro e giacenti entrambi sul piano della sezione, come
invece avviene di norma se la struttura è costituita da due conduttori tra loro isolati. La menzionata
perdita di significato si verifica, ad esempio, se nella sezione di connessione si ha la
configurazione tipica di una fibra ottica o di una guida d’onda metallica.
Con riferimento del tutto generale alla coppia degli effettivi modi elettromagnetici che nella
sezione sono responsabili l’uno della propagazione diretta, con onda progressiva dal generatore
all’utilizzatore, e l’altro della propagazione riflessa, con onda regressiva nel verso opposto, sono in
ogni caso definibili con pieno senso fisico le rispettive potenze istantanee: quella diretta wd(t),
sempre positiva, e quella riflessa wr(t), sempre negativa. Allo scopo della più ampia generalità è
dunque opportuno servirsi della coppia di grandezze reali definite mediante le:
[5.1.14] xd(t) = wd ( t ) , xr(t) = -wr ( t ) ,

aventi come unità di misura la radice quadrata del Watt, che sono denominate rispettivamente
segnale diretto e segnale riflesso nella sezione considerata.
Nel caso della connessione ideale che si verifica in assenza di potenza istantanea riflessa
dall’utilizzatore, ossia con wr(t)"0 e w(t)"wd(t), si ottiene:

[5.1.15] xd(t) = w ( t ) , xr(t) = 0,

dove xd(t) è il segnale significativo per il trasferimento della informazione e xr(t), indicativo dello
scostamento dalla connessione ideale, è nullo.
Qualora abbiano significato fisico le tensioni diretta e riflessa, tramite le [5.1.13] si hanno le
semplici relazioni:
±1 ±1
[5.1.16] xd(t) = v d ( t ) , xr(t) = vr (t) ,
R R
in cui la indeterminazione del segno è inessenziale, alla luce delle considerazioni sui segnali fedeli.
Tramite le definizioni [5.1.9] si ottengono poi anche le seguenti espressioni dei segnali in funzione
di v(t), i(t):
1! 1 $ 1! 1 $
[5.1.17] xd(t) = # v ( t ) + Ri ( t )& , xr(t) = # v ( t ) - Ri ( t )& ,
2" R % 2" R %
che mostrano come i segnali diretti e riflessi siano ancora una combinazione lineare a coefficienti
costanti della tensione e della corrente nella sezione di connessione.
95
La scelta della coppia dei segnali diretto e riflesso, con la natura specificata nelle definizioni
immediatamente precedenti, gode dei seguenti vantaggi:
• i segnali diretto e riflesso sono grandezze omogenee, di validità generale;
• il segnale diretto xd(t), unico presente nella connessione ideale con wr(t)"0, assume il ruolo di
segnale utile nella sezione;
• il segnale riflesso xr(t), identicamente nullo nella connessione ideale, evidenzia lo scostamento
dal caso ideale, si rivela come segnale indesiderato nella sezione;
• la potenza elettrica istantanea trasferita nella sezione ha in generale la semplice espressione
w(t)= xd2 (t) - xr2 (t) , che in condizione ideale si riduce alla:

[5.1.18] w(t) = x d2 ( t ) , per xr(t) " 0.


Si ha inoltre la più semplice e più generale rappresentazione grafica unifilare mostrata in Figura
5.5a, con indicazione della via su cui avviene la connessione tra generatore e utilizzatore, nei quali
è sempre possibile individuare una porta di entrata o di uscita, mentre non ha sempre significato
fisico la identificazione di una coppia di poli a cui si attestano conduttori. In tale rappresentazione
l’idealità della connessione, che assai spesso si ritiene sia soddisfatta, può essere sinteticamente
indicata omettendo il segnale riflesso e abolendo il pedice nella notazione del segnale diretto (vedi
Figura 5.5b).

Figura 5.5: Rappresentazione di una connessione con schema unifilare, nel caso generico (a) e in
condizione di connessione ideale (b).
Nel seguito si farà pertanto riferimento prevalente a segnali con natura elettrica corrispondente alla
radice quadrata della potenza istantanea da essi veicolata e, a meno che non sia esplicitamente
formulato il contrario, si riterrà soddisfatta la condizione di connessione ideale. Quanto sopra sarà
inoltre esteso ai segnali complessi.

5.2 TRASFORMAZIONI LTI NEI BIPOLI

5.2.1 Risposta riflessa nei domini del tempo e della frequenza

Nello sviluppo di alcune considerazioni basilari sulle trasformazioni LTI fra segnali è opportuno
iniziare da quella più elementare, che si compie in un sottosistema elettrico con una unica sezione
di accesso, o porta, rappresentato come mostrato in Figura 5.6, dove si è fatto ricorso allo schema
con via di accesso su cui si ha la coppia di segnali diretto e riflesso. Nel seguito un sottosistema a
una porta, in base alla sua rappresentabilità con un bipolo equivalente, verrà spesso denominato
bipolo anche qualora non abbia significato fisico l’individuazione di una coppia di poli di accesso.
I segnali possono essere entrambi di energia o di potenza; si usano le notazioni x(t) per quello
diretto, con veste di segnale entrante di eccitazione, e y(t) per quello riflesso, con veste di segnale
uscente, o risposta.

Figura 5.6: Schema di un bipolo, con segnale diretto di eccitazione x(t) e segnale riflesso di
risposta y(t).
96
Assunto che il sottosistema considerato riguardi il lato utilizzatore a valle di una generica sezione
di un sistema di trasmissione, si formula l’ipotesi che il bipolo rappresentativo abbia natura
passiva, lineare e caratterizzata con parametri fissi nel tempo; la risposta riflessa y(t) risulta quindi
associata alla eccitazione x(t) tramite una trasformazione fra segnali di tipo lineare tempo
invariante (LTI).
È noto (vedi paragrafo 5.1.1) che nel caso in cui il bipolo LTI sia connesso a un generatore con
resistenza interna equivalente reale e costante R, nella condizione ideale di impedenza del bipolo
utilizzatore uguale a R, si ha y(t)"0 per qualsiasi x(t), ossia non si ha alcuna risposta riflessa;
altrimenti si ha un segnale trasformato con espressione:
[5.2.1] y(t) = " x (v) h (t-v) dv
! = h (t)$x(t),
A

dove sotto il segno di integrale la variabile temporale in entrata è stata indicata con v. Il segnale
riflesso è dunque ottenibile tramite la operazione di convoluzione tra il segnale diretto x(t) e la
risposta impulsiva riflessa h (t); quest’ultima funzione, che caratterizza il bipolo LT I nel dominio
A

del tempo in riferimento alla resistenza R, è definita come il segnale riflesso corrispondente alla
eccitazione con l’impulso ideale all’istante v=0 [y(t)"h (t) per x(v)"+(v)], generato da una sorgente
A

con resistenza interna R.


La trasformazione [5.2.1], di norma del tipo con memoria, è una operazione applicabile tanto nel
caso di segnale di eccitazione di energia, quanto in quello di potenza, con risposta rispettivamente
dell’uno o dell’altro tipo.
Un bipolo passivo LT I si denomina fisicamente realizzabile se la sua risposta impulsiva riflessa è
reale, appartiene allo spazio funzionale L1 ed è inoltre causale, ossia risulta h (t)=0 ! t<0; si
A

denomina invece idealmente realizzabile se viene meno la sola causalità delle risposta. Nel caso di
bipolo LT I realizzabile, sia idealmente che fisicamente, esiste la trasformata di Fourier della
risposta impulsiva riflessa:
[5.2.2] A(f) = F{h (t)},A

anch’essa funzione caratteristica del bipolo considerato in riferimento alla resistenza R, ma nel
dominio della frequenza. Supposto che esista la trasformata di Fourier X(f) del segnale di
eccitazione x(t) di un bipolo passivo LTI, applicando alla espressione [5.2.1] della trasformazione
la proprietà di convoluzione nel tempo si ottiene la corrispondente relazione nel dominio della
frequenza:
[5.2.3] Y(f) = F{h (t)}X(f) = A(f)X(f).
A

Tenuto conto che l’eccitazione x(t) è il segnale diretto e che la risposta y(t) è il segnale riflesso, la
funzione A(f) viene allora denominata coefficiente di riflessione del bipolo.
Ammesso che h (t) sia reale, il coefficiente di riflessione gode della proprietà:
A

[5.2.4] A(f) = !" (-f ) ,

ossia A(f) è una funzione hermitiana, con modulo pari e argomento dispari; è dunque esauriente la
sua conoscenza sul solo semiasse positivo della frequenza.
In condizione di adattamento ideale nella sezione di connessione la risposta riflessa y(t) è
identicamente nulla per qualsiasi eccitazione x(t): ne segue che il bipolo deve avere risposta
impulsiva riflessa h (t)"0, ossia coefficiente di riflessione A(f)"0 nell’intero dominio della
A

frequenza. La h (t)"0 è condizione sufficiente, ma non necessaria, al fine di ottenere y(t)"0; infatti
A

nel caso di segnali entranti di tipo limitato in frequenza, con banda monolatera estesa da fm a fM,
essendo nulle le componenti spettrali all’esterno della banda la risposta riflessa è identicamente
nulla, purché risulti soddisfatta la condizione assai meno severa:
[5.2.5] A(f) = 0, ! f " ( fm ; fM ) .
97
Si noti che in tale condizione di adattamento perfetto nella sezione di connessione la risposta
impulsiva riflessa del bipolo è di norma non identicamente nulla.
5.2.2 Relazione tra coefficiente di riflessione e impedenza

Qualora abbiano significato fisico le grandezze tensione e corrente ai capi del bipolo passivo
rappresentativo del sistema utilizzatore, può tornare utile la conoscenza del legame intercorrente
tra il coefficiente di riflessione A(f) e la impedenza Z(f), anch’essa funzione caratteristica del
bipolo nel dominio della frequenza.
Rammentando le relazioni esistenti tra i segnali diretto xd(t) e riflesso xr(t) e la coppia tensione v(t)
e corrente i(t) ai capi del bipolo (vedi [5.1.16]), con le notazioni x(t)"xd(t) e y(t)"xr(t) si ha:
1! 1 $ 1! 1 $
[5.2.6] x(t) = # v ( t ) + Ri ( t )& , y(t) = # v ( t ) - Ri ( t )& ,
2" R % 2" R %
Nella ipotesi di eccitazione armonica alla frequenza f e applicando il metodo simbolico, dalle
[5.2.3] e [5.2.6] si ricavano le corrispondenti relazioni tra fasori:
[5.2.7] Y = A X,
1! 1 $ 1! 1 $
[5.2.8] X = # V + RI& , Y = # V - RI& .
2" R % 2" R %
Valendo per il bipolo il noto vincolo V = Z I, dalle precedenti espressioni si ottiene:
1! 1 $ 1! 1 $
[5.2.9] Y = # Z I- RI& = A X = A # Z I+ RI& ;
2" R % 2" R %
grazie alla linearità, risulta quindi per ogni frequenza la seguente relazione tra il coefficiente di
riflessione e la impedenza del bipolo utilizzatore:
Z(f)-R
[5.2.10] A(f) = .
Z(f)+R
Dato che il bipolo è stato assunto passivo, la parte reale di Z(f) è positiva; di conseguenza il
coefficiente di riflessione risulta limitato in modulo:
[5.2.11] |A(f)| * 1,
con valore unitario raggiunto solo per 0{Z(f)} =0.
5.2.3 Approfondimenti sul coefficiente di riflessione

Con riferimento al caso di segnali di energia, rammentando la relazione intercorrente tra la


funzione di intercorrelazione e la convoluzione (vedi [3.3.51]) si ha:

[5.2.12] Cyx(-) = y(-)$x*(--) = x(-)$h (-)$x*(--) = hA(-)$Cxx(-);


A

si ottiene poi una espressione analoga nel caso di segnali di potenza. A meno che non si abbia
l’adattamento ideale o perfetto, la risposta riflessa y(t) risulta dunque affine al segnale diretto
entrante, dipendendo da questo e dal coefficiente di riflessione del bipolo.
Passando al dominio della frequenza, dalla [5.2.12] e dalla espressione analoga derivano le
relazioni:
[5.2.13] Eyx(f) = A(f) Exx(f), Wyx(f) = A(f) Wxx(f),
dove con E(f) o W(f) sono rispettivamente indicate le densità spettrali di energia o di potenza dei
segnali considerati. Dalla relazione [5.2.3] si ricavano poi le:
[5.2.14] Eyy(f) = |A(f)|2 Exx(f), Wyy(f) = |A(f)|2 Wxx(f) ;
98
si ha dunque l’energia o la potenza riflessa:
2 2
[5.2.15] Eyy = " ! (f ) E xx ( f ) df , Wyy = " ! (f ) Wxx ( f ) df ,

che si rammenta essere quella nel verso dall’utilizzatore al generatore.


Nel caso della realizzabilità fisica, la causalità implica che h0(t) sia monolatera destra, consentendo
di porre h0(t)=h0(t)sgn(t); per trasformazione di Fourier, essendo F{sgn(t)} = -j/!f, si ottiene
allora:
-j
[5.2.16] A(f) = A(f)$ w.
!f
Dalle uguaglianze delle parti reale e immaginaria risulta pertanto:
[5.2.17] AR(f) = H{AI(f)}= !ˆ I ( f ) , AI(f) = -H{AR(f)}= - !ˆ R ( f ) ,

ossia la parte reale AR(f) di A(f) e il coefficiente della sua parte immaginaria AI(f) sono tra loro
legate dalla trasformazione di Hilbert nel dominio della frequenza.

5.3 TRASFORMAZIONI LTI NEI QUADRIPOLI

5.3.1 Risposte nei domini del tempo e della frequenza

Sono senza dubbio di maggiore importanza le trasformazioni fra segnali che si compiono in un
sottosistema elettrico con due sezioni di accesso, o porte, schematizzato come mostrato in Figura
5.7, dove si è fatto ricorso alle coppie di segnali diretti e riflessi sulle vie di accesso alle porte; si è
usata la notazione xi(t) per il segnale di eccitazione entrante alla porta i=1,2 e quella yi(t) per il
corrispondente segnale di risposta uscente. Come noto un sottosistema a due porte, in base alla sua
rappresentabilità con un quadripolo equivalente, è spesso denominato quadripolo anche qualora
non abbia significato fisico l’individuazione di una vera coppia di poli di accesso.

Figura 5.7: Schema di un quadripolo, con coppia di segnali entranti, o di eccitazione xi(t), e coppia
di segnali uscenti, o di risposta yi(t).
Nel caso più generale le due trasformazioni che portano alle risposte y1(t) e y2(t) hanno espressioni
complicate e dipendenti tanto da entrambe le eccitazioni x1(t) e x2(t), quanto dalla variabile
temporale indipendente.
Ammessa l’ipotesi limitativa, ma assai frequentemente verificata in pratica, che il quadripolo abbia
natura lineare e caratterizzata con parametri fissi nel tempo (tempo invarianza), i vincoli imposti
dalla particolare costituzione del sistema fra i segnali alle due porte si traducono nella coppia di
trasformazioni LTI, di norma del tipo con memoria:
[5.3.1] yi(t) = ! x (v) h (t-v) dv + ! x (v) h (t-v) dv , i=1, 2 e j=2, 1,
i ii j ij

che esprimono i segnali uscenti, o risposte, in funzione dei due segnali entranti di eccitazione. Si
noti che negli integrali di convoluzione la variabile indipendente temporale in entrata è stata
indicata con v al fine di distinguerla da quella in uscita t.
Le quattro funzioni hij(t), che caratterizzano nel dominio del tempo un generico quadripolo LTI in
riferimento a una resistenza R, si denominano risposte impulsive riflesse (per i=j) e risposte
impulsive trasmesse (per i/j), dato che coincidono con i segnali uscenti ottenibili in
99
corrispondenza di una sola eccitazione con l’impulso ideale all’istante v=0 emesso da un
generatore di impedenza interna R reale e costante; infatti si ha y1(t)"h11(t) e y2(t)"h21(t)
assumendo le eccitazioni x1(v)"+(v) e x2(v)"0, e y1(t)"h12(t) e y2(t)"h22(t) ponendo x1(v)"0 e
x2(v)"+(v).
Un quadripolo LTI, per cui si hanno le due trasformazioni [5.3.1] riportate nell’immediato seguito
con le notazioni equivalenti:
[5.3.2] y1(t) = h11(t)$x1(t) + h12(t)$x2(t), y2(t) = h21(t)$x1(t) + h22(t)$x2(t),
è fisicamente realizzabile se tutte le quattro risposte impulsive che lo caratterizzano nel dominio
del tempo appartengono allo spazio funzionale L1, sono reali e inoltre causali, ossia risulta hij(t)=0
Bt<0; è invece idealmente realizzabile se viene meno la sola causalità delle risposte. Per un
quadripolo LT I realizzabile, sia idealmente che fisicamente, esistono dunque le trasformate di
Fourier:
[5.3.3] Hij(f) = F{hij(t)},
anch’esse funzioni caratteristiche del quadripolo considerato in riferimento alla resistenza R, ma
nel dominio della frequenza. Ammesso che hij(t) siano reali vale la proprietà:
[5.3.4] Hij(f) = H!ij (-f ) ,

ossia le funzioni Hij(f) sono hermitiane, con modulo pari e argomento dispari.
Rammentando la definizione, per ogni frequenza armonica, dei parametri di diffusione Sij di un
quadripolo LTI (il lettore può comunque fare riferimento al paragrafo 5.3.2), risulta che le
riflettenze, ossia i parametri S11(f) e S22(f), si identificano con le trasformate di Fourier H11(f) e
H22(f) delle risposte impulsive riflesse h11(t) e h22(t), mentre le trasmettenze, ossia i parametri
S12(f) e S21(f), si identificano con le trasformate di Fourier H12(f) e H21(f) delle risposte impulsive
trasmesse h12(t) e h21(t).
Una volta espressa una trasmettenza di un quadripolo LTI tramite il rispettivo modulo gij(f) =
|Hij(f)| e l’opposto dell’argomento #ij(f) =-arg{Hij(f)}, in modo che per i/j risulti:
[5.3.5] Hij(f) = gij(f) e
-j! ij ( f )
,
si definiscono le seguenti grandezze reali:
[5.3.6] Gij(f) = g 2ij ( f ) = |Hij(f)|2,

1 d" ij ( f ) 1 d"
arg H ( f ) $ ,
2! df # { ij }%
[5.3.7] t0ij(f) = =-
2! df
rispettivamente denominate guadagno di inserzione e ritardo di gruppo di inserzione dalla porta j
alla porta i. In un quadripolo realizzabile la funzione Gij(f) è ovunque limitata; se è anche
fisicamente realizzabile la funzione t0ij(f) è ovunque non negativa; dato che #ij(0)=0, la funzione
#ij(f) è allora positiva (o negativa) per ogni valore positivo (o negativo) della frequenza.
Supposto che esistano le trasformate di Fourier Xi(f) dei segnali di eccitazione xi(t) di un
quadripolo LTI, applicando la proprietà di convoluzione nel tempo si ottengono dalle [5.3.2] le
corrispondenti relazioni nel dominio della frequenza:
[5.3.8] Y1(f) = H11(f) X1(f) + H12(f) X2(f), Y2(f) = H21(f) X1(f) + H22(f) X2(f).
5.3.2 Parametri di diffusione nei Quadripoli LTI

Il comportamento di un quadripolo LTI può essere descritto, per ogni frequenza f=%/2!,
considerando le semplici eccitazioni armoniche alle sue porte 1 e 2 :
[5.3.9] x1(t) = Acos(%t+71), x2(t) = A2cos(%t+72),
100
che producono i segnali uscenti, anch’essi armonici:
[5.3.10] y1(t) = B1cos(%t+C1), y2(t) = B2cos(%t+C2).
Tramite la notazione di Steinmetz si usa di solito indicare i precedenti segnali armonici con fasori,
denominati intensità d’onda quando riferiti ai segnali, entranti a frequenza f :
[5.3.11] a1 = A1 e j!1 , a2 = A2 e j!2 ,
e uscenti a frequenza f :
[5.3.12] b1 = B1 e j!1 , b2 = B2 e j!2 .
Grazie alla ipotesi LTI, assunta una stessa resistenza di riferimento R alle due porte, i vincoli
imposti sulle intensità d’onda assumono le forme assai semplici:
[5.3.13] b1 = S11a1+S12a2, b2 = S21a1+S22a2,
dove le grandezze adimensionali Sij, caratteristiche del quadripolo, sono denominate parametri di
diffusione. I parametri con coppia di pedici identici e quelli con pedici diversi si denominano
rispettivamente le riflettenze e le trasmettenze del quadripolo. Passando a considerare le funzioni
Sij(f) definite per ogni frequenza e tenendo conto della proprietà di linearità della trasformata di
Fourier, dal confronto delle relazioni precedenti con le [5.3.8] risulta che le funzioni di diffusione
coincidono con le rispettive trasformate di Fourier delle risposte impulsive del quadripolo LTI.
La condizione di realizzabilità, fisica o ideale, del quadripolo si traduce nella forma:
[5.3.14] Sij(f) = S!ij (-f ) ;

ossia i parametri di diffusione devono essere funzioni hermitiane. Essi hanno poi tutti modulo
limitato sull’intero asse delle frequenze; il valore limite superiore vale 1 nel caso dei quadripoli
passivi. Procedendo come per il bipolo, nel caso di realizzabilità fisica si dimostra che la parte
reale di ogni funzione Sij(f) e il coefficiente della sua parte immaginaria sono tra loro legate dalla
trasformazione di Hilbert nel dominio della frequenza:
[5.3.15] SijR(f) = H{SijI(f)}= ŜijI ( f ) , SijI(f) = -H{SijR(f)}= - ŜijR ( f ) .

La reciprocità del quadripolo comporta la uguaglianza delle due trasmettenze:


[5.3.16] S12(f) = S21(f),
mentre la simmetria elettrica implica che valgano le:
[5.3.17] S12(f) = S21(f), S11(f) = S22(f),
ossia aggiunge la uguaglianza delle riflettenze a quella delle trasmettenze.
Un quadripolo per cui si annullino le riflettenze:
[5.3.18] S11(f) = S22(f) = 0,
è denominato quadripolo adattato; se esso gode della reciprocità, è allora anche simmetrico.
Per un quadripolo passivo privo di perdite valgono le relazioni:
[5.3.19] |S11(f)|2 + |S21(f)|2 = |S22(f)|2 + |S12(f)|2 = 1,
[5.3.20] S11(f) S12
!
(f) + S21(f) S22
!
(f) = 0.
Si definisce anche, sempre per ogni frequenza, il determinante:
[5.3.21] >(f) = S11(f) S22(f) – S12(f) S21(f).
Si ha |>(f)| = 1 nel caso reciproco, passivo e privo di perdite; risulta poi >(f) = -1 se il quadripolo si
riduce alla semplice connessione diretta tra le due porte, in cui le riflettenze sono nulle e le
trasmettenze sono unitarie.
101
5.3.3 Trasferimento in condizione di adattamento

5.3.3.1 Trasferimento in un quadripolo


Tralasciando l’analisi del caso generale, si assuma che la porta 2 di un quadripolo LTI sia connessa
a un bipolo lineare passivo con adattamento perfetto, ossia avente un coefficiente di riflessione
A(f) nullo nella banda di segnale; poiché allora risulta identicamente nullo il segnale riflesso dal
bipolo, che è anche il segnale di eccitazione del quadripolo alla porta 2, la coppia di trasformazioni
che descrive il comportamento di quest’ultimo si semplifica nelle:
[5.3.22] y1(t) = h11(t)$x1(t), per A(f)=0 ! f " ( fm ; fM ) ,

[5.3.23] y2(t) = h21(t)$x1(t), per A(f)=0 ! f " ( fm ; fM ) .


Disinteressandosi della risposta riflessa alla porta 1 (tale segnale è poi assai spesso identicamente
nullo per essere uguale a zero la riflettenza H11(f) nella banda di segnale), l’attenzione si concentra
sulla sola trasformazione (vedi schema in Figura 5.8):
[5.3.24] y(t) = h(t)$x(t),
dove si è posto y(t)=y2(t) per l’unica risposta rilevante, ossia quella in uscita alla porta 2, x(t)=x1(t)
per l’unico segnale di eccitazione, in entrata alla porta 1, e infine si è fatto uso della notazione:
[5.3.25] h(t)=h21(t), per A(f)=0 ! f " ( fm ; fM ) ,

per l’unica caratteristica significativa nel dominio del tempo del sistema considerato, ossia la
risposta impulsiva di trasferimento. Si noti che la [5.3.24] è ancora la sola trasformazione di
interesse anche nel caso in cui non si abbia un bipolo utilizzatore con adattamento perfetto, purché
si verifichi H22(f)=0 in banda.

Figura 5.8: Schema di quadripolo LTI con adattamento perfetto in uscita.


Si suole denominare funzione di trasferimento o risposta in frequenza del quadripolo con
adattamento perfetto in uscita, o dal lato utilizzatore o da quello del quadripolo, la trasformata di
Fourier della risposta impulsiva di trasferimento:
[5.3.26] H(f)=F{h(t)} = H21(f),
ossia la trasmettenza dalla porta di entrata a quella di uscita, anch’essa unica funzione
caratteristica significativa del sistema nelle condizioni considerate, ma nel dominio della
frequenza. Con riferimento al modulo e all’opposto dell’argomento della funzione di
trasferimento, per cui si ha H(f)=g(f) e ( ) , le grandezze reali:
-j! f

[5.3.27] G(f)=g2(f) = |H(f)|2,


1 d" ( f ) 1 d"
[5.3.28] t0(f)= =- arg {H ( f )}$% ,
2! df 2! df #
vengono nel seguito semplicemente denominate guadagno e ritardo di gruppo del quadripolo; si
considera anche l’inverso del guadagno, ossia la attenuazione di trasferimento del quadripolo:
[5.3.29] A(f)= g-2(f) = |H(f)| -2.
Se esiste la trasformata di Fourier X(f) del segnale x(t), per la proprietà di convoluzione nel
dominio del tempo si ottiene dalla [5.3.24] la corrispondente relazione nel dominio della frequenza
102
[5.3.30] Y(f) = H(f) X(f).
5.3.3.2 Trasferimento nei quadripoli in cascata
Si consideri la cascata di due quadripoli LTI Q1 e Q2, con le notazioni mostrate in Figura 5.9.

Figura 5.9: Quadripolo equivalente alla cascata di due quadripoli.


Le identità y2(t)"x3(t) e x2(t)"y3(t) sui quattro segnali alle porte interne mostrate in Figura 5.9, che
risultano imposte nel momento in cui si attua la connessione dei due quadripoli, riducono in
generale il comportamento globale del sistema in cascata a due sole trasformazioni, caratteristiche
dell’unico quadripolo Qeq equivalente alla cascata di Q1 e Q2 che ha come porte accessibili solo
quelle esterne di questi ultimi.
Nella ipotesi che Q2 sia terminato su un bipolo con adattamento perfetto e che entrambi i
quadripoli siano adattati, ossia abbiano riflettenze nulle in banda, sono identicamente nulli tutti i
segnali riflessi, ossia valgono le identità:
[5.3.31] x4(t) " 0, x2(t) " y3(t) " 0, y1(t) " 0.
Una volta indicata con hi(t) la risposta impulsiva di trasferimento del quadripolo Qi e avendo posto
x(t)=x1(t) e y(t)=y4(t), si ottiene:
[5.3.32] y2(t) = h1(t)$x(t), y(t) = h2(t)$x3(t) ;
in base all’identità y2(t)"x3(t) risulta allora:
[5.3.33] y(t) = h2(t)$x3(t) = h2(t)$[h1(t)$x(t)] = heq(t)$x(t),
dove si è posto per la risposta impulsiva di trasferimento del quadripolo equivalente:
[5.3.34] heq(t)=h2(t)$h1(t).
Mediante la trasformazione di Fourier applicata ad ambo i membri della precedente espressione,
per la proprietà di convoluzione nel dominio del tempo si ha la seguente semplice relazione tra la
funzione di trasferimento del quadripolo equivalente alla cascata e quelle dei quadripoli
componenti:
[5.3.35] Heq(f) = H1(f) H2(f).
È importante notare che scambiando le posizioni dei due quadripoli LTI in cascata il
comportamento complessivo non cambia.
Prendendo in considerazione la cascata di m quadripoli LTI, sempre in condizione di adattamento
perfetto in tutte le sezioni di connessione, la [5.3.35] si generalizza nella espressione:
m
[5.3.36] Heq(f) = ! H i (f ) ,

i=1

da cui risulta che la intera cascata equivale a un quadripolo con adattamento perfetto, che ha per
funzione di trasferimento il semplice prodotto di quelle dei quadripoli componenti.
5.3.3.3 Trasferimento in banda traslata in un quadripolo
Nel caso di impiego di un quadripolo LTI, idealmente o fisicamente realizzabile, con segnali in
banda traslata, di norma rappresentati tramite gli inviluppi complessi riferiti a una frequenza
fc=%c/2! entro la banda, ammesso l’adattamento perfetto nella sezione di connessione in uscita si
103
preferisce spesso la caratterizzazione tramite la grandezza, denominata funzione di trasferimento
equivalente in banda base:
[5.3.37] H(f)=H+(f+fc).
Come illustrato nell’esempio in Figura 5.10, la funzione H(f) è ottenuta per semplice traslazione di
fc verso la origine di H+(f), ossia della sola porzione sul semiasse positivo delle frequenze della
funzione di trasferimento H(f)=H21(f).

Figura 5.10: Funzione di trasferimento equivalente in banda base di un quadripolo LTI con
adattamento perfetto in uscita impiegato con segnale in banda traslata.
Si noti che in generale la funzione H(f) non è hermitiana, ossia risulta:
[5.3.38] H(f)/H*(-f);
di conseguenza è di norma complessa la risposta impulsiva equivalente in banda base:
[5.3.39] h(t)=F-1{H(f)} = hc(t) + jhs(t).
Nella pratica è però frequente il caso di quadripoli per cui, almeno approssimativamente, vale la
proprietà H(f)=H*(-f) ; allora h(t) risulta reale, ossia si ha h(t)"hc(t) e hs(t)"0.
Inviando al paragrafo 5.3.3.4 il lettore interessato alla dimostrazione, la risposta impulsiva
equivalente in banda base consente di ricavare l’inviluppo complesso !y(t) della risposta da quello
!x(t) di eccitazione mediante la semplice trasformazione:
[5.3.40] !y(t) = h(t)$!x(t).
Ammessa l’esistenza della trasformata di Fourier Ix(f) di !x(t), si ottiene al solito la corrispondente
semplice relazione nel dominio della frequenza:
[5.3.41] Iy(f)=H(f) Ix(f)
5.3.3.4 Approfondimenti sul trasferimento in banda traslata
La funzione di trasferimento equivalente in banda base può essere scomposta nelle sue componenti
hermitiana e non hermitiana, H(f) = HH(f)+HAH(f), per cui:
1" 1
[5.3.42] HH(f) = H ( f ) +H (-f )$% , HAH(f) = "#H ( f ) -H (-f )$% .
! !
2# 2
Per antitrasformazione allora si ottiene:
1"
[5.3.43] F -1{HH(f)} = h ( t ) +h ( t )$% = hc(t),
!
2 #
1"
[5.3.44] F -1{HAH(f)} = h ( t ) -h ( t )$% = jhs(t),
!
2#
da cui risultano anche le seguenti espressioni della parte reale e del coefficiente della parte
immaginaria della risposta impulsiva equivalente in banda base:
1 -1 1 -1
F H ( f ) +H (-f ) , hs(t) = F H ( f ) -H (-f )} .
{ } j2 {
[5.3.45] hc(t) =
! !

2
Considerando i segnali analitici alle due porte (vedi [3.5.5]):
104
[5.3.46] ax(t) = !x(t) e j!ct , ay(t) = !y(t) e j!ct ,
in luogo della trasformazione fra i segnali reali y(t)=h(t)$x(t), si ha la trasformazione, che investe
unicamente il semiasse positivo delle frequenze:
[5.3.47] ay(t) = h+(t)$ax(t),
dove
[5.3.48] h+(t) = F -1{H+(f)} = h(t) e j!ct ;
si ottiene allora:
[5.3.49] !y(t) e j!ct = " ! (v) h (t-v) e
x +
j!c v
dv ,

ossia
[5.3.50] !y(t) = " !x ( v ) h + ( t-v ) e dv ,
-j!c ( t-v)

che tenendo conto della [5.3.48] conduce alla trasformazione [5.3.40] fra gli inviluppi complessi.

5.4 QUADRIPOLO IDEALE E QUADRIPOLI PERFETTI

5.4.1 Quadripolo ideale

Si rammenti che il trasferimento ideale si ottiene quando viene verificata la condizione di segnale
fedele [1.2.1]. Alla luce di quanto esposto nei paragrafi precedenti, considerando il transito di un
segnale in un sistema di telecomunicazioni assimilato al transito in un sistema LTI, si può
verificare che tale condizione si realizza solo se:
[5.4.1] h0(t) = g +(t-t0)=F-1{g e-j2! ft 0 },
Infatti:
[5.4.2] y(t) = g x(t-t0)= h0(t)$x(t) = g+(t-t0)$x(t) = F-1{g e-j2! ft 0 }$x(t).
Questa espressione caratteristica di h0(t) comporta che il quadripolo abbia riflettenze alle due porte
e trasmettenza dalla porta 2 alla porta 1 tutte identicamente nulle (ossia con H110(f)"0, H120(f)"0 e
H220(f)"0) e che abbia inoltre dalla porta 1 alla porta 2 la trasmettenza, e quindi la funzione di
trasferimento, nella forma:
[5.4.3] H210(f) = H0(f) = g e-j2! ft 0 ,
al solito con g e t0 costanti reali.
In tal modo per qualsiasi segnale di eccitazione x(t) e generico comportamento del bipolo
utilizzatore il quadripolo fornirebbe in base alla convoluzione [5.3.24] la risposta fedele.
Il blocco considerato, soddisfacente ai fini della trasmissione per qualsiasi condizione alle porte e
anche per segnali a banda infinita, non può rappresentare nessun sistema realmente costruito ed è
pertanto denominato quadripolo ideale. L’inconveniente della impossibilità di potere
approssimare il suo comportamento ideale con effettivi sistemi fisici si ridimensiona però
drasticamente se si fa riferimento, come usuale nella pratica della trasmissione, a segnali con
spettro monolatero limitato, o almeno praticamente limitato, entro i due estremi finiti, fm e fM della
banda monolatera. Nei paragrafi seguenti sono appunto considerati i quadripoli capaci di fornire
risposte almeno in pratica fedeli a segnali di eccitazione prima del tipo in banda base e poi del tipo
in banda traslata.
105
5.4.2 Quadripoli perfetti

5.4.2.1 Quadripolo perfetto in banda base


Nella ipotesi di linearità e tempo invarianza del sistema a due porte effettivo e del bipolo passivo
utilizzatore, se il segnale di eccitazione x(t) è in banda base, con estremi della banda monolatera
che soddisfano la fM>>fm, le componenti spettrali dei segnali alle due porte sono nulle per ogni |f|
all’esterno dell’intervallo (fm, fM); gli andamenti delle riflettenze e delle trasmettenze del
quadripolo rappresentativo alle frequenze non interessate dalla eccitazione non possono avere
pertanto alcuna influenza sul comportamento. Le relazioni:
[5.4.4] H11(f) = H22(f) = H12(f) = 0, H21(f) = g e-j2! ft 0 , ! f " ( fm ;fM ) ,

corrispondenti a quelle che definiscono il quadripolo ideale, ma nella sola banda interessata, sono
allora sufficienti per ottenere la trasmissione ideale dalla porta 1 alla porta 2, con assenza di
segnali riflessi e la desiderata risposta fedele y(t)=g x(t-t0).
Riassumendo, un sistema a due porte impiegato per la trasmissione di segnali in banda base è in
grado di consentire la trasmissione ideale, dalla sua porta di entrata 1 a quella di uscita 2, quando
sia rappresentabile da un quadripolo LTI che abbia nella banda utile (fm, fM):
1) riflettenze H11(f) e H22(f) e trasmettenza H12(f) nulle,
2) funzione di trasferimento H(f)=H21(f) con
• modulo costante,
• argomento proporzionale alla frequenza (a meno dell’addendo -! in caso g<0).
La condizione sulle riflettenze si denomina condizione di adattamento perfetto del quadripolo. Le
condizioni sulla funzione di trasferimento, ossia:
!"
[5.4.5] |H(f)| = |g|, arg{H(f)} = -2!ft0 + sgn (g) -1$% , ! f " ( fm ;fM ) ,
2#
sono denominate condizioni di non distorsione in banda base del quadripolo, dato che qualora
esse non siano rispettate accade che il segnale in banda base trasferito non sia fedele, ossia si
manifesti la distorsione lineare tempo invariante della risposta.
Qualora tutte le condizioni sopra elencate siano soddisfatte si ha un quadripolo perfetto in banda
base. Si noti che gli andamenti perfetti delle funzioni Hij(f) richiesti solo entro la banda utile
limitata possono essere bene approssimati in pratica da quelli dei parametri caratteristici del
quadripolo rappresentativo di un sistema effettivo operante in banda base, anche se con difficoltà
crescenti al crescere di fM nel caso fm=0 oppure, diversamente, del rapporto fM/fm.
Talvolta, in condizione di completo adattamento nelle sezioni di connessione, interessa il
trasferimento bidirezionale ossia si desidera che le coppie dei segnali diretti e riflessi risultino
separatamente fedeli, ma in completo disaccoppiamento in quanto veicoli di due distinte
informazioni che viaggiano in versi opposti; è allora immediato aggiungere la ulteriore condizione
di simmetria elettrica, pervenendo così a un quadripolo simmetrico perfetto in banda base.
Le proprietà [5.4.5] si traducono nella costanza in banda delle funzioni di guadagno e di ritardo di
gruppo (vedi [5.3.27] e [5.3.28]):
[5.4.6] G(f) = g2, t0(f) = t0, ! f " ( fm ;fM ) ,

In definitiva, dal punto di vista della trasmissione un quadripolo perfetto in banda base è
caratterizzato in banda utile da due sole grandezze, entrambe reali e positive: il guadagno G=g2 e il
ritardo di gruppo t0.
5.4.2.2 Quadripolo perfetto in banda traslata
Nel caso di un quadripolo LTI che rappresenti un sistema a due porte impiegato per la trasmissione
di un segnale in banda traslata, con estremi fm e fM della banda monolatera, le considerazioni
riguardanti le riflessioni nelle sezioni di connessione restano invariate: quindi ai fini della
106
trasmissione ideale si perviene alle stesse condizioni relative all’adattamento perfetto del
quadripolo entro la banda utile. Nei riguardi del trasferimento da una porta all’altra del quadripolo,
è invece opportuno fare riferimento alla meno severa condizione di fedeltà:
[5.4.7] !y(t) = g e-j! !x(t-t0),
dove # è un’arbitraria costante reale, espressa sugli inviluppi complessi !x(t) e !y(t) piuttosto che
sui corrispondenti segnali reali x(t) e y(t); scelta nella definizione degli inviluppi complessi una
comune frequenza di riferimento fc in entrata e in uscita, la menzionata condizione è in generale
soddisfatta se il comportamento del quadripolo e riconducibile alla trasformazione LTI priva di
memoria, con risposta impulsiva equivalente in banda base h(t) =g e- j! +(t-t0), cui corrisponde nel
dominio della frequenza la funzione di trasferimento ideale equivalente in banda base:
[5.4.8] H0(f) = g e- j! e-j2! ft 0 .
Stante la limitazione in banda della eccitazione e la linearità, è però al solito sufficiente che la
funzione di trasferimento del quadripolo equivalente in banda base soddisfi la meno severa
condizione:
-j(2!ft 0 +" )
[5.4.9] H(f) = g e , ! f " ( fm -fc ;fM -fc ) ;

traslando tale funzione alla frequenza fc, si perviene infine alla:


-j(2!ft 0 +"#2!fc t 0 ) -j(2!ft o +"c )
[5.4.10] H+(f) = H(f-fc) = g e = ge , ! f " ( fm ;fM ) ,

dove H+(f) coincide per f'0 con la trasmettenza H21(f) del quadripolo in banda traslata e Dc = #-
2!fct0 ha valore arbitrario, essendo tale quello di #.
Riassumendo, un sistema a due porte impiegato per la trasmissione di segnali in banda traslata può
consentire la trasmissione ideale dalla porta 1 alla 2, senza alterazioni della frequenza di
riferimento nelle rappresentazioni con gli inviluppi complessi, quando sia rappresentabile da un
quadripolo LTI che abbia nella banda utile (fm ; fM) :
1) riflettenze H11(f) e H22(f) e trasmettenza H12(f) nulle,
2) funzione di trasferimento H(f)=H21(f) con
• modulo costante,
• argomento proporzionale alla frequenza a meno di un addendo arbitrario (quindi lineare).
La condizione sulle riflettenze è ancora la condizione di adattamento perfetto del quadripolo. Le
condizioni sulla funzione di trasferimento, ossia:
[5.4.11] |H(f)| = |g|, arg{H(f)} = -2!(f-fc)t0 - #, ! f " ( fm ;fM ) ,

sono denominate condizioni di non distorsione in banda traslata del quadripolo, dato che qualora
esse non siano rispettate accade che il segnale in banda traslata trasferito non sia fedele, ossia si
manifesti la distorsione lineare tempo invariante della risposta.
Qualora tutte le condizioni sopra elencate siano soddisfatte si ha un quadripolo perfetto in banda
traslata. Si noti che gli andamenti perfetti delle funzioni Hij(f) richiesti solo entro la banda utile
limitata possono essere bene approssimati in pratica da quelli dei parametri caratteristici del
quadripolo rappresentativo di un sistema effettivo; rispetto al caso in banda base, la presenza nella
seconda delle [5.4.11] di # arbitrario comporta minori difficoltà nell’approssimazione di arg{H(f)}
e, inoltre, tutte le difficoltà sono molto ridotte nel caso, molto frequente, di segnali a banda relativa
molto stretta per cui B<<fa.
Talvolta, in condizione di completo adattamento nelle sezioni di connessione, interessa il
trasferimento bidirezionale ossia si desidera che le coppie degli inviluppi complessi diretti e
riflessi risultino separatamente fedeli, ma in completo disaccoppiamento in quanto veicoli di due
distinte informazioni che viaggiano in versi opposti; è allora immediato aggiungere la ulteriore
107
condizione di simmetria elettrica, ottenendo un quadripolo LTI simmetrico perfetto in banda
traslata.
Le condizioni di non distorsione per un quadripolo LTI in banda traslata si traducono ancora nella
costanza in banda del guadagno e del ritardo di gruppo.
5.4.2.3 Quadripoli non lineari perfetti in banda relativa stretta
Ancora in relazione alla trasmissione di segnali in banda traslata, ma solo se a banda relativa
stretta, si consideri il caso particolare di un sottosistema, denominato convertitore di frequenza,
che si comporti come di seguito descritto. Le riflettenze a entrambe le porte del quadripolo
rappresentativo siano nulle nella banda di segnale; il trasferimento da una porta all’altra risulti
esprimibile tramite una relazione lineare tempo invariante tra gli inviluppi complessi degli effettivi
segnali reali y(t) e x(t) in uscita e in entrata, del tipo:
[5.4.12] !y(t) = !x(t) $hC(t) ;
infine questi ultimi siano definiti con riferimento a due diversi valori di frequenza, indicati con fce
e fcu (vedi Figura 5.11). Un convertitore, dunque, ha un comportamento non lineare nei riguardi
dei segnali reali alle porte, ma è invece lineare, oltre che tempo invariante, se si considerano i
corrispondenti inviluppi complessi.

Figura 5.11: Convertitore di frequenza impiegato con segnali in banda relativa stretta, con
frequenze di riferimento diverse in entrata e in uscita.
Si osserva che, in virtù della linearità della [5.4.12], i due segnali reali in entrata e in uscita di un
convertitore di frequenza hanno la medesima larghezza di banda B, come mostrato nell’esempio in
Figura 5.12 relativo a segnali di energia.

Figura 5.12: Esempio di spettri di ampiezza a banda relativa stretta in entrata e in uscita di un
convertitore di frequenza.
Ammessa l’inessenziale ipotesi che le frequenze di riferimento siano scelte al centro dei rispettivi
spettri, un convertitore di frequenza, seppure certamente di natura non lineare poiché si ha la
presenza in uscita di componenti spettrali non presenti in entrata, può consentire la trasmissione
ideale in banda relativa stretta a patto che gli spettri dei segnali in entrata e in uscita risultino
separati, ossia che sia soddisfatta la condizione |fce-fcu|>B, e che la funzione di trasferimento
equivalente in banda base del quadripolo rappresentativo, ottenuta per trasformazione di Fourier
dalla hC(t), soddisfi la condizione analoga alla [5.4.9]:
-j(2!ft o +" )
[5.4.13] H C (f) = gC e , ! f " (-B/2;B/2 ) .

Nel caso in cui fcu > fce si ha un convertitore perfetto in salita (UC=Up Converter), se invece fcu <
fce si ha un convertitore perfetto in discesa (DC=Down Converter). Per tale categoria di quadripoli
perfetti non è contemplato il comportamento elettrico simmetrico.
Al solito, riassumendo, un sistema a due porte operante su segnali in banda relativa stretta con
mutamento sensibile della frequenza di riferimento dell’inviluppo complesso in uscita rispetto a
108
quella in entrata può consentire la trasmissione ideale unidirezionale, qualora esista un suo
quadripolo rappresentativo non lineare tempo invariante con una funzione di trasferimento
equivalente in banda base HC(f) e se, nelle bande utili separate sull’asse delle frequenze, risultino:
1) riflettenze H11(f) e H22(f) nulle,
2) funzione di trasferimento equivalente in banda base HC(f) con
• modulo costante,
• argomento proporzionale alla frequenza a meno di un addendo arbitrario.
Tramite l’applicazione alla funzione HC(f) delle note espressioni [5.3.27] e [5.3.28], sono definibili
il guadagno del convertitore, GC(f), e il suo ritardo di gruppo, t0C(f); allora le condizioni di non
distorsione per un siffatto quadripolo si traducono nella costanza in banda sia del suo guadagno,
GC= g C2 , che del suo ritardo di gruppo, t0C.
109

6 FONDAMENTI DI TRASMISSIONE
110
111

6.1 TRASMISSIONE IDEALE

6.1.1 Condizioni per il trasporto ideale della informazione

Il trasferimento elettrico della informazione in un collegamento da una sorgente a un destinatario


separati da una distanza rilevante può essere elementarmente schematizzato come mostrato in
Figura 6.1, dove tra il generatore G e l’utilizzatore U è inserito un generico quadripolo, che
rappresenta, nella forma più sintetica, un sistema di trasmissione dei segnali elettrici. Quali
grandezze elettriche agli estremi del sistema di trasmissione si assumono le coppie dei segnali di
eccitazione, x1(t) e x2(t), e di risposta, y1(t) e y2(t). I segnali possono essere sia del tipo di potenza,
che di energia, ma sono comunque reali.

Figura 6.1: Schema sintetico di un collegamento.


Riprendendo le considerazioni svolte e supponendo che la trasmissione avvenga in un solo verso,
la situazione è ottimale se:
• nelle sezioni di connessione si ha l’adattamento ideale, ossia i segnali riflessi sono
identicamente nulli:
[6.1.1] y1(t) " 0,
[6.1.2] x2(t) " 0.
• i due segnali diretti risultano tra loro fedeli (con massima affinità in senso lato, vedi
[2.1.10] e [2.5.10]), ossia si verifica:
[6.1.3] y(t) = g x(t – t0),
dove per semplicità si è posto x(t) =ˆ x1(t) e y(t) =ˆ y2(t).
Si rammenta che nella [6.1.3] g è un fattore arbitrario, reale e costante, e t0 è una traslazione
temporale arbitraria, reale costante e positiva; la prima alterazione può essere considerata
ininfluente, anche perché facilmente compensabile se si prescinde dai disturbi; la seconda, purché
di valore contenuto entro opportuni limiti dipendenti dal tipo di informazione trasmessa, non può
che essere ammessa se si tiene conto dell’inevitabile ritardo che i segnali subiscono nella
trasmissione, legato alla distanza percorsa non trascurabile in relazione alla velocità di
propagazione finita, anche se grandissima.
Posto che x(t) sia un segnale che veicola correttamente l’informazione, appare chiaro che le tre
relazioni [6.1.1], [6.1.2] e [6.1.3] costituiscono un insieme di condizioni sufficienti per il
trasporto ottimale della informazione dal generatore all’utilizzatore. Infatti le prime due
garantiscono il massimo impiego delle potenze istantanee messe a disposizione dal generatore e
dal sistema di trasmissione nelle rispettive sezioni di connessione, mentre la terza implica che il
segnale diretto uscente giunga all’utilizzatore nella forma desiderata. Disinteressandosi della
possibile esistenza del segnale riflesso y1(t), le sole [6.1.2] e [6.1.3] rappresentano le condizioni
sufficienti per il trasferimento ideale; concentrandosi invece unicamente sulle prestazioni che sono
di esclusiva responsabilità del solo sistema di trasmissione, anche in presenza di riflessione da
parte del bipolo utilizzatore, le sole [6.1.1] e [6.1.3] rappresentano le condizioni sufficienti per la
trasmissione ideale.
Si noti che la relazione di fedeltà [6.1.3] permane con segnale di eccitazione moltiplicato per una
costante qualsiasi e genericamente traslato nel tempo, ossia presuppone che il sistema di
trasmissione sia lineare e tempo invariante (LT I). Inoltre, se il generatore è spento, ossia risulta
112
x(t) " 0, in base ai criteri esposti tutti i segnali alle porte del quadripolo devono risultare
identicamente nulli; si evince allora che le condizioni per il trasferimento o la trasmissione ideale
implicano che il sistema di trasmissione sia anche privo di qualsiasi forma d’onda disturbante che
possa avere una origine indipendente dal segnale.
In questo paragrafo l’attenzione è stata concentrata sui segnali agli estremi di un collegamento,
fino a determinare le proprietà che essi devono avere affinché sia garantita la prestazione ottimale
nel trasporto dell’informazione. Nel seguito si ricavano le implicazioni che le condizioni
individuate comportano sulle caratteristiche dei principali sottosistemi che con la loro cascata
costituiscono un sistema di trasmissione.
6.1.2 Sistemi di trasmissione perfetti

6.1.2.1 Sistema di trasmissione perfetto in banda base


In un sistema di trasmissione in cui il segnale di linea che si propaga nel mezzo trasmissivo sia del
tipo in banda base, gli apparati emittenti e riceventi si possono distinguere nei blocchi funzionali
lineari, di tipo attivo o passivo, che insieme al mezzo trasmissivo costituiscono un canale di
trasmissione in banda base complessivamente lineare, e in una coppia di blocchi funzionali che
eseguono elaborazioni non lineari; si può dunque fare riferimento allo schema di Figura 6.2, in cui
è dato per scontato l’adattamento ideale in tutte le sezioni di connessione.

Figura 6.2: Sistema con canale di trasmissione in banda base.


Le elaborazioni svolte dai blocchi funzionali esterni, ossia dal terminale emittente (TE) e dal
terminale ricevente (TR) sono rispettivamente denominate modulazione in banda base e
demodulazione in banda base. I terminali in banda base, che trasformano il segnale x(t)
trasferendone l’informazione sul diverso segnale b(t) e viceversa, sono spesso assai complessi nel
caso numerico e il loro inserimento è motivabile solo alla luce dei miglioramenti conseguibili sulle
prestazioni globali del sistema, tenendo conto dei difetti del canale in banda base effettivamente
impiegato. La modulazione viene infatti effettuata al fine di ottenere che il segnale in linea b(t)
abbia caratteristiche temporali e spettrali che meglio si adeguano al comportamento reale offerto
dal canale scelto: ad esempio per conferire a b(t) la qualifica di segnale opportunamente limitato in
banda, qualora x(t) sia del tipo illimitato, oppure per ottenere forme d’onda con ridondanza della
informazione veicolata, più resistenti ai disturbi del canale.
L’insieme dei terminali emittenti e riceventi si indica come modem in banda base; con tale
denominazione si può intendere sia i due sottosistemi che operano in una trasmissione
unidirezionale, sia l’insieme dallo stesso lato del terminale emittente e di quello ricevente di un
sistema di comunicazione bidirezionale.
Considerata la [6.1.3], il comportamento del canale in banda base è ottimale se vale la relazione:
[6.1.4] br(t) = gC b( t – tC ),
dove il fattore gC e il ritardo tC sono caratteristiche di un canale ideale in banda base, il quale deve
essere lineare e tempo invariante. Come dimostrato nell’immediato seguito, il trasporto
complessivo della informazione avviene poi in modo ideale se i terminali che compongono il
modem hanno la caratteristica di essere complementari, nel senso che il secondo dei due blocchi
della coppia compie in teoria su un segnale fedele a quello elaborato dal primo proprio il
trattamento che ne ripristina la forma iniziale, a meno di un fattore e di un ritardo costanti. Tale
proprietà è illustrata in Figura 6.3, per un generico elaboratore di segnale E* e il suo
complementare E! . Una elaborazione, per quanto profondo sia il mutamento del segnale, si ritiene
pertanto reversibile se esiste la elaborazione complementare.
113

Figura 6.3: Proprietà di una coppia di elaboratori di segnale complementari.


Il segnale xr(t) uscente dall’intero sistema in Figura 6.2 risulta fedele a quello x(t) della sua
eccitazione, se il canale in banda base è caratterizzato dalla relazione br(t) = gCb(t-tC) e i terminali
sono complementari; infatti grazie a quest’ultima proprietà si ottiene xr(t) = gC gM x( t - tC - tM ),
dove gM e tM sono il fattore e il ritardo caratteristici del modem. In definitiva il trasporto ottimale
della informazione è consentito in un sistema di trasmissione ideale in banda base composto dalla
connessione in cascata, con adattamento ideale in ogni sezione, di:
• un canale di trasmissione in banda base, con comportamento LTI, la cui risposta sia
fedele alla eccitazione;
• una coppia di terminali generici in banda base, con comportamento non lineare, purché
siano complementari.
6.1.2.2 Sistema di trasmissione perfetto in banda traslata
Nel caso in cui il segnale di linea che si propaga nel mezzo trasmissivo sia del tipo in banda
traslata, gli apparati emittenti e riceventi hanno di norma maggiore complessità. Come mostrato in
Figura 6.4, in cui è dato per scontato l’adattamento ideale in tutte le sezioni di connessione, oltre a
un canale di trasmissione in banda traslata, comprendente il mezzo trasmissivo e alcuni blocchi
funzionali degli apparati, nel sistema sono considerate almeno due coppie di blocchi funzionali
con elaborazioni non lineari.

Figura 6.4: Sistema con canale di trasmissione in banda traslata.


Una volta che il segnale reale in linea s(t) sia rappresentato tramite l’inviluppo complesso con un
riferimento armonico fc, espresso nelle sue parti reali e immaginaria =(t) = ac(t) + j as(t), si nota che
esso in generale comprende due segnali reali in banda base capaci di trasportare informazione,
ossia il canale in banda traslata offre due vie concettuali di trasmissione sulla stessa via fisica. Le
elaborazioni svolte dai blocchi funzionali più interni, ossia dal modulatore armonico (MO) e dal
demodulatore armonico (DEM), che sono rispettivamente denominate modulazione armonica e
demodulazione armonica, sono appunto motivate non solo dalla necessità delle trasformazioni fra
segnali con diversa collocazione dei relativi spettri, attorno al riferimento armonico nel canale e
attorno all’origine dell’asse delle frequenze nei lati esterni, ma anche dalla opportunità di
provvedere a che siano in generale presenti due segnali in banda base, bc(t) e bs(t), in emissione e i
loro corrispondenti, brc(t) e brs(t), in ricezione. Le elaborazioni svolte dai blocchi funzionali
esterni, ossia dalla sezione in banda base emittente (SBE) e dalla sezione in banda base ricevente
(SBR) degli apparati terminali, aggiungono a funzionalità analoghe a quelle di un sistema con
canale in banda base quella di distribuire su due vie fisiche, o di riunire da esse, l’informazione da
trasportare.
L’insieme dei quattro blocchi che costituiscono i terminali emittenti e riceventi si indica come
modem in banda traslata; al solito con tale denominazione si può intendere sia i due sottosistemi
che operano in una trasmissione unidirezionale, sia l’insieme dallo stesso lato del terminale
emittente e di quello ricevente di un sistema di comunicazione bidirezionale.
114
Nel caso di segnali in banda traslata, ricorrendo alla rappresentazione dei segnali diretti s(t) e sr(t)
tramite i rispettivi inviluppi complessi e imponendo solo a questi ultimi di essere fedeli si ottiene
in luogo della [6.1.3] la condizione meno restrittiva (vedi [2.1.10]):
[6.1.5] !r(t) = gC e-j! !(t-tC) ,
dove il fattore gC e il ritardo tC sono caratteristiche di un canale ideale in banda traslata e # è
un’arbitraria costante reale. Il comportamento del canale considerato è allora ottimale se vale tale
relazione. Come nel caso precedente, il trasporto complessivo della informazione avviene poi in
modo ideale se sono complementari sia la coppia delle sezioni in banda base, sia quella del
modulatore e demodulatore armonici, dove per questi ultimi si considerano gli inviluppi complessi
in luogo dei segnali reali in linea.
In definitiva il trasporto ottimale della informazione è consentito in un sistema di trasmissione
ideale in banda traslata composto dalla connessione in cascata, con adattamento ideale in ogni
sezione, di:
• un canale di trasmissione in banda traslata in cui l’inviluppo complesso della risposta sia
fedele a quello della eccitazione;
• un modulatore e un demodulatore armonici adiacenti al canale, con comportamento non
lineare, purché siano complementari e considerino il corretto riferimento in frequenza;
• una coppia di terminali generici in banda base agli estremi del sistema, con
comportamento non lineare, purché siano complementari.
Nelle considerazioni finora svolte non è stata inclusa la possibilità che qualche sottosistema della
cascata costituente il canale con segnale di linea in banda traslata abbia una natura non lineare. Nel
caso di segnali in banda relativa stretta, con banda B molto minore della frequenza di riferimento,
può però accadere che la configurazione del canale di trasmissione preveda l’inserimento in
cascata anche di uno o più convertitori di frequenza. Come già menzionato, la trasmissione ideale
nei riguardi degli inviluppi complessi è allora consentita se i sottosistemi non lineari che attuano la
conversione di frequenza sono perfetti entro l’intervallo di larghezza B, che risulta però centrato su
una frequenza fce in entrata e su una diversa frequenza fcu in uscita.
Nel caso di inserimento di una unica conversione, il canale globale, seppure perfetto nel rispetto
della [6.1.5], ha comportamento non lineare rispetto ai corrispondenti segnali reali s(t) e sr(t), che
hanno infatti spettri collocati attorno alle due diverse frequenze fce e fcu. Se poi nel canale sono
inseriti due convertitori di frequenza perfetti nella medesima banda B, ma complementari, ossia
capaci di fornire con la coppia in cascata la trasmissione ideale del segnale fisico reale dato che nel
secondo la frequenza di riferimento in uscita è proprio quella fce in entrata del canale, il canale
mostra agli estremi un comportamento globale di tipo LT I.
6.1.3 Mezzi trasmissivi perfetti

Nel caso più semplice il sistema di trasmissione si riduce al solo mezzo trasmissivo, di norma
rappresentabile con un quadripolo LT I passivo e simmetrico, pertanto caratterizzato da identiche
riflettenze e dalle trasmettenze H12(f,r) = H21(f,r), queste ultime dipendenti dalla distanza r coperta.
In tale evenienza si ha la trasmissione ideale se le riflettenze sono nulle nella banda utile del
segnale e se la funzione di trasferimento, che allora si identifica con le trasmettenze, assume in
banda la particolare espressione:
[6.1.6] H0(f,r) = g(r) e , ! f " ( fm ;fM ) ,
-j2!ft 0 ( r )

dove:
• il fattore g(r) dipende solo da r, è positivo e soddisfa la g(r) << 1, così da potere in pratica
trascurare il segnale riflesso y1(t) nella porta di entrata rispetto a quello di eccitazione x(t);
• il ritardo t0(r) dipende anch’esso solo da r.
115
Infatti le condizioni considerate definiscono un mezzo trasmissivo perfetto, dato che oltre a
y1(t) < 0 si ha il segnale in uscita y(t) = g(r) x[t - t0(r)], fedele a quello in entrata x(t), anche se
considerevolmente affievolito.
Dato che nel generico mezzo perfetto, sia esso portante fisico o radio, il ritardo risulta
proporzionale a r, si può porre:
r
[6.1.7] t0(r) = ,
v
dove nell’inverso della costante di proporzionalità si riconosce la velocità v con cui il segnale si
propaga lungo il mezzo stesso. Tale velocità di propagazione, costante non solo al mutare di r, ma
anche al variare di f in banda utile, ha valore che dipende dalla particolare struttura: le tratte radio
hanno tutte v = c, mentre nei portanti fisici il valore è minore di c, in relazione al tipo di materiale
dielettrico.
Il modulo della funzione di trasferimento, o meglio la attenuazione A0(r) = 1/g2(r) del mezzo
trasmissivo perfetto, risulta invece esprimibile con due diverse leggi:
[6.1.8] A0(r) = e 2 7 r, per portanti fisici,
2
!r$
[6.1.9] A0(r) = A(r0) # & , per portanti radio,
" r0 %
dove la grandezza 7 > 0, indipendente da r e da f in banda utile, è denominata la costante di
attenuazione della particolare struttura fisica, mentre A(r0) è la attenuazione che si avrebbe per la
medesima particolare coppia orientata di antenne con un prefissato valore di riferimento r0 della
distanza (ad esempio r0 = 1 km).
Per i mezzi portanti fisici l’esistenza della legge esponenziale dell’attenuazione può essere dedotta
notando che comunque si pensi di suddividere in due spezzoni, lunghi r1 e r2, una struttura
uniforme di lunghezza r = r1+ r2, la attenuazione totale rimane invariata; poiché questa ultima è
data dal prodotto delle attenuazioni dei due spezzoni in cascata, si ha che A0(r1+ r2) deve
coincidere con il prodotto A0(r1)A0(r2), condizione che può essere soddisfatta solo con legge
esponenziale. Per una tratta radio la tipica dipendenza dal quadrato della distanza della
attenuazione discende dalla assunzione che la propagazione del segnale avvenga nello spazio
libero privo di perdite e, quindi, che si mantenga costante l’integrale del flusso della potenza
irradiata su qualsiasi superficie sferica di raggio r, con centro nella origine delle onde e.m. sferiche
irradiate.
I valori assunti dall’attenuazione dei mezzi trasmissivi sono di solito molto maggiori dell’unità.
Nella pratica si usa spesso la valutazione in unità logaritmiche, servendosi dei neper [Np] o, più
comunemente, dei decibel [dB]:
1
A[Np] =ˆ ln(A), A[dB] =ˆ 10 log(A),
2
dove ln e log indicano rispettivamente il logaritmo naturale e quello in base 10. In particolare, nel
caso di portanti fisici perfetti in base alla [6.1.8] risulta:
[6.1.10] A0[Np] = 7 r, A0[dB] = 7[dB/m] r,
dove si riconosce che la costante di attenuazione 7 si misura in Np/m e si è posto:
7[dB/m] = 20 log(e) 7 < 8,686 7.
Si segnala infine che con i mezzi trasmissivi effettivi è possibile avvicinare l’obiettivo
dell’adattamento perfetto alle due porte, mentre è spesso difficile ottenere nella banda utile delle
funzioni di trasferimento H( f,r) che approssimino bene il comportamento perfetto evidenziato
nella [6.1.6], soprattutto se la larghezza di banda relativa è notevole.
116
6.1.4 Canali lineari perfetti

Nella sua versione più semplice, un sistema di trasmissione ideale è costituito dal solo mezzo
trasmissivo (blocco centrale in Figura 1.2). Un sistema di trasmissione non elementare è costituito,
oltre che dal fondamentale mezzo trasmissivo, da altri sottosistemi.
Nel capitolo iniziale è stato evidenziato (vedi Figura 1.2) che la struttura tipica di un sistema di
trasmissione è costituita da un mezzo trasmissivo, con il compito del trasporto a distanza, e da
apparati di trasmissione inseriti a monte e a valle, che svolgono altre funzioni fondamentali
ripartite di norma in una pluralità di blocchi in cascata. Di norma il mezzo trasmissivo è di tipo
lineare, per avvicinare l’obiettivo del comportamento perfetto, ma spesso godono di tale proprietà
anche i blocchi funzionali degli apparati emittenti e riceventi direttamente connessi al mezzo
portante, così da costituire insieme a quest’ultimo un canale di trasmissione complessivamente
lineare.
Nel caso in cui tutti i blocchi componenti il canale siano singolarmente rappresentabili da
quadripoli di tipo LT I perfetti in una stessa banda, il comportamento globale si può ricondurre a
quello di un canale di trasmissione perfetto, o semplicemente canale perfetto, anch’esso LT I
perfetto nella medesima banda; esso ha una funzione di trasferimento uguale al prodotto di tutte
quelle degli m quadripoli rappresentativi che compongono la cascata (vedi [5.3.36]): indicato con
Gi il guadagno e con t0i il ritardo di gruppo dello i-esimo quadripolo, si hanno allora il guadagno e
il ritardo di gruppo del canale, entrambi costanti in banda:
m m
[6.1.11] G = ! G i , t0 = ! t 0i .
i=1 i=1

Osservando che in un canale perfetto sono sempre specificati gli estremi fm e fM della banda entro
la quale esso opera, si possono distinguere canali perfetti in banda base, al solito con fM >> fm, e
canali perfetti in banda relativa stretta, o molto stretta.
Sul piano puramente concettuale tale situazione è accettabile per qualsiasi distanza finita r da
coprire, poiché in teoria, per quanto grande sia il valore dell’attenuazione del mezzo ideale, il
segnale ricevuto conserva il carattere fedele richiesto dalla [1.2.1], comunque sia piccolo il valore
del fattore g; è tuttavia ragionevole, anche ignorando la presenza in ricezione di segnali
indesiderati, porsi l’obiettivo del ripristino del livello di potenza del segnale ricevuto y(t).
Nella sua configurazione più semplice, un canale perfetto comprende almeno un blocco attivo in
aggiunta al mezzo trasmissivo: si tratta di un amplificatore perfetto con guadagno GA = g 2A ,
rappresentabile con un quadripolo LT I con la elementare funzione di trasferimento HA( f ) = gA
costante in banda utile. L’amplificatore è inserito per recuperare il notevole affievolimento del
segnale uscente dal mezzo trasmissivo con attenuazione A(r) >> 1 (nella realtà l’affievolimento
totale è dovuto ad una pluralità di elementi di cui il mezzo trasmissivo è quello che fornisce il
contributo maggiore; gli altri contributi riguardano guide d’onda, elementi passivi, divisori di
segnali, dispositivi vari); ponendo i due sottosistemi in cascata, si ha infatti in banda utile il
guadagno complessivo del quadripolo equivalente al canale:
GA
[6.1.12] Geq = , ! f " ( fm ;fM ) ,
A (r )
che con GA = A(r) consente di ottenere un segnale fedele trasferito a valle della cascata che ha la
stessa potenza di quello di eccitazione, lasciando come unico effetto della trasmissione ideale nel
canale considerato, a guadagno complessivo unitario, la presenza del ritardo t0(r) introdotto dal
mezzo trasmissivo. Quanto sopra vale indipendentemente dalla collocazione dell’amplificatore,
all’inizio o alla fine del canale.
La presenza dell’attenuazione A0(r)>>1 può quibdi essere facilmente compensata con un
amplificatore, capace di fornire in uscita un segnale z(t) replica di quello in entrata y(t) a meno di
un fattore gA>>1, ossia dotato di un guadagno:
117
W
[6.1.13] GA = zz = g 2A ;
Wyy
tenendo conto anche che A0(r)=Wxx/Wyy, si ottiene infatti complessivamente:
GA
[6.1.14] Wzz = GA Wyy = Wxx,
A0 (r )
che nel caso della scelta GA=A0(r) fornirebbe Wzz=Wxx, come mostrato nello schema in Figura
6.5a. Il risultato della compensazione dell’attenuazione è lo stesso se l’amplificatore precede il
mezzo trasmissivo, come mostrato in Figura 6.5b.

Figura 6.5: Canali di trasmissione costituiti da un amplificatore e un mezzo trasmissivo, con


andamenti lungo il canale della potenza W del segnale.
In assenza di difetti nell’amplificatore e nel mezzo trasmissivo, l’ordine dei due blocchi, entrambi
lineari, che costituiscono un canale di trasmissione, è indifferente; a parità della potenza Wxx di
segnale, assunta uguale all’inizio e alla fine del canale considerato, si nota tuttavia che
anteponendo l’amplificatore (vedi Figura 6.5b) si ha alla sua uscita una più forte potenza GAWxx,
difficile da ottenere mantenendo la linearità del blocco attivo, che indurrebbe a scegliere l’altra
soluzione (vedi Figura 6.5a), la quale però appare intuitivamente rischiosa per il valore Wxx/GA
molto piccolo della potenza uscente dal mezzo trasmissivo, se si pensa alla possibile esistenza di
un disturbo all’uscita del mezzo trasmissivo avente potenza indipendente da quella del segnale.
Nella realtà, tenendo conto di entrambe le imperfezioni menzionate, ossia la potenziale carenza di
linearità nell’amplificatore e la presenza di disturbo nel mezzo trasmissivo, è comunque attendibile
che la configurazione preferita di un canale contempli il recupero dell’attenuazione del mezzo
trasmissivo in parte all’inizio, con un blocco attivo denominato amplificatore di potenza, e per la
restante parte alla fine, con un altro denominato amplificatore di ricezione.
Procedendo per complessità crescente, si può pensare di aggiungere negli apparati emittenti e
riceventi altri blocchi funzionali non lineari, che spesso danno luogo a coppie di trasformazioni
reversibili del segnale in transito che sono profonde, ma reversibili dato che un blocco
nell’apparato ricevente opera in modo complementare rispetto al blocco corrispondente
nell’apparato emittente, in modo da non alterare la informazione complessivamente trasmessa. La
configurazione degli apparati è in via logica subordinata alla scelta del mezzo portante: essa risulta
infatti definibile in base alla ottimizzazione tecnico-economica complessiva del sistema di
trasmissione, una volta noto il tipo di portante (fisico o radio) e le sue prestazioni reali.
Nel caso in cui si debbano coprire distanze molto grandi, può convenire il recupero graduale della
attenuazione prodotta dal mezzo trasmissivo, suddividendolo in più tratte e inserendo degli
apparati ripetitori attivi lungo il suo tracciato. Si ottiene allora in effetti la suddivisione del
collegamento in più sistemi di trasmissione in cascata.
Come già segnalato nel capitolo introduttivo, è molto frequente il recupero dell’attenuazione del
mezzo trasmissivo in parte all’inizio, con un amplificatore di potenza perfetto con guadagno GE, e
118
in parte alla fine, con un amplificatore di ricezione perfetto con guadagno GR, ottenendo il
guadagno complessivo del canale:
G EG R
[6.1.15] Geq = , ! f " ( fm ;fM ) .
A (r )
In tale caso, schematizzato in Figura 6.6, si ottiene un canale perfetto a guadagno unitario
assumendo GE GR = A(r).

Figura 6.6: Configurazione di un canale perfetto a guadagno complessivo unitario, costituito da


sottosistemi tutti perfetti.

6.2 ELABORAZIONE LINEARE DI SEGNALI TEMPO CONTINUO

6.2.1 Elaborazione lineare senza taglio di banda

6.2.1.1 Effetti della trasformazione LT I con memoria


La più semplice elaborazione effettuabile su un generico segnale reale x(t) è la sua trasformazione
LT I con memoria tramite il transito in un quadripolo Q fisicamente realizzabile, con funzione di
trasferimento H( f ); l’operazione si svolge con azione diretta e continua nel tempo sulla grandezza
fisica istantanea della eccitazione: si adotta quindi anche la denominazione di elaborazione lineare
di segnale tempo continuo. Indicata al solito con h(t) = F-1{H( f )} la relativa risposta impulsiva
reale e causale, per effetto della trasformazione si ottiene in uscita, come noto, il segnale reale
fornito dalla convoluzione:
[6.2.1] y(t) = h(t) $ x(t).
La [6.2.1], a cui corrisponde una espressione simile applicabile nel caso di segnali s(t) in banda
traslata, prescinde dalla natura numerica o analogica della informazione veicolata dal segnale.
Con riferimento al caso di segnali di energia, rammentando la relazione tra la funzione di
intercorrelazione e la convoluzione (vedi [3.3.51]) si ha:
[6.2.2] Cyx(-) = y(-)$x*(- -) = h(-)$x(-)$x*(- -) = h(-)$Cxx(-) ;
si ottiene poi una espressione analoga con le funzioni Ryx(-) e Rxx(-) valida nel caso di segnali di
potenza. La risposta y(t) risulta dunque affine al segnale di eccitazione x(t), ma per essere la
trasformazione del tipo con memoria la funzione in uscita è un segnale distorto, con forma d’onda
non fedele a quella in entrata, mentre lo sarebbe invece se la trasformazione fosse priva di
memoria (vedi [5.1.8]). La elaborazione considerata produce quindi una distorsione lineare tempo
invariante e il sistema che la effettua è un quadripolo LT I distorcente.
D’altra parte noi desideriamo che il comportamento del sistema di trasmissione nella sua
completezza sia tale da garantire che il segnale di uscita sia fedele a quello di ingresso, ma i
singoli blocchi sono progettati e realizzati per svolgere determinate funzioni. Inoltre, teniamo
sempre presente che la funzione di trasferimento senza memoria è solo ideale e quindi non
realizzabile.
Con procedimento simile, nel caso di segnali di energia si ha:
[6.2.3] Cyy(-) = h(-)$h*(- -)$Cxx(-),
e si può ricavare una espressione analoga con le funzioni Ryy(-) e Rxx(-) nel caso di segnali di
potenza. Applicando la trasformazione di Fourier e rammentando le relazioni di Wiener-
119
Khintchine (vedi [3.3.59] e [3.3.66]) si ottengono gli effetti della elaborazione lineare nel dominio
della frequenza:
[6.2.4] Eyy( f ) = |H( f )|2 Exx( f ), Wyy( f ) = |H( f )|2 Wxx( f ),
dove con E( f ) o W( f ) sono rispettivamente indicate le densità spettrali di energia o di potenza dei
segnali considerati. Tramite integrazione risultano le seguenti espressioni della energia o della
potenza:
2 2
[6.2.5] Eyy= ! H (f ) E xx ( f ) df , Wyy= ! H (f) Wxx (f)df .

In alcuni casi l’elaborazione viene appunto applicata, prendendo lo spunto dalle [6.2.4], per
sagomare opportunamente lo spettro del segnale in uscita, ossia per distribuire in modo diverso la
sua energia o potenza entro la medesima banda; ciò spesso viene attuato anche senza alterare
l’energia o la potenza complessiva. Nel caso in cui si abbia una elaborazione senza taglio di banda,
la funzione di trasferimento H( f ) del quadripolo LT I impiegato deve essere non nulla nell’intera
banda di segnale.
Diversamente si può avere lo scopo di eliminare parte dello spettro di un segnale, utilizzando un
quadripolo LT I che alle frequenze considerate abbia funzione di trasferimento nulla, o quasi nulla
in modulo: la elaborazione lineare è allora del tipo con taglio di banda.
Un modo per osservare l’effetto nel dominio del tempo prodotto da una generica elaborazione
lineare consiste nel porre tanto il segnale di eccitazione x(t) quanto la risposta y(t) nelle forme
campionate:
! t $ ! t $
[6.2.6] x(t) = ( k xksinc # -k & , y(t) = ( k yk sinc # -k & ,
" TN % " TN %
dove xk e yk sono i campioni completamente rappresentativi dei segnali:
[6.2.7] xk = x(kTN), yk = y(kTN),
essendo TN = 1 / 2 fM l’intervallo di Nyquist. Dal punto di vista del trasferimento della
informazione, una elaborazione lineare che agisce in modo continuo sulla grandezza fisica
istantanea del segnale, può essere dunque posta in corrispondenza a una trasformazione che opera
a tempo discreto tra una sequenza entrante x(n) e una uscente y(n), aventi per elementi i rispettivi
campioni dei segnali x(t) e y(t), con intervallo temporale TN invariato in entrata e in uscita.
Come dimostrato nel paragrafo 6.2.1.2, a cui si rinvia il lettore interessato ad approfondire, la
trasformazione effettuata con un quadripolo LT I distorcente fisicamente realizzabile fa assumere
alla corrispondente elaborazione a tempo discreto sui campioni dei segnali la forma lineare
particolare:
!
[6.2.8] yk = " h n xk -n = h0 xk + h1 xk-1 +...+ hm xk-m +...,
n=0

in cui hn sono gli elementi di una sequenza monolatera destra caratteristica del quadripolo,
denominata risposta impulsiva discreta equivalente. Dalla [6.2.8] si evince che una
trasformazione LT I con memoria opera la convoluzione tra la sua sequenza monolatera
caratteristica h(n) e quella x(n) del segnale in entrata. Ogni campione yk della sequenza y(n) del
segnale distorto in uscita è dato da una combinazione lineare a coefficienti reali costanti di un
numero in teoria infinito di campioni xk del segnale entrante, a partire da quello corrispondente
allo stesso istante e procedendo a ritroso per tutti quelli passati. Nella pratica si può assumere che
la risposta impulsiva equivalente sia una sequenza monolatera h(n) di lunghezza finita.
6.2.1.2 Risposta impulsiva discreta equivalente
Si consideri un quadripolo LT I con funzione di trasferimento H( f ), eccitato da un segnale x(t)
limitato superiormente in banda con estremo finito fM.
120
Pertanto ammette l’intervallo di campionamento massimo:
1
[6.2.9] TN = .
2 fM
Ai fini della risposta della trasformazione, il quadripolo può essere sostituito con uno equivalente,
con funzione di trasferimento resa periodica in frequenza con periodo 2 fM = 1/ TN:
[6.2.10] Heq(f) =ˆ rep2fM{H(f) e j2! ft 0 rect(f TN)} e-j2! ft 0 ,
dato che questo differisce dal primo solo alle frequenze in cui è nulla l’eccitazione. Il modulo di
Heq( f ) é continuo, dato che |H( f )| è una funzione pari; per ottenere anche la continuità
dell’argomento di Heq( f ) é opportuno che il ritardo t0 sia scelto in modo da soddisfare la
arg{H( fM)}= - 2!f t0.
La [6.2.10] può essere espressa in serie di Fourier, ottenendo:
!
[6.2.11] Heq( f ) = " h n e- j 2 !nfT
N
,
n=0

dove sono indicati con hn i coefficienti di Fourier


1 fM fM
[6.2.12] hn = " H eq ( f ) e j2!nfT df = TN
N
" H ( f ) e j2!nfT df ,
2 fM
N

-fM -fM

nulli per n < 0 dato che Heq( f ) conserva la realizzabilità fisica.


Antitrasformando la [6.2.11] si ottiene la funzione a tempo discreto:
!
[6.2.13] heq(t) = " h n +(t – nTN),
n=0

denominata risposta impulsiva discreta equivalente, a cui corrisponde una sequenza monolatera
destra h(n) con intervallo temporale TN. Servendosi di tale funzione nella convoluzione
y(t) = h(t) $ x(t), dove l’eccitazione è espressa nella forma campionata [6.2.6], si ottiene la risposta
anch’essa in forma campionata:
! t $ !
t ! $ !
[6.2.14] y(t) = heq(t) $ ( k xk sinc # -k & = " k " hn xk +(t - nTN) $ sinc #" T -k &% = " k " hn xk sinc
" TN % n=0 N n=0

! t $ ! t $
# -k+n & = ( kyk sinc # -k & ,
" TN % " TN %
dove nell’ultimo passaggio è stato effettuato il cambio di variabile discreta da k - n a k e gli
elementi yk relativi al segnale trasformato risultano dati dalla:
!
[6.2.15] yk= " x k-n h n .
n=0

6.2.1.3 Equalizzazione di canale


È importante notare che una generica elaborazione lineare senza taglio di banda, per la quale si è
assunto che il quadripolo distorcente Q non sopprima alcuna componente spettrale del segnale,
gode della proprietà di essere reversibile, nel senso che esiste la possibilità di ottenere dal segnale
elaborato y(t) un segnale fedele a quello di eccitazione x(t).
Infatti, essendo |H( f )| > 0 per ogni | f | entro gli estremi fm e fM della banda di segnali, è allora
fisicamente realizzabile il quadripolo LT I adattato che ha la funzione di trasferimento:
g
[6.2.16] H ( f ) =ˆ e-j2!f t , ! f " ( fm ;fM ) ,
H(f)
121
inversa della H( f ) a meno di un fattore complesso con modulo costante g e con argomento
proporzionale alla frequenza tramite il ritardo t , così che dalla cascata dei due quadripoli
complementari Q e Q si ottiene:

[6.2.17] Heq( f ) = H( f ) H ( f ) = g e-j2!f t , ! f " ( fm ;fM ) ,

che garantisce la trasmissione ideale nel complesso.


Il quadripolo distorcente Q , che è capace di compensare la distorsione lineare senza taglio di
banda introdotta da quello Q, si denomina equalizzatore tempo invariante.
La tecnica della equalizzazione trova largo impiego nei canali di trasmissione effettivi, che a causa
del già menzionato comportamento non perfetto del mezzo trasmissivo, con attenuazione e ritardo
di gruppo non costanti con la frequenza in banda utile, causerebbero altrimenti distorsione del
segnale alla loro uscita. La configurazione più comune del canale LT I è dunque quella mostrata in
Figura 6.7.

Figura 6.7: Configurazione di un canale lineare a guadagno complessivo unitario, in cui il


comportamento perfetto è acquisito tramite equalizzazione
6.2.2 Esempi di elaborazione lineare senza taglio di banda

La elaborazione lineare senza taglio di banda è assai varia, potendo scegliere una qualsiasi
funzione di trasferimento H( f ), nel rispetto della reversibilità della operazione. Nel seguito
verranno presi in esame alcuni tipi, significativi per la trasformazione che li caratterizza. Due
esempi assai diffusi sono le trasformazioni LT I rispettivamente attuate tramite le operazioni di
derivazione e integrazione nel dominio del tempo:
dx ( t ) t
[6.2.18] y(t) =
dt
, y(t) = " x (u) du .
-!

Si noti che a meno di una costante tali elaborazione sono tra loro complementari, ossia l’una
consente le reversibilità dell’altra.
Applicando alle [6.2.18] la trasformazione di Fourier, si determinano le seguenti funzioni di
trasferimento del derivatore ideale e dello integratore ideale:
1
[6.2.19] HDi ( f ) =ˆ j2!f, HIi ( f ) =ˆ .
j2!f
I relativi quadripoli non sono tuttavia nemmeno idealmente realizzabili, come appare dalle
precedenti funzioni caratteristiche che hanno ciascuna un polo, rispettivamente per f 9 ) e per
f = 0.
A partire da segnali limitati in banda con fm non nullo, le trasformazioni [6.2.18] sono ottenibili
con reversibilità con quadripoli LT I con memoria fisicamente realizzabili, che abbiano funzioni di
trasferimento del tipo:
[6.2.20] HD ( f ) =ˆ HDi ( f ) g e-j2 ! ft 0 , ! f " ( fm ;fM ) ,

[6.2.21] HI ( f ) =ˆ HIi ( f ) g e-j2 ! ft 0 , ! f " ( fm ;fM ) ,

dove g e t0 sono costanti reali positive. Si può verificare che nella banda di segnale il modulo delle
funzioni di trasferimento è limitato e non nullo e il ritardo di gruppo risulta uguale a t0. Questi
quadripoli complementari, denominati rispettivamente derivatore perfetto e integratore perfetto,
122
alterano profondamente la distribuzione della energia o della potenza del segnale entro la stessa
banda; in base alle [6.2.4] si ha infatti per un derivatore:
[6.2.22] Eyy( f ) = (2!f)2 g2 Exx( f ), Wyy( f ) = (2!f)2 g2 Wxx( f ),
e per un integratore:

[6.2.23] Eyy( f ) = (2!f)-2 g2 Exx( f ), Wyy( f ) = (2!f)-2 g2 Wxx( f ),


con la conseguente esaltazione delle componenti spettrali rispettivamente alle alte oppure alle
basse frequenze. In Figura 6.8 sono mostrati gli effetti sulle densità spettrali in uscita nel caso di
segnale di eccitazione con spettro uniforme in banda.

Figura 6.8: Densità spettrale in entrata (a) e densità spettrale in uscita rispettivamente da un
derivatore (b) e da un integratore (c).
Altri esempi di elaborazione analogica lineare senza taglio di banda e reversibile sono quelli offerti
dalla coppia di quadripoli LT I con memoria fisicamente realizzabili, ancora tra loro
complementari, con le rispettive funzioni di trasferimento, aventi moduli costanti e unitari in una
banda da fm a fM:
! ! $
-j#2 !fto + sgn(f)&
[6.2.24] HH ( f ) =ˆ - j sgn( f ) e -j2 ! ft 0
=e " 2 %
, ! f " (fm ;fM ) ,
! ! $
-j#2 !fto - sgn(f)&
[6.2.25] H H( f ) =ˆ j sgn( f ) e -j2 ! ft 0
=e " 2 %
, ! f " (fm ;fM ) ;

le trasformazioni sono tuttavia applicabili a patto che i segnali di eccitazione siano privi di
componenti spettrali in prossimità della origine, ossia si abbia ancora fm>0.
Si può verificare che nella banda considerata il ritardo di gruppo risulta uguale alla costante
positiva t0. I due quadripoli considerati, che non alterano la distribuzione spettrale dell’energia o
della potenza, hanno l’effetto fondamentale di introdurre un addendo a gradino nell’argomento
delle funzioni di trasferimento, con conseguente sfasamento aggiuntivo di ±!/2 di ciascuna
componente spettrale uscente; essi vengono pertanto denominati sfasatori di ±" / 2.
Il lettore interessato ad ulteriori approfondimenti può constatare che i quadripoli sfasatori
considerati attuano la trasformazione e la antitrasformazione di Hilbert (vedi [3.5.22] e [3.5.27]), a
meno del ritardo t0.
Si noti che nell’intervallo (fm ; fM) le funzioni HD ( f ) e H H ( f ), così come la coppia HI ( f ) e HH ( f ),
hanno argomenti con lo stesso tipo di andamento, di cui in Figura 6.9 sono mostrati gli esempi.
I quadripoli costruibili con cui si ottengono con buona approssimazione, ma non esattamente, gli
andamenti nella banda di segnale delle funzioni di trasferimento dei quattro tipi di elaboratori
lineari considerati hanno caratteristiche prive di discontinuità, sia in modulo che in argomento,
sull’intero asse delle frequenze. Per una assegnata tolleranza sui piccoli scostamenti in banda tra le
funzioni di trasferimento effettive e quelle teoriche, la complessità circuitale cresce con il valore
del parametro:
B fM -fm
[6.2.26] QH =ˆ = ,
fm fm
123
che quanto più è grande tanto più rende difficile e costosa la costruzione; l’approssimazione è
pertanto facile nel caso di trasformazioni da effettuare su segnali in banda relativa stretta (B<fm), e
ancora di più se molto stretta.

Figura 6.9: Andamenti dell’argomento delle funzioni di trasferimento HD ( f ) e H H ( f ) (a) e delle


funzioni di trasferimento HI ( f ) e HH ( f ) (b).
6.2.3 Elementi sui filtri

Nell’intento di separare un segnale utile x(t) con banda limitata entro l’estremo superiore fM da
eventuali altri segnali addizionali, che invece abbiano componenti spettrali non nulle solo
all’esterno del menzionato intervallo, si individua immediatamente la funzione di trasferimento
(vedi Figura 6.10):
[6.2.27] Hti( f ) =ˆ rect(f/2ft) e-j2!ft 0 ,
con frequenza di taglio ft = fM, caratteristica del quadripolo LT I denominato filtro passa-basso
rettangolare. Il sistema, infatti, consente il trasferimento trasparente, a meno di un ritardo t0
costante, di ogni componente spettrale che cada nella banda passante, tra 0 e ft entro cui si ha
|Hti( f )| = 1, e non permette alcun trasferimento nella banda oscura, tra ft e infinito entro cui si ha
invece Hti( f ) = 0.

Figura 6.10: Modulo della funzione di trasferimento del filtro passa-basso rettangolare, a linea
continua, e del filtro passa-basso perfetto, a tratteggio.
Dato che la funzione di trasferimento [6.2.27] è strettamente limitata in banda, la risposta
impulsiva è illimitata nel tempo: con t0 finito viene allora a mancare la causalità, ossia il filtro
passa-basso rettangolare è solo idealmente realizzabile. Almeno nella banda del segnale utile la
prestazione considerata è tuttavia garantita da un quadripolo LT I fisicamente realizzabile,
denominato filtro passa-basso perfetto, per il quale il modulo della funzione di trasferimento è
ancora unitario fino alla frequenza di taglio, ossia si ha:
124
[6.2.28] Ht( f ) =ˆ Hti( f ), ! f < ft ,

ed è prossima a zero per | f |>ft, tranne che nel piccolo intervallo di transizione >ft, adiacente alla
banda passante, entro il quale si passa dal valore uno a valori quasi nulli, come mostrato
nell’andamento a tratteggio in Figura 6.10.
Nel passare a quadripoli effettivamente costruibili con cui si ottiene con buona approssimazione la
prestazione considerata, si motiva la collocazione dei filtri tra i sistemi che compiono elaborazioni
lineari con memoria, senza taglio di banda sul segnale utile. Nella pratica infatti non è possibile
ottenere una ripida transizione tra banda passante e banda oscura senza produrre piccoli, ma
inevitabili effetti di distorsione nel segnale in uscita. Una categoria di filtri pratici, denominata a
massima piattezza o di Butterworth, ha ad esempio il seguente andamento della attenuazione:
[6.2.29] AB( f ) = 1 + k2( f / ft) 2n,
con k2<1 e n intero positivo, che per qualsiasi valore di n fornisce alla frequenza di taglio
AB( ft)=1+ k2 ; anche se si fissa un valore piccolo di k2 e un valore elevato di n, l’attenuazione non
è rigorosamente costante nella banda del segnale utile, che di conseguenza risulta distorto in
uscita, anche se in modo marginale. Adottando, come accade per la categoria dei filtri di
Tchebysheff, un andamento AT( f ) dell’attenuazione con piccole oscillazioni in banda passante,
tutte di ampiezza 1+ k2 che è ancora il valore alla frequenza di taglio, è possibile ottenere a parità
dell’ordine del polinomio in frequenza che esprime la funzione AT( f ) una sua più ripida crescita
nell’intervallo di transizione, ma con accentuazione dell’effetto distorcente, a pari valore di k2.
Esistono poi altri tipi di filtri con andamenti ancora più complessi.
Una volta stabilita la tolleranza dello scostamento rispetto al comportamento del filtro ideale, si
perviene spesso al tracciamento di una maschera (vedi Figura 6.11) che almeno fissa il valore
massimo A = 1+ k2 ammesso per l’attenuazione variabile in banda utile (poco maggiore di uno),
l’estensione dell’intervallo di transizione >ft e il valore minimo ammesso per l’attenuazione in
banda oscura (assai maggiore di uno). Si può allora individuare il valore minimo da assegnare
all’ordine 2n del polinomio AB( f ) per soddisfare i requisiti, ossia affinché l’andamento
dell’attenuazione del filtro sia all’interno della maschera. Lo stesso procedimento può essere
applicato anche alle altre categorie di filtri.

Figura 6.11: Attenuazione di un filtro passa-basso a massima piattezza, con andamento contenuto
in una maschera assegnata.
A parità di tolleranze, la complessità circuitale del filtro, che aumenta con n, è in generale tanto
maggiore quanto più grande è il valore del parametro:

[6.2.30] Qt =ˆ ft .
!ft
In aggiunta al tipo di filtro passa-basso, si considerano altri quadripoli che compiono elaborazioni
lineari senza taglio di banda, ancora con caratteristiche decisamente selettive in frequenza. In
ragione dei loro comportamenti, mostrati in Figura 6.12 tramite gli andamenti della attenuazione
125
A[dB] = 10 log A espressa in decibel, i quattro principali tipi si denominano filtro passa-basso (a),
filtro passa-alto (b), filtro passa-banda (c) e filtro elimina-banda (d).

Figura 6.12: Andamento della attenuazione in decibel nei tipi principali di filtri - passa-basso (a),
passa-alto (b), passa-banda (c) ed elimina-banda (d).
Nella parte inferiore della Figura 6.12 è anche riportata l’usuale simbologia nelle rappresentazioni
con schemi a blocchi.
Le funzioni di attenuazione dei tipi di filtri di nuova introduzione possono essere ricavati dalla
espressione dell’attenuazione A( f ) del tipo passa-basso tramite semplici sostituzioni della variabile
indipendente:
• con (ft/f) al posto di (f/ft) si ottiene l’attenuazione del tipo passa-alto, con frequenza di
taglio ft;
• con (f-fa)/ft al posto di (f/ft) si ottiene l’attenuazione del tipo passa-banda, con larghezza
di banda passante Bt = 2 ft centrata sulla frequenza fa;
• con ft/(f-fa) al posto di (f/ft) si ottiene l’attenuazione del tipo elimina-banda, con larghezza
di banda oscura Bt = 2 ft centrata sulla frequenza fa.
6.2.4 Elaborazione lineare con taglio di banda

6.2.4.1 Modalità nella elaborazione con taglio di banda


Alcuni segnali, e in particolare quelli numerici con la forma a gradini, possono essere non di rado
trasmessi a distanza con maggiore convenienza dopo avere subito una elaborazione che limiti la
occupazione di banda del segnale alla sua uscita a un opportuno valore finito fyM, a patto che
l’eliminazione di una parte, anche considerevole, dello spettro produca un effetto di distorsione del
tutto non influente o almeno accettabile, nei riguardi della informazione trasmessa. Si adotta allora
la elaborazione lineare con taglio di banda, effettuabile mediante un quadripolo LT I fisicamente
realizzabile, con funzione di trasferimento praticamente nulla a partire dal considerato valore fyM.
In alcuni casi, tipicamente in quello di segnale a gradini, lo spettro del segnale in entrata è solo
praticamente limitato in frequenza con estremo fM, mentre la banda disponibile per la trasmissione
ha estensione fyM molto minore di fM; stante il notevole effetto di distorsione prodotto dal taglio di
banda, è allora necessario intervenire ponendo molta attenzione alla salvaguardia della
informazione trasmessa. Come esposto nella sezione successiva, nel caso numerico esistono
fortunatamente delle elaborazioni lineari con forte taglio di banda, ma di tipo reversibile, che cioè
ammettono la possibilità di restituire un segnale fedele a quello originario.
La più semplice modalità di riduzione della banda è quella in cui si impiega un filtro passa-basso,
ma con frequenza di taglio ft = fyM che sia inferiore, anche se non eccessivamente, alla frequenza
massima fM del segnale di eccitazione x(t) su cui si intende operare. La distorsione prodotta sulla
forma del segnale, contenuta entro limiti tollerabili ai fini della trasmissione della informazione,
non è in generale compensabile con alcuna operazione a valle, ossia nel tipo di elaborazione
considerato non è garantita la reversibilità.
126
6.2.4.2 Effetti del taglio di banda
Si consideri la funzione di trasferimento Hti(f) (vedi [6.2.27]) di un filtro passa-basso rettangolare,
con frequenza di taglio ft e con tempo di ritardo t0. Supposto che si abbia in entrata il segnale
x(t) " +(t), si ottiene in uscita la risposta impulsiva:
[6.2.31] hti(t) = F-1{Hti(f)} = 2ftsinc[2ft(t–t0)],
con andamento temporale molto diverso da quello della eccitazione per effetto della distorsione
lineare per taglio di banda. Poiché Hti(f) è hermitiana, ossia il filtro passa-basso rettangolare è
almeno idealmente realizzabile, la risposta è reale; come mostrato in Figura 6.13a, si ha in uscita
un impulso con un massimo in corrispondenza del tempo di ritardo t0 e con elongazioni di notevole
durata, così che il segnale in uscita si manifesta addirittura in anticipo rispetto all’istante t = 0, di
applicazione dell’impulso ideale in entrata. Il quadripolo non è dunque causale, ossia non è
fisicamente realizzabile. L’effetto della soppressione delle componenti spettrali oltre la frequenza
di taglio ft si manifesta anche nella ripidità finita dell’impulso in uscita: riferendosi al tempo che
intercorre tra l’istante in cui la risposta raggiunge il massimo e quello immediatamente precedente
in cui il segnale è nullo, si ottiene il valore >t = 1/2ft, inversamente proporzionale alla frequenza di
taglio.

Figura 6.13: Risposta impulsiva del filtro passa-basso rettangolare con ritardo t0 (a) e del filtro
fisicamente realizzabile che lo approssima (b).
Un filtro passa-basso fisicamente realizzabile con funzione di trasferimento che approssimi bene
quella rettangolare ha una risposta impulsiva simile a quella di Figura 6.13a. Come mostrato in
Figura 6.13b, si ha ancora un impulso con un tempo di salita circa pari a >t=1/2ft e un massimo in
corrispondenza a un istante t0 (con t0 >>>t), che può essere assunto come tempo di ritardo del
filtro; si manifestano però delle apprezzabili differenze, che riguardano una lieve asimmetria
dell’impulso rispetto al suo punto di massimo e, soprattutto, le elongazioni, che si mostrano più
brevi: quella in anticipo è nulla per t " 0, mentre quella in ritardo è trascurabile per t >2t0. In
definitiva la risposta impulsiva di un filtro passa-basso effettivo può considerarsi praticamente
limitata in durata nell’intervallo (0; 2t0).
Si noti che quanto meglio la funzione di trasferimento del filtro effettivo approssima quella ideale
(con sempre più elevato valore del parametro [6.2.30]), ovverosia quanto più la sua risposta
impulsiva è simile a hti(t), tanto maggiore deve risultare il tempo di ritardo t0 e, quindi, la durata
pratica della risposta impulsiva stessa. Infatti, il filtro passa basso ideale con funzione di
trasferimento rettangolare implica una risposta impulsiva di durata infinita. Pertanto, per poter
effettuare completamente la convoluzione occorre che trascorra un tempo infinito.
L’effetto nel dominio del tempo provocato dal transito di un generico segnale in banda base x(t)
nel filtro passa-basso rettangolare può essere calcolato, volta per volta, tramite la convoluzione
hti(t) $ x(t). Passando a un filtro passa-basso effettivo, il segnale distorto in uscita si ottiene con la
medesima operazione, ma utilizzando la effettiva risposta impulsiva ht(t), del tipo mostrato in
Figura 6.13b. In generale si possono comunque formulare le seguenti considerazioni.
127
Nel caso di segnale di energia strettamente limitato in un intervallo di durata D, e quindi
teoricamente illimitato in banda, la distorsione per taglio di banda è sicuramente presente e si
evidenzia qualitativamente sotto due aspetti:
• lo smussamento della forma d’onda temporale in uscita, tanto maggiore quanto minore è la
frequenza di taglio ft, principalmente evidente nei tratti di maggiore ripidità del segnale in
entrata;
• la elongazione nel tempo con una durata pratica che si può assumere pari a D+2t0, come si
può dedurre dalla y(t) = ht(t) $ x(t) tenendo conto che la risposta impulsiva ha praticamente
durata 2 t0 (si rammenti che la convoluzione tra due segnali a durata finita ha una durata pari
alla somma delle due durate).
Nel caso di segnali strettamente limitati in banda, con frequenza massima fM, il primo degli aspetti
di cui sopra si manifesta ovviamente solo se ft<fM; il secondo perde significato, poiché pure
assumendo che la durata D sia praticamente finita il suo valore è di norma tale da potere trascurare
l’incremento 2t0. Se poi la porzione di spettro eliminata non è molto notevole, come nell’esempio
mostrato in Figura 6.14, l’effetto di distorsione con smorzamento della forma d’onda è debole,
così da potere essere accettato nella pratica della trasmissione, come accade nel caso del segnale
telefonico analogico che viene superiormente limitato in spettro a 3,4 kHz.

Figura 6.14: Densità spettrale di potenza di un segnale sottoposto a taglio di banda.

6.3 ELABORAZIONE DI SEGNALI A GRADINI

6.3.1 Reversibilità della elaborazione su segnali a gradini

6.3.1.1 Reversibilità nel dominio del tempo


Un segnale di potenza nella forma a gradini di durata nota T:
!t $
[6.3.1] a(t) = (kakrect # -k & ,
"T %
in quanto composto da una serie di funzioni rettangolari nel dominio del tempo ha uno spettro
infinitamente esteso, che può essere solo praticamente limitato in frequenza, con estremo finito fM
molto maggiore di 1 / T, ossia tanto più elevato quanto più è piccola la durata T di ogni addendo
della serie. I segnali del tipo considerato possono essere non di rado trasmessi con maggiore
convenienza dopo avere subito una elaborazione che limiti, in senso stretto o praticamente, la
occupazione di banda del segnale b(t) uscente a un opportuno valore finito fbM minore di fM, a
patto che l’eliminazione di una parte, anche cospicua, dello spettro del segnale a gradini produca
un effetto di distorsione accettabile, o addirittura del tutto non influente, nei riguardi della
informazione trasmessa. Il tema riguarda essenzialmente il caso numerico, dato che i segnali a
gradini analogici sono impiegati in pratica di rado e solo nell’ambito di trattamenti all’interno di
apparati.
Dalla [6.3.1] si osserva che nei segnali a gradini la sola conoscenza di tutta la sequenza dei
campioni ak = a(kT) consente idealmente la ricostruzione fedele del segnale. Una elaborazione che
a partire da a(t) produca un segnale nell’analoga, ma diversa forma in serie temporale:
128
[6.3.2] b(t) = ( kak 6(t - kT),
con gli stessi coefficienti ak e con la sostituzione delle funzioni rect(t/T-k) mediante altre funzioni
reali di energia 6k(t) =ˆ 6(t - kT), può ancora consentire la ricostruzione fedele del segnale di
eccitazione a patto che dall’andamento di b(t) si possano in qualche modo riconoscere tutti i valori
ak: sarebbe allora idealmente garantita la reversibilità della elaborazione. Si sottolinea che per
reversibilità non si intende il recupero delle componenti frequenziali tagliate ma il recupero
dell’informazione.
Seguendo la stessa via delle rappresentazioni dei segnali di energia tramite una base (vedi
[3.1.14]), con la estensione del prodotto scalare alla correlazione tra il segnale di potenza a(t) e la
h-esima funzione di energia 6h(t) si ottiene, scambiando l’ordine tra integrale e sommatoria:
[6.3.3] (b, 6h) = " b ( t ) ! ( t-hT ) dt =(k ak " ! (t-kT) ! (t-hT) dt .
Se allora l’insieme {6k(t)} è ortogonale, ossia si verifica:

[6.3.4] # ! (t-kT) ! (t-hT) dt= # ! (t+"T) ! (t ) dt =0 ˆ


, per "=h-k $0,

ciascuna correlazione (b,6h) fornisce isolatamente il valore ah, anche se a meno di un coefficiente
noto E che corrisponde alla energia della funzione 6(t), dalla quale traggono origine per
66

traslazione kT tutte quelle dell’insieme {6k(t)}.


La reversibilità di una elaborazione che conduce alla forma [6.3.2] è dunque idealmente garantita
dal rispetto della condizione [6.3.4]; rammentando la definizione della funzione di
autocorrelazione di 6(t), alla condizione di ortogonalità corrisponde la proprietà:
[6.3.5] C (3T) = 0, per 3 / 0.
66

Si noti che nelle condizioni menzionate la [6.3.2] estende la rappresentazione tramite una base a
un segnale di potenza, sempre che esso sia però significativo solo nei riguardi della sequenza dei
valori ak da esso veicolata. Si usa pertanto considerare l’insieme {6k(t)} come una base e
denominare forma di base la funzione 6(t).
Inviando al paragrafo 6.3.1.2 il lettore interessato alla corrispondente condizione di reversibilità
nel dominio della frequenza, da questa si accerta che non esistono forme di base con estremo
superiore di banda f M che sia minore di 1/2 T. Poiché i segnali elaborati b(t) sono composti da una
6

combinazione lineare a coefficienti costanti di funzioni ottenute da quella di base 6(t) per
traslazione temporale, ossia hanno una banda che non può superare f M, ne consegue l’importante
6

limitazione:
1
[6.3.6] fbM = f M ' f0 =ˆ .
2T
6

La forma di base a banda minima ha la espressione:


[6.3.7] 60(t) =ˆ sinc( t / T) ;
infatti tale funzione ha trasformata E0( f ) = T rect(fT), ossia frequenza massima f0, ed è già nota
(vedi paragrafo 2.5.1.6) la ortogonalità delle forme traslate ottenute a partire dalla sinc(t/T).
Inserendo la 60(t) nella [6.3.2], si ottiene la nota rappresentazione per interpolazione dei campioni
ak, sicuramente soddisfacente. Come discusso in seguito, per difficoltà costruttive la forma 60(t) è
però da escludere nelle applicazioni pratiche.
Il prospettato tipo di elaborazione reversibile è molto rilevante nell’odierna pratica della
trasmissione, in cui i segnali da trasferire sono sempre più del tipo a gradini, con informazione
numerica: fatta esclusione dei canali che utilizzano fibre ottiche monomodo, che offrono
comportamenti praticamente perfetti in bande estremamente ampie, quelli che impiegano coppie
metalliche risultano superiormente limitati in banda dall’effetto dell’attenuazione crescente con la
frequenza, mentre la quasi totalità dei canali effettivi basati su tratte radio può consentire la
129
trasmissione solo in assegnate e ben delimitate larghezze di banda, spesso di estensione anche
modesta.
6.3.1.2 Reversibilità nel dominio della frequenza
Si consideri una generica forma di base 6(t) e la sua funzione di autocorrelazione C (-), che grazie 66

alla relazione di Wiener-Khinchine (vedi [3.3.59]) può essere espressa dalla:


[6.3.8] C (-) =66 $E !! (f)e j2"f# df ,

dove E ( f ) e la densità spettrale di energia di 6(t).


66

Posto fT =ˆ 1/T e indicata con:


[6.3.9] W(f) =ˆ repfT[E (f)] = ( n E (f- nfT) = ( n E (f-n/T),
66 66 66

la densità spettrale di potenza ottenuta per ripetizione a intervallo fT dello spettro di energia E (f), 66

si osserva che W(f) è periodica in frequenza, di periodo fT, ed è pertanto rappresentabile in serie di
Fourier:
[6.3.10] W( f ) = (3 C3 e j2!"f /fT ,
con i coefficienti:
1
[6.3.11] C = 3
fT $E !! (f)e- j2"#f /fT df .

Rammentando la fT =ˆ 1/T e la [6.3.8] si ottiene:


[6.3.12] C = T $ E !! ( f ) e df = T C (-3T) ;
j2"f (-#T )
3 66

si ricava allora dalla [6.3.10]:

[6.3.13] W( f ) = T (3 C (-3T) e j2! f"T . 66

In conclusione, se la funzione C (-) ha nel dominio del tempo la proprietà [6.3.5], dalla [6.3.13]
66

risulta immediatamente W(f)=T C (0) = T E , ossia in base alla [6.3.9] vale la corrispondente
66 66

proprietà nel dominio della frequenza:


[6.3.14] (nE (f - n/T) = TE ,
66 66

denominata proprietà della simmetria vestigiale.


Viceversa, se vale quest’ultima, cioè se W(f) = TE , essendo C (-) una funzione reale pari si ha
66 66

dalla [6.3.13]:
$
[6.3.15] T E = T E + 2T % C !! ("T)cos(2#f"T) ,
66 66

"=1

che comporta la [6.3.5] in quanto per essere vera devono essere nullo il secondo termine del
secondo membro ovvero tutti i termini di C per 3#0. 66

Si noti in primo luogo che la proprietà della simmetria vestigiale, valendo per ogni f, deve essere
soddisfatta anche alla particolare frequenza f0 =ˆ 1/2T e ciò implica che lo spettro di energia E (f) 66

di una forma di base necessariamente si estende almeno fino a f0. Si dimostra allora che non
esistono forme di base con estremo superiore di banda minore di 1/2T; per il valore di f M non 6

esiste invece alcuna condizione generale di limitazione superiore, in modo che una forma di base
può essere illimitata in frequenza. Nel caso in cui E (f) sia limitato in f0, la proprietà della
66

simmetria vestigiale interessa per ogni frequenza solo un addendo; considerando n = 0 si ricava
allora che lo spettro di energia è costante nell’intervallo (-f0;f0) e vale T2: la forma di base a banda
minima è dunque la funzione 60(t) =ˆ sinc(t/T).
130
Nella ipotesi che lo spettro di energia E (f) sia limitato entro 1 / T, la proprietà [6.3.14] interessa
66

per ogni frequenza solo coppie di spettri traslati adiacenti; per il valore f=f0+>f con >f limitato tra
0 e f0, la [6.3.14] assume infatti la forma:
[6.3.16] E (f0+>f) + E (f0+>f-2f0) = E (f0+>f)+E (>f-f0)=T E ;
66 66 66 66 66

dato che per >f = f0 risulta E (0) = T E e tenuto conto che E (f) è pari si ottiene:
66 66 66

[6.3.17] E (f0+>f) + E (f0->f) = E (0), 0 * >f * f0,


66 66 66

che esprime la proprietà della simmetria vestigiale nel caso particolare considerato.
6.3.1.3 Segnali soddisfacenti il criterio di Nyquist
Dal segnale elaborato b0(t) ottenibile, solo teoricamente, a partire dalla forma di base a banda
minima 60(t) = sinc(t/T) è possibile rintracciare i valori ak anche per mezzo della semplice
osservazione dei valori istantanei in hT; infatti risulta:
[6.3.18] b0(hT) = (k ak sinc[(hT-kT)/T] = (k ak sinc(h-k) = ah,
grazie alla particolare proprietà:
[6.3.19] sinc(3) = 0, per 3 =ˆ h - k / 0.
La proprietà [6.3.19] non è esclusiva della forma sinc(t/T): basta ad esempio considerare la
funzione x(t) sinc(t/T), con x(t) segnale di energia, per constatare che essa ha almeno gli stessi zeri
negli istanti 3T per 3 / 0. Individuata una generica funzione di energia q(t), che sia diversa da zero
nell’origine e goda della proprietà:
[6.3.20] q(3T) = 0, per 3 / 0,
un segnale che abbia l’espressione:
[6.3.21] pN(t) = ( k ak q(t-kT),
consente ancora di rintracciare i valori ak tramite la semplice osservazione dei valori istantanei,
poiché si ha, almeno negli istanti hT, pN(hT) = ah q(0), come è immediato da verificare. La
proprietà [6.3.20] è usualmente indicata come criterio di Nyquist in memoria di colui che per
primo la evidenziò.
Un segnale del tipo pN(t), costituito da una combinazione lineare a coefficienti costanti di funzioni
traslate di kT ottenute a partire da una funzione che soddisfa il criterio di Nyquist, è denominato
segnale soddisfacente il criterio di Nyquist. Poiché gli ak sono in corrispondenza con i simboli di
una sequenza numerica e risultano individualmente distinguibili nell’andamento del segnale, si usa
anche affermare che questo è privo di interferenza intersimbolo (ISI = Inter Symbol Interference),
o privo di ISI.
Si noti che nei segnali del tipo introdotto mediante la [6.3.21] non è stato espresso però alcun
vincolo sulla ortogonalità delle funzioni traslate, ossia tale proprietà non è in generale soddisfatta.
Ciò non esclude l’esistenza di segnali del tipo b(t), ossia espressi in serie di funzioni traslate
ortogonali, in cui nel contempo la forma di base rispetta il criterio di Nyquist. La reversibilità
ideale della elaborazione che produce un segnale di tale categoria può pertanto basarsi anche sulla
più semplice osservabilità diretta dei suoi valori istantanei.
6.3.2 Elaborazioni lineari su segnali a gradini

6.3.2.1 Realizzabilità dei formatori lineari


Allo scopo di ridurre i requisiti in termini di banda del canale da impiegare per la trasmissione di
un segnale a gradini a(t), si può ricorrere alla elaborazione lineare con taglio di banda, effettuabile
mediante un quadripolo LT I con memoria fisicamente realizzabile. Stante il notevole effetto di
distorsione prodotto dal taglio di banda, in particolare con frequenza di taglio nettamente minore
131
dell’estremo superiore della banda solo praticamente limitata dello spettro del segnale a gradini,
non è opportuno limitarsi all’impiego di un filtro passa-basso, ma conviene ricercare quali
debbano essere gli andamenti della funzione di trasferimento del quadripolo che riducano
efficacemente la banda in uscita, avvicinando il limite inferiore teorico f0 = 1 / 2 T, ma nella
salvaguardia della reversibilità della elaborazione.
Tenuto conto di quanto esposto, se si riuscisse a individuare una funzione 6(t) soddisfacente la
[6.3.4] e con trasformata di Fourier E(f) =ˆ F{6(t)} strettamente limitata con frequenza massima
f M, si determinerebbe una elaborazione con taglio di banda che idealmente ammetterebbe la
6

operazione complementare. Per tale via si passerebbe, senza tema di perdita di informazione, dal
segnale a gradini a(t) solo praticamente limitato in frequenza, a un segnale elaborato b(t) con
contenuti spettrali non nulli esclusivamente nella banda finita (0;f M), essendo fbM = f M.
6 6

Ammesso, con riserva di immediata successiva verifica, che sia realizzabile una elaborazione
lineare con taglio di banda a carattere reversibile, essa si compie eccitando con a(t) un quadripolo
LT I con memoria (vedi Figura 6.15), avente una funzione di trasferimento HF ( f ) nulla oltre la
frequenza di taglio f M. Grazie alla linearità, che stabilisce sempre lo stesso legame di
6

convoluzione tra ciascuna coppia di addendi corrispondenti delle serie in entrata e in uscita, la
risposta risulta nella forma [6.3.2] a meno di un ritardo t0, qualora sia soddisfatta la relazione:
[6.3.22] 6( t – t0) = F-1{HF ( f )}$ rect(t/T);
applicando la trasformazione di Fourier si ricava allora:
1 !(f) -j2!ft0
[6.3.23] HF ( f ) = e .
T sinc(fT)
Si può verificare che per la presenza di E( f ) a numeratore la funzione di trasferimento HF( f ) è
nulla per | f | > f M; inoltre, notata l’esistenza nel denominatore di zeri alle frequenze n/T, con n
6

intero diverso da zero, si accerta che il modulo |HF ( f )| rimane limitato a patto che la frequenza
massima f M della forma di base sia minore della frequenza in cui si cade il primo zero, ossia
6

minore di 1 / T.

Figura 6.15: Schema funzionale di formatore lineare.


In definitiva, sciogliendo la riserva, sono possibili elaborazioni lineari reversibili con taglio di
banda dei segnali a gradini, e un quadripolo LT I che le effettui, denominato formatore lineare, è
idealmente realizzabile, purché si scelga una forma di base con estremo superiore della banda
vincolata dai limiti (vedi anche [6.3.6]):
1 1
[6.3.24] < fbM = f6M < .
2T T
I formatori lineari sono dunque notevolmente efficienti nel compito di ottenere, nel rispetto della
reversibilità, segnali con banda ridotta.
Una funzione 6(t) che oltre a rispettare la condizione di ortogonalità delle forme traslate (vedi
[6.3.4]) soddisfa la [6.3.24] è una forma di base a banda normale.
Constatata la realizzabilità dei formatori lineari, è opportuno evidenziare una importante
caratteristica dei segnali da essi forniti. Rammentando l’effetto di una trasformazione lineare con
memoria (vedi [6.2.8]), in generale i valori istantanei di un generico segnale b(t) elaborato
linearmente non sono più esclusivamente dipendenti da uno solo dei valori ak, come invece accade
in ogni istante in a(t) e almeno in un istante per ogni intervallo di durata T nei segnali
soddisfacenti il criterio di Nyquist, ma risultano per ogni t una combinazione lineare di molti di
essi. Si usa pertanto affermare che un segnale b(t) uscente da un formatore lineare è di norma
132
affetto da interferenza intersimbolo, oppure che è un segnale con ISI. Tale fenomeno è la
contropartita della possibilità di ottenere una molto efficace riduzione della banda del segnale
elaborato.
6.3.2.2 Formatori lineari della famiglia a coseno rialzato
Nella ricerca di opportune forme di base a banda normale torna utile la condizione di ortogonalità
[6.3.4], una volta che essa sia espressa nel dominio della frequenza, nel caso considerato con f6M
limitato entro 1 / T. Inviando il lettore interessato alla dimostrazione al paragrafo 6.3.1.2, si accerta
che la densità spettrale di energia E (f) di una forma di base a banda normale è soggetta alla
66

condizione di simmetria vestigiale, espressa dalla:


[6.3.25] E (f0 + > f) + E (f0 - > f) = E (0), 0">f"f0.
66 66 66

La simmetria vestigiale impone che il residuo di spettro, per ogni scostamento >f oltre il valore f0,
compensi quanto manca allo spettro, per ogni scostamento > f entro f0, per raggiungere il valore
nell’origine. Nella pratica si adotta come forma di base a banda normale una delle funzioni
dell’insieme {6 (t)}, denominato famiglia a coseno rialzato, che appunto gode della proprietà
7

della simmetria vestigiale; infatti, fissato un valore compreso tra 0 e 1 del parametro 7,
denominato fattore di roll-off, gli spettri di energia normalizzati E (f)/T2 assumono valore unitario
77

per |f|<1 - 7, sono nulli per |f|>1 + 7 e tra tali due estremi hanno l’andamento tipico della funzione
coseno nel primo mezzo periodo, rialzata di una unità, come mostrato nell’esempio in Figura
6.16a. Si rammenti che l’andamento a coseno rialzato è quello della densità spettrale di energia e
non quello della funzione del tempo 6 (t).7

Figura 6.16: Spettri di energia di forme di base della famiglia a coseno rialzato (a) e guadagno dei
relativi formatori (b).
L’estremo superiore dello spettro di una forma di base della famiglia a coseno rialzato assume la
seguente espressione in dipendenza dal fattore di roll-off 7 :
1+!
[6.3.26] f =ˆ f = = (1+7)f0.
2T
7 67 M

Si noti che alla famiglia considerata appartiene anche, per il valore 7 = 0, la funzione sinc(t/T), che
è stata appunto indicata con 60(t); essa ha infatti la densità spettrale di energia E00 ( f ) = T2 rect(fT)
(vedi linea sottile in Figura 6.16a) e assume il minimo valore ammissibile della banda f = f0. 7

Il guadagno del formatore lineare relativo a una forma 6 (t) della famiglia a coseno rialzato
7

assume la espressione:
1 E !! ( f )
[6.3.27] GF (f) = ;
T 2 sinc 2 ( fT )
7

il suo andamento è esemplificato in Figura 6.16b per i due valori 7 = 0, caso della forma 60(t), e
7 = 0,3 del fattore di roll-off.
133
Inserendo lo spettro di energia rettangolare della 60(t) nel denominatore della [6.3.27], si
determina il guadagno GF0( f ) = |HF0 ( f )|2 del formatore lineare corrispondente (vedi linea sottile in
Figura 6.16b), che mostra una forte discontinuità in corrispondenza della frequenza di taglio f0. La
notevole complessità che si dovrebbe di conseguenza affrontare, per costruire un sottosistema
effettivo avente comportamento che approssimi adeguatamente quello del quadripolo formatore
corrispondente alla forma a banda minima, sconsiglia decisamente la scelta di 60(t) nelle
applicazioni.
Le prestazioni dei formatori lineari della famiglia a coseno rialzato, fatta esclusione per il caso
7 = 0 già esaminato, sono approssimabili con sottosistemi effettivi; già per valori di 7 che si
discostino poco da zero, si hanno transizioni blande di GF ( f ) attorno alla frequenza di taglio f ,
7 7

che non creano difficoltà nella costruzione. Si osserva infine che non è comunque fisicamente
possibile ottenere un guadagno esattamente nullo nella banda oscura; altrimenti la risposta
impulsiva del formatore sarebbe illimitata in tempo e per quanto sia grande, ma finito, il valore del
ritardo t0 ammesso verrebbe meno la causalità.
6.3.2.3 Filtri adattati
Da un segnale b(t) ottenuto a partire da una generica forma di base 6(t) che rispetti la condizione
di ortogonalità delle sue forme traslate (vedi [6.3.4]), è possibile estrarre con temporizzazione kT i
campioni ak dell’originario segnale a gradini a(t) con un sistema fisico che, almeno con buona
approssimazione, sia capace di effettuare le previste correlazioni (b, 6k) (vedi [6.3.3]). Il sistema
risulta tuttavia di notevole complessità realizzativa.
Si rammenti che la funzione di autocorrelazione C (-) di una forma di base soddisfa in generale il
66

criterio di Nyquist (vedi [6.3.5]); sarebbe allora possibile rintracciare i valori ak di un segnale
elaborato linearmente b(t), con la osservazione dei valori istantanei del segnale privo di ISI :
[6.3.28] bN(t) = ( k ak C (t - kT),
66

ottenibile a valle di una elaborazione su b(t) che fosse capace di sostituire ciascuna delle sue forme
traslate 6(t-kT) con la corrispondente funzione C (t-kT). Si ha infatti, grazie alla menzionata
66

proprietà:
[6.3.29] bN(hT) = ( k ak C ( hT-kT) = ( k ak C (3T) = ah E ,
66 66 66

dove E = C (0) è l’energia nota della forma di base 6(t).


66 66

Procedendo come nel caso dei formatori lineari, si ricava che la desiderata elaborazione che
conduce al segnale soddisfacente il criterio di Nyquist è lineare, ossia effettuabile con il transito in
un quadripolo LTI (vedi Figura 6.17); la funzione di trasferimento H ( f ) di quest’ultimo, ottenibile
6

dalla convoluzione:
[6.3.30] C ( t – t0) = F-1{H ( f )}$ 6(t),
6 E

ha l’espressione:
E!! (f) -j2!ft0
[6.3.31] HE( f ) = e = ! " (f) e-j2!ft0 ,
!(f)
essendo F{C (t)} = E ( f )=E(f) E*(f). Si verifica immediatamente che la funzione di trasferimento
6 66

H ( f ) è nulla per | f |>f M e che il quadripolo LT I individuato, denominato per la sua funzione
E 6

caratteristica filtro adattato alla forma di base, o semplicemente filtro adattato, è idealmente
realizzabile.

Figura 6.17: Schema funzionale di filtro adattato.


134
Il guadagno del filtro adattato nel caso di una forma 6 (t), della famiglia a coseno rialzato, ha la
7

semplice espressione:
[6.3.32] G (f) = E (f);
E7 77

il suo andamento è perciò del tipo di quello esemplificato in Figura 6.16a per i due valori 7 = 0,
caso della forma 60(t), e 7 = 0,3 del fattore di roll-off. Per valori di 7 che si discostino poco da
zero, si hanno attorno alla frequenza di taglio f transizioni ancora più blande di quelle nel
7

corrispondente formatore lineare, che creano modeste difficoltà nella costruzione del filtro
adattato. Si osserva ancora che non è comunque fisicamente possibile ottenere un guadagno G ( f ) E

esattamente nullo nella banda oscura; altrimenti la risposta impulsiva del filtro adattato sarebbe
illimitata in tempo e per quanto sia grande, ma finito, il ritardo t0 ammesso verrebbe meno la
causalità.
6.3.3 Elaborazione non lineare su segnali a gradini

La elaborazione a partire da un segnale a gradini a(t) per fornirne una diversa rappresentazione
(vedi [6.3.2]), in serie di funzioni di energia ottenute per traslazioni kT da una forma di base,
diviene concettualmente assai semplice se quest’ultima è almeno praticamente limitata nel tempo
con durata inferiore a T. Infatti in tale caso, che si evidenzia usando per la forma di base la diversa
notazione F(t) e particolarizzando il segnale elaborato nella forma:
[6.3.33] b (t) =ˆ ( k ak F(t-kT),
F

la condizione di ortogonalità che garantisce la reversibilità (vedi [6.3.4]) è soddisfatta in modo


immediato, per separazione nel tempo di tutte le F(t-kT), non imponendo alcun vincolo
sull’andamento di F(t).
Grazie alla durata limitata entro T, la forma F(t) sicuramente gode, ancora senza vincoli
sull’andamento, della proprietà indicata come criterio di Nyquist (vedi [6.3.20]), per cui tutte le
forme d’onda del tipo b (t) sono segnali soddisfacenti il criterio di Nyquist, ossia sono privi di ISI.
F

La elaborazione considerata produce quindi segnali espressi in serie di funzioni traslate ortogonali,
in cui nel contempo la forma di base rispetta il criterio di Nyquist: la reversibilità ideale può
pertanto basarsi anche sulla più semplice osservabilità diretta dei valori istantanei.
In contropartita della favorevole caratteristica sopra evidenziata, in ogni segnale elaborato b (t) F

permane l’inconveniente della estensione in teoria infinita della banda, ma dal punto di vista
pratico si può assumere un limite superiore finito f M, che a parità di T risulta tanto minore quante
F

più sono assenti le discontinuità nella forma F(t) e nelle sue successive derivate. Con riferimento a
esempi già mostrati, si ottiene allora una banda pratica che si riduce passando dalla forma
rettangolare (vedi Figura 2.9a) all’impulso triangolare privo di discontinuità (vedi Figura 2.9b) e
ancora all’impulso a coseno rialzato (vedi Figura 2.9c), che è continuo assieme alla sua derivata.
In altro modo si può affermare che l’effetto di distorsione prodotto sul segnale elaborato [6.3.33]
dalla soppressione delle componenti spettrali oltre la frequenza:
2
[6.3.34] f TM = = 4f0,
T
F

che sarebbe sensibile nel caso di segnale a gradini rettangolare, diviene tollerabile per segnali
elaborati con l’impulso triangolare e trascurabile con quello a coseno rialzato. Paragonando
l’estremo pratico di banda f TM al limite inferiore teorico f0, la riduzione di banda conseguibile,
F

anche se con piccola distorsione, è comunque apprezzabile.


I segnali elaborati ottenuti con le forme di base a durata limitata prive di discontinuità agli estremi
dell’intervallo T, hanno andamenti nel tempo che assumono valore zero almeno in ogni istante di
separazione tra gli addendi della serie [6.3.33], che esprime i segnali stessi. Essi vengono pertanto
denominati segnali con ritorno a zero, o semplicemente segnali RZ (RZ = Return to Zero); in
Figura 6.18 è riportato un esempio di segnale numerico di tale tipo. In un segnale a gradini a(t) gli
135
azzeramenti si hanno invece solo in occasione delle transizioni tra livelli di segno opposto: esso è
perciò anche indicato come segnale NRZ (NRZ = No Return to Zero).

Figura 6.18: Esempio di un segnale numerico del tipo RZ.


Un segnale elaborato con forme di base F(t), a durata almeno praticamente limitata entro
l’intervallo T, può essere ottenuto moltiplicando il segnale a gradini a(t) per il segnale periodico
repT[F(t)], ottenuto da un generatore di treno di impulsi e denominato portante impulsiva; si ricava
infatti:
[6.3.35] a(t) repT [F(t)] = ( k( h ak rect[(t - kT) / T] F(t - hT)] = ( k ak F(t - kT)],
dato che la limitazione in durata entro T assicura che i prodotti delle funzioni rettangolari per
quelle di base siano nulli per traslazioni temporali diverse e coincidano con la forma di base stessa,
quando abbiano subito la medesima traslazione temporale (h = k). Un sottosistema, di tipo non
lineare, che elabori segnali RZ è dunque funzionalmente rappresentabile tramite lo schema del
formatore RZ mostrato in Figura 6.19.

Figura 6.19: Schema funzionale di formatore RZ.


Il requisito di banda dei segnali RZ espresso dalla [6.3.34], a parità di T più severo di circa tre
volte di quello che si avrebbe impiegando un formatore lineare (vedi [6.3.26]), in molti casi è
accettabile, particolarmente quando il mezzo trasmissivo sia una coppia metallica; infatti il
formatore a prodotto ha costo paragonabile a quello del formatore lineare e, inoltre, l’assenza di
ISI consente di rintracciare i valori significativi ak dalla semplice osservazione dei valori istantanei
del segnali elaborati RZ, senza la necessità di premettere filtri adattati.
6.3.4 Restituzione della forma a gradini

6.3.4.1 Formatore a gradini


Allo scopo di facilitare la trasmissione del generico segnale a gradini a(t), sono state introdotte
delle elaborazioni, tanto con formatori lineari e filtri adattati, che con formatori RZ non lineari,
confidando sulla loro reversibilità ideale garantita dalla possibilità di riconoscere comunque nei
segnali elaborati tutti i valori ak significativi di a(t). È stato inoltre evidenziato che questi ultimi
possono essere ottenuti tramite la semplice osservazione dei valori istantanei a intervallo T dei
segnali, a patto che questi siano stati formati o rielaborati nel rispetto del criterio di Nyquist (vedi
[6.3.20]), ossia che siano privi di ISI.
136
La elaborazione complementare a quelle sopra menzionate è dunque la operazione che agendo su
segnali soddisfacenti il criterio di Nyquist fornisce in uscita, a meno di un fattore reale g e di un
ritardo positivo t0, la forma originaria a gradini.
La restituzione della forma a gradini a(t) a partire da un segnale privo di ISI é effettuabile tramite
un quadripolo denominato formatore a gradini, nel seguito indicato negli schemi con un blocco
avente per sigla G. Tale quadripolo compie ciclicamente sul segnale entrante il campionamento,
ossia osserva i suoi valori istantanei, siano essi bN(hT) o b (hT), negli istanti di lettura th=hT,
F

provvedendo poi nel segnale in uscita y(t) alla tenuta di tali campioni per una durata pari allo
stesso T, come mostrato in Figura 6.20 ed espresso dalla:
! t-t $
[6.3.36] y(t) = ( h bx(hT) rect # 0 -h & , per x = N, F.
" T %
Il lettore interessato a ulteriori elementi tecnici sul campionamento è inviato al paragrafo 6.3.4.2.

Figura 6.20: Segnale entrante e segnale uscente da un formatore a gradini.


È rilevante notare che ai fini della corretta restituzione il formatore a gradini deve essere
sincronizzato con il segnale entrante, nel senso che non solo il campionamento deve avvenire con
intervallo Tc coincidente con il tempo di simbolo T del segnale, ovvero si ha la condizione Tc = T,
ma anche gli istanti di lettura devono collocarsi in ciascun intervallo nel momento più opportuno,
in cui il segnale goda dell’assenza di ISI. Oltre ai circuiti che effettuano il campionamento con
tenuta, l’elaboratore considerato deve perciò comprendere un oscillatore armonico alla frequenza
1 / Tc, nominalmente uguale al ritmo di simbolo 1/T, che genera un sincrosegnale (segnale di
orologio o “clock”) con funzioni di controllo nei riguardi dei dispositivi a scatto del campionatore,
e un circuito ausiliario che sincronizza l’oscillatore dopo avere estratto i necessari elementi dalla
temporizzazione del segnale entrante.
6.3.4.2 Elementi sui campionatori
La operazione ideale di campionamento isolato all’istante di lettura to di un segnale x(t) tempo
continuo consiste nell’eseguire il prodotto di quest’ultimo per la funzione +(t - t0), generando
l’impulso x(t)+(t - t0). Per mezzo di un successivo trattamento di integrazione, si ottiene il
campionamento isolato con tenuta illimitata, che produce in uscita il segnale a gradino:
t
[6.3.37] # x(v)!(v-t 0 )dv = x0 u(t - t0),
-"

in cui è posto in evidenza il valore del campione isolato, x0 = x(t0), del segnale. Con lo schema in
Figura 6.21, in cui la prima delle due operazioni è assimilata tramite un interruttore che si
supponga chiuda il circuito solo all’istante t0 per una durata brevissima >t, si approssima il
campionamento isolato con tenuta.
137

Figura 6.21: Schema di campionatore isolato con tenuta illimitata.


Con l’inserimento sulla uscita dell’integratore di un secondo interruttore che si chiuda verso massa
solo all’istante t0+ T, come mostrato in Figura 6.22, si ottiene il campionamento isolato con tenuta
di durata T, che approssima in uscita la forma rettangolare:
! t-t 1 $
[6.3.38] x0 [u(t - t0) - u(t - T - t0)] = c0 rect # o - & .
" T 2%

Figura 6.22: Schema di campionatore isolato con tenuta per una durata T.
Infine, azionando gli interruttori in Figura 6.22 in modo ripetitivo a intervallo T, si ottiene il
campionamento ciclico con tenuta per una durata T.
6.3.5 Elaborazione complessiva con taglio di banda

In relazione alla trasmissione ideale del segnale a(t), ma con taglio di banda che consente di
minimizzare i requisiti banda del canale, la restituzione a gradini viene effettuata a valle di un
filtro adattato, che fornisce un segnale bN(t) privo di ISI. Indicato con t0 il ritardo del formatore a
gradini, grazie alla [6.3.29] si ottiene all’uscita del formatore a gradini il desiderato segnale:
! t-t $ ! t-t $
[6.3.39] y(t) = (hbN(hT) rect # 0 -h & = ( h ah E rect # 0 -h & = E a(t-t0),
" T % " T %
77 77

dove il fattore E7 corrisponde alla energia nota della forma di base 67 (t), della famiglia a coseno
rialzato, impiegata nelle precedenti elaborazioni.
A meno degli inessenziali ritardi, si ha la configurazione della elaborazione complessiva con taglio
di banda di segnali a gradini mostrata in Figura 6.23; da essa si nota come l’insieme del filtro
adattato e del formatore a gradini costituisca un sottosistema che, inserito immediatamente in
cascata al formatore lineare, opera la elaborazione inversa, dando un segnale in uscita in forma
fedele a quello in entrata della cascata. Ampliando un concetto già introdotto (vedi [6.2.17]), i due
blocchi funzionali in Figura 6.23a e in Figura 6.23b sono dunque una coppia di quadripoli
complementari.

Figura 6.23: Formatore lineare (a) e quadripolo complementare (b), costituito dal filtro adattato
corrispondente e dal formatore a gradini.
138
In un segnale bN(t) a banda limitata, entro la frequenza massima f =(1+7)/2 T della sua forma di
7

base della famiglia a coseno rialzato, l’assenza della interferenza intersimbolo è in teoria assicurata
solo in un istante in ciascun intervallo di durata T e in pratica nelle strette vicinanze. Se il segnale
viene osservato sullo schermo di un oscilloscopio con tempo di persistenza della traccia molto
maggiore di T e in cui l’asse orizzontale dei tempi sia sincronizzato con gli istanti di lettura (al
centro dello schermo), si ottiene nel caso di due soli possibili valori di ak una immagine del tipo
mostrato in Figura 6.24a; la forma si presenta in modo da motivare la usuale denominazione di
diagramma a occhio. Si noti che i valori dei livelli a1 e a2 non sono punti di massimo o di minimo
del segnale.

Figura 6.24: Diagrammi a occhio per modulazione binaria: caso ideale (a) e con interferenza
intersimbolica (b).
La Figura 6.24a evidenzia come la sincronizzazione del formatore a gradini sia critica, anche nel
caso teorico in cui si ha la massima “apertura dell’occhio”, uguale alla distanza tra i livelli.
Eventuali scostamenti del formatore lineare e del filtro adattato dalle prestazioni teoriche, oppure
imperfezioni nella trasmissione tra tali sottosistemi, provocano distorsione con conseguente
comparsa di interferenza intersimbolica, che come mostrato in Figura 6.24b viene evidenziata da
una riduzione della apertura dell’occhio, tanto più marcata, quanto più sono forti i menzionati
fenomeni.
6.3.6 Elaborazione complessiva con riduzione della banda pratica

Nella trasmissione ideale del segnale a(t) senza taglio di banda, ma con un segnale RZ in forma
tale da sopportare bene la soppressione delle componenti spettrali alle più alte frequenze che possa
essere causata da un canale, la restituzione a gradini viene effettuata subito a valle di quest’ultimo,
che fornisce un segnale b (t) con distorsione trascurabile, praticamente ancora privo di ISI.
F

Indicato con t0 il ritardo del formatore a gradini, poiché dalla [6.3.33] risultano i valori istantanei
b (hT) = ah F(0) si ottiene all’uscita del formatore a gradini il desiderato segnale:
F

! t-t $ ! t-t $
[6.3.40] y(t) = ( h bF(hT)rect # 0 -h & = (hahF(0)rect # 0 -h & = F(0)a(t-t0),
" T % " T %
dove il fattore F(0) corrisponde al valore per t = 0 della forma di base F(t), a durata almeno
praticamente uguale a T.
A meno degli inessenziali ritardi, si ha la configurazione della elaborazione complessiva con
riduzione della banda pratica di segnali a gradini mostrata in Figura 6.25; da essa si nota come il
formatore a gradini costituisca un sottosistema che, se inserito immediatamente in cascata al
formatore RZ, opera la elaborazione inversa, dando un segnale in uscita in forma fedele a quello in
entrata della cascata. I due blocchi funzionali in Figura 6.25a e in Figura 6.25b costituiscono
dunque una coppia di quadripoli complementari.

Figura 6.25: Formatore RZ (a) e quadripolo complementare (b), costituito dal formatore a gradini.
139
In un segnale bF(t) ottenuto con una forma di base di durata T l’assenza della interferenza
intersimbolo è in teoria sempre assicurata; ma è ovvio che si ha la convenienza a collocare gli
istanti di lettura in corrispondenza del valore massimo assunto da F(t), che si suppone sia FM=F(0).
Dato che il valore della forma di base varia attorno al suo massimo, la sincronizzazione del
formatore a gradini è ancora critica; mentre non lo sarebbe se il formatore a gradini fosse applicato
su un segnale anch’esso a gradini, come spesso avviene per effettuare operazioni di lettura e
scrittura nell’ambito degli apparati della tecnologia della informazione.

6.4 Multiplazione

Applicando in modo più ampio il concetto delle trasformazioni complementari, che a una
operazione reversibile di segnale ne fa seguire un’altra capace di restituire la forma di partenza
(eventualmente a meno di un fattore e di un ritardo), si apre la strada a una ulteriore serie di
trattamenti dei segnali.
Nella trasmissione i segnali subiscono infatti frequentemente, oltre a quelle già menzionate nel
paragrafo 6.1.4 e comunque compiute su un segnale singolo, delle altre operazioni che
coinvolgono un insieme di più segnali, in genere dello stesso tipo. Si tratta dal lato emittente della
operazione di multiplazione, mediante la quale le informazioni veicolate da N segnali indipendenti
xi(t), entranti su altrettante vie fisiche e denominati segnali tributari, vengono trasferite in modo
reversibile in un solo segnale evoluto x(t) su una unica via fisica, denominato segnale multiplato;
nel lato ricevente si trova la operazione complementare, di demultiplazione, che ripristina la
individualità dei segnali. La Figura 6.26, tralasciando le inessenziali costanti g e t0, mostra un
sistema di trasmissione a cui è aggiunta una coppia complementare di apparati multiplatore (Mux)
e demultiplatore (Demux).

Figura 6.26: Schema di un sistema di trasmissione di segnale multiplato.


L’intento degli ulteriori trattamenti introdotti è quello di trasformare i segnali in forme più evolute,
particolarmente a riguardo della quantità di informazione trasportata, che consentano il migliore
impiego tecnico-economico del mezzo trasmissivo; le operazioni compiute sono dunque
subordinate alle effettive prestazioni offerte dai sistemi di trasmissione. La introduzione della
multiplazione dà luogo a un maggiore costo di apparato per segnale trasmesso (il contributo
addizionale diretto dei mo-demultiplatori è in genere maggiore del decremento che risulta
sostituendo N apparati dimensionati per i tributari con l’unico dimensionato per il segnale
multiplato); d’altra parte conduce a un notevole risparmio del costo del mezzo trasmissivo per
segnale trasmesso e per unità di lunghezza. Di conseguenza, tanto maggiori sono le lunghezze dei
collegamenti, tanto più sofisticati sono i trattamenti di multiplazione che possono essere
convenientemente introdotti; si desume inoltre che l’impiego economico della multiplazione
risulta subordinato al superamento di opportune distanze minime. Nella pratica si ricorre sempre
alla multiplazione nei collegamenti di trasporto.
Tipicamente la multiplazione consiste nella condivisione di un unico sistema di trasmissione
(mezzo trasmissivo e apparati) individuando come risorsa da condividere la frequenza, il tempo o
il codice. Si parla dunque di multiplazione a divisione di frequenza (FDM), multiplazione a
divisione di tempo (TDM) o multiplazione a divisione di codice (CDM). Invece, quando sussista
la esigenza di stabilire N collegamenti su un medesimo tracciato, in alternativa alla multiplazione
che consentirebbe la condivisione di un unico sistema di trasmissione, devono essere disponibili N
140
distinti mezzi portanti. In tale caso si ha la semplice multiplazione a divisione di spazio, usata in
pratica solo nei collegamenti di accesso di assai breve lunghezza.

6.5 CENNI SULLA CONVERSIONE ANALOGICO NUMERICA

La sempre maggiore diffusione di sistemi di trasmissione operanti in tecnica numerica comporta


che i segnali analogici di sorgente vengano sempre più frequentemente trasformati in segnali
numerici. La trasformazione consiste di tre passi principali. Il campionamento nel tempo di un
segnale analogico x(t) strettamente limitato in banda può essere considerato come il primo passo
verso la sua conversione analogico numerica. A partire dalla sequenza x(n) dei campioni
xk = x(kTca), ricavati con intervallo di campionamento Tca non superiore all’intervallo di Nyquist,
si può infatti ottenere il segnale a gradini:

[6.5.1] xca(t) = ( k xk rect # t -k & ,


! $
" Tca %
simile formalmente a un segnale multilivello, ma con la sostanziale differenza della presenza dei
campioni analogici xk, che assumono valori in un codominio continuo e finito (xm ; xM), in luogo
dei livelli discreti. È quindi necessario procedere al trattamento di quantizzazione dei campioni,
che conferendo ad essi la natura discreta costituisce il cuore della conversione in numerico.
La quantizzazione è un trattamento sulla sequenza x(n) dei campioni che prevede la suddivisione
del codominio (xm ; xM) in M parti, denominate intervalli di quantizzazione, e la identificazione di
tutti i valori che appartengono al q-esimo intervallo con uno solo di tali valori xq, denominato
q-esimo livello di quantizzazione. Al termine, in luogo della sequenza dei campioni analogici, si
ha dunque una sequenza di valori discreti, a cui si fa corrispondere il segnale multilivello:

[6.5.2] xq(t) = (k xqk rect # t -k & ,


! $
" Tca %
dove i livelli quantizzati xqk < xk appartengono a un insieme discreto numerabile e finito {xq} di
cardinalità M, interpretabile come alfabeto M-nario di simboli.
La quantizzazione può essere uniforme (xqk - xq(k-1) = costante) oppure non uniforme nel caso in
cui il segnale analogico presenti delle dinamiche di variazione maggiori nell’intorno di alcuni
valori del codominio.
Si noti che mentre la operazione di campionamento è reversibile, tale non è la quantizzazione: non
è infatti più possibile riottenere con esattezza i valori dei campioni xk, noti che siano quelli dei
livelli quantizzati xqk. Le differenze xqk - xk danno origine a un segnale additivo indesiderato,
denominato rumore di quantizzazione, concettualmente inevitabile: pertanto la conversione
analogico-numerica non può essere ritenuta un trattamento ideale. È tuttavia intuitivo comprendere
che la degradazione implicata dalla quantizzazione può essere contenuta entro limiti piccoli a
piacere, scegliendo un valore sufficientemente elevato di M.
Una volta adottata per la cardinalità l’opportuno valore che sia esprimibile nella forma:
[6.5.3] M = 2S,
con esponente S intero, un ultimo passo per ottenere la conversione del segnale analogico in
segnale numerico binario può essere compiuto con le stesse modalità della elaborazione
complementare della codifica semplice di simbolo (vedi paragrafo 6.3.4.1). Dal tempo di simbolo
Tx = Tca del segnale multilivello xq(t) si passa allora al tempo di bit Ta = Tca / S del corrispondente
segnale binario a(t) all’uscita della intera operazione di conversione analogico-binario.
Ad esempio, stabilita l’associazione mostrata in Tabella 6.1 tra i livelli quantizzati xq e le stringhe
binarie y1 y2 y3, per q = 1,2,.., M = 8, e facendo poi corrispondere al bit 0 il livello a1 = 0 e al bit 1 il
livello a2 = A, si ottiene il tratto di segnale binario mostrato in Figura 6.27c, mentre in Figura 6.27a
141
e in Figura 6.27b sono riportati i corrispondenti elementi della sequenza dei livelli quantizzati e del
flusso binario.
Tabella 6.1: Associazione stabilita tra livelli quantizzati e stringhe binarie, per M = 8.

q 1 2 3 4 5 6 7 8
y1 y2 y3 000 001 010 011 100 101 110 111

Figura 6.27: Esempio di un tratto di un segnale binario (c) e i corrispondenti elementi della
sequenza dei livelli quantizzati (a) e del flusso binario (b).
La conversione analogico-numerica trova sempre più vasta applicazione, soprattutto sui segnali di
sorgenti sonore, ma anche su quelli di sorgenti di immagine. In particolare nel caso del segnale
telefonico si procede al campionamento con intervallo Tca = 125µs (fca = 8 kHz), alla
quantizzazione dei campioni con intervalli non uniformi nel codominio (xm ; xM) e adottando la
cardinalità M = 256 (S = 8), per concludere con la trasformazione in segnale binario, indicato come
segnale telefonico PCM (PCM = Pulse Code Modulation). Il suo tempo di bit risulta
Tb = 15,625 µs, ossia il corrispondente ritmo binario vale Rb = 64 kbit/s.

6.6 CENNI DI CODIFICA DI CANALE

6.6.1 Codifica con ridondanza su flussi binari

6.6.1.1 Introduzione ai metodi di codifica con ridondanza


Alle estremità di un sistema di trasmissione numerico si effettuano spesso delle operazioni che
interessano le sequenze entrante e uscente, supposte binarie, lasciando inalterata la forma fisica,
del tipo a gradini con due livelli, dei segnali che le trasportano. Un tale tipo di elaborazione di
natura sostanzialmente logica, denominato codifica, consiste nel trattamento preliminare con
circuiti microelettronici numerici della sequenza x(n) di cifre binarie associata al segnale fisico
entrante x(t) allo scopo di generare una diversa sequenza y(n), ancora binaria, che poi viene
trasmessa. Affinché possa esistere la elaborazione complementare di decodifica, che all’altro
estremo del sistema di trasmissione restituisce la sequenza originaria, il numero di cifre binarie per
unità di tempo veicolate dal segnale y(t) associato a y(n) deve essere necessariamente uguale o
maggiore di quello in entrata. Nel caso che qui si intende prendere in considerazione, della
codifica con ridondanza, la sequenza elaborata è modificata principalmente perché essa veicola
più bit di quelli strettamente necessari, con conseguente ridondanza della informazione.
La codifica con ridondanza può essere inserita in un sistema di trasmissione numerica allo scopo
generale di consentire il miglioramento delle prestazioni ottenibili nel caso di canale di
trasmissione imperfetto. In tali reali condizioni è infatti possibile che alcuni elementi della
sequenza trasferita siano errati; il decodificatore situato alla fine del sistema può essere allora
capace di riconoscere tali eventualità e anche di porvi rimedio, facendo in modo di abbassare
l’effettivo ritmo di errore binario (BER = Bit Error Rate), ossia il valore del rapporto tra il numero
142
di bit errati e quello di tutti i bit contenuti in una stringa di lunghezza molto grande, ma finita,
della sequenza decodificata. Tale grandezza misurabile corrisponde “a posteriori” alla probabilità
di errore binario, che permette di valutare “a priori” il comportamento di un sistema imperfetto di
trasmissione numerica.
La codifica con ridondanza si prefigge dunque l’obiettivo generale della rivelazione di errore e
anche della correzione di errore. La funzionalità si basa sul fatto che la introduzione di elementi
ridondanti conferisce alla sequenza binaria elaborata y(n) delle particolari proprietà, riconoscibili a
valle della trasmissione: l’eventuale mancato riscontro delle caratteristiche attese consente la
rivelazione di errore. Il riconoscimento della presenza di un bit errato in una stringa di lunghezza
finita, senza che ne sia nota la esatta posizione, può dare seguito a due linee di condotta: la mera
indicazione che la stringa contiene errori oppure la richiesta di ritrasmissione della stringa stessa,
che una volta soddisfatta con successo conduce alla eliminazione dell’inconveniente.
Considerando non tanto le esigenze di trasmissione nell’ambito delle singole applicazioni, quanto
il trasporto a distanza di notevoli flussi di informazione, interessano maggiormente i tipi di
codifica con obiettivo di correzione di errore: la eliminazione di questi è immediata, con il
semplice cambio delle cifre binarie errate con le loro complementari, se è possibile conoscere la
esatta posizione degli errori rivelati. Una soluzione che opera nella modalità considerata è
denominata codifica con correzione di errore in avanti (FEC = Forward Error Correction).
La introduzione di cifre binarie ridondanti nel flusso elaborato comporta la variazione della
temporizzazione in uscita rispetto a quella in entrata, ossia si ha Tv < Tx, essendo Tv il tempo di bit
in uscita e Tx quello in entrata del codificatore. L’entità della ridondanza introdotta viene
usualmente misurata tramite la frequenza di codifica, definita dalla:
k
[6.6.1] Rc =ˆ < 1,
n
dove n è il numero di cifre binarie del flusso uscente corrispondente a un numero k di quelle a
monte della elaborazione. Essendo per continuità temporale nTv=kTx, la ridondanza provoca un
aumento del ritmo binario del segnale y(t) che veicola la sequenza codificata rispetto al valore in
entrata Rx = 1 / Tx; si ricava infatti:
1 n n R
[6.6.2] Ry = = = R x = x > Rx.
Ty kTx k Rc

Tale incremento, o meglio il decremento del ritmo binario entrante a parità del valore Rv accettato
dal sistema di trasmissione, è la contropartita del miglioramento della prestazione in termini di
BER conseguito.
Nel seguito vengono sommariamente introdotti due metodi fondamentali: la codifica a blocchi e la
codifica convoluzionale. I due metodi non sono in alternativa; oltre che isolatamente, possono
infatti anche essere usate entrambe in concatenazione, ossia una più esterna e l’altra più interna.
6.6.1.2 Cenni sulla codifica lineare a blocchi
Nel caso della codifica lineare a blocchi, sulla base dei k elementi della sequenza binaria x(n),
estratti dal flusso entrante ad ogni intervallo di durata costante k Tx, il codificatore compone in un
registro a k stadi una stringa x1 x2...xk di altrettanti bit, denominata blocco. La parte sostanziale
della operazione consiste nella elaborazione, tramite combinazioni lineari, di ogni blocco entrante
in una stringa uscente y1 y2...yn, denominata parola di codice, costituita da un numero n di bit
maggiore di k (vedi fig. 6.25); la codifica a blocchi considerata viene pertanto indicata tramite la
coppia di valori (n,k).
143

Figura 6.28: Blocco in entrata e corrispondente parola di codice in uscita.


Una codifica a blocchi viene compiuta sulla base di una prestabilita regola di associazione
biunivoca tra ogni diverso possibile blocco in entrata e ciascuna parola di codice in uscita, che si
traduce in pratica in una precisata struttura della rete logica, frapposta tra i due registri in Figura
6.28, che attua le desiderate combinazioni lineari. La modalità operativa, invariante da un blocco
all’altro, produce un risultato sempre indipendente dai valori delle cifre binarie che non sono
comprese nel blocco presente; la elaborazione è pertanto qualificata come codifica priva di
memoria. Si noti che la sequenza elaborata risulta strutturata in stringhe di lunghezza n.
I diversi blocchi possibili sono in numero uguale a 2k e altrettante sono ovviamente le diverse
parole di codice, associate biunivocamente ai precedenti dalla particolare regola di codifica scelta;
poichè le diverse 2n configurazioni di una stringa di n bit sono molto più numerose dei blocchi
possibili, vi è margine per ottimizzare la regola. Sfruttando opportunamente la presenza degli n - k
bit ridondanti si può fare in modo di massimizzare i casi in cui la introduzione a valle della
trasmissione imperfetta di un errore isolato (o più di uno) conduce a una stringa ricevuta che è una
delle 2n – 2k configurazioni che non appartengono al codice: la stringa errata, che non trova
riscontro nella regola di associazione, viene rivelata nel decodificatore e, se la ridondanza è
sufficiente, può essere anche individuata la posizione del bit errato (o più di uno) entro la stringa,
con conseguente correzione in avanti.
In contropartita del miglioramento di prestazione che si ottiene a riguardo del BER, la codifica
lineare a blocchi dà luogo a due inconvenienti. Il primo, e maggiore, è dovuto alla più veloce
temporizzazione della sequenza codificata in uscita (Tv<Tx), già evidenziato nella [6.6.2]. Il
secondo e minore inconveniente consiste in un ritardo nel trasferimento della informazione,
certamente non inferiore a 2 k Tx : anche supponendo di trascurare i tempi di elaborazione per
generare ciascuna parola di codice (in emissione) o ciascun blocco (in ricezione) e per la
costruzione del segnale di uscita che ne veicola gli elementi in serie temporale, occorre infatti
obbligatoriamente attendere che dal segnale in entrata siano stati estratti e posti in registro tutti i
bit componenti il blocco (in emissione) o la parola binaria di codice (in ricezione).
Nell’ambito della codifiche lineari a blocchi, ci si limita a fornire delle indicazioni sul tipo
denominato codifica sistematica, che a parità di prestazioni comporta la minima complessità. Le
prime k cifre binarie delle parole di codice corrispondono ordinatamente a quelle dei blocchi
corrispondenti ( yi = xi, per i = 1, 2 .., k ) e le rimanenti n - k, denominate cifre di controllo di parità,
,

sono ottenute dalle precedenti tramite combinazioni lineari, in aritmetica modulo-2, definite in
modo opportuno; nel caso di un solo bit ridondante si ha ad esempio il criterio che risulti
comunque pari, o anche dispari, il numero complessivo delle cifre 1 nelle parole di codice. Anche
assumendo n - k = 1, risulta evidente che ogni errore introdotto dalla trasmissione imperfetta che sia
unico entro una parola di codice può essere rivelato, ma non corretto, con modesta complessità e a
spesa di un incremento del ritmo binario di un fattore (k +1)/ k (vedi [6.6.2]). Per ottenere la
capacità di correzione di errore occorre un numero non piccolo di cifre di controllo di parità, che
comporta valori elevati di k, e quindi apprezzabili ritardi, se non si vuole abbassare troppo la
frequenza di codifica, ossia se non si desidera produrre un eccessivo aumento del ritmo binario Rv,
144
a valle della codifica. Si noti comunque che la complessità della rete logica non dipende tanto da k,
quanto dalla differenza n - k.
La codifica a blocchi sistematica di tipo (2,1), con la regola che sia dispari il numero delle cifre 1,
costituisce il caso elementare, denominato codifica di Manchester; essa ha la complessità minima,
ma in contropartita provoca addirittura il raddoppio del ritmo binario del segnale codificato. Le
parole di codice corrispondenti ai due possibili blocchi, degenerati nelle singole cifre x1 = 0 e
x2 = 1, sono costituite dalle coppie di bit alternati 01 e 10, entrambe con probabilità ! se sono
associate ciascuna a una delle due cifre in entrata supposte equiprobabili; le rimanenti due
configurazioni sono le coppie di bit identici 00 e 11, aventi comunque probabilità nulla. Ogni
errore, che non sia accompagnato da un altro errore adiacente, origina la ricezione di una delle
configurazioni a probabilità nulla ed è pertanto rivelabile; non può tuttavia essere corretto, essendo
impossibile riconoscere quale bit della coppia sia quello errato. La codifica di Manchester ha in
effetti capacità molto modeste nei riguardi di soddisfare l’obiettivo del miglioramento delle
prestazioni, così che nella pratica trova piuttosto applicazione per le particolari proprietà che essa
conferisce al segnale nel canale in seguito alla successiva operazione di modulazione.
Un esempio più significativo di codifica sistematica a blocchi è offerto dalla codifica di Hamming
(7,4), ancora di tipo sistematico ( yi = xi, per i = 1, 2 3 4 ), per cui vale la regola stabilita dalle n - k
, ,

relazioni lineari di controllo di parità:


[6.6.3] y5 = x1 H x2 H x3, y6 = x2 H x3 H x4, y7 = x1 H x2 H x4,
dove si è indicata con il simbolo H la somma modulo-2. La ridondanza è forte: sono utilizzate solo
24 = 16 parole di codice tra le 27 = 128 configurazioni possibili, con una frequenza di codifica (vedi
[6.6.1]) lievemente superiore a quella della codifica di Manchester. Le parole di codice sono scelte
in modo che differiscano tra loro almeno in tre diverse posizioni; tale proprietà consente la
rivelazione sia di uno che di due errori introdottisi nella stringa ricevuta, nonché la correzione
dell’errore singolo, esistendo una sola parola di codice che differisce in una sola posizione dalla
stringa errata ricevuta.
6.6.1.3 Cenni sulla codifica convoluzionale
Mirando alla capacità di correzione degli errori in avanti, si ottengono di norma migliori risultati a
pari complessità circuitale con un secondo metodo di codifica binaria con ridondanza, che viene
denominato codifica convoluzionale dato che nella elaborazione è contemplata la operazione
ripetitiva di convoluzione della sequenza entrante con opportune sequenze note di lunghezza
finita.
Come mostrato nello schema in Figura 6.29a, gli elementi xk, estratti da un segnale binario
entrante con il ritmo Rx = 1 / Tx, vanno a riempire un registro a scorrimento a L stadi, dove L è la
lunghezza di vincolo del codice. Ad ogni intervallo Tx, a partire dagli L bit temporaneamente
registrati, tramite opportune combinazioni lineari vengono formate in parallelo n cifre binarie, di
cui n -1 ridondanti; tali elementi, per mezzo di un circuito logico di trasformazione parallelo-serie
(P/S), vanno infine a formare un’unica sequenza y(n). Il segnale trasformato uscente che veicola la
sequenza codificata risulta avere il ritmo binario incrementato di un fattore n :
[6.6.4] Rv = n Rx > Rx.
Più in generale, come mostrato in Figura 6.29b, si possono avere k<n registri a scorrimento,
sempre di lunghezza L, che tramite un circuito di trasformazione serie-parallelo (S/P) vengono
riempiti ad ogni intervallo kTx e dalle cui cifre vengono sempre formate quelle, in numero n>k>1,
poi serializzate in uscita. Si ha allora il ritmo binario del segnale binario codificato:
n
[6.6.5] Ry = Rx > Rx,
k
che, anche se molto meno incrementato, mostra comunque la presenza di ridondanza, in ragione
della frequenza di codifica Rc=k/n.
145

Figura 6.29: Schemi a blocchi di codificatori convoluzionali.


La codifica convoluzionale è del tipo con memoria, dato che agisce basandosi non solo sul bit
presente, ma anche sui kL-1 precedenti. Si può osservare che la codifica lineare a blocchi è un
caso particolare di codifica convoluzionale per L=1; in tale caso non c’è più memoria e infatti ogni
blocco viene elaborato per suo conto.
La codifica convoluzionale, caratterizzata tramite la coppia di valori (L, k/n), permette di acquisire
con minore complessità (di norma n vale poche unità) gli stessi miglioramenti delle prestazioni già
considerati nella codifica a blocchi, tramite la rivelazione e la correzione di errori, sempre in
contropartita dell’aumento del ritmo binario. Anche i ritardi introdotti, ancora di poco superiori a
2kTx, sono minori di quelli nella codifica a blocchi a parità delle prestazioni ottenibili.
6.6.2 Codifica con mutamento della cardinalità

6.6.2.1 Cenni sulla codifica di simbolo


Le elaborazioni di sequenze numeriche precedentemente considerate hanno solo riguardato
operazioni in cui l’alfabeto dei simboli in entrata e in uscita, in particolare del tipo binario, resta
invariato. Sono peraltro possibili trattamenti di codifica con alterazione della cardinalità dei
simboli: senza perdita di generalità una elaborazione di tale tipo, ossia una generica codifica di
simbolo, può essere scomposta in una opportuna codifica binaria esterna a una codifica di simbolo
senza ridondanza, o codifica semplice di simbolo, che sia unicamente responsabile del mutamento
di alfabeto. Deve ovviamente esistere la elaborazione complementare di decodifica di simbolo,
anch’essa ovviamente scomponibile nelle due operazioni corrispondenti.
Un codificatore semplice di simbolo muta una sequenza binaria entrante y(n), con tempo di bit Ty,
in una sequenza uscente z(n), con tempo di simbolo Tz, nella quale il generico elemento zk assume
uno dei valori dell’insieme dei simboli {zq}, con q = 1,2..,ML, che costituisce l’alfabeto desiderato.
Rivolgendo l’attenzione alla sola funzionale logica, si ha lo schema del codificatore mostrato in
Figura 6.30.

Figura 6.30: Schema logico funzionale di un codificatore semplice di simbolo.


146
Come illustrato in Figura 6.30, scelto un numero intero L, ad ogni intervallo di durata:
[6.6.6] T = Ty L,
si forma una stringa y1 y2...yL di L cifre binarie in un registro con altrettanti stadi, alimentato dalla
sequenza entrante; tramite un circuito logico lineare, che opera a intervallo T in base a tutti gli L
elementi del registro, si determina poi il valore del corrispondente simbolo z della sequenza
uscente, che ha dunque tempo di simbolo T. Il simbolo appartiene a un alfabeto di cardinalità:
[6.6.7] ML =ˆ 2L,
in quanto gli elementi distinti sono tanti quante le diverse configurazioni possibili della stringa nel
registro, in generale in numero di 2L. In definitiva, risulta stabilita una regola reversibile di codifica
di simbolo, con associazione biunivoca tra gli ML simboli e le altrettante diverse stringhe di cifre
binarie,
[6.6.8] zq ; y1y2...yL, q=1, 2..,ML.
Dato che il codificatore semplice opera sempre con la medesima modalità al ritmo del tempo di
simbolo T, senza influenza alcuna dei valori delle cifre binarie della sequenza entrante che non
siano quelle che determinano la stringa contenuta nell’intervallo di durata T, la elaborazione
considerata è priva di memoria.
La codifica semplice di simbolo viene introdotta per i vantaggi che possono derivare dal
rallentamento della temporizzazione a valle: a parità del tempo di bit Tv in entrata, si ottiene infatti
in uscita un segnale a gradini che ha transizioni a intervallo T = Tv L, con riduzione della banda
pratica di un fattore L. In contropartita si ha l’introduzione di un piccolo ritardo complessivo,
considerando anche il decodificatore, poco maggiore di 2T.
Si osservi che per essere L intero la cardinalità ML dell’alfabeto ottenuto con il codificatore
semplice considerato può assumere solo i valori 4, 8, 16, 32 e così via; è per tale motivo che si è
usata la particolare notazione ML con pedice L. Tale limitazione è superabile in un generico
codificatore di simbolo, ottenuto facendo precedere il codificatore semplice da un opportuno
codificatore binario che introduca ridondanza in ognuna delle stringhe di lunghezza L in cui risulta
strutturata la sequenza alla sua uscita. Se ad esempio la sequenza binaria x(n) viene mutata in una
sequenza binaria y(n) strutturata in stringhe di due bit aventi la proprietà che sia sempre esclusa la
coppia 11, a valle del codificatore semplice con L = 2, ossia ML = 4, si ottiene che il simbolo
quaternario che la regola [6.6.8] associa alla parola 11 ha probabilità nulla, in modo che la
cardinalità effettiva M $ 2 dell’alfabeto della sequenza z(n) si riduce al valore M=3.
6.6.2.2 Esempi di regole di codifica di simbolo
Così come è usuale adoperare per l’alfabeto binario i simboli 0 e 1, nel caso di alfabeti con
cardinalità ML=2L è frequente assumere che l’insieme {zq} dei simboli consista nella serie degli
ML numeri interi dispari, tra loro distanziati di due unità, disposti simmetricamente rispetto allo
zero (vedi Figura 6.31); si ha allora l’espressione algebrica dei simboli:
[6.6.9] zq = 2q - ML - 1, q = 1, 2.., ML,
per la quale l’insieme {zq} risulta ordinato con valori crescenti di zq al crescere di q.

Figura 6.31: Esempi di simboli numerici di un alfabeto quaternario (a) e ottonario (b).
147
Molto spesso la regola [6.6.8] di codifica di simboli viene scelta in modo che a stringhe y1y2...yL
differenti per un solo bit corrispondano sempre elementi adiacenti dell’insieme dei simboli [6.6.9];
la regola si denomina allora codifica di Gray.
Un primo esempio di codifica semplice di simbolo è quello offerto dalla codifica di Gray con
ML = 4, che associa i simboli zq alle stringhe y1y2 con la regola:
[6.6.10] z = 4 y1 + 2(y1H y2 ) - 3,
dove il segno H indica la operazione di somma modulo-2, la notazione y corrisponde alla
operazione di negazione della cifra binaria e le due cifre binarie possono assumere i valori 0
oppure 1. È immediato verificare che si tratta di una regola di Gray, dato che si ottengono le
associazioni mostrate in Tabella 6.2.
Tabella 6.2: Associazioni stabilite dalla regola di Gray per ML = 4.

q 1 2 3 4
zq -3 -1 1 3
y1 y2 01 00 10 11
Si lascia al lettore l’esercizio di verificare che le regole di Gray per ottenere i simboli zq dati dalla
[6.6.9] nei casi ML=8 e ML=16 hanno le espressioni:
[ 6.6.11] z = 8 y1 + 4 y1H y2 + 2 y1H y2 H y3 - 7, ML = 8,
[ 6.6.12] z = 16 y1 + 8 y1H y2 + 4 y1H y2 H y3 + 2 y1H y2 H y3H y4 - 15, ML = 16.
Nel caso ML = 8 si ottengono le associazioni mostrate in Tabella 6.3.
Tabella 6.3: Associazioni stabilite dalla regola di Gray per ML = 8.

q 1 2 3 4 5 6 7 8
zq -7 -5 -3 -1 1 3 5 7
y1 y2 y3 010 011 001 000 100 101 111 110

6.7 CENNI DI MODULAZIONE ARMONICA

6.7.1 Introduzione ai metodi di modulazione armonica

Molti canali di trasmissione per la natura stessa del mezzo trasmissivo richiedono che il segnale in
linea s(t) sia del tipo in banda traslata, con banda relativa stretta attorno a una frequenza fc assai
elevata, come accade per le fibre ottiche e le tratte radio; oppure per particolari circostanze di
impiego è necessario che non si abbiano componenti spettrali prossime all’origine, come nel caso
della trasmissione dati in un canale telefonico. D’altra parte all’inizio del sistema, o meglio a valle
di una elaborazione (vedi blocco SBE in Figura 6.4), si ha in generale una coppia di segnali, bc(t) e
bs(t), che sono invece del tipo in banda base, spesso con identica frequenza minima fbm nulla o
prossima allo zero e la stessa frequenza massima fbM inferiore a fc: nei casi considerati risulta
dunque necessaria una elaborazione sulla coppia menzionata (vedi blocco MO in Figura 6.4) che
produca il diverso segnale s(t) avente spettro tutto contenuto all’interno della banda offerta dal
canale; ovviamente ai fini del corretto trasferimento della informazione l’operazione deve essere
reversibile, ossia deve esistere la elaborazione complementare che agendo su s(t) restituisca due
forme fedeli a bc(t) e bs(t).
Dato che a valle del trattamento considerato si hanno in s(t) componenti spettrali non presenti a
monte, la elaborazione considerata deve essere necessariamente compiuta tramite un sottosistema
con comportamento non lineare; sarà parimenti non lineare anche il sottosistema complementare.
In effetti nel caso qui considerato della modulazione armonica si fa ricorso ad operazioni non
148
lineari che coinvolgono bc(t) e bs(t) in emissione, oppure s(t) in ricezione, con un segnale armonico
noto:
[6.7.1] c(t) =ˆ cos(%ct + &c),
denominato segnale portante e caratterizzato dalla frequenza fc=%c/2! e da una inessenziale fase
&c; l’ampiezza, anch’essa inessenziale, può essere assunta unitaria. Il segnale modulato s(t) nel
canale è convenientemente rappresentabile con riferimento alla frequenza fc, nella sue già note
forme di segnale in banda traslata (vedi [3.5.41] e [3.5.42]), di seguito riportate per comodità:
[6.7.2] s(t) = =(t) cos[%ct+&(t)] = ac(t) cos(%ct) – as(t) sin(%ct),
oppure tramite il suo inviluppo complesso:
[6.7.3] !(t)= =(t) e j! (t) = ac(t) + jas(t),
in cui l’argomento 7(t) è uguale a &(t) a meno di un multiplo dell’angolo giro.
I metodi di modulazione armonica possono essere distinti in due categorie: quella della
modulazione tramite prodotto, in cui appunto si impiega l’operazione di prodotto con segnali
armonici a frequenza fc, e quella della modulazione di angolo, in cui si interagisce sull’angolo che
costituisce l’argomento della oscillazione. Nel seguito ci si limita a considerare i soli aspetti
essenziali che determinano il mutamento della collocazione spettrale e che prescindono dalla
natura analogica o numerica dei segnali; gli schemi dei modulatori e demodulatori (MO e DEM) e
gli effetti prodotti sulla modulazione armonica dalle eventuali elaborazioni nelle sezioni in banda
base (SBE e SBR) sono oggetto di un successivo capitolo.
6.7.2 Cenni sulla modulazione tramite prodotto

Tramite l’unico prodotto tra il segnale portante [6.7.1] e un solo segnale reale in banda base
b(t) " bc(t), assumendo dunque che risulti bs(t) " 0, si ottiene la modulazione a prodotto semplice, o
modulazione a prodotto, con segnale modulato:
[6.7.4] sx(t) =ˆ b(t) c(t) = b(t) cos(%ct + &c),
e inviluppo complesso:
[6.7.5] !sx(t) = b(t) e j!c .
Si noti che di norma b(t) assume sia il segno positivo che quello negativo, in modo che l’inviluppo
reale =sx(t) = |!sx(t)| = |b(t)| non ha lo stesso andamento di b(t).
Supposto che esista la trasformata di Fourier B( f ) di b(t), dalla [6.7.5] si ricava immediatamente lo
spettro dell’inviluppo complesso Isx(f) = B(f) e j!c , in modo che rammentando la [3.5.7] si
determina quello del segnale modulato a prodotto:
1
[6.7.6] Sx(f) = [B( f - fc) e j!c + B*(- f - fc) e- j!c ].
2
L’andamento del modulo Sx(f) è del tipo mostrato in Figura 6.32. Lo spettro del segnale modulato
è dunque composto, a meno del fattore 1/2, di due repliche di quello modulante B( f ) traslate di ±fc;
dalla stessa figura si constata immediatamente che tali repliche risultano separate tra loro in
frequenza a patto che si abbia:
[6.7.7] fc > fbM,
che dunque rappresenta la condizione di reversibilità della modulazione a prodotto. Con la
modulazione a prodotto, a volte anche denominata a banda laterale doppia (DSB = Double Side
Band), si ottiene quindi un segnale che risulta ridondato nel dominio della frequenza, e perciò più
resistente ai difetti del canale; tale ridondanza è la contropartita vantaggiosa del requisito di una
banda di canale doppia di quella in banda base.
149

Figura 6.32: Spettri di ampiezza del segnale modulato a prodotto (linea marcata) e del segnale
modulante in banda base (linea grigia).
Nel caso di segnale di potenza valgono considerazioni analoghe sugli spettri di potenza. In
definitiva la banda Bx di sx(t) nel canale risulta centrata su fc e ha estensione doppia della
frequenza massima in banda base:
[6.7.8] Bx = 2 fbM.
Un interessante caso particolare si ha quando b(t) sia ottenuto da un segnale in banda base x(t) con
una semplice elaborazione lineare del tipo:
[6.7.9] b(t) = Ac [1 + k x(t)] ' 0,
ossia con Ac e k costanti e quest’ultima sia scelta in modo che risulti semore | k x(t)| * 1 e quindi:
[6.7.10] =sx(t)=|b(t)|=1+kx(t).
Allora nei riguardi di x(t) si ottiene il sottocaso della modulazione di ampiezza (AM = Amplitude
Modulation), caratterizzata dalla semplice proporzionalità a meno di una costante tra l’inviluppo
del segnale modulato e il segnale originario. Si noti tuttavia che nella AM si ha la trasmissione nel
canale del segnale di portante Ac cos(%ct + &c), che in quanto noto non è utile al trasferimento della
informazione mentre richiede una potenza maggiore di quella effettivamente utile, riguardante le
sole bande laterali. Un tipico andamento nel tempo di segnale AM è mostrato in Figura 3.17.
Più generale è la modulazione a prodotto in quadratura, a volte anche denominata modulazione
di ampiezza istantanea in quadratura (QAM = Quadrature Amplitude Modulation), che necessita di
una elaborazione, capace di fornire i due segnali reali in banda base a valore medio nullo, e di due
prodotti con segnali armonici in quadratura di fase; si ottiene in tale modo il segnale in banda
traslata nella forma generale (vedi [6.7.2]):
[6.7.11] s(t) = bc(t) cos(%ct) – bs(t) sin(%ct),
dove bc(t) e bs(t) risultano come le ampiezze istantanee delle due portanti in quadratura. I due
addendi in s(t) sono singolarmente dei segnali modulati a prodotto con la stessa frequenza di
portante e di conseguenza i loro spettri condividono la stessa banda nel canale, per una estensione
pari al doppio della frequenza massima fbM. Con la modulazione a prodotto in quadratura si ha
ancora la ridondanza nel dominio della frequenza, ma grazie alla sovrapposizione degli spettri ciò
non costa in termini di requisito di banda nel canale. Dato che i due segnali addendi in s(t) benché
sovrapposti in frequenza risultano separabili, come dimostrato in un capitolo successivo, la
elaborazione è ancora reversibile nel rispetto della condizione fc>fbM.
6.7.3 Cenni sulla modulazione armonica di angolo

La seconda categoria di elaborazione con segnale armonico, ossia la modulazione di angolo, è


caratterizzata dalla variabilità nel tempo del solo argomento dell’oscillazione, ossia si ha la
costanza dell’inviluppo. Una volta posto =s (t) " Ac dove Ac è una costante, il segnale modulato e il
7

suo inviluppo complesso rispettivamente assumono l’espressioni:

[6.7.12] s7(t) =ˆ Ac cos[%ct + &(t)],


150
[6.7.13] =sx(t) = Ac e j!(t) .
L’informazione è veicolata tramite la fase istantanea &(t), che viene infatti resa dipendente da un
solo segnale in banda base b(t) tramite una generica trasformazione lineare:
[6.7.14] &(t) = K h (t) $ b(t),
& &

dove K è una costante e h (t) è un’arbitraria funzione che ammette la trasformata di Fourier
F F

H ( f ) = F [h (t)]. Un tipico andamento nel tempo di segnale modulato di angolo è quello già
F F

mostrato in Figura 3.18.


La dipendenza non lineare, attraverso la funzione coseno, del segnale nel canale s (t) da quello
7

modulante b(t) rende assai ardua la determinazione dello spettro modulato di angolo. Tale spettro,
che con lecito riferimento al solo semiasse positivo delle frequenze ha comunque in generale un
andamento simmetrico rispetto a fc (vedi ad esempio Figura 6.33) e non riconducibile a quello di
b(t), è in teoria infinitamente esteso, ma adottando una regola pratica può essere assunto
sostanzialmente limitato entro l’intervallo, denominato banda di Carson:
[6.7.15] B = 2 ( >fp + fbM ),
7

dove >f p è la deviazione di frequenza, ossia il valore di picco della deviazione di frequenza
istantanea >f(t) legata alla fase istantanea dalla già nota relazione [3.5.53], qui riportata:
1 d! (t)
[6.7.16] >f (t) = .
2! dt
Per garantire la reversibilità della modulazione di angolo è dunque opportuno soddisfare la:
[6.7.17] fc>>>fp + fbM.

Figura 6.33: Spettri di ampiezza del segnale modulato di angolo (linea marcata) e del segnale
modulante in banda base (linea grigia).
Si noti dalla [6.6.14] che al crescere di K la fase istantanea &(t) varia maggiormente e quindi
F

aumenta sia il valore di picco >fp che quello della banda pratica B , con crescente introduzione di
7

ridondanza nel dominio della frequenza del segnale modulato e conseguente maggiore protezione
nei riguardi dei difetti del canale, con la contropartita dell’aumento del requisito di banda di
quest’ultimo.
Il caso particolare più semplice dal punto di vista analitico è la modulazione di fase (PM = Phase
Modulation), per cui nella [6.6.14] si assume h (t) " +(t), ossia H (t) " 1, in modo che la fase
F F

istantanea risulta proporzionale al segnale modulato:


[6.7.18] &(t) = K b(t), per PM.
F

Un altro caso particolare è la modulazione di frequenza (FM = Frequency Modulation), nella


quale la trasformazione lineare che conduce a &(t) è l’integrazione nel tempo, così che
rammentando la [6.6.16] risulta stabilito che la deviazione di frequenza istantanea è proporzionale
al segnale modulato:
K!
[6.7.19] >f (t) = b(t), per FM.
2"
151

7 PROCESSI ALEATORI
152

7.1 GENERALITÀ SUI PROCESSI STOCASTICI

7.1.1 Segnali aleatori e loro sorgenti

Si è a volte fatto riferimento ai segnali quali veicoli di informazione: in proposito occorre tuttavia
precisare che si tratta di segnali aleatori, in quanto quelli determinati, ossia già noti nel loro intero
andamento temporale, non sono ovviamente portatori di alcuna informazione. Nei problemi di
telecomunicazioni si incontrano sovente dei segnali la cui evoluzione nel tempo sfugge a
caratterizzazioni di tipo deterministico, quali quelle richiamate in precedenza; vengono allora
considerati di tipo casuale e trattati in forma statistica. È necessario prendere in considerazione
tutti i possibili segnali con probabilità non nulla di essere osservati, poiché in generale ciascuno di
essi considerato isolatamente non è sufficientemente rappresentativo. Allo scopo si vuole in questo
paragrafo introdurre alcuni cenni sulle sorgenti dei flussi di informazione, anche per la migliore
comprensione, in senso stocastico, tanto dei contenuti informativi, quanto delle caratteristiche dei
segnali aleatori, oggetto della analisi condotta nei paragrafi successivi.
In primo luogo, la emissione elementare di una informazione può essere schematizzata con la
scelta del valore di una variabile aleatoria reale, nel seguito indicata con la notazione v.a.. La
sorgente è denominata analogica se la v.a., Z, è continua, ossia se la sua generica determinazione,
z, può assumere uno qualsiasi dei valori non numerabili in un intervallo noto, di norma finito; è
invece denominata numerica, se la v.a., Zq, è discreta, ossia se la sua determinazione può
assumere uno qualsiasi dei simboli che costituiscono un insieme, {zq} con q = 1, 2,.., M, discreto,
numerabile e finito.
Con riferimento al caso numerico, la considerata emissione elementare è riconducibile alla scelta
di un simbolo, zq, tra gli M possibili diversi elementi che nel loro complesso formano un alfabeto
M-nario. A tale evento si associa la quantità di informazione:
1
[7.1.1] I(zq) =ˆ log 2 ,
P(zq )
dove P(zq) è la probabilità di zq. La occorrenza di una delle due cifre binarie in condizione di
equiprobabilità [P(0)=P(1)=!] corrisponde dunque alla unità di quantità di informazione,
denominata bit. Sempre che i simboli siano equiprobabili, ossia si abbia:
1
[7.1.2] P(zq) = ,
M
e che nella M = 2b sia b intero, la quantità di informazione, identica, di ciascun simbolo coincide
con il numero b delle cifre binarie ad esso associabili.
Considerando l’evoluzione di una sorgente, si passa al flusso di informazione. Nel caso analogico
si ha molto spesso un flusso continuo nel tempo: volta per volta, si è allora di fronte alla
generazione di una funzione campione, x(t), che costituisce la realizzazione di un processo
stocastico continuo reale, indicato con X(t), comprendente tutte le realizzazioni possibili; il
processo per ogni generico tempo t di saggiatura si riduce alla v.a. continua Xt= X(t), come quella
già precedentemente introdotta. Nella Figura 7.1 sono mostrate alcune realizzazioni di un processo
continuo, ponendo in evidenza le determinazioni della v.a. Xt, nell’istante t, così come quelle della
v.a. Xt+ , nell’istante t+-.
#

Si ha anche il caso di flusso discreto di informazione analogica, contemplando ad esempio una


sorgente che, volta per volta, genera una sequenza, z(n), che costituisce la realizzazione di un
processo stocastico discreto reale, indicato con Z(n), comprendente tutte le realizzazioni possibili;
il processo per ogni valore di saggiatura k della variabile intera n si riduce alla v.a. continua Zk,
come quella già precedentemente introdotta; ossia il processo è una sequenza di v.a. continue.
Il flusso di informazione di una sorgente numerica corrisponde sempre a un processo discreto
reale, Zq(n), comprendente come realizzazioni tutti i flussi numerici volta per volta generabili,
zq(n); ma, a differenza del caso immediatamente precedente, si ha un processo stocastico discreto
153
a valori discreti, dato che per ogni generico valore intero di saggiatura, k, esso si riduce a una v.a.
discreta: Zqk, che come già esposto ha per determinazione uno degli M possibili simboli
dell’insieme {zq}. Il tipo di processo considerato è perciò una sequenza di v.a. discrete.
x(t)

x(t)

. . . . . . . . . . . . . . . . . . . . . . . .
x(t)

t
t t+!
Figura 7.1 - Esempio di realizzazioni di un processo continuo.
I segnali aleatori che veicolano la informazione nei sistemi di telecomunicazione si ottengono
dalle sorgenti a valle di opportuni procedimenti di conversione della natura fisica dei flussi di
informazione: da quella generica con cui esso nasce, alla natura elettrica. Tali trattamenti sono
attuati da trasduttori, apparati che non interessano la trasmissione e pertanto verranno in seguito
ignorati, ritenendoli interni alle sorgenti. Se la sorgente è analogica, la forma emessa in modo
casuale, ossia un segnale analogico, ha andamento aleatorio nel tempo analogo a quello del flusso
di informazione considerato: di conseguenza anch’esso è la realizzazione di un processo continuo.
Se invece la sorgente è numerica, si ha in corrispondenza un segnale numerico, con vario
andamento aleatorio, ma comunque sempre associato al flusso numerico di informazione
considerato: tralasciando il caso astratto del segnale campionato numerico, nella pratica sia ha
pertanto ancora la realizzazione di un processo continuo, seppure dipendente da un processo
discreto a valori discreti.
In definitiva, tutti i possibili segnali fisici aventi probabilità non nulla di transitare in un sistema di
trasmissione, ma sempre generabili da sorgenti dello stesso tipo, nel loro insieme costituiscono un
processo stocastico continuo reale, di cui la singola forma d’onda, x(t), è la realizzazione .
7.1.2 Caratterizzazione dei processi continui

In un processo continuo reale X(t), ad ogni generico istante di saggiatura, t, corrisponde una v.a.
continua, Xt=X(t), e i valori istantanei, xt = x(t), di tutte le possibili realizzazioni sono quelli che la
v.a. Xt può assumere. La distribuzione dei valori xt è caratterizzata tramite la funzione:
p(xt ; t),
denominata densità di distribuzione o anche densità di probabilità all’istante t; il valore di
p(xt;t)dxt esprime infatti la probabilità che la Xt assuma al tempo t un valore compreso tra xt e
xt+dxt. Più in generale, occorre la conoscenza della interdipendenza statistica di una ennupla di
v.a., X1, X2,.., Xn, ottenute in corrispondenza degli istanti di saggiatura t1, t2, .., tn, tutti arbitrari. Si
ricorre allora alla densità di distribuzione congiunta o anche densità di probabilità congiunta di
ordine n:
pn = pn (x1,x2,..,xn;t1, t2, .., tn);
154
ad esempio p2dx1dx2 rappresenta la probabilità che ai tempi t1 e t2 i valori assunti da X1 e X2 siano
compresi rispettivamente tra x1 e x1+ dx1 e tra x2 e x2+ dx2. La conoscenza della funzione pn è
sufficiente affinché siano note tutte le funzioni di ordine inferiore; si ha infatti:
[7.1.3] pn-1 = ! p n dx n .

Generalmente la v.a. Xn al tempo tn è condizionata dalla eventuale conoscenza delle v.a. estratte in
corrispondenza dei precedenti istanti tn-1,.., t2, t1; si definisce quindi la densità di distribuzione
condizionata o anche densità di probabilità condizionata di ordine uno e con n-1
condizionamenti:
p|n-1 = p|n-1(xn ; tn | xn-1,.., x2, x1; t n-1,.., t2, t1) ;
il valore di p|n-1dxn esprime la probabilità che al tempo tn la Xn assuma un valore compreso tra xn e
xn+ dxn, sotto il condizionamento dei valori xn-1,.., x2, x1. Si ha poi:
[7.1.4] pn = p|n-1pn-1(xn-1,.., x2, x1; t n-1,.., t2, t1) ,
e reiterando la stessa [7.1.4]:
[7.1.5] pn= p|n-1 p|n-2 p|n-3....p|1 p(x1; t1).
Per caratterizzare completamente un processo non è sempre necessaria la conoscenza delle densità
di probabilità di ordine comunque elevato, come nel seguito mostrato.
Un caso particolarmente semplice è quello in cui si verifica la ipotesi di completa indipendenza
statistica tra tutte le v.a. Xt, in corrispondenza di istanti di saggiatura diversi: allora tutte le
funzioni condizionate si riducono alla densità di distribuzione del primo ordine e dalla [7.1.5] si
ottiene che la densità di probabilità congiunta di ordine n si esprime semplicemente come il
prodotto di n funzioni del primo ordine.
Per particolari processi stocastici, detti processi di Markoff del primo ordine, la dipendenza
statistica tra diversi valori di Xt si esaurisce con il valore contiguo, ossia vale per le funzioni
condizionate di qualsiasi ordine la proprietà:
[7.1.6] p|k-1 = p|1(xk; tk | xk-1;tk-1) ;
dalla [7.1.5] risulta allora:
[7.1.7] pn= p|1(xn ; tn | xn-1, tn-1):::p|1(x2; t2| x1; t1) p(x1; t1).
Ne segue che i processi del tipo considerato sono completamente descritti dalla densità di
probabilità di secondo ordine (vedi [7.1.3]). Nei processi di Markoff di ordine n la descrizione è
completa se si conosce la densità di probabilità di ordine n +1.
Pur arrestando la conoscenza alla densità di probabilità del secondo ordine, è possibile il calcolo di
alcune grandezze di un generico processo, atte a rappresentare sinteticamente almeno le sue più
importanti caratteristiche. Nel seguito si rimarrà pertanto entro tale limitazione.
Si adotti per l’operatore di media statistica la notazione:
E {Fn } = ! Fn (v1, v 2 ,.., v n )p n (v1, v 2 ,.., v n )dv1 dv 2 ..dv n
n ,
dove Fn è una funzione delle v.a. V1,V2,..,Vn e l’integrale è ennuplo. Al generico istante di
saggiatura t1, stante la v.a. X1=X(t1), si definiscono il valore medio statistico del processo (o
speranza matematica), la potenza media statistica del processo e la varianza del processo,
rispettivamente mediante le:
[7.1.8] E{x1} = ! x1p(x1;t1 )dx1 =ˆ ?(t1) ,

[7.1.9] E{|x1|2} = ! x1 p(x1;t1 )dx1 =ˆ P(t1) ,


2
155
[7.1.10] E{|x1- E{x1}| } = ! x1 -E(x1 ) p(x1;t1 )dx1 =ˆ I2(t1) ,
2 2

che in generale risultano dipendenti dall'istante di saggiatura t1.


Si ha poi la proprietà:
[7.1.11] I2(t1) = P(t1) - |?(t1)|2 .
In corrispondenza della coppia di generici istanti di saggiatura t1 e t2 e tramite la intercorrelazione
statistica tra le v.a. X1 = X(t1) e X2 = X(t2), espressa dalla densità di probabilità di secondo ordine,
si definiscono la funzione di autocorrelazione del processo e la funzione di autocovarianza del
processo, rispettivamente mediante le relazioni (1):
[7.1.12] E {x1x!2 } = "" x1x!2 p 2 (x1, x 2 ;t1,t2 )dx1 dx 2 =ˆ R(t1,t2) ,

{
[7.1.13] E !"x1 -E {x1 }#$!"x 2 -E {x 2 }#$ } = "" (x -E{x }) (x -E{x }) p (x ,x ;t ,t )dx dx =ˆ K(t1,t2);
% !
1 1 2 2 2 1 2 1 2 1 2

vale inoltre la proprietà:


[7.1.14] K(t1,t2) = R(t1,t2) - ?( t1) ?*(t2),
ed è immediato constatare che per t2= t1 si hanno le relazioni:
[7.1.15] R(t1,t1) = P(t1) , K(t1, t1) = I2(t1) ,
e quindi la [7.1.14] coincide in tale caso con la [7.1.11].
Si noti che tutte le grandezze introdotte sono caratteristiche del processo, ma sono in generale
funzioni di una o di entrambe le variabili temporali indipendenti di saggiatura, t1 e t2. È rilevante
inoltre osservare che, grazie alle proprietà [7.1.14] e [7.1.15], tutte le grandezze considerate
risultano note o ricavabili a partire dalla sola conoscenza delle due grandezze:
?(t1) , R(t1,t2) ,
che dunque rivestono un ruolo fondamentale per la caratterizzazione sintetica, limitata al secondo
ordine, del processo.
7.1.3 Processi continui stazionari

Nella realtà operativa della trasmissione i segnali, utili o indesiderati che siano, sono realizzazioni
di processi stocastici. Se si considerano osservazioni molto prolungate le caratteristiche dei segnali
nel dominio statistico (in particolare il valore medio e la funzione di autocorrelazione) non
risultano invariate nel tempo: basti fare riferimento alla durata finita delle comunicazioni, nonché
alla possibilità che su uno stesso collegamento transitino in tempi anche immediatamente
successivi i segnali, in teoria tutti di energia finita, generati da sorgenti assai diverse (ad esempio
sorgente vocale o di dati in banda fonica); d’altra parte il progetto e l’esercizio in opera degli
apparati e dei mezzi che costituiscono i sistemi di trasmissione può essere basato sulle prestazioni
di larga media osservabili in numerosi intervalli di breve durata. Ciò giustifica la prassi comune di
estrapolare, su tutto l’asse dei tempi, le caratteristiche dei segnali, quali esse risultano da
valutazioni statistiche compiute su intervalli temporali limitati, purché di durata sufficiente; in altri
termini è spesso accettabile la ipotesi di invarianza nel tempo della natura aleatoria dei segnali in
transito. Concludendo, è lecito concentrare l’attenzione su quella particolare categoria di processi,
denominata dei processi stocastici continui stazionari, che a prescindere dalle caratteristiche che
verranno precisate in seguito, hanno come realizzazioni segnali aleatori di potenza.
Nei processi continui stazionari tutte le funzioni di densità di probabilità risultano invarianti
rispetto a una traslazione temporale; in particolare, quindi, godono di tale proprietà anche le

(1) La notazione con il segno della operazione di coniugio, superflua nel caso considerato di processo reale, torna
successivamente utile nella estensione ai processi complessi.
156
grandezze sintetiche poco sopra introdotte. I processi stocastici più interessanti per le
telecomunicazioni, in quanto costituiscono una classe che comprende i precedenti, ma è molto più
ampia, sono quelli debolmente stazionari o stazionari in senso lato, per i quali la proprietà
considerata vale in riferimento alle funzioni del primo e secondo ordine; ossia ponendo t1 = t + - e
t2= t con - qualsiasi, si ottiene una densità di probabilità del generico valore istantaneo x1 = x(t + -)
indipendente dal tempo:
[7.1.16] p(x1 ; t1) = p(x2 ; t2) = p(x1) = p(x2) ,
e una densità di probabilità congiunta della coppia di valori istantanei x1=x(t+-) e x2=x(t) che
dipende da -:
[7.1.17] p2(x1, x2 ; t1, t2) = p2(x1, x2; -) .
Nell’ambito della prassi qui seguita, di limitare la caratterizzazione dei processi al secondo ordine,
non è dunque apprezzabile la differenza tra la stazionarietà effettiva e quella in senso lato: pertanto
nel seguito tale distinzione verrà trascurata, ma il lettore ricordi che quanto ricavato per i processi
della classe più ristretta è valido per quelli stazionari in senso lato.
In un processo stazionario il valore medio statistico, la potenza e la varianza risultano delle
costanti; si ottiene rispettivamente:
[7.1.18] E{x(t)} = ! x1p(x1 )dx1 =ˆ ?x ,

[7.1.19] E{|x(t)|2} = ! x1 p(x1 )dx1 =ˆ Px ,


2

[7.1.20] E{|x(t) - E{x(t)}|2} = ! x1 -! p(x1 )dx1 =ˆ ! 2x .


2

Inoltre, le funzioni di autocorrelazione e di autocovarianza dipendono dalla differenza - tra i due


istanti di saggiatura e non dai loro valori in assoluto, ossia si ha(1):
[7.1.21] E {x(t+!)x" (t)} = "" x1 x2! p2 (x1,x 2 ;! )dx1 dx2 =ˆ Rxx(-) ,

{ }
[7.1.22] E !" x(t+! )-E { x(t+! )}#$!" x(t)-E { x(t)}#$ = "" (x -! )(x -! ) p (x ,x ;" )dx dx =ˆ Kxx(-),
% !
1 2 2 1 2 1 2

dove sia Rxx(-) che Kxx(-) sono funzioni hermitiane:


[7.1.23] Rxx(-) = R !xx (- " ) , Kxx(-) = K!xx (- " ) ;
valgono poi le proprietà:
[7.1.24] Rxx(-) = Kxx(-) + | ?x|2 , |Rxx(-)| * Rxx(0) = Px , |Kxx(-)| * ! 2x ,
[7.1.25] Rxx(0) = Px = ! 2x + | ?x|2 = Kxx(0) + | ?x|2 .
Sempre nell’ipotesi di stazionarietà si dimostrano le relazioni:
[7.1.26] ?x = E{ x } , Px = E{P xx} , Rxx(-) = E{Rxx(-)} , Kxx(-) = E{Kxx(-)} ,
dove x , P xx, Rxx(-) e Kxx(-) sono le rispettive grandezze relative alla generica singola realizzazione
del processo, ossia il valore medio temporale, la potenza media temporale, la funzione di
autocorrelazione temporale e la funzione di autocovarianza temporale.
È rilevante osservare che, in virtù delle [7.1.24] e [7.1.25], tutte le grandezze considerate risultano
note o ricavabili a partire dalla sola conoscenza del valore medio statistico e della funzione di
autocorrelazione:

(1) La notazione con il segno della operazione di coniugio, superflua nel caso considerato di processo reale, torna
successivamente utile nella estensione ai processi complessi.
157
?x , Rxx(-) ,
che dunque rivestono un ruolo fondamentale per la caratterizzazione sintetica di un processo
stazionario.
Mantenendo la ipotesi di stazionarietà, è possibile la definizione della densità spettrale di potenza
o anche spettro di potenza del processo, tramite la relazione di Wiener-Khintchine:
[7.1.27] Px( f ) =ˆ F{Rxx(-)} ;
si ha la espressione:
1 2
[7.1.28] Px(f) = lim E X T (f) ,
{ }
T!" T

dove con XT(f) si è indicata la trasformata di Fourier della generica realizzazione troncata
nell’intervallo finito di osservazione T. Si noti che la funzione Px( f ) è reale per definizione,
essendo Rxx(-) hermitiana, ed è non negativa in virtù della [7.1.28]; essa diviene una funzione pari
nel caso, molto frequente, di processo reale. Servendosi delle [7.1.24] e [7.1.27] si ricava la
espressione:
[7.1.29] Px(f) = F{Kxx(-) + |?x|2} = F{Kxx(-)}+ | ?x|2+(f) ,
che evidenzia la esistenza di una componente spettrale discreta nella origine, legata al quadrato del
modulo del valore medio statistico. Calcolando in - = 0 l’antitrasformata di Fourier della [7.1.27] e
rammentando la [7.1.25] si ricava:
[7.1.30] Px = ! Px (f)df .

Grazie alla relazione di Wiener-Khintchine, per caratterizzare un processo stazionario sono


sufficienti il suo valore medio statistico, ?x, e la sua densità spettrale di potenza, Px( f ). A patto di
fare riferimento a tale ultima funzione, valgono le considerazioni sviluppate a proposito della
estensione spettrale dei segnali determinati: nel caso di processi fisici stazionari è dunque sempre
possibile adottare le denominazioni di processi in banda base e di processi in banda traslata,
adoperando rispettivamente le condizioni fM>>fm e fM<2fm dove fm e fM sono gli estremi della
banda monolatera del processo.
Un sottoinsieme particolarmente interessante di processi stazionari è quello dei processi ergodici,
per i quali la singola realizzazione, x(t), osservata su tutto l’asse dei tempi, contiene tutte le
proprietà statistiche del processo, così che le grandezze medie temporali convergono tutte, con
probabilità tendente a uno, alle corrispondenti medie statistiche. Indicati sempre con x , P xx, Rxx(-)
e Kxx(-) rispettivamente il valore medio, la potenza e le funzioni di autocorrelazione e di
autocovarianza della generica singola realizzazione del processo, si hanno le relazioni:
[7.1.31] x = ?x , P xx = Px , Rxx (-) = Rxx(-) , Kxx(-) = Kxx(-) .
La conoscenza dell’intero andamento temporale di una sola realizzazione consente quindi la
determinazione delle grandezze sintetiche del processo stazionario ergodico a cui essa appartiene.
7.1.4 Intercorrelazione nei processi stazionari

Si consideri una coppia di processi reali continui, X(t) e Y(t), congiuntamente stazionari, ossia per
cui entrambe le densità di probabilità del primo ordine siano indipendenti dal tempo (vedi [7.1.16])
e la densità di probabilità congiunta della coppia di valori istantanei x1=x(t+-) e y2 = y(t) dipenda
dalla differenza - = t1-t2 tra gli istanti di saggiatura e non dai loro valori assoluti. Oltre alle
grandezze caratteristiche già introdotte per ciascun processo (nel seguito distinte tramite l’aggiunta
del pedice singolo x o y), in analogia con le [7.1.21] e [7.1.22] si definiscono la funzione di
158
intercorrelazione e la funzione di covarianza mutua della coppia di processi(1), che risultano
entrambe funzioni di -:
[7.1.32] E{x(t+-)y*(t)} =ˆ Rxy(-) ,
[7.1.33] E{[x(t + -) - ?x][y(t) - ?y]*} =ˆ Kxy(-) ,
dove ?x e ?y sono i valori medi statistici; scambiando tra loro i pedici nelle [7.1.32] e [7.1.33], si
dimostrano le (con il cambio di variabile z=t+-):
[7.1.34] Ryx(-) =R !xy (-") , Kyx(-) = K!xy (- " ) .

Tra le funzioni sussiste la relazione:


[7.1.35] Rxy(-) = Kxy(-) + ?x !"y ;
valgono inoltre le proprietà:
[7.1.36] |Rxy(-)|2 " Rxx(0)Ryy(0) = PxPy ,
[7.1.37] |Kxy(-)|2 " Kxx(0)Kyy(0) = ! 2x ! 2y ,

avendo indicato con Px e Py e con ! 2x e ! 2y rispettivamente le potenze e le varianze dei processi.


Definita poi la densità spettrale mutua di potenza dei processi:
[7.1.38] Pxy(f) =ˆ F{Rxy(-)},
si ha la relazione:
1
[7.1.39] Pxy( f ) = lim E {X T (f)YT# (f)} ,
T!" T
dove XT(f) e YT(f) sono le trasformate di Fourier delle generiche realizzazioni troncate
nell’intervallo finito di osservazione T; scambiando tra loro i pedici, si ottiene:
[7.1.40] Pxy! (f ) = Pyx( f ) = F{Ryx(-)} .
Dalla [7.1.39] si nota che la densità spettrale mutua di potenza è diversa da zero solo alle
frequenze per cui sono entrambe non nulle le densità spettrali di potenza dei processi X(t) e Y(t)
considerati.
Si osservi che nel caso di processi congiuntamente stazionari entrambi reali, le funzioni di
intercorrelazione e di covarianza sono sempre funzioni reali, mentre la densità spettrale mutua di
potenza è in generale una funzione hermitiana della frequenza.
Due processi congiuntamente stazionari si dicono incoerenti se la funzione di intercorrelazione è
nulla per ogni -, ossia si ha:
[7.1.41] Rxy(-) " 0 ;
servendosi della [7.1.38] si ricava in tal caso che la densità spettrale mutua di potenza si annulla
anch’essa per ogni frequenza:
[7.1.42] Pxy(f) " 0 , se: Rxy(-) " 0 .
Se invece la funzione di covarianza è nulla per ogni -:
[7.1.43] Kxy(-) = Rxy(-) - ?x !"y " 0 ,
i due processi si denominano incorrelati; sempre dalla [7.1.38] risulta allora che la densità
spettrale mutua di potenza consiste in una sola componente discreta nella origine:

(1) La notazione con il segno della operazione di coniugio, superflua nel caso considerato di processo reale, torna
successivamente utile nella estensione ai processi complessi.
159
[7.1.44] Pxy(f) = ?x !"y +(f) , se: Kxy(-) " 0 .

Qualora sia nullo il valore in - = 0 della funzione di intercorrelazione, ossia si abbia:


[7.1.45] Rxy(0) = E{x(t) y*(t)} = 0,
i due processi, nel medesimo generico istante di saggiatura, danno luogo a una coppia di v.a. X(t) e
Y(t) ortogonali; risulta in tal caso (vedi [7.1.40]):
[7.1.46] " Pxy (f)df= " !{ P (f)} df=0 ,
xy se: Rxy(0) = 0.

Due processi continui stazionari statisticamente indipendenti, per cui le densità di probabilità
congiunte di vario ordine si riducono ai prodotti delle densità congiunte di ciascun processo preso
separatamente:
[7.1.47] pn+m(x1, x2,.., xn, y1, y2,.., ym) = pn(x1, x2,.., xn) pm(y1, y2,.., ym),
sono sempre incorrelati. Se almeno uno ha valore medio nullo sono anche incoerenti.
7.1.5 Processo somma e processo complesso

Si consideri il processo continuo, A(t), con realizzazioni a(t) = x(t) + y(t) date dalla somma di
quelle di due processi reali congiuntamente stazionari, e si applichino le [7.1.18] e [7.1.21]. Data
la linearità dell'operatore di media statistica, E{•}, il valore medio statistico risulta:
[7.1.48] ?a= E{x(t)+y(t)}= E{x(t)}+E{y(t)}= ?x+?y.
Si ottiene poi la funzione di autocorrelazione:
[7.1.49] Raa(-)=E{[x(t+-)+y(t+-)][x(t)+y(t)]*}=E{x(t+-)x*(t)}+
E{y(t+-)y*(t)}+E{x(t+-)y*(t)}+E{y(t+-)x*(t)}= Rxx(-)+Ryy(-)+Rxy(-)+Ryx(-) .
Il processo somma considerato è dunque anch’esso stazionario. Grazie alle [7.1.28] e [7.1.40] si ha
inoltre:
[7.1.50] Pa(f) = Px(f) + Py(f) + 20{Pxy(f)} .
La incoerenza dei due processi addendi (vedi [7.1.41] e [7.1.42]) è allora condizione sufficiente
affinché i processi X(t) e Y(t) si sommino in potenza, così come in densità spettrale di potenza:
[7.1.51] Pa= Px+ Py , Pa( f ) = Px( f ) + Py( f ), se: Rxy(-) " 0 .
La regola della semplice somma in potenza vale inoltre anche nel caso che i due processi reali
diano luogo a v.a. ortogonali, come dimostrabile integrando la [7.1.50] e applicando la [7.1.46];
pertanto qualora la funzione di intercorrelazione sia nulla nella origine si usa la denominazione di
processi additivi in potenza:
[7.1.52] Pa= Px+ Py , se: Rxy(0) = " Pxy (f)df= " !{ P (f)} df=0 .
xy

Si rammenti che in generale non risultano però sommabili gli spettri di potenza, ossia si ha Pa(f) /
Px(f) + Py(f).
Si noti infine che l'indipendenza statistica tra i due processi addendi, che risultano allora
incorrelati, permette la semplice somma delle potenze e degli spettri solo a patto che almeno uno
dei due processi abbia valore medio nullo (vedi [7.1.42] e [7.1.43]).
Un secondo caso interessante, per cui è ancora sfruttabile la linearità dell’operatore di media
statistica, è quello del processo complesso, B(t), con realizzazioni b(t)=x(t)+jy(t) dove X(t) e Y(t)
sono ancora due processi reali congiuntamente stazionari.
Applicando le [7.1.18] e [7.1.21], si ricava il valore medio statistico:
[7.1.53] ?b = E{x(t)+jy(t)} = E{x(t)}+jE{y(t)}= ?x+j?y.
160
Si ottiene poi la funzione di autocorrelazione:
[7.1.54] Rbb(-) = E{[x(t+-)+jy(t+-)][x(t)+jy(t)]*}= E{x(t+-)x*(t)}+E{y(t+-)y*(t)}-
jE{x(t+ -)y*(t)}+jE{y(t+-)x*(t)}=Rxx(-)+Ryy(-)-j[Rxy(-)-Ryx(-)].
Il processo complesso considerato è dunque anch’esso stazionario. Grazie alle [7.1.27], [7.1.38] e
[7.1.40] si ha inoltre:
[7.1.55] Pb(f) = Px(f)+Py(f)+28{Pxy(f)}.
Ponendo -=0 nelle [7.1.36] e [7.1.54], si ricava che la potenza del processo complesso considerato
è sempre la somma delle potenze dei due processi che si compongono:
[7.1.56] Pb = Px + Py ;
la loro eventuale incoerenza (vedi [7.1.42]) è allora condizione sufficiente affinché sia valida
anche la semplice relazione riguardante le densità spettrali di potenza:
[7.1.57] Pb(f) = Px(f)+Py(f), se: Rxy(-) " 0 .
7.1.6 Processi discreti reali stazionari

7.1.6.1 Processi discreti reali stazionari a valori continui


A valle di quanto sopra richiamato, è semplice da esaminare il caso di un processo discreto reale,
indicato con Z(n), costituito da una sequenza di infinite v.a. reali continue, Zk, caratterizzate dalle
funzioni di densità di probabilità di vario ordine riguardanti le determinazioni zk = z(k). In
corrispondenza di due generiche variabili intere di saggiatura, k1 e k2, della variabile intera n, con lo
stesso formalismo delle [7.1.8] - [7.1.15] si ottengono il valore medio statistico, ?(k1), la potenza
media statistica, P(k1), la varianza, I2(k1), così come la funzione di autocorrelazione, R(k1,k2), e la
funzione di autocovarianza del processo discreto, K(k1,k2).
Nel caso di interesse, dei processi discreti stazionari o stazionari in senso lato, la densità di
probabilità del primo ordine è indipendente da k e quella del secondo ordine è invariante rispetto a
una sua generica traslazione. Di conseguenza il valore medio statistico, la potenza e la varianza
risultano delle costanti, indipendenti dalla variabile intera di saggiatura, mentre le funzioni di
autocorrelazione e di autocovarianza dipendono dalla differenza intera, 3 = k1-k2, delle due variabili
di saggiatura e non dai loro valori in assoluto; si hanno poi le seguenti espressioni:
[7.1.58] E{z(k)} = ! z k p(z k )dz k =ˆ ?z,

[7.1.59] E{z2(k)} = ! z 2k p(z k )dz k =ˆ Pz,

[7.1.60] E{[z(k) - E{z(k)}]2} = " ( z k -!z ) p(z k )dz k =ˆ ! 2z ,


2

[7.1.61] E{z(k + 3) z(k)} = "" z k +!z k p 2 (z k +!,z k ;!)dz k +! dz k =ˆ Rzz(3) ,

[7.1.62] E{[z(k + 3) - ?z][z(k) - ?z]}= ## (z k +! -"z )(z k -"z )p 2 (z k +!,z k ;!)dz k +! dz k =ˆ Kzz(3),

dove entrambe le grandezze Rzz(3) e Kzz(3) sono funzioni pari e valgono le proprietà:
[7.1.63] Rzz(3) = Kzz(3) + !2z , |Rzz(3)| * Rzz(0) = Pz , |Kzz(3)| * Kzz(0) = ! 2z ,
[7.1.64] Rzz(0) = Pz = ! z2 + !z2 = Kzz(0) + !z2 .
Come nel caso di processo continuo, il valore medio statistico e la funzione di autocorrelazione
sono sufficienti a caratterizzare un processo discreto stazionario.
Considerando una coppia di processi discreti reali, Z(n) e V(n), entrambi congiuntamente
stazionari, in aggiunta alle grandezze sintetiche sopra introdotte per ciascun processo, e in seguito
161
distinte tramite l’aggiunta del pedice singolo z o v, si definiscono la funzione di intercorrelazione
e la funzione di covarianza mutua della coppia di processi:
[7.1.65] E{z(k + 3) v(k)} =ˆ Rzv(3) ,
[7.1.66] E{[z(k + 3) - ?z] [v(k) - ?v]} =ˆ Kzv(3) ,
dove ?z e ?v sono i valori medi statistici; scambiando tra loro i pedici nelle [7.1.65] e [7.1.66], si
dimostrano le:
[7.1.67] Rvz(3) = Rzv(-3) , Kvz(3) = Kzv(-3) .
Tra le due funzioni sussiste la relazione:
[7.1.68] Rzv(3) = Kzv(3) + ?z?v;
valgono inoltre le proprietà:
[7.1.69] R zv
2
(!) * Rzz(0)Rvv(0) = PzPv ,

[7.1.70] K zv
2
(!) * Kzz(0)Kvv(0) = ! z2 ! 2v ,

avendo indicato con Pz e Pv e con ! 2z e ! 2v rispettivamente le potenze e le varianze dei due processi
discreti.
Due processi discreti congiuntamente stazionari si dicono incoerenti se la funzione di
intercorrelazione è nulla per ogni 3, ossia si ha:
[7.1.71] Rzv(3) " 0.
Se invece tutti i valori della funzione di covarianza sono nulli:
[7.1.72] Kzv(3) = Rzv(3) - ?z ?v " 0 ,
i due processi si denominano incorrelati. Due processi discreti stazionari statisticamente
indipendenti sono sempre incorrelati; se almeno uno ha valore medio nullo sono anche incoerenti.
7.1.6.2 Processi discreti reali stazionari a valori discreti
Tutte le espressioni riportate sono applicabili anche a un processo discreto a valori discreti,
indicato con Zq(n), che corrisponde a una sequenza di infinite v.a. discrete, Zqk, capaci di assumere
uno dei precisati valori di un insieme discreto, {zq}, di cardinalità finita M. Poiché, sempre nel
caso stazionario e con limitazione al solo secondo ordine, le v.a. discrete sono caratterizzate dalle
probabilità:
[7.1.73] P(zq1; k1) = P(z q2; k2) = P(zq) =ˆ !q, q = 1, 2 ,.., M,
indipendenti dalla variabile intera di saggiatura, e dalle probabilità congiunte:
[7.1.74] P2(zi1, zj2; k1,k2) = P2(xi, xj; 3) =ˆ !ij (3) , i , j = 1, 2 ,.., M ,
che dipendono dalla differenza intera 3 = k1- k2, occorre però che l’operatore di media statistica
assuma le forme specifiche:

[7.1.75] E{F1} =ˆ , E{F2} =ˆ


M M M
" F1! q # # F2 ! i j ( ") ,
q=1 i=1 j=1

dove F1 è funzione della v.a. discreta Zqk e F2 è in generale una funzione di entrambe le v.a.
discrete Zi1 e Zj2.
162
7.2 PROCESSI STOCASTICI CICLOSTAZIONARI

7.2.1 Processi ciclostazionari di primo e secondo ordine

In molti casi pratici accade che in un processo continuo, S(t), si manifesti una componente additiva
periodica(1), e quindi di tipo determinato, come ad esempio nel caso in cui si ha la realizzazione:
[7.2.1] s(t) = x(t) + Accos(%ct) ,
dove x(t) è la realizzazione di un processo reale stazionario, X(t), mentre Ac e %c=2!fc sono
costanti note. In altri casi si ha poi una periodicità nascosta, che non appare additivamente, come
ad esempio nel caso della realizzazione:
[7.2.2] s(t) = x(t)cos(%ct) ,
ma che si manifesta quando si attuino sul processo delle trasformazioni non lineari.
Se nel calcolare la funzione di autocorrelazione di un processo si giunge a una espressione
periodica in t, ossia si ottiene R(t,-)=R(t-kT0,-), si usa la denominazione di processo stocastico
ciclostazionario. Si può precisare ulteriormente che si tratta di processo ciclostazionario del primo
ordine, oppure del secondo ordine, se la menzionata periodicità si manifesta, oppure non si
manifesta, anche nel valore medio statistico. Ad esempio, applicando le [7.1.8] e [7.1.12] alla
[7.2.2], si ottengono le espressioni:
[7.2.3] ?s(t) = E{x(t) cos(%ct)} = E{x(t)}cos(%ct) = ?xcos(%ct),
1
[7.2.4] Rss(t,-)=E{x(t + -)cos[%c(t+-)]x(t)cos(%ct)} = E{x(t+-)x(t)}cos[%c(t+-)]cos(%ct)= Rxx(-
2
1
)cos(%c-)+ Rxx(-)cos[%c(2t+-)],
2
che qualificano il processo come ciclostazionario del primo o del secondo ordine, rispettivamente
per ?x diverso da zero o nullo.
Nei casi menzionati di ciclostazionarietà, si usa ricondurre la analisi a quella dei processi
stazionari, con l’espediente di considerare la aggiunta sull’asse dei tempi di una traslazione
aleatoria, z, e di effettuare la media statistica anche su tale v.a. indipendente, con le ulteriori
ipotesi che essa abbia densità di distribuzione, p(z)=1/T0, uniforme in un intervallo pari al periodo
di ciclostazionarietà. Con tale procedimento si ha infatti l’effetto (vedi paragrafo 7.2.3.1) di
eliminare la dipendenza da t nelle grandezze sintetiche considerate(2), che risultano:
T /2
1 0
! (t)dt ,
T0 -T!/2 s
[7.2.5] ?s = E{?s(t+z)}=
0

T /2
1 0
R (t,! )dt ,
T0 -T!/2 ss
[7.2.6] Rss(-) = E{Rss(t+z, -)} =
0

ossia sono calcolabili come valori medi nel periodo delle rispettive funzioni con periodicità nella
variabile indipendente t.
Scontando la applicazione del procedimento sopra menzionato, le considerazioni sviluppate in
precedenza sugli spettri di potenza e sulla intercorrelazione risultano applicabili ai processi
ciclostazionari. Se essi sono del primo ordine, nello spettro di potenza compaiono delle
componenti discrete, Pci+(f-fci), associate alle frequenze fci delle periodicità; la densità spettrale di

(1)In alcuni processi possono manifestarsi componenti determinate con più periodicità, con periodi anche tra loro non
commensurabili.
(2) Risulta tuttavia eliminata anche la correlazione tra componenti spettrali, introducendo la possibilità di errori nella
valutazione degli spettri di potenza in alcuni rari casi particolari.
163
potenza è invece una normale funzione continua per f /0, nel caso dei processi ciclostazionari del
secondo ordine.
7.2.2 Processi rappresentati tramite inviluppo complesso

Si consideri un processo reale, X(t), rappresentato tramite inviluppo complesso, ossia con
realizzazione nella forma:
[7.2.7] x(t)= ! {x(t)e j!ct } = xc(t) cos(%ct) – xs(t) sin(%ct) ,

dove xc(t) e xs(t) sono le realizzazioni di due processi reali in banda base, Xc(t)e Xs(t), con densità
spettrali di potenza Pc(f) e Ps(f) limitate entro fcM=fsM< fc=%c/2!.
Il processo inviluppo complesso, X(t), con realizzazione x(t)=xc(t)+j xs(t), è stazionario se i due
processi componenti sono congiuntamente stazionari, mentre è ciclostazionario se lo è anche uno
solo di essi. A valle della eventuale media temporale dopo la aggiunta di una traslazione aleatoria
[nel caso di ciclostazionarietà di uno o di entrambi i processi Xc(t) e Xs(t)], la funzione di
autocorrelazione Rxx(-), del processo X(t) risulta (vedi [7.1.54]):
[7.2.8] Rxx(-)= Rcc(-) + Rss(-) - j[Rcs(-) – Rsc(-)] ,
con ovvio significato dei simboli a secondo membro. Si applica poi la regola della semplice
somma in potenza (vedi [7.1.56]), ottenendo la relazione:
[7.2.9] Px= Pc + Ps ,
dove sono indicate con Px, Pc e Ps le rispettive potenze dei processi X(t), Xc(t) e Xs(t). Per
trasformazione di Fourier della [2.8[7.2.8] si ottiene la densità spettrale di potenza del processo
inviluppo complesso (vedi [7.1.55]):
[7.2.10] Px(f)= Pc(f)+Ps(f)+28{Pcs(f)} .
Tornando al processo reale X(t), a partire dalla [7.2.7] e applicando la [7.1.49] si può calcolare la
sua funzione di autocorrelazione:
1 1 1
[7.2.11] Rxx(t,-) = [Rcc(-)+Rss(-)] cos(%c-) + [Rcs(-)-Rsc(-)] sin(%c-) + [Rcc(-)-Rss(-)]cos[%
2 2 2
1
c(2t+-)]- [ Rcs(-)+Rsc(-)] sin[%c(2t+-)] .
2
La presenza degli ultimi due addendi a secondo membro della espressione [7.2.11] evidenzia che
in generale il processo considerato è ciclostazionario, anche nel caso di stazionarietà di entrambi i
processi in banda base Xc(t) e Xs(t). La dipendenza periodica dal tempo t della funzione di
autocorrelazione può essere eliminata, come già segnalato, mediante la integrazione in un periodo
(vedi [7.2.6]): la Rxx(-) risulta allora data dai soli primi due addendi della [7.2.11]:
1 1
[7.2.12] Rxx(-) = [Rcc(-)+Rss(-)]cos(%c-) + [Rcs(-)-Rsc(-)]sin(%c-).
2 2
Si ha allora, per -=0, la relazione tra le potenze:
1 1
[7.2.13] Px = (Pc+Ps) = Px.
2 2
Trasformando la [7.2.12] e tenendo conto della [7.1.40], si giunge poi alla seguente espressione
della densità spettrale di potenza del processo X(t):
1 1
[7.2.14] Px(f) = [Pc(f-fc)+Ps(f-fc)+Pc(f+fc)+Ps(f+fc)]- 8{Pcs(f-fc)-Pcs(f+fc)};
4 2
rammentando la [7.2.10] si ha allora la relazione, illustrata in Figura 7.2:
164
1
[7.2.15] Px(f) = [Px(f-fc)+Px(-f-fc)].
4
Px (f)

1 1
Px-(f) = ---P (-f-fc )
4 x
P (f-fc )
Px+(f) = ---
4 x

-f 0 f f
c c

Figura 7.2 - Relazione tra la densità spettrale di potenza di un processo reale ciclostazionario non
in banda base e quella del suo inviluppo complesso, Px (f ) .
È interessante notare che il processo X(t), di norma ciclostazionario, diviene stazionario se, e solo
se, entrambi i processi in banda base, sono stazionari e inoltre risultano soddisfatte le relazioni:
[7.2.16] Rcc(-) = Rss(-) ,
[7.2.17] Rcs(-) = - Rsc(-) .
Ponendo - = 0 nelle [7.2.17] e [7.1.34], si ottiene Rcs(0) = 0; di conseguenza nel caso considerato
le v.a. Xc(t) e Xs(t), al medesimo generico istante t, devono essere ortogonali (vedi [7.1.45]), ossia i
processi in banda base devono essere additivi in potenza.
7.2.3 Processo stazionario non in banda base

Si consideri un processo stazionario reale X(t), con realizzazione x(t) che non sia del tipo in banda
base. Si faccia poi riferimento al processo X̂(t) , avente per realizzazione la trasformata di Hilbert
x̂(t) , e ai processi X+(t) e X-(t), con rispettive realizzazioni x+(t) = [x(t)+j x̂(t) ]/2 e x-(t) = [x(t) - j
x̂(t) ]/2; tutti i processi risultano a valore medio statistico nullo, come il processo X(t). Poiché per
definizione gli spettri di tutte le realizzazioni troncate x+T(t) e x-T(t) sono diversi da zero solo sui
semiassi rispettivamente positivo o negativo delle frequenze, le densità spettrali di potenza dei
processi X+(t) e X-(t),
[7.2.18] Px+(f) = F{Rx+x+(-)} , Px-(f) = F{Rx- x-(-)} ,
godono della medesima proprietà e, inoltre, risulta nulla la densità spettrale mutua di potenza (vedi
[7.1.38]), ossia si ha Px+x-(f)"0, e i processi X+(t) e X-(t) si rivelano incoerenti. Dalla x(t) = x+(t)+x-
(t) e x̂(t) =-j[x+(t)-x-(t)] si ottiene allora:
[7.2.19] Px(f) = Px̂ (f) = Px+(f) + Px-(f),
da cui per antitrasformazione derivano le analoghe relazioni tra le funzioni di autocorrelazione dei
due processi:
[7.2.20] Rxx(-) = R x̂x̂ (!) = Rx+x+(-) + Rx-X-(-) .
Si ricavano inoltre per le funzioni di intercorrelazione e le loro trasformate le relazioni:
[7.2.21] R xx̂ (!) = - R x̂x (!) = j[Rx+x+(-) - Rx-x-(-)] ,
[7.2.22] Pxx̂ (f) = Px̂x (f) = j[Px+(f)-Px-(f)] .
Dalle [7.2.20] e [7.2.21] si nota che R x̂x (!) è la trasformata di Hilbert della Rxx(-).
Indicata al solito con Px la potenza del processo X(t), sempre per la incoerenza tra i processi X+(t)
e X-(t) si ha:
165
1
[7.2.23] Rx+x+(0) = Rx-X-(0) = Px ,
2
da cui deriva immediatamente:
[7.2.24] R xx̂ (0) = R x̂x (0) = 0;

risulta allora che i processi X(t) e X̂(t) sono additivi in potenza:

[7.2.25] E{x(t) x̂(t) }= " ! {Pxx̂ (f)} df=0 .

Fissata una frequenza fc arbitraria, purché entro la banda del processo X(t), si consideri poi il
processo in banda base X(t), con realizzazione x(t)=xc(t)+jxs(t) corrispondente all’inviluppo
complesso di x(t). Le componenti in fase e in quadratura sono reali, del tipo in banda base e legate
alle realizzazioni dei processi X(t) e X̂(t) dalle relazioni xc(t)=x(t)cos(%ct)+ x̂(t) sin(%ct) e xs(t)=-
x(t)sin(%ct)+ x̂(t) cos(%ct). Calcolando da queste le funzioni di autocorrelazione si ottengono le:
1 1 1
[7.2.26] Rii(t,-) = [Rxx(-)+ R x̂x̂ (!) ]cos(%c-) - [ R xx̂ (!) - R x̂x (!) ]sin(%c-) ± [Rxx(-)- R x̂x̂ (!) ]cos[
2 2 2
1
%c(2t+-)]± [ R xx̂ (!) + R x̂x (!) ]sin[%c(2t+-)] ,
2
dove vale la scelta superiore o inferiore del segno rispettivamente per i=c oppure i=s. Grazie alle
[7.2.20] e [7.2.21], che annullano gli addendi periodici in t, si hanno infine le relazioni:
[7.2.27] Rcc(-) = Rss(-) = Rxx(-)cos(%c-)+ R x̂x (!) sin(%c-).
Come già evidenziato nel paragrafo precedente, in virtù della stazionarietà in senso lato del
processo X(t), anche i processi in banda base Xc(t) e Xs(t) risultano dunque stazionari in senso lato,
con identiche funzioni di autocorrelazione (vedi anche [7.2.16]) e con valore medio statistico
nullo.
Ponendo - = 0 nella [7.2.27] e rammentando le [7.2.24] risulta:
[7.2.28] Pc = Ps = Px .
Si noti che la potenza non si divide sui due processi che hanno per realizzazioni le parti reale e
immaginaria dell’inviluppo complesso, ma si ritrova identica su ciascuno di essi.
Tramite le [7.2.20] e [7.2.21], la [7.2.27] può assumere la forma:
[7.2.29] Rcc(-) = Rss(-) = Rx+x+(-) e - j ! c " +Rx-x-(-) e j ! c " .
Per trasformazione di Fourier si ricavano allora le densità spettrali di potenza dei processi in banda
base:
[7.2.30] Pc( f ) = Ps( f ) = Px+(f+fc)+Px-(f-fc) .
Le funzioni di intercorrelazione, Rcs(-) e Rsc(-), dei processi Xc(t) e Xs(t) si possono ricavare dalle
già menzionate espressioni delle realizzazioni in funzione di x(t) e x̂(t) , ottenendo le relazioni:

[7.2.31] Rcs(-)=-Rsc(-)=Rxx(-)sin(%c-)+ R xx̂ (! ) cos(%c-) = j[Rx+x+(-) e - j ! c " -Rx-x-(-) e j ! c " ].


Risulta perciò confermata la [7.2.17], così come la:
[7.2.32] Rcs(0) = Rsc(0) = E{xc(t)xs(t)}= " ! {Pcs (f)} df=0 ,

che evidenzia che i processi componenti in fase e in quadratura sono additivi in potenza.
Si ricavano poi le rispettive densità spettrali mutue di potenza, Pcs(f) e Psc(f):
[7.2.33] Pcs(f) = -Psc( f ) = j[Px+(f+fc) - Px-(f-fc)] ,
166
che, essendo Px( f ) reale, sono puramente immaginarie. I processi Xc(t) e Xs(t) non sono in
generale incoerenti; in base alla proprietà Px+(f)=Px-(-f ), si può poi dimostrare che il verificarsi
della particolare relazione di simmetria rispetto a fc:
[7.2.34] Px+(f+fc) = Px+(fc-f) ,
è condizione sufficiente affinché i processi Xc(t) e Xs(t) siano incoerenti.
In virtù delle [7.2.29] e [7.2.31], la funzione di autocorrelazione (vedi [7.2.8]) del processo
inviluppo complesso, che risulta stazionario in senso lato e a valore medio statistico nullo, si
particolarizza nella forma:
[7.2.35] Rxx(-)= 2[Rcc(-)-j Rcs(-)] = 4Rx+x+(-) e - j! c " ;
si ha pertanto la densità spettrale di potenza:
[7.2.36] Px(f)= 2[Pc(f) - j Pcs(f)] = 4Px+(f+fc) .
Nel secondo termine della precedente equazione si noti che, essendo Pcs(f) puramente
immaginaria, Px(f) è comunque espressa come somma di due funzioni reali, in accordo alla
definizione stessa di densità spettrale di potenza, sempre reale non negativa. Nella [7.2.36] si
riconosce poi la già evidenziata relazione [7.2.15] tra gli spettri di potenza dei processi X(t) e X(t).
Integrando la [7.2.36] e rammentando la [7.2.28] si ottengono infine le relazioni tra le potenze:
1
[7.2.37] Px = Pc = Ps = Px .
2
7.2.3.1 Appendice 1. Parametri sintetici nei processi ciclostazionari

Nei processi ciclostazionari del secondo ordine la funzione di autocorrelazione risulta periodica,
ossia si ha:
[7.2.38] R(t–T0, -) = R(t, -) .
Se si introduce una traslazione aleatoria, z, sulla origine dell'asse dei tempi e si ipotizza per tale
variabile la indipendenza statistica e la distribuzione uniforme della densità di probabilità in un
periodo, che perciò risulta:
1
[7.2.39] p(z) = ,
T0
il valore medio statistico della [7.2.38] rispetto a z fornisce:
T0 /2 t+T0 /2
1
[7.2.40] E{R(t+z, -)}= " R(t+z,!)p(z)dz = " R(x,!)dx ,
-T0 /2
T0 t-T0 /2

dove si è introdotto il cambio di variabile x=t+z.


Grazie alla periodicità della funzione integranda (vedi [7.2.38]) è lecita qualsiasi traslazione degli
estremi di integrazione nell'ultimo membro della [7.2.40]; in particolare si può ivi porre t=0,
ottenendo allora:
T0 /2
1
[7.2.41] E{R(t+z, -)}= " R(t,!)dt =R(-).
T0 -T0 /2

Il procedimento conduce alla eliminazione della dipendenza dal tempo nella funzione R(t, -) senza
alcuna altra ipotesi oltre alla periodicità di quest’ultima. Esso è dunque applicabile anche al valore
medio statistico di un processo ciclostazionario del primo ordine, per cui si ha:
[7.2.42] ?(t-T0) = ?(t) ,
e quindi risulta:
167
T0 /2
1
[7.2.43] E{?(t+z)}=
T0 " !(t)dt = ?.
-T0 /2

7.3 PROCESSI RAPPRESENTATI TRAMITE SERIE TEMPORALI

7.3.1 Processi reali con fattori aleatori

Sovente si hanno processi rappresentati tramite una serie temporale infinita di segnali di energia
noti, ciascuno dei quali recante una v.a. continua. L’esempio più comune è offerto dal tipo di
processo reale con fattori aleatori, X(t), con realizzazione che si presenta nella forma:
[7.3.1] x(t) = (kzkp(t-kT) ,
con k variabile intera e T costante, e dove:
5 zk=z(k) sono le determinazioni delle v.a. continue, Zk, che costituiscono con la loro sequenza,
Z(n), un processo discreto reale stazionario;
5 p(t) è una funzione reale, praticamente limitata nel tempo con durata pratica Tp anche molto
maggiore di T, avente spettro di energia E pp(f) strettamente limitato in banda ed energia:

[7.3.2] E pp = ! p 2 (t)dt = ! Epp (f)df = Cpp(0) ,

dove Cpp(-) è la funzione di autocorrelazione temporale di p(t), avente per trasformata di Fourier
lo spettro di energia E pp(f).
Anzitutto, il processo reale discreto stazionario Z(n) risulta caratterizzato (vedi par. 7.1.6) tramite
il valore medio statistico, E{z(k)}=?z, e la sua funzione di autocorrelazione, E{z(k+3)z(k)}=Rzz(3
). Si ricavano poi la funzione di autocovarianza, Kzz(3)=Rzz(3)- !2z , e la potenza, Pz= Rzz(0)= ! 2z + !2z
, dove ! 2z è la varianza del processo discreto.
Ponendo nella [7.3.1] zk=zek+?z (con Zek è indicata la corrispondente v.a. equa, ossia con la stessa
caratterizzazione stocastica a meno del valore medio nullo), risulta immediatamente che il
processo continuo X(t) comprende l’addendo periodico, con periodo T:
[7.3.3] x0(t) = ?zrepT{p(t)}=?z(kp(t-kT) ,
ed è quindi in generale ciclostazionario, del primo ordine se ?z/ 0 .
Come mostrato nel paragrafo 7.3.4.1, a partire dalla [7.3.1] e applicando le [7.1.12] e [7.2.6] si
determinano il valore medio statistico e la funzione di autocorrelazione (privi della dipendenza dal
tempo) del processo continuo ciclostazionario X(t):
1
?z ! p(t)dt ,
[7.3.4] ?x=
T
1 1 1
[7.3.5] Rxx(-) = (3Rzz(3)Cpp(--3T)= !2z repT{Cpp(-)}+ (3Kzz(3)Cpp(--3T) .
T T T
A riguardo del valore medio del processo continuo si osserva che esso si annulla se è nullo quello
del processo discreto, ossia se si verifica ?z=0; è inoltre possibile ottenere un valore medio nullo
anche per ?z/0, con opportuna scelta della forma p(t) che comporti l’azzeramento del suo
integrale.
Applicando alla [7.3.5] la relazione di Wiener-Khintchine (vedi [7.1.27]), si giunge alla seguente
espressione della densità spettrale di potenza del processo continuo:
1 2 1 1 1
[7.3.6] Px(f) = !z (kck+(f-kf0) + E pp(f) (3Kzz (3) e-j2!"fT = 2 !2z (kE pp(kf0)+(f-kf0)+ E pp(f)
T T T T
& 2 $ )
(! z + 2 % K zz (")cos(2#"fT)+ .
' "=1 *
168
Si noti che nello spettro del processo compaiono:
5 una serie di componenti discrete a frequenza multipla di f0=1/T, associate alla presenza nel
processo dell’addendo periodico x0(t) (vedi [7.3.3]), di entità proporzionale al quadrato del
valore medio statistico del processo discreto Z(n);
5 una parte continua, con andamento che dipende sia da quello dello spettro di energia della
forma determinata p(t), che dalla funzione entro parentesi quadra nella [7.3.6], periodica di
periodo f0=1/T; tale funzione risulta la somma di una costante, pari alla varianza del processo
discreto Z(n), e di una variabile legata alla autocovarianza dello stesso processo per i valori 3/
0.
Grazie alla stazionarietà del processo discreto, la energia media statistica del generico addendo
della serie [7.3.1], separatamente considerato, è invariante con k, ossia è una caratteristica del
processo continuo:
[7.3.7] ExT =ˆ E{E kk}= E { " z 2k p 2 ( t ! kT ) dt} =PzE pp.

Nel seguito verranno considerati due casi, assumendo la ipotesi di ortogonalità tra le v.a. Zk, o
quella di ortogonalità dei segnali addendi di energia che costituiscono la forma periodica
repT{p(t)}; per entrambi si dimostra che la potenza del processo X(t) può essere espressa tramite la
semplice relazione:
E xT
[7.3.8] Px = ,
T
ossia la potenza può essere immediatamente calcolata come rapporto tra il comune valore, ExT,
della energia media statistica degli elementi della serie e il valore, T, della sua cadenza temporale.
7.3.1.1 Caso di ortogonalità delle v.a. del processo discreto

Se le v.a. Zk del processo discreto sono tutte ortogonali tra loro, ossia la funzione di
autocorrelazione del processo Rzz(3) è nulla per ogni 3/0, mentre per 3=0 si ha Rzz(0)=Pz= ! 2z (?
z=0), la [7.3.5] diviene:

1 1
[7.3.9] Rxx(-)= Rzz(0)Cpp(-) = PzCpp(-);
T T
per -=0 e tenendo conto delle [7.3.2] e [7.3.7], la potenza del processo X(t) assume la espressione:
1 1 E
[7.3.10] Px= Rxx(0)= PzCpp(0)= PzE pp= xT , per Rzz(3) = 0 con 3/0 .
T T T
Per trasformazione di Fourier della [7.3.9] si ottiene inoltre:
1
[ 7.3.11] Px( f ) = PzE pp(f) ,
T
ossia l’andamento dello spettro di potenza del processo è privo di componenti discrete ed è
proporzionale a quello dello spettro di energia della funzione nota p(t).
7.3.1.2 Caso di ortogonalità delle forme traslate nel tempo
Se tutte le funzioni determinate p(t-kT), traslate nel tempo, sono tra loro ortogonali, ossia si
verifica:
)+ E , '=0
[7.3.12] & p ( t ! kT ) p ( t ! hT ) dt = C pp #( h ! k ) T% =C pp ( 'T ) = * pp
" $ ,
,+ 0, ' ( 0
la [7.3.5] per - =0 fornisce, a prescindere dalla dipendenza statistica delle v.a. Zk:
169
1 1 E
[7.3.13] Px= Rxx(0) = Rzz(0) E pp = PzE pp = xT , per Cpp(3T) = 0 con 3/0 .
T T T
È importante rimarcare che, grazie alla menzionata ortogonalità delle forme traslate, la potenza del
processo non risente della presenza della intercorrelazione tra le v.a. Zk del processo discreto.
Questa si manifesta invece nell’andamento della densità spettrale di potenza, per cui vale la forma
generale [7.3.6].
7.3.2 Processi campionati in banda base

Quanto esposto nel paragrafo precedente è applicabile ai processi reali continui stazionari con
realizzazione rappresentata tramite campioni. Considerato un processo in banda base X(t) con
frequenza massima fM e scelto un generico periodo di campionamento Tca*1/2fM, la generica
realizzazione ammette la rappresentazione tramite la serie temporale:
" t %
[7.3.14] x(t) = (kck sinc $ ! k' ,
# Tca &
con k variabile intera, e dove:
! i campioni ck=x(kTca) sono le determinazioni delle v.a. continue Ck che costituiscono con la loro
sequenza, C(n), un processo reale discreto stazionario;
! sinc(t/Tca) è la nota funzione di campionamento, con energia e spettro di energia date
rispettivamente dalle:
[7.3.15] E ss= Tca ,
[7.3.16] E ss(f) = Tca2 rect(fTca) ,
e che gode della proprietà di ortogonalità delle forme traslate:
[7.3.17] Css(3Tca) = 0 , per 3/0 .
Tenuto conto che la funzione sinc(t/Tca) ha integrale di valore uguale a Tca, in base alla [7.3.4]
risulta immediatamente:
[7.3.18] ?x= ?c,
ossia il valore medio statistico, ?x, del processo continuo coincide con quello, ?c, del processo
discreto costituito dalla sequenza dei campioni aleatori.
Servendosi dei risultati del paragrafo precedente e notando che la [7.3.16] limita lo spettro
nell’intervallo di frequenza (-1/2Tca;1/2Tca), si ricava per la densità spettrale di potenza del
processo continuo la espressione:
& $ )
[7.3.19] Px(f) = !2c +(f) + Tcarect(fTca) (! c2 + 2 % K cc ( ") cos ( 2#"fTca )+ ,
' "=1 *
dove ! 2c e Kcc(3) sono rispettivamente la varianza e la funzione di autocovarianza del processo
discreto C(n), costituito dalla sequenza delle v.a. aventi per determinazioni i campioni aleatori
presi a intervallo Tca. Grazie alla [7.3.17], la potenza del processo continuo può essere
semplicemente ottenuta dividendo per Tca la energia media statistica del generico elemento della
serie temporale con cui il processo stesso è formulato; si ha allora dalla [7.3.7] e dalla [7.3.15]:
1
[7.3.20] Px= PcE ss= Pc = ! 2c + "2c ,
Tca
essendo Pc la potenza del processo discreto.
Tenuto conto che la rappresentazione tramite campioni conserva inalterata la forma del segnale al
variare dell’intervallo di campionamento, purché risulti Tc"1/2fM, si hanno le considerazioni
170
seguenti, basate sulla invarianza delle caratteristiche sintetiche del processo continuo con
realizzazione [7.3.14], in particolare di ?x, Px e di Px(f) per le quali risultano le [7.3.18], [7.3.19] e
[7.3.20].
In base alle [7.3.18] e [7.3.20], la sequenza dei campioni aleatori mantiene invariate le grandezze
del primo ordine, ossia ?c, ! 2c e Pc, al variare del periodo di campionamento Tca; risulta invece
diversa la energia media statistica, ExTca=PxTca, del generico elemento della serie temporale.
Tenendo conto della [7.3.19], risulta anche diversa la funzione di autocovarianza, Kcc(3), per ogni
3/0. In particolare, si evince che, essendo per ipotesi Px(f)=0 per f>fM, i diversi campioni aleatori
sono incorrelati (ossia risulta Kcc(3)=0 per 3/0) se, e solo se, il processo continuo ha densità
spettrale costante da fm=0+ a fM=B:
P ! f $
[7.3.21] Px ( f ) = rect # &
2fM " 2fM %
e inoltre il periodo di campionamento assume il valore massimo: Tca=1/2fM=1/2B, ossia è uguale
all’intervallo di Nyquist. In tale particolare caso il processo continuo si denomina un processo
bianco in banda base.
7.3.3 Processi complessi con fattori aleatori

Si consideri un processo continuo reale ciclostazionario non in banda base e il relativo processo
inviluppo complesso rappresentativo X(t), con realizzazione (vedi [7.2.7]) che si suppone
formulata in termini della serie temporale:
[7.3.22] x(t)= xc(t)+jxs(t) = (k(ak+jbk)p(t - kT),
dove al solito k è una variabile intera e:
! ak e bk sono le determinazioni delle v.a. continue, Ak e Bk, che costituiscono con le loro
sequenze, A(n) e B(n), una coppia di processi reali discreti stazionari;
! p(t) è una funzione reale, praticamente limitata con durata pratica Tp anche molto maggiore di
T, avente spettro di energia E pp(f) strettamente limitato in banda base.
A partire dalla [7.2.10] e con simbologia e procedimento analoghi a quelli usati per giungere alla
[7.3.6] si ottengono la funzione di autocorrelazione e la densità spettrale di potenza del processo
continuo X(t):
1
[7.3.23] Rxx(-) = ( {[Raa(3)+Rbb(3)]Cpp(--3T)-jRab(3)[Cpp(-- 3T) - Cpp(-+3T)]}
T 3
1 1 2
[7.3.24] Px(f)= 2 ( !2a + !2b )(kE pp(kf0)+(f-nf0)+ E pp(f)( ! 2a + ! 2b )+ E pp(f){
T T T
#
$ K aa ( !) + K bb ( !) cos(2 "! f T) -( 3Kab(3)sin(2!3fT)},
!=1

in cui compare anche la covarianza, Kab(3), dei due processi discreti. Nella valutazione della
potenza Px del processo inviluppo complesso non ha invece alcun effetto la dipendenza statistica
tra i due processi discreti, come si nota immediatamente dalla [7.3.23] per -=0 tenendo conto che
la autocorrelazione, Cpp(u), è una funzione pari dell’argomento u; ciò è in accordo con il legame di
semplice somma (vedi [7.2.13]) tra la potenza Px e quelle, Pc e Ps, dei due processi reali Xc(t) e
Xs(t).
Rammentando le [2.4.27] e [7.3.7], la energia media statistica del generico elemento della serie
temporale [7.3.22] assume la espressione:
[7.3.25] ExT =E { ! (a 2
k +b 2k ) p 2 (t-kT)dt = (Pa+ Pb)E pp = ( ! 2a + ! 2b + !2a + !2b ) E pp.
}
171
Sia nel caso di ortogonalità delle v.a. Ak e Bk (Raa(3)=Rbb(3)=0 per ogni 3/0), che in quello di
ortogonalità delle forme traslate (vedi [7.3.12]) seppure in presenza di correlazione tra le v.a., si
ottiene dunque per la potenza del processo considerato:
E xT 1
[7.3.26] Px = = (Pa+Pb)E pp .
T T
La analisi svolta può essere utilizzata nel caso di un processo continuo, in generale
ciclostazionario, strettamente limitato in una banda B e con frequenza minima fm/0. Adottando per
la realizzazione la rappresentazione con doppia sequenza di campioni e assumendo Ak=Cck,
Bk=Csk, T=1/B e p(t)=sinc(t/T), e quindi anche E pp=T (vedi seconda delle [7.3.15]), dalla [7.3.26]
si ricava la potenza del processo inviluppo complesso rappresentativo:
[7.3.27] Px = ! 2Cc + ! 2Cs + !2Cc + !2Cs ,
con ovvio significato dei simboli. Grazie alla [7.2.13], si ottiene infine la potenza del processo
considerato, che è semplicemente la metà di quella fornita dalla [7.3.27]. Si lascia al lettore il
compito di dimostrare che se il processo è stazionario i valori medi statistici dei campioni aleatori
sono nulli (?Cc=?Cs=0) e per le loro varianze risulta:
1
[ 7.3.28] ! 2Cc = ! 2Cs = P = Px .
2 x
in armonia con la [7.2.28].
7.3.4 Processo somma di processi reali con fattori aleatori

Si consideri un particolare tipo di processo continuo X(t), con realizzazione che sia rappresentabile
nella forma:
[7.3.29] x(t) = (k[akp1(t-kT)+bkp2(t-kT)],
con k variabile intera e dove:
! ak e bk sono le determinazioni delle v.a. continue, Ak e Bk, che costituiscono con le loro
sequenze, A(n) e B(n), una coppia di processi reali discreti stazionari;
! p1(t) e p2(t) sono funzioni reali, con energie E 11 e E 22, praticamente limitate nel tempo con
durata pratica anche molto maggiore di T, e che rispettano la condizione:
[7.3.30] %pi(t-kT) pj(t-hT)dt=Cij[(h-k)T]= Cij(3T)=0, per 3=0 e i#j e per 3#0.
Con simbologia e procedimento analoghi a quelli usati per giungere alla [7.3.23] si ottiene la
funzione di autocorrelazione del processo continuo considerato:
1 1
[7.3.31] Rxx(-)= (3{Raa(3)C11(--3T)+Rbb(3)C22(--3T)}+ (3Rab(3)[C12(--3T)+C21(-+3T)].
T T
Lasciando al lettore l’esercizio di calcolare la densità spettrale di potenza e dimostrare che essa
risente della intercorrelazione tra i processi discreti, ci si limita a verificare che invece la potenza
del processo continuo è indipendente da Rab(3). Infatti, tenuto conto delle [3.33], la [7.3.31]
fornisce per -=0:
1 E
[7.3.32] Px= Rxx(0) = [Raa(0) E 11+ Rbb(0) E 22] = 1 (PaE 11 + PbE 22) = TxT ,
T T
dove Pa e Pb sono al solito le potenze dei processi discreti e ExT è la energia media statistica del
generico elemento della serie temporale, come risulta dalla espressione generale:
2
[7.3.33] ExT =E { ! [a p (t-kT)+b p (t-kT)] dt} = P E
k 1 k 2 a 11 + Pb E 22+ 2 Rab(0)C12(0) ,

che si riduce alla:


172
[7.3.34] ExT = PaE 11 + PbE 22,
in virtù della ortogonalità delle due forme note (vedi [7.3.30]).
Quanto sopra, e in particolare il semplice calcolo della potenza del processo continuo tramite la
energia media statistica del generico elemento della serie temporale, è applicabile al caso più
ampio di processo con N realizzazioni addende, ossia:
N
[7.3.35] x(t) = ! !k a ik p i (t - kT) ,
i =1

sempre che sia verificata la [7.3.30]. Si ottiene allora:


E xT 1 N
[7.3.36] Px=
T
=
T ! Pai Eii .
i =1

7.3.4.1 Appendice 2. Analisi di un processo reale con fattori aleatori


Applicando la [7.1.8] al processo ciclostazionario [7.3.1] e tenendo conto che la aleatorietà risiede
nelle sole variabili Zk, si ottiene il valor medio statistico, dipendente dal tempo:
[7.3.37] ?x(t) = E{(kzkp(t-kT)}= (kE{zk}p(t-kT) = ?z(kp(t-kT).
Esso dunque coincide con l’addendo periodico, di periodo T, evidenziato nella [7.3.3], presente in
ogni realizzazione. La dipendenza dal tempo della [7.3.37] può essere eliminata applicando la
[7.2.5]; con il cambio di variabile x = t-kT si ottiene:
T/2 -kT+T/2
1 1 1
[7.3.38] ?x=
T " !x (t)dt =
T
?z(k ! p(x)dx = ?z
T ! p(t)dt .
-T/2 -kT-T/2

Applicando la [7.1.12] e sempre tenendo conto che l’aleatorietà risiede nelle sole variabili Ak, si
ottiene la funzione di autocorrelazione del processo ciclostazionario considerato:
[7.3.39] Rxx(t, -)=E{[(kzkp(t-kT)][(hzhp(t-hT+ -)]}=(k(hE{zkzh}p(t-kT)p(t-hT+ -)
Con la sostituzione di variabile intera 3 = h - k e servendosi della [7.1.61] si ha poi:

[7.3.40] Rxx(t, -)=(k(3E{zkzk+3}p(t-kT)p(t-kT+ - -3T)=(3Rzz(3)(kp(t-kT)p(t-kT+ - -3T),


che si rivela periodica, di periodo T, nella variabile t.
La dipendenza da t della funzione di autocorrelazione può essere eliminata applicando la [7.2.6];
con il cambio di variabile x=t-kT si ottiene infatti:
T/2 -kT+T/2
1 1 1
[7.3.41] Rxx(-)=
T " R xx (t,!)dt = T (3Rzz(3)(k # p(x)p(x+!-"T)dx = T (3Rzz(3)Cpp(- -3T),
-T/2 -kT-T/2

dove Cpp(-) è la funzione di autocorrelazione temporale della forma p(t).

7.4 PROCESSI CONTINUI GAUSSIANI

7.4.1 Processi continui gaussiani: il rumore

Una categoria molto interessante è quella dei processi continui gaussiani, che gode della
importante proprietà di consentire la piena conoscenza statistica solo in base a quella della
funzione di densità di probabilità del secondo ordine. In particolare nel caso di stazionarietà, che in
seguito di quanto sopra menzionato è sempre in senso stretto, la funzione di densità di probabilità
del primo ordine di un processo continuo gaussiano reale ha la espressione, indipendente dal
tempo:
173
(x-#)2
1
[7.4.1] pg(x) =ˆ
-
e 2! ,
2

! 2"
dove ? è il valore medio statistico, I2=R(0)-?2 è la varianza e R(-) è la funzione di
autocorrelazione del processo; la densità di probabilità del secondo ordine è anch’essa una
funzione esponenziale analoga alla [7.4.1], che risulta completamente determinata quando si
conosca R(-). Nel caso, assai frequente, di processo continuo gaussiano stazionario a valore medio
nullo (?=0) è dunque sufficiente la sola conoscenza della funzione di autocorrelazione, oppure
della densità spettrale di potenza (vedi [7.1.27]).
La somma di processi gaussiani indipendenti è ancora un processo gaussiano, con valore medio
somma dei valori medi e varianza somma delle varianze. Si può inoltre dimostrare (teorema del
limite centrale) che la somma di un numero n di segnali aleatori appartenenti a processi arbitrari,
ma indipendenti, tende di norma ad approssimare un processo gaussiano al tendere di n
all'infinito. Risulta allora ben comprensibile la frequente caratterizzazione di un processo
stocastico come gaussiano: un tipico esempio nel campo delle telecomunicazioni è quello della
schematizzazione dell'insieme di numerosissimi segnali indesiderati aleatori additivi, non
associabili al segnale utile e dovuti a una miriade di cause indipendenti, tramite un processo
continuo gaussiano reale che viene denominato rumore gaussiano (GN=Gaussian Noise). Nel
seguito della sezione si fa particolare riferimento a quest’ultimo, ma si rammenti che quanto
ricavato è applicabile a qualsiasi processo dello stesso tipo, sia indesiderato che utile.
Nelle telecomunicazioni un processo stazionario rappresentativo di un rumore gaussiano e assunto
a valore medio nullo, viene di norma caratterizzato tramite la sua densità spettrale di potenza, N(f).
Assegnata tale funzione, sono immediatamente calcolabili la funzione di autocorrelazione:
[7.4.2] Rnn(-) = F-1{N(f)} ,
e la potenza Pn, che per l’annullarsi del valore medio risulta pari alla varianza ! 2n del processo;
servendosi della [7.1.30] si ha:
2
[7.4.3] Pn= ! n = ! N (f)df .
Si noti che in linea di massima tanto più è esteso l'intervallo di frequenza entro cui N(f) è diverso
da zero, tanto maggiore risulta la potenza, o varianza, del rumore.
Sovente si considera il caso in cui si ha N(f)=N0, ossia la densità spettrale di potenza è invariante
con la frequenza, e si adotta la denominazione di rumore gaussiano bianco (WGN=White
Gaussian Noise); altrimenti il rumore si dice genericamente colorato. Dalla [7.4.2] con N(f)
costante risulta la funzione di autocorrelazione del rumore gaussiano bianco:
1
[7.4.4] Rnn0(-) = N0+(-) = N0+(-),
2
dove con
[7.4.5] N0=2N0
si usa indicare la potenza del rumore gaussiano bianco per unità di banda, ricavabile dalla [7.4.3]
con l’integrale limitato da -1 Hz a 1 Hz.
Si noti dalla [7.4.3] che se la densità spettrale del rumore fosse rigorosamente costante su tutto
l’asse delle frequenze, si avrebbe l’assurdo fisico di una potenza infinita; nella pratica la qualifica
di rumore bianco viene in effetti adoperata intendendo che la uniformità della densità spettrale si
verifichi solo entro una banda limitata, ma di estensione tale da comprendere largamente quella
occupata realmente dallo spettro utile a cui di norma si aggiunge quello del rumore. Con
riferimento a un processo continuo gaussiano utile, l’attributo bianco comporta invece che la
densità spettrale di potenza sia costante nella sua banda limitata e nulla altrove (vedi par. 7.3.2).
Con riferimento al dominio del tempo, una generica realizzazione n(t) del rumore è un segnale
simmetrico teoricamente non limitato (vedi [7.4.1]); in pratica, è tuttavia possibile definire un
174
valore di picco del rumore, np, come quel valore che ha una assai piccola probabilità, Pp, di essere
superato dal valore assoluto di n(t):

[7.4.6] Pp =ˆ 2 pg (n)dn .
!
" np

Servendosi della [7.4.1], la espressione precedente può essere ricondotta alla forma:
" n %
[7.4.7] Pp= erfc(x) = erfc $ p ' ,
# 2! n &
dove si è fatto ricorso alla funzione complementare di errore:
2
[7.4.8] erfc(x) =ˆ e dy ,
" -y 2

!
# x

e si è posto:
[7.4.9] np= x 2 In .
Se allora si assume ad esempio Pp=10-5, risultando dalla [7.4.7] x=3,12, dalla [7.4.9] si calcola
np=4,46In, da cui si ottiene il fattore di picco a 10-5 del rumore gaussiano:
np
[7.4.10] Fpn= = 4,46,
!n
ossia Fpn(dB) = 20 log Fpn= 13 dB.
7.4.2 Rumore gaussiano stazionario non in banda base

Si abbia un rumore gaussiano stazionario, N(t), con densità spettrale di potenza, N(f), diversa da
zero solo per 0<fm<|f|<fM (spesso fm è apprezzabilmente maggiore di zero e il processo è del tipo
in banda traslata). Scelta arbitrariamente una frequenza fc entro la banda del processo, si può
adottare per la generica realizzazione la rappresentazione (vedi [7.2.7]):
[7.4.11] n(t) = nc(t)cos(%ct) - ns(t)sin(%ct) .
A partire dalla [7.4.11], si possono ottenere (vedi [7.2.27]) le seguenti espressioni, identiche, delle
funzioni di autocorrelazione dei processi in banda base, Nc(t) e Ns(t), che hanno le realizzazioni
nc(t) e ns(t):
[7.4.12] Rncc(-) = Rnss(-) = Rnn(-)cos(%ct)+ R n̂n (-) sin(%ct) ,
dove Rnn(-) e Rn̂n (-) sono rispettivamente la funzione di autocorrelazione del rumore e la funzione
di intercorrelazione tra il processo che si ottiene dalla trasformazione di Hilbert del rumore e il
rumore stesso. I processi Nc(t) e Ns(t) risultano gaussiani stazionari; ponendo -=0 nella [7.4.12] si
ricavano poi le seguenti relazioni tra le potenze:
[7.4.13] ! 2nc = ! 2ns = ! 2n ;

si noti che, al contrario di quanto l’intuito potrebbe suggerire, la potenza del rumore non in banda
base non si divide sui processi in banda base, ma si ritrova identica su ciascuno di essi. La
giustificazione deriva, al solito, dal particolare legame tra il segnale e il suo inviluppo complesso
rappresentativo.
Le identiche densità spettrali di potenza dei processi di rumore in banda base hanno la forma (vedi
[7.2.30]):
[7.4.14] Nc(f)=Ns(f)=N+(f+fc)+N-(f-fc).
Si noti che l’andamento di tali funzioni dipende non solo da quello di N(f), ma anche dalla scelta
di fc, come mostrato in Figura 7.3; tra l’altro, se fc coincide con uno degli estremi della banda i
175
rumori in banda base hanno la massima estensione, da –B a B (vedi Figura 7.3.b,c), mentre la
estensione è minima, da -B/2 a B/2, nel caso in cui fc sia scelto al centro della banda (vedi Figura
7.3.d).
N (f)

a)
-f -f 0 f f f
M m m M
N (f)= N (f)
c s

b)
-B 0 B f =f f
c m
N (f)= N (f)
c s

c)
0 f =f f
c M
N (f)= N (f)
c s

d)
-B/2 0 B/2 f =f f
c a

Figura 7.3 - Densità spettrale di potenza di un rumore gaussiano non in banda base (a) e dei
relativi processi in banda base, con fc agli estremi di banda (b,c) e al centro (d).
Un caso particolare, ma assai frequente, è quello in cui il rumore gaussiano è bianco, con densità
spettrale di potenza costante in banda, N0, e nulla altrove. Se si sceglie fc al centro della banda, la
[7.4.14] diviene:
[7.4.15] Nc(f) = Ns(f) = 2N0rect(f/B) = N0rect(f/B) ;
la relazione [7.4.13] tra le potenze dei processi assume inoltre la forma particolare:
[7.4.16] ! 2nc = ! 2ns = 2 N0B = N0B .

Poiché risulta soddisfatta la condizione di simmetria del semispettro N+(f) rispetto a fc (vedi
[7.2.34]), i due rumori in banda base risultano incoerenti e, in quanto gaussiani, statisticamente
indipendenti.
7.4.3 Rumore gaussiano bianco nello spazio dei segnali

Si consideri un processo stazionario fisico, X(t), le cui realizzazioni reali, x(t), possano essere
ritenute simultaneamente limitate in durata T e in banda B.
Adottando per la generica realizzazione del processo una rappresentazione tramite una base, con
buona approssimazione si ha lo sviluppo:
N
[7.4.17] x(t) = " x k !k (t) ,
k=1

tramite il quale le realizzazioni del processo continuo X(t) vengono poste in corrispondenza con
quelle del processo stazionario discreto, X(n), costituito da una sequenza numerabile di N'2BT
v.a. Xk. Nello spazio dei segnali individuato dall'insieme dei versori {66 k} associati all’insieme {6
k(t)} di N funzioni ortonormali, ciascuna realizzazione x(t) del processo è dunque rappresentabile
con un vettore x avente per coordinate i particolari valori x1, x2, .., xN estratti per le variabili Xk.
Inoltre, risulta possibile una scelta delle 6k(t) che conduce a uno sviluppo del tipo [7.4.17] in cui le
v.a. sono incorrelate (sviluppo di Karhunen-Loeve).
176
Nel caso della realizzazione di un rumore gaussiano bianco, N(t), a valor medio nullo e con
potenza per unità di banda, N0, pari al doppio della densità spettrale di potenza, N0, uniforme su
tutto l’asse delle frequenze, limitatamente all’intervallo temporale di definizione della base {6k(t)}
vale la:
N
[7.4.18] n(t) = lim " n k !k (t) ,
N!" k=1

in cui, qualsiasi sia la base {6k(t)}, le v.a. Nk, che hanno determinazioni nk, hanno tutte (vedi
paragrafo 7.4.3.1) valor medio nullo:
[7.4.19] E{nk} = 0 ,
e identica varianza:
1
[7.4.20] E{ n 2k } = N0 = N0 .
2
Le v.a. considerate, inoltre, sono tutte gaussiane e tra loro statisticamente indipendenti.
Nello spazio dei segnali con dimensione N tendente all’infinito, una realizzazione del rumore
considerato è dunque rappresentabile con un vettore, n, avente componenti nk ciascuna con
funzione di densità di probabilità del primo ordine (vedi [7.4.1]):
n 2k
1 -
[7.4.21] p(nk) = e N0 .
!N 0
Grazie alla indipendenza statistica, il vettore risultante n ha dunque la funzione di densità di
probabilità di ordine N tendente all’infinito:
2
n
N -
[7.4.22] pN &(n) =
9 ! p(n k ) = (!N0)-N/2 e N0
.
k=1

7.4.3.1 Appendice 3. Le componenti del rumore gaussiano


Nello spazio dei segnali individuato da qualsiasi base reale {6k(t)}, definita nell’intervallo (-
T/2;T/2), si adotti per un rumore gaussiano la rappresentazione [7.4.18], dove le determinazioni nk
delle v.a. Nk risultano:
T/2
[7.4.23] nk = " n(t)! (t)dt ,
k
-T/2

Servendosi della linearità della [7.4.23] e tenendo conto che il valor medio statistico del rumore è
nullo, ossia si ha E{n(t)}=0, si ottiene:
T/2
[7.4.24] E{nk} = " E {n(t)} ! (t)dt =0.
k
-T/2

Le componenti del rumore sono dunque variabili aleatorie tutte a valor medio nullo.
Sempre dalla [7.4.23] si ricava:
T/2 T/2 T/2 T/2
[7.4.25] E{nknh}= " " E {n(x)n(y)} !k (x)!h (y)dx dy = " "R nn (y-x)!k (x)!h (y)dx dy .
-T/2 -T/2 -T/2 -T/2

Nel caso in cui il rumore sia bianco, con densità spettrale costante N0 in una banda estesa
dall’origine fino alla frequenza massima fM, ossia valga la (vedi [7.3.24]):
[7.4.26] N(f) = N0 rect(f/2fM),
antitrasformando si ricava la funzione di autocorrelazione del rumore:
177
[7.4.27] Rnn0(-) = N02fMsinc(2fM-);
facendo tendere fM all’infinito si ottiene allora (vedi [7.4.4]):
1
[7.4.28] Rnn0(-) = N0+(-) = N0+(-), fM 9 ) .
2
Introducendo la [7.4.28] nella [7.4.25] si ha dunque:
T/2 T/2 T/2 "$ N =N /2 , h=k
!(y-x)"k (x)"h (y)dx dy = N0 (t)! (t)dt
0 0
[7.4.29] E{nknh} = N0 # # " k h
! = #
0 , h!k
.
-T/2 -T/2 -T/2 $%

Le componenti del rumore bianco con banda tendente all'infinito sono dunque variabili aleatorie
tutte incoerenti e, in quanto gaussiane, statisticamente indipendenti; esse hanno inoltre tutte
identica varianza:
1
[7.4.30] E{ n 2k } = N0 = N0 .
2
7.5 PROCESSI DI MARKOV

I processi di Markov sono caratterizzati dal fatto che ciascuna variabile aleatoria estratta all’istante
tn dipende soltanto dalla variabile estratta all’istante tn-1.
Essi possono essere caratterizzati sia da un insieme di stati continui che discreti. In tale ultimo
caso si denominano anche catene di Markov. In questo caso se anche la variabile temporale
appartiene ad un insieme discreto la dipendenza si estende sempre e soltanto ad una unità di tempo
anteriore.
Analiticamente le enunciate proprietà si esprimono nel modo seguente:
[7.5.1] p[x(tn+1)=xn+1|x(tn)=xn, x(tn-1)=xn-1, …, x(t1)=x1] = p[x(tn+1)=xn+1|x(tn)=xn]
dove t1<t2< … <tn<tn+1.
Casi particolari di processi di Markov sono il processo di nascita e morte, la passeggiata casuale, il
processo di rinnovo.
Prima di passare alla trattazione dei processi di Markov distinguendo tra il caso a tempo discreto
ed il caso a tempo continuo vengono enunciate alcune proprietà di carattere generale.
7.5.1 Proprietà dei processi di Markov

Proprietà 1
Applicando alla [7.5.1] (276) la legge della catena
[7.5.2] p(x1, …, xn)=p(xn|xn-1, …, x1) ''' p(x2|x1)p(x1)
si ottiene:
[7.5.3] p(x1, …, xn)=p(xn|xn-1)p(xn-1|xn-2) ''' p(x2|x1)p(x1)
Se viceversa la [7.5.3] (278) è vera per ogni n allora il processo xn è Markoviano in quanto (vedi
[7.5.2] (277))
p ( x1,..., x n!1, x n )
[7.5.4] p ( x n x n!1,..., x1 ) = = p ( x n x n!1 )
p ( x1,..., x n!1 )
Proprietà 2
Dalla proprietà 1 segue che
[7.5.5] E{xn|xn-1, …, x1}= E{xn|xn-1}
Proprietà 3
Un processo di Markov rimane tale se si opera un ribaltamento dell’asse dei tempi
178
[7.5.6] p(xn|xn+1, …, xn+k)= p(xn|xn+1)
Dimostrazione:
La parte sinistra della [7.5.6] (281) è uguale a:
p ( x n , x n+1,..., x n+k ) p ( x n+1 x n )
[7.5.7] = p (xn )
p ( x n+1,..., x n+k ) p ( x n+1 )
e dal momento che
[7.5.8] p(xn+1|xn)p(xn)= p(xn,xn+1)= p(xn|x n+1) p(xn+1)
la [7.5.6] (281) risulta verificata.
7.5.2 Processi di Markov a tempo discreto

Una sequenza di variabili aleatorie x1, x2, …, x n costituisce una catena di Markov tempo discreto
se per ogni n (n=1, 2, …) ed ogni possibile valore che le variabili aleatorie possono assumere
(i1<i2<…<in) si verifica:
[7.5.9] p[xn=j |xn-1=in-1, …, x1=i1] = p[xn=j | xn-1=in-1]
dove la p['] va intesa come probabilità di transizione.
Quindi, coerentemente alla definizione di questa classe di processi, la storia dell’evoluzione è
completamente contenuta nello stato attuale. Ovviamente per ricostruire la successione degli stati è
necessario fornire la probabilità iniziale. Pertanto data la probabilità iniziale e le probabilità di
transizione è possibile stabilire univocamente la probabilità di trovarsi nei vari stati nell’istante n.
Se la probabilità di transizione non dipende da n si dice che la catena di Markov è omogenea
ovvero:
[7.5.10] pij = p[xn=j | xn-1=i].
In tal modo si può definire la probabilità di transizione a m passi
[7.5.11] p(ij ) =ˆ p !"x n+m = j x n = i#$ .
m

Si può anche ricavare la formula ricorsiva:


[7.5.12] p(ij ) = " p(ik ) p kj m=2, 3, ... .
m m!1

Si noti che in generale una catena di Markov omogenea non è stazionaria. Comunque in molti casi
tende ad essere stazionaria per n9&.
La [7.5.12] (287) rivela semplicemente che per passare dallo stato i allo stato j in m passi
dobbiamo passare dallo stato i allo stato generico k in m-1 passi e successivamente dallo stato k
allo stato j in un passo. La probabilità risultante è il prodotto delle due probabilità in quanto questi
ultimi due eventi sono indipendenti. Sommando le probabilità su tutti i possibili k si ottiene la p(ij )
m

.
Una catena di Markov nella quale ogni stato può essere raggiunto da ogni altro stato è detta
irriducile. In termini di probabilità di transizione questo si esprime nell’esistenza di un intero m0
tale che p(ij 0 ) > 0 .
m

Sia A l’insieme di tutti gli stati della catena di Markov. Un sottoinsieme di stati A1 è detto chiuso
se non è possibile alcuna transizione tra uno qualsiasi degli stati di A1 verso qualsiasi degli stati di
A1c (con A1c complemento di A1). Se A1 è composto da un solo stato questo è denominato stato
assorbente (che corrisponde a pii=1).
Se A è chiuso e non contiene alcun sottoinsieme chiuso allora otteniamo una catena di Markov
irriducibile. In caso contrario si dice riducibile.
Consideriamo la probabilità che si ritorni una volta nello stato j dopo n passi:
179
[7.5.13] p j (n)
=ˆ p [ ritorno a j in n passi]

In generale la probabilità di ritornare allo stato j sarà:


!
[7.5.14] p j = " p(j )
n

n=1

Se pj = 1 lo stato viene chiamato ricorrente, altrimenti se pj < 1 viene chiamato transitorio. Inoltre
se è possibile ritornare allo stato j soltanto ai passi D, 2 D, 3 D, … lo stato si dice periodico con
periodo D. Se D=1 lo stato è aperiodico.
Considerando gli stati per i quali pj=1 si può definire il tempo medio di ricorrenza:
!
[7.5.15] M j =ˆ " np(j )
n

n=1

Se Mj=& lo stato j è detto a ricorrenza nulla, se Mj<& è detto a ricorrenza non nulla.
Definiamo la probabilità di trovare il sistema nello stato j al passo n-esimo:
[7.5.16] !(i ) =ˆ p [ x n = j]
n

Si enunciano, senza dimostrazione, due teoremi.


Teorema 1:
Gli stati di una catena di Markov irriducibile sono tutti transitori o tutti a ricorrenza non nulla o
tutti a ricorrenza nulla. Nel caso in cui siano periodici hanno tutti lo stesso periodo $.
Teorema 2:
Per una catena di Markov irriducibile e aperiodica omogenea le probabilità limite
[7.5.17] ! i = lim !(n)
n"# i
esistono sempre e sono indipendenti dalla distribuzione di probabilità dello stato iniziale.
Inoltre si possono verificare due opzioni:
5 tutti gli stati sono di transizione oppure a ricorrenza nulla e quindi "j=0 per ogni j;
5 tutti gli stati sono a ricorrenza non nulla e quindi "j>0 per ogni j; in questo caso possiamo
ricavare "j=1/Mj. Le quantità "j risultano univocamente determinate dal sistema di equazioni
[7.5.18] "! i =1
i

[7.5.19] ! j =ˆ " ! i p ij
i

Esempio
Consideriamo il diagramma a stati finiti mostrato in Figura 7.4 come rappresentazione di una
catena di Markov.
3/4 1

0
1/4

1/4
1/4 3/4

1/4

1/2

Figura 7.4 – Diagramma a stati finiti di una catena di Markov


180
Si definisce la matrice delle probabilità di transizione
[7.5.20] P=[pij]
e il vettore delle probabilità
[7.5.21] ! =[!0, !1, !2, …]
In tal modo la [7.5.19] (294) diventa
[7.5.22] ! = ! P
Nell’esempio considerato:
! 0 43 1
4
$
[7.5.23] P = # 14 0 3
4
&
# 1 1 1 &
" 4 4 2 %
mentre la [7.5.22] (297) si esplicita in

!0=0!0+0.25!1+0.25!2

[7.5.24] !1=0.75!0+0!1+0.25!2

!2=0.25!0+0.75!1+0.5!2

Siccome la prima delle [7.5.24] (299) è linearmente dipendente dalle altre due è necessario
introdurre la [7.5.18] (293) che in questo caso è
[7.5.25] !0+!1+!2 = 1
Risolvendo il sistema

!0=0.2

[7.5.26] !1=7/25=0.28

!2=13/25=0.52

Si sono in tal modo ottenute le probabilità di equilibrio degli stati.


n
Se invece si è interessati al comportamento dinamico del sistema occorre ricavare le ! (j ) ovvero le
probabilità che il sistema si trovi nello stato j nell’istante n.
Definiamo quindi il vettore
[7.5.27] !( ) =ˆ "#!(0 ), !1( ), !(2 ),...$%
n n n n

Usando la definizione di probabilità di transizione e la definizione (295) possiamo calcolare !(1) in


termini di P e della distribuzione iniziale !(0)
[7.5.28] !(1) = !(0) P

Analogamente

[7.5.29] !(2) = !(1) P = [!(0) P] P = !(0) P2


Generalizzando
[7.5.30] !(n) = !(n-1) P = !(0) Pn
La probabilità stazionaria è data da
181
!= lim ! (n)
= lim ! (n$1)
P
n"# n"#

e quindi

!= !P

Ritornando all’esempio ipotizziamo che il sistema sia inizialmente nello stato 0 con probabilità 1
ovvero

!(0) = [1, 0, 0]

la sequenza delle probabilità è fornita in Tabella 7.1.


Tabella 7.1
n 0 1 2 3 4 … &
(n )
!0 1 0 0.25 0.187 0.203 0.2
(n )
!1 0 0.75 0.062 0.359 0.254 0.28
(n )
!2 0 0.25 0.688 0.454 0.543 0.52
Nel caso in cui il vettore delle probabilità iniziale sia

!(0) = [0, 1, 0]

la sequenza delle probabilità è fornita in Tabella 7.2.


Tabella 7.2
n 0 1 2 3 4 … &
(n )
!0 0 0.25 0.187 0.203 0.199 0.2
(n )
!1 1 0 0.375 0.25 0.289 0.28
(n )
!2 0 0.75 0.438 0.547 0.512 0.52
Se invece il vettore delle probabilità iniziale sia

!(0) = [0, 0, 1]

la sequenza delle probabilità è fornita in Tabella 7.3.


Tabella 7.3
n 0 1 2 3 4 … &
(n )
!0 0 0.25 0.187 0.203 0.199 0.2
(n )
!1 0 0.25 0.313 0.266 0.285 0.28
(n )
!2 1 0.5 0.5 0.531 0.516 0.52
Si può notare che le probabilità limite sono indipendenti dallo stato iniziale.
Generalizzando la definizione omogenea della probabilità di transizione [7.5.10] (285) si può
definire:
[7.5.31] p ij ( m, n ) =ˆ P !"x n = j x m = i#$

che fornisce la probabilità che il sistema sia nello stato j al passo n essendo passato dallo stato i al
passo m"n. Si può affermare che in istanti intermedi q il sistema sia passato da stati intermedi k.
[7.5.32] p ij ( m, n ) = % P !"x n = j, x q = k x m = i#$
k
182
La (307) può essere riscritta come:
[7.5.33] p ij ( m, n ) = % P !"x q = k x m = i#$ P !"x n = j x m = i, x q = k #$
k

ma per le proprietà delle catene di Markov


[7.5.34] P[xn=j|xm=i, xq=k] = P[xn=j|xq=k]
Applicando alla (308) ed usando la (306) si giunge alla
[7.5.35] pij (m, n) = ! p ik ( m,q )p kj (q, n)
k

nota come equazione di Chapman-Kolmogorov per una catena di Markov tempo discreto.
7.5.3 Processi di Markov a tempo continuo

Le catene di Markov a tempo continuo sono caratterizzate dall’avere gli istanti di tempo in cui il
sistema può cambiare stato appartenenti ad un insieme continuo.
Per ogni intero n e per ogni sequenza t1, t2, …, tn+1 tale che t1< t2< …< tn+1
[7.5.36] p[x(tn+1)=j |x(t1)=i1, …, x(tn)=in] = p[x(tn+1)=j | x(tn)=in]
La probabilità di transizione in funzione del tempo si può definire come segue:
[7.5.37] p ij (s, t ) =ˆ P !"X ( t ) = j X (s) = i#$

con X(t) stato al tempo t>s. Se consideriamo tre istanti successivi s"u"t, nel passare dallo stato i al
tempo s allo stato j al tempo t il processo dovrà passare da uno stato k intermedio al tempo u. Si
giunge così alla equazione di Chapman-Kolmogorov per una catena di Markov tempo continuo:
[7.5.38] p ij (s, t ) = ! p ik (s, u ) p kj ( u, t )
k
183

8 MEZZI TRASMISSIVI
184
185

8.1 INTRODUZIONE AI MEZZI TRASMISSIVI

L’elemento fondamentale della trasmissione è il mezzo trasmissivo, nel cui ambito il segnale
elettromagnetico si propaga per la distanza r del collegamento con una velocità di norma non
molto diversa da quella caratteristica di un’onda e.m. (e.m.=elettromagnetica) nel vuoto (c=3'108
m/s); tale velocità finita, anche se molto grande, è la principale responsabile del ritardo di
ricezione t0(r), crescente con r. I mezzi trasmissivi si distinguono in due categorie: le linee di
trasmissione, sistemi materiali a distribuzione uniforme secondo una coordinata longitudinale, che
nel guidare la propagazione del segnale fino alla sua destinazione coprono materialmente la
distanza r del collegamento e perciò sono anche denominati portanti fisici; le tratte radio, nelle
quali il segnale irradiato da una antenna emittente si propaga liberamente sotto forma di onde e.m.
fino ad essere captato da una antenna ricevente a distanza r, perciò anche denominati portanti
radio. I mezzi portanti fisici hanno struttura costituita da due conduttori isolati con dielettrico
oppure formata da soli dielettrici: si tratta, rispettivamente, delle coppie metalliche e delle fibre
ottiche.
Di norma la natura dei mezzi trasmissivi è passiva e il loro comportamento è lineare; nello schema
equivalente ideale, in cui si ammette anche la caratteristica di invarianza nel tempo, oltre al
menzionato ritardo è significativa la attenuazione del mezzo portante, funzione crescente della
distanza r:
Wxx
[8.1.1] A0(r) = ,
Wyy
dove sono indicate con Wxx e Wyy le potenze dei segnali x(t) e y(t), rispettivamente alla entrata e
alla uscita del mezzo stesso. Se i materiali dei portanti fisici fossero ideali, grazie alla uniformità
della linea la configurazione dell’onda e.m. guidata rimarrebbe invariata in ogni sezione, a meno
del ritardo di propagazione; l’affievolimento del segnale che invece caratterizza i mezzi reali è
allora dovuto alle perdite ohmiche nei materiali. Nel generico mezzo portante radio, l’onda e.m.
irradiata distribuisce invece la sua potenza e.m. su una superficie sferica di area sempre crescente
con la distanza, in modo che l’affievolimento del campo e.m. in un punto lontano può essere in
prima approssimazione valutato tenendo conto del solo effetto menzionato, connaturato al
fenomeno della propagazione libera, ossia trascurando le caratteristiche fisiche dello spazio reale
interessato.
Il mezzo trasmissivo è molto importante nei riguardi del servizio offerto dall’intero collegamento;
talvolta la scelta del tipo è obbligata, come ad esempio nelle trasmissioni con terminali mobili,
sempre effettuate via radio, ma nella maggiore parte dei casi deriva da considerazioni economiche
in un contesto non ideale.
8.1.1 Coppie metalliche

Quando le distanze da coprire tra due terminali fissi siano modeste, si ricorre spesso all’impiego di
un mezzo portante fisico costituito da una coppia di conduttori metallici, isolati tra loro da
materiale dielettrico, posati lungo il tracciato del percorso stabilito tra i terminali. Di norma la
sezione trasversale è invariata, sia nella geometria che nei materiali: un tale tipo di struttura è
denominata linea di trasmissione uniforme a coppia metallica o più semplicemente coppia
metallica. La propagazione del segnale avviene nel dielettrico, con onda e.m. piana, avente sia
campo elettrico che campo magnetico sempre giacenti sul piano trasversale, ossia con modo di
tipo TEM (TEM=Trasverso Elettrico e Magnetico); il metallo assolve dunque la funzione di guida
lungo il tracciato del mezzo portante.
I tipi più comuni di linee metalliche sono la coppia simmetrica (vedi Figura 8.1a), comunemente
denominata anche linea bifilare o doppino, e la coppia coassiale (vedi Figura 8.1b). Nel primo
caso si ha un esempio di struttura aperta, con un campo e.m. che si estende in teoria in tutto lo
spazio; il secondo caso appartiene invece alla categoria delle strutture chiuse, in cui il campo e.m.
186
si assume praticamente confinato all’interno di un conduttore cavo, con effetto di schermo anche
nei riguardi di eventuali altri campi e.m. generati all’esterno della coppia da fenomeni naturali o
artificiali non correlati alla trasmissione desiderata. Mirando ai benefici derivanti dalla
schermatura, si impiega anche il doppino schermato (vedi Figura 8.1c), altro esempio di struttura
chiusa.

Figura 8.1: Coppie metalliche, di tipo simmetrico aperto (a), coassiale (b) e simmetrico chiuso (c).
I dati strutturali della coppia sono quelli dei materiali, ossia la costante dielettrica J (o quella
relativa Jr=J/J0) e la permeabilità magnetica µ=µ0 dell’isolante(1) e la conducibilità I e la
permeabilità magnetica µm del conduttore, e quelli relativi alla geometria della sezione: il diametro
comune d e l’interasse D dei fili nella coppia simmetrica oppure il diametro esterno d del
conduttore interno, il diametro interno D del conduttore esterno e lo spessore s di quest’ultimo
nella coppia coassiale.
Per garantire la uniformità, ossia la invarianza della sezione di una coppia bifilare, i conduttori
sono a volte immersi in un materiale plastico isolante (ad esempio polietilene, con Jr=2,26). Più
comunemente, ciascun filo metallico è circondato da una sua guaina in plastica di spessore
costante e l’uniformità dell’interasse degli elementi della coppia è ottenuta intrecciandoli e
contenendoli in una ulteriore guaina; l’avvolgimento a spirale dei fili ha anche l’importante
funzione di protezione nei riguardi dei disturbi, ottenuta per compensazione degli effetti indotti sui
due conduttori che ad ogni semipasso invertono la loro posizione relativa ai campi e.m.
disturbanti. Un valore tipico del diametro dei fili è d=0,6 mm.
Il centraggio del conduttore interno di una coppia coassiale può essere ottenuto come mostrato in
Figura 8.2, con dischetti di dielettrico (a), con un materiale plastico isolante avvolto a spirale (b)
oppure pieno in modo da colmare interamente lo spazio tra i due conduttori (c); ammesso che il
passo dei dischetti o della spirale sia sufficientemente breve, si può assumere che il dielettrico sia
omogeneo, con costante dielettrica di valore intermedio tra quello dell’aria e del materiale isolante:
si passa così da un valore di Jr attorno a 1,1 al valore di 2,26, nel caso del polietilene pieno.

Figura 8.2: Sezione longitudinale di coppia coassiale con dischetti (a) e con spirale (b).
Alle soluzioni strutturali considerate in Figura 8.2 corrispondono, nell’ordine, comportamenti
trasmissivi di minore qualità, ma in contropartita si acquisisce maggiore flessibilità meccanica
della struttura, soprattutto se nel caso di dielettrico pieno il conduttore esterno viene realizzato in
forma di calza di rame (fili di assai piccolo diametro intessuti secondo spirali controavvolgentesi).
Nel caso di isolamento a dischetti si hanno i valori tipici d=2,6 mm e D=9,5 mm. Nelle strutture
coassiali posate in opera, spesso affiancando più coppie, si usano adeguate guaine protettive
dell’insieme, costituendo un cavo coassiale.
Attualmente le coppie metalliche vengono impiegate quasi esclusivamente su distanze brevi,
tipicamente inferiori a 1 km.

(1) I valori nel vuoto sono J0=(36!)-110-9 [F/m] e µ0=4!10-7 [H/m].


187
8.1.2 Fibre ottiche

Nella trasmissione tra due terminali fissi a grande distanza, ma per certi segnali anche a breve
distanza, è assai frequente l’impiego di un mezzo portante fisico basato su una struttura
interamente isolante, in modo da abolire le perdite dovute a materiali conduttori. Nella soluzione
tipica mostrata in Figura 8.3, a salto di indice (“step index”), la struttura è costituita da due
materiali dielettrici separati da una unica superficie cilindrica, a sezione circolare di raggio a, che
delimita il nucleo interno (“core”) dal mantello che lo circonda (“cladding”). Il primo materiale ha
costante dielettrica relativa Jr1=J1/J0 e indice di rifrazione n1= !r1 , mentre il secondo ha Jr2=J2/J0
e n2= !r 2 di valore assai poco minore di n1; entrambi, usualmente vetro di silice con opportuni
diversi droganti, hanno indice di rifrazione di valore attorno a 1,4 e permeabilità magnetica
µ1=µ2=µ0, uguale a quella del vuoto.

Figura 8.3: Fibra ottica con sezione a simmetria circolare (a), e profilo teorico dell’indice di
rifrazione n lungo il raggio (b).
La struttura schematizzata in Figura 8.3, con sezione invariante in senso longitudinale ed
estensione trasversale finita del mantello, è usualmente denominata fibra ottica, date le sue
piccolissime dimensioni trasversali (di norma, 2d=125 µm) e l’uso di frequenze prossime a quelle
dello spettro visibile. La fibra ottica è una struttura aperta, con campo e.m. che si estende in teoria
in tutto lo spazio dielettrico, non omogeneo; tuttavia nelle condizioni di impiego il campo e.m.
guidato è in pratica prevalentemente concentrato nella regione del nucleo, in modo che nel
mantello i valori del campo risultano trascurabili già a distanze dall’asse minori del raggio esterno
d. Nella pratica la struttura è dunque efficientemente schermata.
Una fibra ottica può consentire la propagazione di una pluralità di diverse configurazioni di onde
e.m., o modi guidati, che essendo tutti di tipo non TEM hanno però una propria frequenza di
taglio, al di sotto della quale la propagazione del modo non si può sostenere. Nella maggiore parte
delle applicazioni, e sempre per distanze oltre il chilometro, allo scopo di ottenere migliori
prestazioni si opera con il solo modo fondamentale, che ha la minore frequenza di taglio; scelta la
frequenza di eccitazione o la sua corrispondente lunghezza d’onda K=c / f, si ottiene la desiderata
fibra monomodo con la riduzione al valore opportuno del raggio a del nucleo: tipicamente si ha
2a<10 µm adoperando lunghezze d’onda attorno a 1 µm (1,3 o 1,55 µm). A parità di frequenza di
impiego, una struttura che opera in regime plurimodale, ossia una fibra multimodo, ha un
maggiore diametro del nucleo, attorno 2a<60 µm, riducendo in contropartita delle sue peggiori
prestazioni trasmissive i problemi di accoppiamento tra fibra e terminali e tra spezzoni di fibra.
Nell’ambito del processo di produzione la fibra ottica viene a volta ricoperta con un rivestimento
dielettrico, opaco alle frequenze impiegate, che oltre ad assicurare una ancora più completa
schermatura ha il compito principale di consentire una migliore maneggevolezza della struttura,
altrimenti molto fragile; il diametro esterno risulta così raddoppiato. Nelle strutture posate in opera
con affasciamento di più fibre, si usano adeguate guaine protettive dell’insieme, costituendo un
cavo ottico.
Il notevole impiego delle fibre ottiche nella trasmissione è dovuto alla possibilità di ottenere un
valore molto piccolo dell’affievolimento del segnale per unità di lunghezza percorsa nel mezzo,
grazie all’assenza di materiali conduttori e alle basse perdite che il vetro di silice mostra attorno
alla lunghezza d’onda di 1,5 µm, ossia per frequenze estremamente elevate (oltre 1014 Hz).
188
8.1.3 Tratte radio

Nei casi di libera mobilità di almeno uno dei terminali o della sua lontana collocazione nello
spazio circostante la Terra, la trasmissione può essere attuata unicamente impiegando la
propagazione e.m. libera. Tale modalità è anche molto conveniente nella trasmissione con
diffusione della informazione, ossia quando si vuole trasferire lo stesso segnale da un terminale
generatore a una grande molteplicità di terminali utilizzatori fissi; può anche essere usata con
profitto per la trasmissione tra due punti fissi in alternativa ai mezzi fisici, tipicamente in
particolari condizioni orografiche o per il vantaggio offerto dalla tempestività della installazione.
La struttura basilare di una tratta radio comprende una coppia di antenne e lo spazio libero
interposto (vedi Figura 8.4), supposto in prima approssimazione ideale. Le antenne sono sistemi
materiali con una porta accessibile ai segnali classici: eccitando con un segnale entrante x(t)
un’antenna emittente, essa è capace di irradiare un campo e.m. sferico che in ogni punto dello
spazio libero ha intensità istantanea di campo elettrico e magnetico entrambe proporzionali al
segnale, a meno di un ritardo legato alla distanza; un’antenna ricevente investita da un tale campo
e.m. è capace di captare la radiazione, fornendo un segnale uscente y(t) proporzionale alle
menzionate intensità istantanee e, quindi, fedele al segnale x(t) di eccitazione della tratta.

Figura 8.4: Struttura basilare di una tratta radio.


Quasi sempre le antenne sono costituite essenzialmente da materiali conduttori, spesso con
strutture filiformi, come l’antenna a stilo, oppure di tipo a superficie, come l’antenna a parabola.
Spesso oltre che passive sono reciproche, in modo che la stessa antenna può operare tanto in
emissione, quanto in ricezione. Si hanno molte varietà con prestazioni assai diverse,
essenzialmente dal punto di vista della loro capacità di irradiare e captare con diversa efficacia in
ragione del loro orientamento rispetto alla congiungente la coppia di antenne.
Dato che le tratte radio utilizzano lo stesso spazio, è necessario porre molta attenzione alle
interferenze, affinché si faccia il migliore uso di tale risorsa naturale comune e scarsa: uno dei
provvedimenti più diffusi è la assegnazione a ciascun portante radio di una radiofrequenza fc,
accuratamente individuata entro lo spettro delle applicazioni radio esteso da poche decine di kHz
ad alcune decine di GHz, al centro di un intervallo di larghezza B più limitata possibile tenuto
conto della applicazione (si ha B«fc, anche per più di un ordine di grandezza).

8.2 INTRODUZIONE AI MEZZI TRASMISSIVI REALI


Nel paragrafo 8.1 sono state individuate le due fondamentali categorie in cui possono essere
distinti i mezzi trasmissivi, ossia le linee di trasmissione e le tratte radio, rispettivamente anche
denominati portanti fisici e portanti radio. Si distinguono per il diverso meccanismo tramite il
quale il segnale transita lungo il mezzo trasmissivo: si hanno infatti le due possibilità di
propagazione e.m. guidata secondo la coordinata longitudinale che segna il percorso o di
propagazione e.m. libera nello spazio interposto tra una coppia di antenne.
Nel seguito ci si propone di affrontare l’analisi dei mezzi trasmissivi impiegabili nel trasferimento
elettromagnetico della informazione, tenendo in conto le imperfezioni che possono manifestarsi
nei casi effettivi e le loro conseguenze sui segnali trasmessi. Si dà per scontata la conoscenza delle
pertinenti nozioni basiche di elettromagnetismo, anche se non mancano alcuni richiami, giustificati
per motivi di notazione e per comodità di disporre in modo immediato delle espressioni che
esprimono le definizioni e le proprietà fondamentali. Saranno considerati nell’ordine i mezzi
portanti fisici metallici, concentrando l’attenzione sulle strutture costituite da coppie di conduttori
189
isolati da dielettrico (paragrafo 8.3), i mezzi portanti fisici ottici, costituiti da strutture composte
esclusivamente di dielettrici (paragrafo 8.4), e infine le tratte radio (paragrafo 8.5).
Alcune precisazioni e dimostrazioni sono raccolte in una appendice (appendice A5), articolata in
paragrafi.
8.3 MEZZI TRASMISSIVI METALLICI

8.3.1 Struttura delle coppie metalliche


Quando le distanze da coprire tra due terminali fissi siano modeste e i segnali abbiano banda utile
non molto estesa, si ricorre spesso all’impiego di un mezzo portante fisico costituito da una coppia
di conduttori metallici, isolati tra loro, posati lungo il tracciato del percorso stabilito tra i terminali.
Di norma la sezione è invariata, sia nella geometria che nei materiali: un tale tipo di struttura è
denominata linea di trasmissione uniforme a coppia metallica o più semplicemente coppia
metallica. Nel seguito si presuppone che la struttura sia cilindrica lungo lo sviluppo longitudinale,
in modo da potere adottare una coordinata rettilinea z; anche se il tracciato effettivo è spesso
curvilineo, il suo raggio di curvatura è infatti sufficientemente grande da potere assumere che il
comportamento e.m. della linea sia equivalente a quello che si avrebbe qualora essa fosse posata
secondo una unica direzione.
Le versioni più comuni di linee metalliche sono la coppia simmetrica (vedi Figura 8.5a),
comunemente denominata anche linea bifilare o doppino, e la coppia coassiale (vedi Figura 8.5b).
Nel primo caso si ha un esempio di struttura aperta, con un campo e.m. (e.m. = elettromagnetico)
che si estende in teoria in tutto lo spazio; il secondo caso appartiene invece alla categoria delle
strutture chiuse, in cui il campo e.m. si assume confinato all’interno di un conduttore cavo, con
effetto di schermo anche nei riguardi di eventuali altri campi e.m. generati all’esterno della coppia
da fenomeni naturali o artificiali non correlati alla trasmissione desiderata; mirando ai benefici
derivanti dalla schermatura, si impiega anche il doppino schermato (vedi Figura 8.5c), altro
esempio di struttura chiusa.

D d

d D
a) b) c)
Figura 8.5: Coppie metalliche, di tipo simmetrico aperto (a), coassiale (b) e simmetrico chiuso (c)
I dati strutturali della coppia sono quelli dei materiali, ossia la costante dielettrica J (o quella
relativa Jr!J /J0) e la permeabilità magnetica µ = µ0 dell’isolante (1) e la conducibilità I e la
permeabilità magnetica µm del conduttore, e quelli relativi alla geometria della sezione: il diametro
comune d e l’interasse D dei fili nella coppia simmetrica oppure il diametro esterno d del
conduttore interno, il diametro interno D del conduttore esterno e lo spessore s di quest’ultimo
nella coppia coassiale.
Per garantire la uniformità, ossia la invarianza della sezione di una coppia bifilare, i conduttori
sono a volte immersi in un materiale plastico isolante (ad esempio polietilene, con Jr = 2,26). Più
comunemente, sono circondati entrambi da una guaina a spessore costante di tale materiale e
quindi intrecciati; il loro avvolgimento a spirale ha anche l’importante funzione di protezione nei
riguardi dei disturbi, ottenuta per compensazione degli effetti indotti sui due conduttori che ad
ogni semipasso invertono la loro posizione relativa ai campi e.m. disturbanti.
Il centraggio del conduttore interno di una coppia coassiale può essere ottenuto come mostrato in
Figura 8.6, con dischetti di dielettrico (a), con un materiale plastico isolante avvolto a spirale (b)

(1) I valori nel vuoto sono J0 = (36!)-1 10-9 [F/m] e µ0= 4! 10-7 [H/m].
190
oppure pieno in modo da colmare interamente lo spazio tra i due conduttori (c); ammesso che il
passo dei dischetti o della spirale sia sufficientemente breve, si può assumere che il dielettrico sia
omogeneo, con costante dielettrica di valore intermedio tra quello dell’aria e del materiale isolante:
si passa così dal un valore di Jr attorno a 1,1 al valore di 2,26, nel caso del polietilene pieno.

a) b) c)
Figura 8.6: Sezione longitudinale di coppia coassiale con dischetti (a) e con spirale (b).
Alle soluzioni considerate corrispondono, nell’ordine, comportamenti elettromagnetici di minore
qualità, ma in contropartita si acquisisce maggiore flessibilità meccanica della struttura, soprattutto
se nel caso di dielettrico pieno il conduttore esterno viene realizzato in forma di calza di rame (fili
di assai piccolo diametro intessuti secondo spirali controavvolgentesi).
Solo per brevi lunghezze (di norma minori di 10 m) e nel caso di trasmissione di segnali in banda
traslata ad altissima frequenza (di norma dell’ordine di grandezza di 1 GHz = 109 Hz), si fa uso di
guide d’onda metalliche, strutture chiuse con conduttore unico cavo, prevalentemente del tipo a
sezione rettangolare come mostrato in Figura 8.7a; altre strutture guidanti di tipo aperto
caratterizzate da costanti di attenuazione molto maggiori di quelle delle guide d’onda, come ad
esempio la microstriscia (vedi Figura 8.7b), trovano impiego per lunghezze assai più brevi (di
norma minori di10 cm). Per la scarsa o nulla rilevanza che tali strutture hanno nella funzione di
mezzo trasmissivo (ben diverso è il loro ruolo come elementi di connessione nell’ambito degli
impianti, degli apparati e addirittura dei circuiti integrati) nel seguito non verranno più prese in
considerazione.

a) b)
Figura 8.7: Guida d’onda metallica rettangolare (a) e microstriscia (b) .

8.3.2 Grandezze caratteristiche delle coppie metalliche


8.3.2.1 Impedenza caratteristica e costante di propagazione
Le grandezze fondamentali atte a qualificare un tronco di linea di trasmissione a coppia metallica
reale di lunghezza generica L possono essere desunte dall’esame del suo comportamento agli
estremi. Assunto il comportamento perfetto, il mezzo considerato è rappresentabile tramite un
quadripolo LT I simmetrico, passivo, adattato, caratterizzato quindi entro la banda utile del segnale
trasmesso dalla funzione di trasferimento (vedi [5.4.10] e [5.4.11]):
[8.3.1] H(f, L) " H21(f, L) " H12(f, L) = e-!0L e - j 2 ! f L /v , per fm * | f | * fM;
il modulo della funzione risulta dipendere unicamente dalla lunghezza del tronco tramite la legge
esponenziale, dove il fattore 70 è la costante di attenuazione del mezzo perfetto, mentre
l’argomento dipende invece proporzionalmente sia dalla lunghezza che dalla frequenza. La
menzionata specificità è dovuta al meccanismo del trasferimento e.m. (e.m. = elettromagnetico)
del segnale lungo il mezzo trasmissivo, che si ammette avvenga per propagazione guidata del solo
modo fondamentale del tipo TEM (vedi appendice A5.1) secondo la coordinata longitudinale che
segna il percorso.
Nel caso di una coppia metallica reale, una volta accertata la propagazione unimodale, il tronco di
linea è ancora rappresentabile con un quadripolo LT I, simmetrico e passivo, ma deve essere
caratterizzato, per ogni frequenza almeno in banda utile e con riferimento a una resistenza R reale
191
e costante, tramite una trasmettenza identica nei due versi, Hc(f, L) " H21(f, L) " H12(f, L), e una
riflettenza comune alle due porte, Ac(f, L) " H11(f, L) " H22(f, L), in generale non più nulla.
Facendo tendere L all’infinito, per effetto delle perdite Hc(f, L) tende a zero e il coefficiente di
riflessione in entrata viene a coincidere con la riflettenza Ac(f, )), indipendentemente dal
particolare coefficiente di riflessione del carico in uscita; in tali condizioni si ricava dalla [5.2.10]
la impedenza della linea infinitamente lunga, denominata impedenza caratteristica in quanto tipica
della sola struttura:
1+!c ( f,")
[8.3.2] Zc(f) = R .
1-!c ( f,")

Assunto che il tronco di linea sia adattato (Ac(f,))"0, ossia Zc(f)"R) e posta la sua funzione di
trasferimento sotto la forma generica di esponenziale complesso, Hc(f, L) " e - !(f ,L) , imponendo che
per ogni frequenza il comportamento di due tronchi in cascata di lunghezza z e L-z, con z positivo
minore di L, sia identico a quella dell’intero tronco, si ricava che nell’esponente si ha la
separazione delle variabili f e L:
[8.3.3] Hc(f, L) = e
-!c ( f )L
,
dove la grandezza complessa:
1
[8.3.4] Dc(f) = - ln[Hc(f, L)],
L
indipendente dalla lunghezza L, è la costante di propagazione della coppia.
L’attenuazione di inserzione del tronco di linea adattata risulta dalla costante di attenuazione della
coppia, 7c(f) ! 0{Dc(f)}, tramite la relazione:
[8.3.5] Ac(f, L) = |Hc(f, L)|-2 = e
2! c ( f )L
.
Nota la costante di fase della coppia, Cc( f ) ! 8{Dc(f)}, si ottengono poi il tempo di ritardo:
arg {H c ( f, L )} !c ( f )
[8.3.6] trc(f, L) ! - = L,
2!f 2"f
e il tempo di ritardo di gruppo:
1 d" 1 d!c ( f )
[8.3.7] tc(f, L) ! - arg {H c ( f, L )}$% = L.
2! df # 2! df
Si noti che i due ritardi sono entrambi proporzionali alla lunghezza L; inoltre essi coincidono se e
solo se la costante di fase è proporzionale alla frequenza; allora risultano indipendenti dalla
frequenza. Una struttura per cui non è soddisfatta tale condizione viene qualificata come un mezzo
trasmissivo dispersivo.

8.3.2.2 Velocità di fase e velocità di gruppo


Dai rapporti tra la lunghezza del tronco e i tempi di ritardo dati dalle [8.3.6] e [8.3.7] risultano altre
due grandezze indipendenti dalla lunghezza medesima e perciò tipiche della struttura: la velocità
di fase:
L 2!f
[8.3.8] vC (f) ! = ,
! rc ( f,L ) "c ( f )
e la velocità di gruppo:
-1
L " d! ( f ) %
[8.3.9] vc(f) ! = 2! $ c ' .
! c ( f, L ) # df &
192
La velocità di gruppo nella coppia soddisfa sempre la condizione:
1
[8.3.10] vc(f) * c = < 3 .108 m /s ,
µ 0! 0
dove con c è indicata la velocità della propagazione e.m. nel vuoto.
Le due velocità ovviamente coincidono e sono indipendenti dalla frequenza nel caso di costante di
fase proporzionale alla frequenza, ossia di mezzo trasmissivo non dispersivo; il comune valore
costante si indica con vc.
8.3.2.3 Lunghezza d’onda e lunghezza elettrica
La grandezza, ancora tipica della struttura, definita dal rapporto:
2!
[8.3.11] Kc(f) ! ,
"c ( f )
prende il nome di lunghezza d’onda nella coppia. In regime armonico e a tempo costante essa
misura di quanto occorre spostarsi lungo l’asse del mezzo trasmissivo affinché la fase dell’onda
che si propaga abbia compiuto un angolo giro. Nel caso di mezzo trasmissivo non dispersivo, per il
quale la costante di fase è proporzionale alla frequenza e si ha una unica velocità costante vc, la
lunghezza d’onda è inversamente proporzionale alla frequenza: Kc(f) = vc/f.
Con riferimento a un tronco di linea di lunghezza L, sono opportuni alcuni commenti sul prodotto:
L L
[8.3.12] Cc(f) L = 2! = 2!f ,
!c (f ) v! ( f )
che si misura in radianti e viene denominato lunghezza elettrica del mezzo trasmissivo.
Nell’impiego di coppie metalliche il valore assoluto della lunghezza elettrica è più significativo di
quello della lunghezza fisica. Se ad esempio si verifica L « Kc(f), tanto da comportare lunghezza
elettrica molto minore di un radiante, il tronco di linea può essere considerato più alla stregua di
una semplice connessione metallica, che non come un mezzo trasmissivo; tenuto conto che la
velocità di fase è spesso molto elevata (non molto minore di c < 3'108 m/s), quanto sopra può
accadere anche per lunghezze fisiche dell’ordine del centinaio di metri, se le frequenze dei segnali
da trasmettere sono dell’ordine del kHz. Si ha dunque a che fare davvero con un tronco di linea di
trasmissione quando la lunghezza elettrica non risulti molto minore di un radiante; il tronco sarà
poi elettricamente corto quando L sia dell’ordine di Kc(f) ed elettricamente lungo per L»Kc(f); per
frequenze molto elevate (ordine del GHz) anche un tratto di un metro di coppia è dunque da
considerare come un tronco di linea di trasmissione.
8.3.2.4 Parametri primari
Si usa spesso caratterizzare una coppia metallica tramite quattro grandezze fisiche reali positive,
denominate parametri primari della linea; essi sono: la resistenza assiale per unità di lunghezza, r
[2/m], la induttanza assiale per unità di lunghezza, l [H/m], la conduttanza di dispersione
trasversale per unità di lunghezza, g [2-1/m], e la capacità trasversale per unità di lunghezza,
c [F/m]. Le grandezze considerate sono legate alle proprietà dei materiali impiegati e alla
geometria della sezione; sono perciò di maggiore interesse per il progetto e la produzione della
coppia.
Come si vedrà nell’immediato seguito, i valori assunti da r risultano dipendere dalla frequenza
quando si superino alcuni kHz, mentre i rimanenti parametri primari possono ritenersi costanti,
almeno in prima approssimazione.
Nel caso di coppie con conduttori ideali e con riferimento alla propagazione unimodale TEM (vedi
appendice A5.1), il vettore Js della densità di corrente superficiale (misurata in A/m) è diverso da
zero solo sulla superficie di separazione tra conduttore e dielettrico ed è diretto assialmente.
Passando al caso reale monomodale con metalli a conducibilità I elevata, ma finita, quanto meno
è alta la frequenza, tanto più le correnti hanno modo di scorrere anche all’interno dei conduttori: si
193
ha allora, come grandezza fisica, il vettore J della densità di corrente volumetrica (misurata in
I

A/m(), orientato come Js del corrispondente caso ideale e con intensità J che diminuisce con legge
I

esponenziale reale allontanandosi dalla superficie, verso l’interno dei conduttori, come mostrato
nell’esempio in Figura 8.8.

J" (0)
dielettrico

!!0
m

! C
conduttore
µ ,"
m

Figura 8.8: Distribuzione esponenziale della corrente volumetrica nel conduttore.


Il fenomeno dell’addensamento, sempre crescente all’aumentare della frequenza, delle correnti di
conduzione verso le superfici che separano i conduttori dai dielettrici entro cui avviene la
propagazione si denomina effetto pellicolare. Il decadimento della intensità della densità di
corrente volumetrica avviene in modo che essa si riduce di un fattore 1/e < 0,37 a una distanza
dalla superficie, che prende il nome di spessore di penetrazione, data dalla:
1
[8.3.13] +m ! ,
!µ m" f
dove f è la frequenza e I e µm sono la conducibilità e la permeabilità magnetica del conduttore.
Nel caso più comune di conduttori in rame si hanno i valori I = 0,58 108 [2-1/ m] e µm = µ0 = 4
! 10-7 [H/m]; dalla [8.3.13] si ottiene allora: +m (rame) = 0,066 / f e, quindi, i seguenti valori
mostrati in Tabella 8.1:
Tabella 8.1: Parametri primari di una coppia metallica
f [kHz] 1 3 6 10 30 60 100 300 600 1000
+m[mm] 2,09 1,21 0,85 0,66 0,38 0,27 0,21 0,12 0,09 0,07

La tabella mostra che alle basse frequenze, ad esempio al di sotto di 10 kHz, la penetrazione della
corrente nei conduttori è tale che, per le usuali dimensioni nelle applicazioni di trasmissione
(ingombri delle sezioni dei conduttori di norma inferiori al millimetro) si può ammettere la ipotesi
di distribuzione uniforme della densità di corrente volumetrica sulla sezione, anche per materiali
ad alta conducibilità come il rame. Tale ipotesi non è invece affatto valida alle alte frequenze: +m
si riduce addirittura a 1 µm a 4,4 GHz! Comunque, già a 60 kHz è sufficiente penetrare di appena
0,27 mm all’interno di un conduttore di rame per trovare una densità di corrente pari a 0,37 volte
quella in superficie (la riduzione è a un decimo per una penetrazione di 0,62 mm).
Alle basse frequenze, per cui di norma è trascurabile l’effetto pellicolare, la resistenza assiale
unitaria di un singolo conduttore reale con sezione di area A e contorno di perimetro C risulta dalla
nota relazione, ricavabile per f 9 0 (in corrente continua):
1
[8.3.14] rb1 = .
!A
194
Per frequenze sufficientemente alte (per cui è valida la C+m << A), associando all’effetto pellicolare
una sezione ridotta (vedi appendice A5.2) avente un’area equivalente in continua data dal prodotto
del perimetro C per lo spessore +m, si ha invece:
1 1 !µ m
[8.3.15] ra1 (f) = = f ,
!C"m ( f ) C "

e tenuto conto della [8.3.14]:


A A
[8.3.16] ra1 (f) = rb1 = rb1 !µ m" f » rb1.
C!m ( f ) C

In contropartita dell’incremento della resistenza assiale unitaria, sempre alle alte frequenze,
l’effetto pellicolare consente una efficace schermatura delle strutture chiuse, giacché anche piccoli
spessori del conduttore esterno possono bastare a ritenerle impenetrabili da parte di eventuali
campi e.m. generati al di fuori della linea. In particolare la struttura della coppia coassiale, così
come quella del doppino schermato, è proprio motivata dalla possibilità di racchiudere il segnale
utile in un volume che risulta ben protetto dalle interferenze, sempre che lo spessore del metallo
sia sufficientemente maggiore di +m. Si noti in proposito dalla [8.3.13] che la schermatura alle
basse frequenze, altrimenti poco efficace, può essere migliorata ricorrendo a materiali conduttori
ad alta permeabilità magnetica avvolti in spessore sottile sul conduttore di rame esterno.
8.3.3 Comportamento delle coppie metalliche
8.3.3.1 Condizioni di Heaviside
Come è stato evidenziato in precedenza, dal punto di vista della utilizzazione sono rilevanti la
impedenza caratteristica, Zc(f), e la costante di propagazione, Dc(f), grandezze in generale
complesse e dipendenti dalla frequenza, che vengono anche denominate parametri secondari della
coppia. Volendo perseguire l’obiettivo di una trasmissione perfetta occorre dunque mirare ad
ottenere che nella banda utile del segnale la linea reale abbia:
• impedenza caratteristica reale e costante, Zc(f) = R,
• costante di attenuazione indipendente dalla frequenza, 7c(f) = cost,
• costante di fase proporzionale alla frequenza, Cc(f) = 2!f/vc, con vc = cost.
Tra i parametri primari e quelli secondari valgono le note relazioni (vedi appendice A5.3):
r + j! l
[8.3.17] Zc(f) = ,
g + j! c

[8.3.18] Dc( f ) = 7c( f ) + jCc(f) = (r +j! l) (g +j!c) .


A patto che la dipendenza dalla frequenza della resistenza assiale unitaria possa essere trascurata,
ponendo r(f) < r(0) = rb, in base alla osservazione della [8.3.17] appare evidente la possibilità di
conseguire l’obiettivo di una impedenza caratteristica reale e costante. Imponendo che si abbia
Zc = R, ossia che il numeratore e il denominatore del radicando nella [8.3.17] soddisfino la
relazione:
[8.3.19] rb + j % l= R2(g + j % c),
si ottengono le condizioni di Heaviside sui parametri primari:
rb l
[8.3.20] = = R2 = Z2c .
g c
Servendosi della [8.3.19] nella [8.3.18] si ricava immediatamente che una coppia per cui siano
soddisfatte le condizioni di Heaviside, oltre ad avere impedenza caratteristica reale e costante, ha
costanti di attenuazione e di fase date dalle:
195
rb j! l
[8.3.21] 7H = = r b g , CH(f) = = 2!f l c .
R R
Si può dunque asserire che un tronco di lunghezza L di una coppia che soddisfi le condizioni di
Heaviside e abbia parametri primari tutti indipendenti dalla frequenza in una stretta banda
assegnata mostra un comportamento perfetto, in quanto le riflettenze sono nulle e la funzione di
trasferimento risulta (vedi [8.3.3]):
- rb g L
[8.3.22] HH ( f ) = e
-! H ( f )L lc L
=e e - j2 ! f .
Le considerazioni svolte ebbero in passato grande rilevanza nelle applicazioni della trasmissione
telegrafica e telefonica a media e grande distanza su coppie simmetriche, con banda contenuta al di
sotto di 4 kHz e conseguente ammissibilità pratica della ipotesi di indipendenza di r dalla
frequenza. Il rispetto delle condizioni di Heaviside comportava comunque interventi di modifica
sulle coppie simmetriche normalmente prodotte e installate a costi ottimizzati (1), con conseguente
non trascurabile aumento del costo per unità di lunghezza. Con l’abbandono dell’impiego delle
coppie metalliche per la trasmissione di segnali a banda stretta su distanze oltre qualche
chilometro, le condizioni di Heaviside hanno perso rilevanza applicativa; infatti per tronchi di
linea di lunghezza contenuta il comportamento imperfetto introduce effetti indesiderati,
proporzionali a L, che risultano tollerabili.

8.3.3.2 Modelli asintotici a bassa e alta frequenza


Di norma è possibile scegliere, senza particolari aggravi di costo, dei materiali isolanti di qualità
tale da rendere trascurabile la conduttanza di dispersione trasversale unitaria; le [8.3.17] e [8.3.18]
assumono pertanto le forme approssimate:
r + j! l
[8.3.23] Zc(f) < ,
j! c

[8.3.24] Dc(f) < j!c ( r +j! l) .

Al tendere a zero della frequenza, si può assumere r(f) < r(0) = rb >> %l, dove tenuto conto che i
due conduttori della coppia, di sezione A1 e A2, sono percorsi in serie dalle correnti volumetriche
si ha dalla [8.3.14]:
1 A1 + A 2
[8.3.25] rb = rb1 + r b2 = .
! A1A 2
Trascurando allora j%l rispetto a r nelle [8.3.23] e [8.3.24], si perviene alle seguenti espressioni del
modello asintotico a bassa frequenza:
rb rb 1
[8.3.26] Zb(f) ! = (1 - j ) ,
j! c 4! c f

[8.3.27] Db(f) ! j ! c rb = (1 + j ) ! f c rb ,
e quindi
[8.3.28] 7b( f ) = Cb(f) = ! c rb f.
Le [8.3.26] e [8.3.27] sono perciò ben lungi dal soddisfare le condizioni di trasmissione perfetta.
Se invece si fa tendere la frequenza verso l’infinito, ammesso che risulti r( f ) « %l si può trascurare
r rispetto a j%l nella [8.3.23] e assumere nella [8.3.24] l’approssimazione:

(1) Di norma si ottiene r/g>>l/c, stante i valori molto piccoli assunti da g; per soddisfare le [8.3.19] [5.2.19] si
ricorreva all’aumento di l ottenuto avvolgendo un filo ferromagnetico sui conduttori di rame (metodo Krarup) o
inserendo in serie delle bobine a distanza periodica molto minore della lunghezza d’onda (metodo Pupin).
196
r (f ) r (f )
[8.3.29] 1+ <1-j .
j! l 2! l
Si giunge allora alle seguenti espressioni del modello asintotico ad alta frequenza:

[8.3.30] Za ! l = R,
c
" r (f ) %
[8.3.31] Da (f) ! -! 2 l c $1-j ',
# 2! l &
e quindi
1 r (f )
[8.3.32] 7a(f) = , Ca(f) = 2!f l c .
2 R
Si noti che tanto la impedenza caratteristica Za, che la costante di fase Ca(f), assumono le
medesime espressioni che avrebbero nel rispetto delle condizioni di Heaviside, senz’altro
soddisfacenti le rispettive condizioni di trasmissione perfetta. Altrettanto non si può invece
affermare per la costante di attenuazione, 7a( f ). Tenuto conto che i due conduttori della coppia, di
sezione A1 e A2 e di perimetro C1 e C2, sono in serie, dalle [8.3.15] e [8.3.16] si ricava infatti:
1 !1 1 $
[8.3.33] r( f ) < ra(f) = ra1(f) + ra2(f) = # + & = rb kr f ,
!" m " C1 C2 %
dove rb è dato dalla [8.3.25] e
A1A 2 (C1 +C 2 )
[8.3.34] kr ! !µ m" ,
C1C2 ( A1 +A 2 )
è una costante dipendente dai materiali e dalla geometria della sezione; dalla prima delle [8.3.32]
si ha dunque:
1 rb
[8.3.35] 7a (f) < kr f ,
2 R
che mostra una dipendenza proporzionale con la radice della frequenza. Si noti che per le
frequenze, non troppo basse, per cui la [8.3.33] è validamente applicabile, l’effetto pellicolare
impone che si abbia ra(f) » rb; di conseguenza risulta:
[8.3.36] kr f » 1.

8.3.3.3 Comportamento a banda larga


È interessante analizzare i legami che intercorrono tra i due modelli asintotici, a bassa e alta
frequenza. Si hanno le relazioni:
Z b (f ) rb 1 c rb 1
[8.3.37] = (1 - j ) = (1 - j ) ,
Za 4! c f l 4! l f

!b (f ) l 2 1 1 4! l
[8.3.38] = ! c rb f = ,
!a ( f ) c k r rb f kr rb

!b ( f ) 1 rb 1
[8.3.39] = ! c rb f = .
!a ( f ) 2! f l c 4! l f

Posto:
197
rb
[8.3.40] fx ! ,
4! l
dalle precedenti si ricavano le più semplici forme:
fx
[8.3.41] Zb( f ) = (1 - j ) Za,
f
1 1
[8.3.42] 7b(f) = 7a( f ),
kr fx
fx
[8.3.43] Cb(f) = Ca(f).
f
Dalla [8.3.43] si deduce che per f = fx si ha il comune valore Cb(fx) = Ca(fx) = X, per cui la
grandezza fx definita tramite la [8.3.40] risulta essere la frequenza di incrocio delle costanti di fase
dei due modelli. Nella Figura 8.9 sono tracciati con linea sottile gli andamenti di |Zc|/R, 7/X e C/X
forniti dai due modelli asintotici al variare della frequenza normalizzata f/fx; sono poi riportati a
tratto pieno gli andamenti delle medesime funzioni ricavabili dalle [8.3.17] e [8.3.18] con la r(f)
effettiva.

|Zc|/R !/ X , "/ X
10 10 100 100

b
1 1 10 10
" a
a

0,1 f / fx 1 f / fx
0,1 1 2 10 0,1 1 10

b
!
0,1 0,1

a) b)
Figura 8.9: Andamenti asintotici (a tratto sottile) ed effettivi (a tratto pieno) del modulo della
impedenza caratteristica (a) e delle costanti di attenuazione e di fase (b).
Si osserva in conclusione quanto segue:
• i modelli asintotici in bassa e alta frequenza sono attendibilmente impiegabili solo quando la
frequenza fx risulti nettamente esterna alla banda utile del segnale da trasmettere;
• il comportamento delle coppie metalliche alle alte frequenze è decisamente più prossimo a
quello perfetto, ma comporta attenuazioni maggiori;
• nel campo di validità dei modelli la costante di attenuazione appare comunque variabile con
legge proporzionale alla radice quadrata della frequenza e, grazie alla [8.3.40], si constata che
la crescita alle frequenze elevate avviene con un fattore costante minore di quello alle
frequenze basse;
• il comportamento a banda larga delle coppie metalliche, con la frequenza fx interna alla banda
utile del segnale da trasmettere, è marcatamente imperfetto.
8.3.4 Mezzi trasmissivi con coppie simmetriche

8.3.4.1 Coppia simmetrica


Si abbia una coppia simmetrica con diametro dei fili d, distanza tra gli assi D, conduttori in rame
con I = 0,58 108 [2-1/ m] e µm = µ0 = 4! 10-7 [H/m], e isolante di costante dielettrica relativa Jr = J /
J0, dove J0 = (36!)-110-9 [F/m].
Dato che per le sezioni e i perimetri dei due conduttori si hanno le:
198
!d 2
[8.3.44] A1 = A2 = , C1 = C2 = !d,
4
dalle [8.3.25] e [8.3.33] si ottiene:
1 8
[8.3.45] rb = ;
! !d 2

1 2 µ0 1
[8.3.46] ra(f) = !µ m" f =2 f ;
! !d !" d
ammesso che sia D»d/2, si hanno poi le seguenti espressioni approssimate degli altri due parametri
primari significativi (si rammenta che g può essere trascurato):
µo
[8.3.47] l < ln(2D/d),
!
!"0"r
[8.3.48] c < .
ln ( 2D/d )
Da tali ultime espressioni risulta l’impedenza caratteristica ad alta frequenza (vedi [8.3.30]):
l 1 µ0 1 " 2D % 120 " 2D %
[8.3.49] Za = < ln $ '= ln $ ' ;
c ! !0 !r # d & !r # d &

si calcola infine dalla [8.3.40] la frequenza di incrocio:


rb 2
[8.3.50] fx = < .
4 ! l !"µ 0 d ln ( 2D/d )
2

Scegliendo a titolo di esempio i valori 2D/d = 5 [ln(2D/d) = 1,61] e Jr=2,26 (polietilene), per alcuni
valori molto comuni del diametro d si calcolano i valori mostrati in Tabella 8.2 della resistenza
assiale unitaria in continua, della induttanza assiale unitaria, della capacità trasversale unitaria,
della impedenza caratteristica ad alta frequenza e della frequenza di incrocio.
Tabella 8.2: Parametri caratteristici di una coppia simmetrica
d [mm] 0,4 0,6 0,9
rb [2 / km] 275 122 44
l [mH / km] 0,64
c [nF / km] 40
Za [2] 128
fx [kHz] 33,8 15,0 6,7

I dati dell’ultima riga mostrano come nella più diffusa applicazione della coppia simmetrica, ossia
per il collegamento di terminali con trasmissione di segnali entro la banda 300 - 3.400 Hz, tipica
della telefonia analogica, sia ammissibile il modello asintotico a bassa frequenza, con parametri
primari indipendenti dalla frequenza.
A partire dalla [8.3.41] e con i valori sopra considerati si hanno allora gli andamenti del modulo
della impedenza caratteristica a bassa frequenza mostrati in Figura 8.10, sensibilmente variabili
nella banda telefonica attorno a 600 2. A partire dalla [8.3.28] si hanno poi gli andamenti della
costante di attenuazione e della costante di fase mostrati in Figura 8.11. Da essi si deduce che è
sufficiente contenere opportunamente la lunghezza del tratto di coppia entro alcune centinaia di
metri per poterlo considerare elettricamente corto, ossia con effetti praticamente trascurabili a
riguardo della risposta in fase.
199

Figura 8.10: Esempi di andamenti del modulo della impedenza caratteristica di coppie simmetriche
in bassa frequenza.

Figura 8.11: Esempi di andamenti costante di attenuazione e della costante di fase di coppie
simmetriche in bassa frequenza.
Nei casi in cui il tratto di coppia venga usato per distanze nettamente maggiori di quelle
considerate oppure per la trasmissione di segnali con estremo di banda ben superiore a quello della
banda telefonica, è necessario considerarne il comportamento senza assumere approssimazioni
asintotiche.

8.3.4.2 Cavi a coppie simmetriche


Molto frequentemente accade che numerosi collegamenti in coppia simmetrica abbiano in comune
una parte del loro tragitto. Allo scopo di ridurre i costi di posa e installazione delle linee e di
proteggere maggiormente il mezzo trasmissivo, si adottava nella parte comune del percorso la
multiplazione di spazio delle coppie simmetriche, raccogliendole in una struttura cava, appunto
denominata cavo a coppie simmetriche.
La maggiore parte dei cavi a coppie simmetriche era destinata a percorsi cittadini, prevedendo
prevalentemente una posa interrata. Nel passato più lontano si impiegavano cavi contenenti
moltissime coppie (alcune migliaia) per i collegamenti di giunzione tra nodi di commutazione
urbana; in tempi più recenti i cavi, costituiti da alcune centinaia di coppie, venivano posati solo per
disporre dei collegamenti tra le centrali di commutazione e i terminali di utente: la struttura di uno
di tali cavi è mostrata in Figura 8.12. In esso 10 coppie simmetriche con d = 0,4 mm e isolate con
polietilene compatto vengono cordate, ossia avvolte a spirale, a formare un sottogruppo; 10
sottogruppi cordati formano poi un gruppo di 100 coppie e 8 di tali gruppi vengono raccolti in un
unico cavo a 800 coppie.
200
12 mm

47 mm 71 mm
nastro di 800 coppie
alluminio

guaina

polietilene nastro di acciaio


Figura 8.12: Cavo a 800 coppie simmetriche.
È da rimarcare che nell’affasciamento di più conduttori si ha l’alterazione della capacità
trasversale per unità di lunghezza rispetto al valore riscontrabile nella coppia isolata, nel senso di
un suo aumento. Ad esempio nel caso di diametro dei fili d = 0,4 mm si ottiene c = 50 nF/km.

8.3.5 Mezzi trasmissivi con coppie coassiali


8.3.5.1 Coppia coassiale
Si abbia una coppia coassiale con diametro esterno d del conduttore interno e diametro interno D
del conduttore esterno, entrambi in rame con I = 0,58 108 [2-1/m] e µm = µ0 = 4! 10-7 [H/m], e
isolante di costante dielettrica relativa Jr = J/J0 Il maggiore costo di tale struttura chiusa rispetto a
quella bifilare può essere giustificato solo dalle migliori prestazioni, ottenibili grazie alla
schermatura: è allora necessario che lo spessore di penetrazione +m sia minore dello spessore s del
conduttore esterno, condizione che alla luce della [8.3.13] può essere soddisfatta con piccoli valori
di quest’ultimo a patto che la coppia sia impiegata per la trasmissione di segnali con frequenza
minima superiore a qualche decina di kHz. Nel seguito si farà pertanto riferimento alla resistenza
assiale unitaria ad alta frequenza ra(f), espressa dalla [8.3.33].
Dato che per le sezioni e i perimetri dei due conduttori si hanno le:
!d 2
[8.3.51] A1 = , A2 < !sD , C1 = !d , C2 = !D,
4
dalla [8.3.33] si ottiene:
1 d+D µ o 1+ D / d
[8.3.52] ra( f ) = !µ m" f = f,
! ! dD !" D
mentre il valore in continua risulta dalla [8.3.25]:

1 d 2 + 4 s D 1 4 (1+d /4sD)
2

[8.3.53] rb < = ;
! !d 2 s D ! !d 2
si hanno poi le seguenti espressioni approssimate degli altri due parametri primari significativi (si
rammenta che g può essere trascurato):
µo
[8.3.54] l < ln(D/d),
2!
2!"0"r
[8.3.55] c < .
ln ( D/d )
Da tali ultime espressioni risulta l’impedenza caratteristica ad alta frequenza (vedi [8.3.30]):
201
l 1 µ0 1 60
[8.3.56] Za = < ln(D / d) = ln(D/d);
c 2! !0 !r !r
si calcola infine dalla [8.3.40] la frequenza di incrocio:

rb 2 (1+d 2 /4sD)
[8.3.57] fx = < .
4 ! l !"µ 0 d 2 ln ( D/d )

Rammentando le [8.3.32], si ricavano le costanti di attenuazione e di fase del modello asintotico


valido per f » fx:
!"0 1+D/d
[8.3.58] 7a(f) = !r f,
# Dln ( D/d )

[8.3.59] Ca(f) = 2!f µ 0!0 !r = ! r C0(f),


essendo C0( f ) ! 2!f /c la costante di fase intrinseca del vuoto.
Si lascia al lettore la dimostrazione che la costante di attenuazione al variare del rapporto D / d
risulta minima per il valore ottimo:
[8.3.60] (D/d)0 < 3,6 ,
che viene pertanto di norma adottato nella costruzione della coppia coassiale. Per le [8.3.56] e
[8.3.58] si possono allora adoperare le formule pratiche:
77
[8.3.61] Za < ,
!r
2 , 48 2 ,15
[8.3.62] 7a(f) < !r f 10-9[Nep/m] = !r f 10-8[dB/m].
D D
Dalla [8.3.62] risulta inoltre che una coppia coassiale costruita con l’intento di minimizzare le
perdite ha la struttura mostrata in Figura 8.6a; infatti con il centraggio del conduttore interno
tramite dischetti dielettrici si riescono a ottenere valori della costante dielettrica relativa
equivalente attorno a 1,1, che sono assai prossimi al valore minimo unitario. Tale tipo di coppia,
ottima per la trasmissione a grande distanza di segnali del tipo in banda base, ha allora una
impedenza caratteristica Za < 75 2.
La coppia coassiale che è stata maggiormente impiegata nella trasmissione a grande distanza, del
tipo a dischetti dielettrici, ha i parametri strutturali:
d = 2,6 mm, D = 9,5 mm, s = 0,254 mm, Jr < 1,07;
sono state anche usate le coppie, sempre con dischetti dielettrici, con parametri strutturali:
d = 1,2 mm, D = 4,4 mm, s = 0,180 mm, Jr < 1,15,
d = 0,7 mm, D = 2,9 mm, s = 0,100 mm, Jr < 1,40,
denominate rispettivamente “mini-coassiale” e “micro-coassiale”. Il lettore può verificare che i
valori scelti soddisfano sostanzialmente la [8.3.60]; applicando le [8.3.53] - [8.3.57] risultano i
valori mostrati in Tabella 8.3.
Tabella 8.3: Parametri caratteristici di una coppia coassiale
d [mm] - D [mm] 0,7 - 2,9 1,2 - 4,4 2,6 - 9,5
rb [2 / km] 64 22 5,5
l [mH / km] 0,28 0,26 0,26
c [nF / km] 55 49 46
Za [2] 72 73 75
fx [kHz] 17,8 6,8 1,7
202
I dati dell’ultima riga mostrano che il buon comportamento tipico del modello asintotico ad alta
frequenza, con impedenza caratteristica quasi costante e costante di fase praticamente
proporzionale alla frequenza, è ottenibile in effetti purché i segnali trasmessi nelle coppie coassiali
considerate abbiano spettri con frequenza minima sufficientemente maggiore della frequenza di
incrocio. Si osserva inoltre che se tale condizione non è rispettata gli spessori del conduttore
esterno non hanno sufficiente effetto di schermo.
Nelle applicazioni su percorsi brevi, tanto per segnali in banda base (ad esempio in reti locali),
quanto per segnali in banda traslata (tipicamente per collegamenti tra antenne e apparati), si
preferisce che la coppia coassiale goda di buona flessibilità meccanica, offerta dalla struttura
mostrata in Figura 8.6c, con dielettrico pieno; assumendo che sia polietilene, che ha Jr = 2,26, si ha
in tale caso dalla [8.3.61] una impedenza caratteristica Za<50 2. Quando i segnali siano in banda
traslata a frequenza molto alta (ordine del GHz), per contenere il forte aumento della costante di
attenuazione (vedi [8.3.62]) può risultare conveniente la tendenza ad aumentare la dimensione
della sezione, sempre nel rispetto della [8.3.60], sopportando il maggiore costo per unità di
lunghezza che ne deriva. In tale prospettiva occorre tuttavia tenere presente che è comunque
opportuno rimanere in regime di propagazione unimodale, soddisfando la condizione:
c 2c
[8.3.63] ft = < >f,
!t ! ( d+D) "r

dove ft è la frequenza di taglio del primo modo superiore nel cavo coassiale. Si noti che con i
valori sopra considerati si ottiene fD < 108 , ossia D < 10 mm per f=10 GHz.
8.3.5.2 Cavi a coppie coassiali
Nel passato la coppia coassiale è stata largamente impiegata come mezzo trasmissivo per
collegamenti a grande distanza, su lunghezze anche di alcune migliaia di chilometri, con segnali
del tipo in banda base sia analogici che numerici. Per la esigenza di disporre di almeno due coppie,
da dedicare ai due versi delle comunicazioni tipicamente bidirezionali come la telefonia, ma
soprattutto per aumentare la capacità di trasporto in direttrici ad alto traffico era prassi comune
raccogliere una pluralità di coppie coassiali all’interno di un struttura cava, appunto denominata
cavo a coppie coassiali o semplicemente cavo coassiale.
I cavi coassiali trovavano largo impiego per disporre di collegamenti di giunzione tra i nodi
principali delle reti nazionali, oltre che per realizzare collegamenti internazionali, continentali e
transoceanici. Nelle direttrici nazionali a maggiore traffico la multiplazione di spazio, che
inizialmente riuniva quattro coppie coassiali, si è spinta fino a raccogliere una ventina di esse. Un
esempio tipico di un cavo di tale tipo, per posa interrata, è quello mostrato in Figura 8.13,
contenente 16 coppie isolate a dischetti con dimensioni d=2,6 mm e D=9,5 mm. Si può notare
come la struttura sia adeguatamente protetta, oltre che da un rivestimento plastico, da una guaina
in alluminio corrugato che assicura buone proprietà meccaniche pur consentendo una certa
flessibilità. Negli interstizi tra le coppie coassiali e le nastrature erano spesso alloggiate anche
alcune coppie simmetriche cordate assieme due a due, denominate bicoppie.

guaina in plastica

guaina in alluminio
corrugato

nastrature

Figura 8.13: Cavo a 16 coppie coassiali per installazione sotterranea.


203
8.4 MEZZI TRASMISSIVI OTTICI
8.4.1 Struttura delle fibre ottiche
Nella trasmissione a distanza di segnali con banda utile molto estesa è assai frequente l’impiego di
un mezzo portante fisico basato su una struttura interamente isolante. Nella soluzione tipica
mostrata in Figura 8.14, a salto di indice (“step index”), essa è costituita da due materiali dielettrici
separati da una unica superficie cilindrica, a sezione circolare di raggio a, che delimita il nucleo
interno (“core”), con costante dielettrica relativa Jr1=J1/J0 e indice di rifrazione n1= ! r1 , dal
mantello che lo circonda (“cladding”), con costante dielettrica relativa Jr2= J2/J0 e indice di
rifrazione n2= ! r2 di valore poco minore di n1. L’effetto di guida del campo e.m. da parte della
superficie di discontinuità è ottenibile anche con differenze assai piccole degli indici di rifrazione,
caso in cui la struttura è denominata guida d’onda dielettrica lieve uniforme; si fa nel seguito
esclusivo riferimento alla differenza relativa degli indici di rifrazione:
n12 - n 22 n1 - n 2
[8.4.1] > ! < << 1,
2 n 22 n2

con valori pratici non superiori a 1%. Entrambi i materiali hanno permeabilità magnetica, µ1= µ
-7
2= µ0= 4! 10 [H/m], uguale a quella del vuoto.
z
2d r
d
a
01
n2 n1 n
2a
a) b)
Figura 8.14: Fibra ottica con sezione a simmetria circolare (a), e profilo teorico dell’indice di
rifrazionenlungo il raggio (b).
La struttura schematizzata in Figura 8.14, con sezione invariante in senso longitudinale ed
estensione trasversale finita del mantello, è usualmente denominata fibra ottica, date le sue
piccolissime dimensioni trasversali (di norma 2d = 125 µm) e l’uso di frequenze prossime a quelle
dello spettro visibile. Nell’ambito del processo di produzione la fibra ottica viene ricoperta con un
rivestimento dielettrico, opaco alle frequenze impiegate, che oltre ad assicurare una completa
schermatura alle frequenze interessate ha il compito di consentire una migliore maneggevolezza
del mezzo trasmissivo, altrimenti molto fragile; il diametro esterno risulta così raddoppiato.
La fibra ottica a salto di indice di rifrazione viene in effetti realizzata con un profile non
discontinuo, ma raccordato in modo continuo tra i valori n1 e n2 entro un breve intervallo centrato
sul raggio teorico a del nucleo. Il comportamento non è tuttavia molto discosto da quello
deducibile con il modello teorico a salto di indice. Gli approfondimenti sugli effetti di particolari
profili dell’indice di rifrazione, sempre del tipo con transizione quasi brusca tra nucleo e mantello
oppure con profilo graduale (in inglese “graded index”), esulano dallo scopo delle presenti note.
Nonostante che il percorso effettivo della fibra ottica sia in generale curvilineo, si assume in
seguito che la struttura sia cilindrica lungo il suo sviluppo assiale, in modo da potere adottare una
coordinata rettilinea z: i raggi di curvatura dell’asse sono infatti abbastanza grandi da potere
assumere che il comportamento e.m. della struttura sia equivalente a quello che si avrebbe qualora
essa fosse posata lungo una retta.
204
8.4.2 Grandezze caratteristiche delle fibre ottiche
8.4.2.1 Modi guidati
La fibra ottica è una struttura aperta, con campo e.m. che si estende in teoria in tutto lo spazio
dielettrico, non omogeneo. Tuttavia nelle condizioni di impiego il campo e.m. guidato è in pratica
prevalentemente concentrato nella regione del nucleo, di raggio a, in modo che nel mantello i
valori del campo risultano trascurabili a distanze dall’asse minori del raggio, d, della superficie
cilindrica che lo delimita; ciò rende lecita la ipotesi di mantello indefinitamente esteso in senso
trasversale.
Una fibra ottica ideale con mantello praticamente illimitato può consentire la propagazione di una
pluralità di modi guidati, a patto che la frequenza sia maggiore delle frequenze di taglio di questi
ultimi. A tale proposito è usuale fare riferimento alla frequenza normalizzata, definita per una
struttura nota dalla:
[8.4.2] V ! a % µ 0 (!1 -!2 ) = a k n12 - n 22 = a k n2 2! ,

dove k è la costante di fase intrinseca (numero d’onda) del vuoto,


2! f 2!
[8.4.3] k ! % µ 0!0 = = ,
c "
essendo K = c/f la lunghezza d’onda nel vuoto (c < 3'108 m /s). Utilizzando la [8.4.2] si ha il
vantaggio che le frequenze di taglio normalizzate, Vti, dei modi guidati sono espresse tramite
numeri noti: in particolare il modo fondamentale ha frequenza di taglio nulla, mentre per il primo
modo superiore si ha Vt1= 2,405 (vedi appendice A5.4).
In generale in un tronco di lunghezza L di fibra ottica che operi alla frequenza f in regime
multimodale occorre fare riferimento, oltre che alla costante di fase C0(f) del modo fondamentale,
a tutte le costanti di fase, Ci(f), degli altri m modi superiori che si possono propagare nella struttura
priva di perdite, ossia per cui le frequenze di taglio normalizzate Vti risultano minori di V. Ad ogni
frequenza non inferiore a quella di taglio ciascuna delle grandezze considerate risulta compresa
entro i limiti espressi mediante la relazione (vedi [A5.4.1]):
[8.4.4] k(f)n2 *Ci(f)*k(f)n1, i = 0 ,1, 2,.., m ,
dove kn2 e kn1 sono le costanti di fase intrinseche del dielettrico illimitato rispettivamente con
indice di rifrazione n2 e n1. Per ciascuno dei modi il primo segno di uguaglianza nella [8.4.4] si
verifica al taglio, ossia si ha Ci(fti) = k(fti) n2; il secondo si ha per f9), ossia per f » fti si ha in
pratica Ci(f) < k(f)n1.
Nel caso di fibra ottica reale la propagazione del modo i-esimo può essere caratterizzata con buona
approssimazione tramite la costante di propagazione complessa:
[8.4.5] Di(f) = 7i(f) + j Ci(f), i = 0 ,1, 2,.., m,
assumendo che la costante di fase Ci(f)!8{Di(f)} sia quella del corrispondente modo della struttura
idealizzata e dove la costante di attenuazione 7i(f) ! 0{Di(f)} tiene conto delle reali condizioni.

8.4.2.2 Costante di fase normalizzata e ritardo di gruppo specifico


Si osservi che in una fibra ottica a piccolo salto di indice, in cui sono assai prossimi i due indici di
rifrazione (vedi [8.4.1]), dalla limitazione [8.4.4] risulta che l’andamento della costante di fase C
i(f) del generico modo guidato si discosta assai poco da quello della costante di fase intrinseca kn2.
Le differenze, per quanto molte piccole, vengono tuttavia esaltate dai valori molto grandi delle
lunghezze elettriche Ci(f)L, calcolabili in prima approssimazione per mezzo della CiL < kn2L = 2!
n2L / K con L enormemente maggiore di K.
Allo scopo di rendere più evidenti gli scostamenti sopra menzionati si ricorre alla costante di fase
normalizzata, definita tramite la espressione (vedi [A5.4.2]):
205
! 2i - k 2 n 22 ! - kn 2
[8.4.6] bi ! < i , per i = 0 ,1, 2,.., m;
k 2 n12 - k 2 n 22 kn1 - kn 2
si ottiene infatti per ogni modo una diversa funzione bi(f), che grazie alla [8.4.4] varia dal valore 0
alla frequenza di taglio al valore 1 per f»fti. Risolvendo la [8.4.6] rispetto a Ci si ottiene la seguente
relazione:
[8.4.7] Ci < k n2 + k bi (n1- n2), i = 0 ,1, 2,.., m,
che permette di risalire alla costante di fase una volta nota quella normalizzata.
La deviazione dall’andamento non lineare della costante di fase è messa in evidenza tramite il
ritardo di gruppo specifico (per unità di lunghezza) dello i-esimo modo guidato:
d!i 1 d!i
[8.4.8] ti ! = , i = 0 ,1, 2,.., m.
d" c dk
In generale gli indici di rifrazione n1 e n2 dei dielettrici sono variabili con la frequenza, ma si può
spesso ammettere che la variazione con la frequenza della loro differenza sia trascurabile; sotto
tale ipotesi e con l’approssimazione dV/dk < V/ k, derivando la [8.4.7] si ricava la seguente
espressione:
1 d ( kn 2 ) n1 - n 2 d ( Vb i )
[8.4.9] ti < + , i = 0 ,1, 2,.., m ,
c dk c dV
dove la funzione d(Vbi)/dV assume per una stessa V valori diversi in dipendenza dal modo (vedi
fig. A5.2.b), ma comunque compresi tra 0 e 2, tendendo a 1 per V»Vti.
In base alla [8.4.9] e considerando anzitutto ciascun modo da solo, si osserva che il relativo ritardo
di gruppo specifico non risulta costante con la frequenza: una fibra ottica è dunque soggetta
comunque alla dispersione intramodale, anche se operante in regime monomodale, con il solo
modo fondamentale. Si nota successivamente che i ritardi di gruppo specifici ti(fc) dei vari modi a
una stessa frequenza portante fc = c/Kc non sono uguali tra loro: ciò conduce ad affermare che una
fibra ottica che operi in regime multimodale mostra anche una dispersione intermodale.
Il primo addendo del secondo termine nella [8.4.9] evidenzia un effetto di dispersione del
materiale, che prende origine dalla identica dipendenza dalla frequenza (e quindi da k) degli indici
di rifrazione n1 e n2 dei dielettrici; il secondo addendo esplicita un secondo effetto di dispersione
di guida, tipico della propagazione guidata con modi non TEM. Si noti che quest’ultimo è l’unico
responsabile della dispersione intermodale, poiché il primo effetto agisce ugualmente su tutti i
modi.
8.4.2.3 Costante di attenuazione
Il generico modo in una fibra ottica reale è caratterizzato, oltre che dalla costante di propagazione,
da una costante di attenuazione:
1 ! Pi -Ppi $ 1 Ppi
[8.4.10] 7i ! - ln < ,
2 #" Pi &% 2 Pi

che tiene conto della assai piccola quota Ppi di potenza perduta in un percorso di lunghezza unitaria
in ragione della potenza iniziale Pi dell’onda e.m.. La potenza perduta Ppi è dovuta a
trasformazione di energia e.m. guidata che si converte in calore, con corrispondente attenuazione
per assorbimento, oppure che si converte in energia e.m. di modi irradianti, con corrispondente
attenuazione per irradiazione. In entrambi i casi si hanno sia cause intrinseche, legate ai materiali
dielettrici, che estrinseche, connesse a impurità indesiderate nei materiali o a irregolarità nella
geometria della struttura (principalmente la non rettilineità dell’asse).
Ammettendo la medesima qualità nei due dielettrici di una fibra geometricamente perfetta, si
perviene a costanti di attenuazione che alla frequenza assegnata assumono sostanzialmente il
medesimo valore 7(f), indipendentemente dai modi, tranne che per un sensibile aumento
206
nell’intorno delle frequenze di taglio(1).
In una buona struttura reale, con mantello in vetro di silice
assai puro e nucleo costituito dal medesimo materiale, ma opportunamente drogato allo scopo di
ottenere la desiderata differenza dell’indice di rifrazione, la costante di attenuazione ha un
andamento come quello mostrato nell’esempio in Figura 8.15, che palesa la convenienza ad
applicare le guide dielettriche considerate impiegando segnali con lunghezze d’onda nell’intervallo
spettrale del vicino infrarosso (frequenze dell’ordine di 3 1014 Hz).
" [dB/km]

diffusione
4 di Rayleigh

assorbimenti
ione ossidrile
2

assorbimento assorbimento
ultravioletto infrarosso

0
0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 ! [µm]
Figura 8.15: Costante di attenuazione in una fibra di vetro di silice.
La Figura 8.15 tiene conto delle seguenti cause di attenuazione intrinseca:
• diffusione di Rayleigh con conversione in energia e.m. irradiante, secondo una legge
proporzionale a K-4, dovuta a fluttuazioni microscopiche dell’indice di rifrazione,
• assorbimento nell’infrarosso con conversione in calore, dovuto a vibrazioni molecolari,
• assorbimento nell’ultravioletto con conversione in calore, dovuto a transizioni elettroniche;
tiene inoltre conto dell’attenuazione estrinseca per assorbimento con conversione in calore, dovuto
a presenza di impurità (solo ione ossidrile OH-).
Nella fase iniziale delle applicazioni nelle telecomunicazioni le fibre ottiche erano prodotte con
maggiore attenuazione estrinseca per impurità indesiderate, con effetto più rilevante proprio in
corrispondenza dei valori più bassi della attenuazione intrinseca. Fu allora scelto di operare in
corrispondenza della lunghezza d’onda portante Kc< 0,85 µm, che si usa denominare 1a finestra,
anche per la disponibilità di sorgenti ottiche direttamente funzionanti attorno a tale valore. In
seguito ai decisi miglioramenti tecnologici dei processi produttivi le applicazioni si sono orientate
prima verso la lunghezza d’onda Kc < 1,3 µm e poi Kc< 1,55 µm, rispettivamente denominate 2a
finestra e 3a finestra: infatti in una fibra ottica attuale di buona qualità a tali valori corrispondono
rispettivamente un minimo relativo e il minimo assoluto di 7(K) (vedi Figura 8.15).
8.4.2.4 Modello approssimato con l’ottica geometrica
Limitatamente al caso di una fibra ottica a salto di indice di rifrazione con rapporto a / K
sufficientemente grande da permettere la propagazione di un numero molto elevato di modi
(V » Vti = 2,405), si può ricorrere a un modello approssimato ottenibile applicando l’ottica
geometrica.

(1)In prossimità del taglio il campo si estende in quota considerevole nel mantello e il diametro esterno finito di
quest’ultimo non rende più accettabile l’ipotesi di identica perdita intrinseca nei due dielettrici.
207

!t n 2 < n1
no = 1
!L !

!A
n1

Figura 8.16: Raggi in una fibra ottica a salto di indice.


Con riferimento alla Figura 8.16, un raggio all’interno del nucleo subisce una riflessione totale
sulla superficie di separazione tra nucleo e mantello, se l’angolo di incidenza & è maggiore
dell’angolo limite &L, in corrispondenza del quale l’angolo &t del raggio rifratto nel mantello
assume il valore ! / 2. Dalla legge di rifrazione di Snell:
[8.4.11] n1sin(&) = n2 sin(&t) ,
per &t= ! / 2 si ottiene per definizione:
!n $
[8.4.12] &L ! arcsin # 2 & ;
" n1 %
si ha quindi la propagazione guidata, con assenza di rifrazione nel mantello, se si considerano solo
i raggi con & > &L, corrispondenti a quelli a monte della sezione iniziale della fibra ottica con
angolo di incidenza minore del valore &A, ottenibile tramite la:
!! $
[8.4.13] sin(&A) = n1 sin # -" L & = n1 cos(&L) .
" 2 %
L’angolo &A è denominato angolo di accettazione della fibra; il seno di tale grandezza:
' ! n $*
[8.4.14] sin(&A) = n1 cos )arcsin # 2 &, = n12 - n 22 ! N.A. ,
( " n1 %+
è denominato apertura numerica (N.A. = Numerical Aperture). Si noti che la [8.4.2] può essere
posta nella forma:
2!
[8.4.15] V = a N.A.
"
Accettando l’approssimazione dell’ottica geometrica, valida al limite per K 9 0, l’insieme dei modi
guidati in numero finito molto grande risulta sostituito dall’insieme continuo dei raggi guidati, con
& > &L. Il modello inoltre non tiene conto della propagazione guidata a frequenze molto lontane da
quella di taglio: infatti solo in tale condizione si tende all’annullamento del campo e.m. nel
mantello, che corrisponde all’assenza di raggi rifratti.

8.4.3 Comportamento delle fibre ottiche a salto di indice


8.4.3.1 Comportamento in regime multimodale
Per caratterizzare il comportamento di un tratto di lunghezza L di guida dielettrica reale in regime
di propagazione multimodale, ossia di un tronco di fibra ottica multimodo, si ricorre alle costanti
di propagazione [8.4.5], ma si deve anche valutare come il segnale di eccitazione nella sezione
iniziale si ripartisce negli m +1 modi, così come questi ultimi concorrono alla formazione del
segnale in uscita, nella sezione finale al termine del tronco.
208
Con riferimento allo schema equivalente mostrato in Figura 8.17, in cui al mezzo ottico
multimodale corrisponde una pluralità di diverse linee di trasmissione, si hanno di norma delle
perdite di accoppiamento agli estremi, che possono essere valutate globalmente tramite una
riflettenza H11m(f, L) e il coefficiente di riflessione del carico, e una trasmettenza complessiva:
m
[8.4.16] Hm( f , L) = $ !ie-" (f )L e-j# (f )L ,
i i

i=0

dove i coefficienti Li dipendono dalle effettive condizioni agli estremi.


"0( f ) , !0( f ) , L
"1( f ) , !1( f ) , L
sde(t) sdu(t)
"2( f ) , !2( f ) , L
sre(t) ------------------------
"m( f ) , !m( f ) , L

Figura 8.17: Schema equivalente di un tronco di fibra ottica multimodo.


Dato che la trasmissione in una fibra ottica multimodo a salto di indice interessa una banda
monolatera relativa, B/fc, estremamente piccola attorno a una precisata frequenza portante fc = c/Kc
di valore estremamente elevato, per f < fc è lecito in prima approssimazione assumere Li costanti,
trascurare la dipendenza dalla frequenza delle costanti di attenuazione ponendo:
[8.4.17] 7i(f) < 7i(fc) ! 7ic ,
e ignorare la dispersione intramodale linearizzando le costanti di fase:
[8.4.18] Ci(f) < Cic + 2!( f - fc) tic ,
dove si è posto Ci(fc) ! Cic e si è indicato con tic ! ti(fc) il ritardo di gruppo specifico dello i-esimo
modo guidato, calcolato in fc.
Posto Mi ! Li e - ! ic L e - j!ic L , la risposta impulsiva trasmessa del quadripolo equivalente in banda base
(vedi [5.4.9]) a partire da quello rappresentato dalla [8.4.16] diviene allora:
"m % m
[8.4.19] hm (t) < F -1 #!! ie-j2"ftic L & = # ! i " ( t - t ic L) , per |f| * B ,
$i=0 ' i= 0
che nonostante le semplificazioni introdotte rivela un comportamento imperfetto, causato dalla
dispersione intermodale: con riferimento anche alla Figura 8.17, esso è dovuto alla combinazione
all’estremo del tronco di fibra di più segnali che, pure avendo la medesima origine, hanno
viaggiato con diversi ritardi di gruppo ticL; dalla [8.4.19] si ottiene infatti l’inviluppo complesso in
uscita:
m
[8.4.20] sdu(t) = hm(t) $ sde(t) = " ! i sde ( t - t ic L) .
i=0

Il difetto evidenziato nella [8.4.20] è valutabile qualitativamente tramite il valore massimo delle
differenze (vedi [8.4.9]):

n1 - n 2 ! d(Vbi ) d(Vb j ) $
[8.4.21] >tij(fc) ! (tic – tjc) L < L# - &,
c "# dV Vc dV V &%
c

tra i ritardi di gruppo degli m modi che si possono efficacemente propagare alla frequenza
normalizzata Vc, ottenibile dalla fc tramite la [8.4.2]. In base agli andamenti delle funzioni
d(Vbi)/dV mostrati in figura A5.2, il massimo valore teorico della [8.4.21] risulterebbe >tM = 2 (n1
- n2)L/c; se però si escludono quei pochi modi più veloci per cui si verifica d(Vbi)/dV < 1 per
209
Vti < Vc, dato che per essi l’attenuazione da valutare in prossimità del taglio risulta nettamente
maggiore di quella degli altri modi, il valore massimo della [8.4.21] si ottiene in pratica dalla
differenza tra il ritardo di gruppo del modo più lento di ordine elevato, per cui d(Vbi) /dV < 2, e
quello del modo più veloce che sia lontano dal taglio, ossia il ritardo del modo fondamentale per
cui si ha d(Vb0) /dV < 1; si assume dunque (vedi [8.4.1]):
n1 - n 2 n
[8.4.22] >tM < L(2 - 1) < 2 L> .
c c
Indicati con tr1L ! n1L/c e tr2L ! n2 L/c i tempi di ritardo intrinseci dei due materiali dielettrici sul
percorso di lunghezza L, risulta >tM < tr1L - tr2L , da cui non è però lecito dedurre che tr1L e tr2L siano
il massimo e minimo ritardo di gruppo nel tronco di fibra.
Il difetto evidenziato dalla [8.4.20] limita l’impiego delle fibre multimodo a salto di indice al caso
di tronchi di lunghezza L abbastanza breve (dell’ordine di 100 m) da soddisfare la condizione >
tMB«1, ossia:
c
[8.4.23] LB << ,
n2 !
in modo che per le frequenze in banda utile possano essere quasi trascurate le differenze tra i
ritardi di gruppo, ossia l’effetto della dispersione intermodale risulti contenuto in limiti accettabili.
Ricorrendo al modello approssimato con l’ottica geometrica e trascurando in modo analogo la
dispersione del materiale, si ricava per il generico raggio guidato con angolo di incidenza & > &L il
tempo di ritardo nel tronco di lunghezza L, coincidente per ipotesi con il ritardo di gruppo:
n1
[8.4.24] trL(&) = L;
c sin ( ! )
considerando il percorso più lungo (& = &L) e quello più breve (& = ! / 2), si ha allora servendosi
della [8.4.12] la differenza massima:
n12 n n n
[8.4.25] >tM = L - 1 L < 1 2 L>,
c n2 c n2 c
praticamente uguale alla [8.4.22]. Il risultato deriva dal fatto che l’approssimazione con l’ottica
geometrica non tiene conto della propagazione in prossimità della frequenza di taglio e ciò
corrisponde all’avere considerato nella [8.4.22] solo i modi per cui si ha d(Vbi)/dV ' 1.
8.4.3.2 Comportamento in regime monomodale
Il comportamento di un tronco di guida dielettrica di lunghezza L diviene decisamente molto
soddisfacente anche per notevole larghezza di banda monolatera utile B (dell’ordine del GHz), a
patto di operare in regime di propagazione unimodale(1), ossia con frequenze (V<Vt1=2,405) che
diano luogo alla propagazione del solo modo fondamentale. Si ha infatti in tale caso la scomparsa
del dannoso effetto di dispersione intermodale, che altrimenti comporterebbe una severa
limitazione del prodotto LB (vedi [8.4.23]), con la conseguente possibilità di estendere molto la
lunghezza L (anche fino a 100 km). Diviene allora rilevante la dispersione intramodale,
denominata anche dispersione cromatica, legata allo scostamento dalla linearità del ritardo di
gruppo specifico (vedi [8.4.9] per i = 0) e perciò bene evidenziata tramite la derivata non nulla di
quest’ultimo:
dt i 1 d 2! 1 d 2 (kn 2 ) n1 - n 2 d 2 (Vb)
[8.4.26] s ! = 2 < + 2 V ,
d ! c dk 2 c 2 dk 2 c k dV 2
calcolata con le medesime approssimazioni che hanno condotto alla [8.4.9].

(1)
In seguito nella costante di propagazione e nelle grandezze ad essa legate viene omesso il pedice indicativo del
modo fondamentale, non necessario in regime monomodale.
210
Grazie alla unimodalità, nello schema equivalente generale in Figura 8.17 resta una unica linea di
trasmissione; si hanno ancora di norma delle perdite di accoppiamento agli estremi, che possono
essere valutate globalmente tramite una riflettenza H11,0(f, L) e il coefficiente di riflessione del
carico, mentre la trasmettenza del tronco di fibra ottica monomodo si semplifica nella:
[8.4.27] H0(f, L) = L0 e - ! (f ) L e - j!( f ) L ,
dove il coefficiente L0 dipende dalle effettive condizioni agli estremi.
Dato che la trasmissione interessa una banda monolatera relativa B/fc che risulta comunque molto
piccola dato il valore estremamente elevato della frequenza portante fc = c/Kc, per f attorno a fc ma
con | f - fc| non del tutto trascurabile rispetto a fc è lecito ignorare la debole dipendenza dalla
frequenza della costante di attenuazione (vedi Figura 8.15) ponendo:
[8.4.28] 7( f ) < 7( fc) !7,
ma non si può trascurare la dispersione intramodale. La costante di fase del modo fondamentale è
comunque rappresentabile con buona approssimazione tramite lo sviluppo in serie di potenze di
punto iniziale fc, troncato al secondo ordine:
1
[8.4.29] C(f) < Cc + 2!( f - fc)tc + [2!(f - fc)]2sc, per |f - fc| * B/2,
2
dove Cc ! C(fc), tc ! t(fc) e sc ! s(fc).
Posto M0 ! L0 e - ! L e - j!c L , il quadripolo equivalente in banda base (vedi [5.4.9]), a partire da quello
rappresentato dalla [8.4.27], può essere scomposto in due elementi in cascata, come mostrato in
Figura 8.18, ottenendo un quadripolo ideale con trasmettenza:
[8.4.30] H0 (f,L) = M0 e - j 2! f t c L ,
avente ritardo di gruppo costante tcL e attenuazione anch’essa costante:
[8.4.31] A0 (f, L) = |H0 (f,L)|-2 = |L0|-2 e 2 !L ,
seguito da un quadripolo con trasmettenza avente attenuazione unitaria, ma non perfetto in
argomento a causa della dispersione intramodale cui corrisponde un valore sc in generale non
nullo:
[8.4.32] Hs(f, L) = e ! j(2!f"ts ) ,
2

dove la scelta del segno è determinata dal segno di sc e si è posto


| sc | L
[8.4.33] >ts ! .
2
s de(t) so(t) = !0 s de(t- t c L) s du(t)
Ho(f,L) Hs(f,L)
s (t)
re

Figura 8.18: Schema equivalente di un tronco di fibra ottica multimodo.


Ammesso che il valore assoluto dell’esponente nella [8.4.32] risulti minore di 0,5, ossia che sia
soddisfatta la condizione:
[8.4.34] 2!B>ts < 1, ??B;f??
2
è lecita l’approssimazione e jx < 1 + j 2 [1- cos(x)], in modo che la risposta impulsiva del quadripolo
non perfetto risulta:
[8.4.35] hs(t) < F -1 {1 ! j2 "#1-cos ( 2!f!ts )$%} = ! ( t ) ! j"#2! ( t )-! ( t +!ts ) -! ( t -!ts )$%

Indicato con s0(t) ! M0sde(t - tcL) l’inviluppo complesso in entrata, si ottiene in uscita:
211
[8.4.36] sdu(t) = hs(t) $ s0(t) = s0(t) ! j[2s0(t) - s0(t+>ts) - s0(t->ts)],
che al di là della deformazione messa in evidenza dal segnale additivo entro parentesi quadra, nel
caso di durata limitata di s0(t) rivela un effetto di incremento della durata del segnale in uscita
della quantità 2>ts, che nell’ambito di validità del modello deve rispettare la [8.4.34].
8.4.4 Mezzi trasmissivi con fibra ottica monomodo

8.4.4.1 Fibra ottica monomodo


Nella trasmissione di segnali a banda larga tra punti fissi a grande distanza è senz’altro preferibile
l’impiego della fibra ottica in regime unimodale, che soffre solo della limitazione comportata dalla
dispersione intramodale o cromatica (vedi [8.4.26]). Per ottenere una bassa attenuazione (vedi
[8.4.31]) si scelgono fibre con dielettrici di elevata qualità: di norma il mantello è in vetro di silice
(Si O2 amorfo) assai puro, con indice di rifrazione n2 < 1,45 nel vicino infrarosso, e il nucleo è
costituito dal medesimo materiale, opportunamente drogato con composti di boro, fluoro,
germanio o fosforo allo scopo di ottenere la desiderata differenza relativa degli indici di rifrazione.
Operando nella 2a finestra (Kc< 1.310 nm) oppure nella 3a finestra (Kc < 1.550 nm) si ottengono
assai bassi valori della costante di attenuazione 7, rispettivamente attorno a 0,35 dB / km e 0,25
dB/km; a causa dell’andamento non rettilineo dell’asse reale della fibra ottica, con raggio di
curvatura aleatorio continuamente variabile, la costante di attenuazione può subire incrementi
attorno a 0,1 dB / km.
Il rispetto della condizione di unimodalità della propagazione in una fibra ottica a salto di indice,
espressa tramite la:
[8.4.37] V < Vt1 = 2,405,
dove Vt1 è la frequenza di taglio normalizzata del primo modo superiore, comporta che il raggio
del nucleo rispetti la limitazione (vedi [8.4.2] e [8.4.3]):
Vt1 !
[8.4.38] a < < 0,19 ,
k n2 2 ! "
avendo assunto che il materiale del mantello sia vetro di silice. Con valori della differenza relativa
degli indici di rifrazione, >, attorno a 3‰ il raggio del nucleo di una fibra ottica monomodo
operante in 2a o 3a finestra risulta allora attorno a 4 - 5 µm. Il diametro esterno del nucleo è
tipicamente di 125 µm. Scelto il valore di Kc, in 2a o 3a finestra, il proporzionamento della fibra
ottica a salto di indice risulta in base alle seguenti considerazioni sulla dispersione intramodale o
cromatica.
In luogo della grandezza s definita nella [8.4.26] è di sovente impiegato il coefficiente di
dispersione cromatica della fibra ottica monomodale:
dt i 2! c
[8.4.39] D(K) ! = Dn2(K) + Dg(K) = - 2 s,
d! "
semplicemente legato a s come mostrato nell’ultimo termine (vedi appendice A5.5). I due addendi
nella espressione [8.4.26] divengono allora:
! d 2 n2 n1 - n 2 d 2 (Vb)
[8.4.40] Dn2(K) ! - , D g (K) ! - V ,
c d !2 c! dV 2
e sono rispettivamente denominati coefficiente di dispersione cromatica di materiale e coefficiente
di dispersione cromatica di guida. Sempre nel caso di vetro di silice, il primo coefficiente è nullo
attorno a 1.270 nm, è negativo per K inferiore e positivo per K superiore, come mostrato dalla
curva tratteggiata in Figura 8.19; il secondo coefficiente, che dipende (vedi [8.4.1] e [8.4.2]) dalla
differenza relativa degli indici di rifrazione, >, e dal raggio del nucleo, a, risulta invece sempre
negativo in condizione di unimodalità, come appare anche dalla curva a tratto e punto in Figura
212
8.19. I valori dei due contributi sono tali da condurre alla esistenza di un punto di zero K0, in
corrispondenza del quale risulta Dn2(K0) = - Dg(K0), ossia:
[8.4.41] D(K0) = -s(K0) = 0,
a patto che la lunghezza d’onda sia maggiore di 1.270 nm.
D [ps/nm. km]
20

Dn 2
10 D

1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 ! [µm]
-10 Dg

-20

Figura 8.19: Coefficiente di dispersione cromatica in una fibra di vetro di silice e contributi di
dispersione di materiale (a tratteggio) e di guida (a tratto e punto).
Poiché le espressioni riguardanti la dispersione sono state ottenute introducendo delle
approssimazioni, i piccoli errori che esse comportano non permettono di ricavare con esattezza il
punto di zero K0. Con metodi di analisi più approfonditi, che tengono anche conto del reale profilo
continuo dell’indice di rifrazione nel passaggio dal nucleo al mantello, è comunque possibile
proporzionare la fibra ottica, ossia stabilire i valori di >e di a, in modo da ottenere il
soddisfacimento della [8.4.16], che comporta l’assenza dei considerati effetti di dispersione del
secondo ordine. Nel caso di impiego della fibra ottica in 3a finestra, per ottenere che K0 si sposti
attorno a 1.550 nm si considerano spesso profili di indice opportuni, ottenendo strutture
denominate fibre ottiche a dispersione spostata o fibre ottiche DS (Dispersion Shifted).
Una fibra ottica ben progettata per una lunghezza d’onda Kc< K0 dà luogo a valori di D(Kc) minori
di 3 ps/nm km, che in 3a finestra conducono a valori di sc inferiori a 0,4 10-26 s2/m. Dalla [8.4.33]
con L = 100 km si ottiene allora >ts < 14 ps, che risulta in pratica trascurabile anche a fronte del
brevissimo tempo di bit T = 400 ps, corrispondente al ritmo binario di 2,5 Gbit / s.

8.4.4.2 Cavi a fibre ottiche monomodo

8.4.4.3 Mezzi trasmissivi con fibra ottica multimodo

8.4.4.4 Fibra ottica multimodo

proporzionamento del nucleo

8.4.4.5 Cavi a fibre ottiche multimodo

8.5 MEZZI TRASMISSIVI REALI CON PORTANTE RADIO

qualcosa di simile a:
213

Quando le distanze da coprire tra due terminali fissi siano contenute e i segnali abbiano banda utile
non molto estesa, si ricorre spesso all’impiego di un mezzo portante fisico costituito da una coppia
di conduttori metallici, isolati tra loro, posati lungo il tracciato del percorso stabilito tra i terminali.
Di norma la sezione è invariata, sia nella geometria che nei materiali: un tale tipo di struttura è
denominata linea di trasmissione uniforme a coppia metallica o più semplicemente coppia
metallica. Nel seguito si presuppone che la struttura sia cilindrica lungo lo sviluppo longitudinale,
in modo da potere adottare una coordinata rettilinea z; anche se il tracciato effettivo è spesso
curvilineo, il suo raggio di curvatura è infatti sufficientemente grande da potere assumere che il
comportamento e.m. della linea sia equivalente a quello che si avrebbe qualora essa fosse posata
secondo una unica direzione.
Assunto il comportamento perfetto, il mezzo considerato è rappresentabile tramite un quadripolo
LTI simmetrico, passivo, adattato, caratterizzato quindi entro la banda utile del segnale trasmesso
dalla funzione di trasferimento (vedi [3.4.10]):
[4.4.1] H(f) = S21(f) = S12(f) = g(L) e - j 2 ! f L/v , per fm * | f | * fM,
dove in particolare il modulo della funzione di trasferimento risulta dipendere dalla lunghezza L
del mezzo tramite la legge di proporzionalità inversa:
r
[4.4.2] g(L) = g(L1) 1 ,
r
essendo L1 una distanza di riferimento (ad esempio r1 = 1 km). La menzionata specificità è dovuta
al meccanismo della trasferimento e.m. (e.m. = elettromagnetico) del segnale lungo il mezzo
trasmissivo, che si ammette avvenga per propagazione libera di una onda e.m. sferica (vedi
appendice A4.5), nello spazio costituito da un dielettrico omogeneo, isotropo e privo di perdite.