Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
TRASMISSIONE
!! "#$%&'()"&#*+ ,!
!-!! .".$*/"+*+.*%0")"+'"+$*1*2&/(#"23)"&#"+ 4!
1.1.1! "#$%&%'%(&#!"%!)#*&+,%!%&!)#&)(!)-.#--(! /0!
1.2! $%3./".."&#*+"'*31*+'"+(#+.*5#31*+ !6!
7! .*5#31"+#*1+'&/"#"&+'*1+$*/8&+ !9!
7-!! 5*#*%31"$:+.("+.*5#31"+ !;!
12/2/! &(-+'%(&#!3(45,#))+! /6!
2.1.2! (5#.+'%(&%!#,#4#&-+.%!#!)#*&+,%!$#"#,%! /7!
7-7! 213.."<"23)"&#*+'"+.*5#31"+ !,!
2.2.1! )#*&+,%!+!-#45(!3(&-%&8(!#!+!-#45(!"%)3.#-(! /9!
2.2.2! )#*&+,%!"#-#.4%&+-%!#!)#*&+,%!+,#+-(.%! /9!
7-9! .*5#31"+3+$*/8&+2&#$"#(&+ !4!
12:2/! )#*&+,%!3(&-%&8%! /;!
2.3.2! )#*&+,%!3(&!"%)3(&-%&8%-<! /;!
2.3.3! "8.+-+!"#%!)#*&+,%! 1/!
2.3.4! )3(45()%'%(&#!"%!)#*&+,%!+!-#45(!3(&-%&8(! 16!
12:26! %458,)(!%"#+,#!"%!"%.+3! 17!
2.3.6! #&#.*%+!#!5(-#&'+!"#%!)#*&+,%!+!-#45(!3(&-%&8(! 19!
7-=! .*5#31"+3+$*/8&+'".2%*$&+ 74!
12=2/! 3+)(!*#&#.+,#!#!)#>8#&'#! 1;!
12=21! ,8&*?#''+!"#,,#!)#>8#&'#! :0!
12=2:! #&#.*%+!#!5(-#&'+!"#,,#!)#>8#&'#! :/!
7-;! 3<<"#"$:+$%3+.*5#31"+ 97!
1262/! +$$%&%-<!-.+!)#*&+,%!"%!#&#.*%+! :1!
12621! +$$%&%-<!-.+!)#*&+,%!"%!5(-#&'+! :9!
1262:! +$$%&%-<!-.+!)#*&+,%!"%!#&#.*%+!#!"%!5(-#&'+! :@!
1262=! +$$%&%-<!-.+!)#>8#&'#! :;!
9! %388%*.*#$3)"&#"+'"+.*5#31"+ =!!
9-!! %388%*.*#$3)"&#*+'"+.*5#31"+"#+.*%"*+$*/8&%31"+ =9!
:2/2/! )#.%#!"%!$(8.%#.!"%!)#*&+,%!5#.%("%3%! =:!
:2/21! .+55.#)#&-+'%(&#!%&!)#.%#!"%!$8&'%(&%!(.-(*(&+,%! ==!
:2/2:! )#.%#!"%!$(8.%#.!"%!)#*&+,%!+!"8.+-+!,%4%-+-+! =7!
:2/2=! .+55.#)#&-+'%(&#!5#.!%&-#.5(,+'%(&#!"%!3+45%(&%! =9!
9-7! %388%*.*#$3)"&#*+#*11&+.83)"&+'*"+.*5#31"+ =4!
:212/! (.-(*(&+,%''+'%(&#!"%!*.+4A)3?4%"-! 60!
9-9! %388%*.*#$3)"&#*+"#+<%*>(*#)3+'"+.*5#31"+$*/8&+2&#$"#("+ ;!!
:2:2/! -.+)$(.4+'%(&%!,%&#+.%!"%!)#*&+,%!-#45(!3(&-%&8%! 6/!
:2:21! -.+)$(.4+-+!"%!$(8.%#.!#!)8#!5.(5.%#-<! 61!
:2:2:! "%4()-.+'%(&%!"%!+,38&#!5.(5.%#-<!"#,,+!-.+)$(.4+-+!"%!$(8.%#.! 6=!
:2:2=! #)#45%!.%,#B+&-%!"%!-.+)$(.4+-#!"%!$(8.%#.! 67!
:2:26! +$$%&%-<!-.+!)#*&+,%!"%!#&#.*%+!.+55.#)#&-+-%!%&!$.#>8#&'+! 6@!
:2:27! )5#--.%!"%!#&#.*%+! 6;!
:2:29! )5#--.%!"%!5(-#&'+! 7/!
:2:2@! #)-#&)%(&#!)5#--.+,#!"#%!)#*&+,%!.#+,%! 71!
:2:2;! )5#--.%!"%)3.#-%!"%!)#*&+,%!5#.%("%3%! 7=!
9-=! $*&%*/3+'*1+23/8"/*#$&+ ??!
:2=2/! 3+45%(&+4#&-(!&#,!"(4%&%(!"#,,+!$.#>8#&'+! 77!
:2=21! "%4()-.+'%(&#!"#,!3+45%(&+4#&-(!&#,!"(4%&%(!"#,,+!$.#>8#&'+! 77!
:2=2:! 3+45%(&+4#&-(!&#,!"(4%&%(!"#,!-#45(! 79!
9-;! %388%*.*#$3)"&#"+2&/81*..*+'"+.*5#31"+$*/8&+2&#$"#("+ ?@!
:262/! )#*&+,%!3(45,#))%!.+55.#)#&-+-%B%! 7@!
4
:2621! .+55.#)#&-+'%(&%!.#+,%!-.+4%-#!,C%&B%,855(!3(45,#))(! 9=!
:262:! .+55.#)#&-+'%(&#!-.+4%-#!%!3+45%(&%!"#,,C%&B%,855(!3(45,#))(! 99!
=! *1*/*#$"+.("+.*5#31"+'"+.&%5*#$*+ ,4!
=-!! .*5#31"+3#31&5"2"+&+#(/*%"2"+ @!!
=-7! *1*/*#$"+.("+.*5#31"+3#31&5"2"+'"+.&%5*#$*+ @!!
=212/! )#*&+,%!)(&(.%! @/!
=2121! )#*&+,%!"%!%44+*%&#! @1!
=-9! *1*/*#$"+.("+.*5#31"+#(/*%"2"+'"+.&%5*#$*+ @;!
=2:2/! $,8))%!)%&3.(&%!"%!"+-%!#!)#>8#&'#!&84#.%3?#! @6!
=2:21! )#*&+,%!48,-%,%B#,,(!"%!)(.*#&-#! @7!
=2:2:! )#*&+,%!D%&+.%!"%!)(.*#&-#! @9!
=2:2=! )#*&+,%!&84#.%3%!)%&3.(&%!#!+)%&3.(&%! @@!
;! .*5#31"+#*"+A"8&1"+*+>(3'%"8&1"+1"#*3%"+ @4!
5.1! $%3.<&%/3)"&#"+1"#*3%"+<%3+.*5#31"+$*/8&+2&#$"#("+ 4!!
5.1.1! 3(&)%"#.+'%(&%!)8,,+!&+-8.+!#,#--.%3+!"#%!)#*&+,%! ;1!
;-7! $%3.<&%/3)"&#"+1$"+#*"+A"8&1"+ 4;!
6212/! .%)5()-+!.%$,#))+!&#%!"(4%&%!"#,!-#45(!#!"#,,+!$.#>8#&'+! ;6!
62121! .#,+'%(&#!-.+!3(#$$%3%#&-#!"%!.%$,#))%(&#!#!%45#"#&'+! ;9!
6212:! +55.($(&"%4#&-%!)8,!3(#$$%3%#&-#!"%!.%$,#))%(&#! ;9!
;-9! $%3.<&%/3)"&#"+1$"+#*"+>(3'%"8&1"+ 4@!
62:2/! .%)5()-#!&#%!"(4%&%!"#,!-#45(!#!"#,,+!$.#>8#&'+! ;@!
62:21! 5+.+4#-.%!"%!"%$$8)%(&#!&#%!>8+".%5(,%!,-%! ;;!
62:2:! -.+)$#.%4#&-(!%&!3(&"%'%(&#!"%!+"+--+4#&-(! /0/!
;-=! >(3'%"8&1&+"'*31*+*+>(3'%"8&1"+8*%<*$$"+ !6=!
62=2/! >8+".%5(,(!%"#+,#! /0=!
62=21! >8+".%5(,%!5#.$#--%! /06!
?! <&#'3/*#$"+'"+$%3./".."&#*+ !64!
6.1! $%3./".."&#*+"'*31*+ !!!!
72/2/! 3(&"%'%(&%!5#.!%,!-.+)5(.-(!%"#+,#!"#,,+!%&$(.4+'%(&#! ///!
72/21! )%)-#4%!"%!-.+)4%))%(&#!5#.$#--%! //1!
72/2:! 4#''%!-.+)4%))%B%!5#.$#--%! //=!
72/2=! 3+&+,%!,%&#+.%!5#.$#--%! //7!
?-7! *13A&%3)"&#*+1"#*3%*+'"+.*5#31"+$*/8&+2&#$"#(&+ !!@!
7212/! #,+D(.+'%(&#!,%&#+.#!)#&'+!-+*,%(!"%!D+&"+! //@!
72121! #)#45%!"%!#,+D(.+'%(&#!,%&#+.#!)#&'+!-+*,%(!"%!D+&"+! /1/!
7212:! #,#4#&-%!)8%!$%,-.%! /1:!
7212=! #,+D(.+'%(&#!,%&#+.#!3(&!-+*,%(!"%!D+&"+! /16!
?-9! *13A&%3)"&#*+'"+.*5#31"+3+5%3'"#"+ !7,!
72:2/! .#B#.)%D%,%-<!"#,,+!#,+D(.+'%(&#!)8!)#*&+,%!+!*.+"%&%! /19!
72:21! #,+D(.+'%(&%!,%&#+.%!)8!)#*&+,%!+!*.+"%&%! /:0!
72:2:! #,+D(.+'%(&#!&(&!,%&#+.#!)8!)#*&+,%!+!*.+"%&%! /:=!
72:2=! .#)-%-8'%(&#!"#,,+!$(.4+!+!*.+"%&%! /:6!
72:26! #,+D(.+'%(&#!3(45,#))%B+!3(&!-+*,%(!"%!D+&"+! /:9!
72:27! #,+D(.+'%(&#!3(45,#))%B+!3(&!.%"8'%(&#!"#,,+!D+&"+!5.+-%3+! /:@!
?-=! /(1$"813)"&#*+ !94!
?-;! 2*##"+.(113+2�*%."&#*+3#31&5"2&+#(/*%"23+ !=6!
?-?! 2*##"+'"+2&'"<"23+'"+23#31*+ !=!!
7272/! 3("%$%3+!3(&!.%"(&"+&'+!)8!$,8))%!D%&+.%! /=/!
72721! 3("%$%3+!3(&!48-+4#&-(!"#,,+!3+."%&+,%-<! /=6!
?-,! 2*##"+'"+/&'(13)"&#*+3%/&#"23+ !=,!
7292/! %&-.("8'%(&#!+%!4#-("%!"%!4("8,+'%(&#!+.4(&%3+! /=9!
72921! 3#&&%!)8,,+!4("8,+'%(&#!-.+4%-#!5.("(--(! /=@!
5
7292:! 3#&&%!)8,,+!4("8,+'%(&#!+.4(&%3+!"%!+&*(,(! /=;!
,! 8%&2*.."+31*3$&%"+ !;!!
,-!! 5*#*%31"$:+.("+8%&2*.."+.$&23.$"2"+ !;7!
92/2/! )#*&+,%!+,#+-(.%!#!,(.(!)(.*#&-%! /61!
92/21! 3+.+--#.%''+'%(&#!"#%!5.(3#))%!3(&-%&8%! /6:!
92/2:! 5.(3#))%!3(&-%&8%!)-+'%(&+.%! /66!
92/2=! %&-#.3(..#,+'%(&#!&#%!5.(3#))%!)-+'%(&+.%! /69!
92/26! 5.(3#))(!)(44+!#!5.(3#))(!3(45,#))(! /6;!
92/27! 5.(3#))%!"%)3.#-%!.#+,%!)-+'%(&+.%! /70!
,-7! 8%&2*.."+.$&23.$"2"+2"21&.$3)"%"+ !?7!
9212/! 5.(3#))%!3%3,()-+'%(&+.%!"%!5.%4(!#!)#3(&"(!(."%&#! /71!
92121! 5.(3#))%!.+55.#)#&-+-%!-.+4%-#!%&B%,855(!3(45,#))(! /7:!
9212:! 5.(3#))(!)-+'%(&+.%(!&(&!%&!D+&"+!D+)#! /7=!
,-9! 8%&2*.."+%388%*.*#$3$"+$%3/"$*+.*%"*+$*/8&%31"+ !?,!
92:2/! 5.(3#))%!.#+,%!3(&!$+--(.%!+,#+-(.%! /79!
92:21! 5.(3#))%!3+45%(&+-%!%&!D+&"+!D+)#! /7;!
92:2:! 5.(3#))%!3(45,#))%!3(&!$+--(.%!+,#+-(.%! /90!
92:2=! 5.(3#))(!)(44+!"%!5.(3#))%!.#+,%!3(&!$+--(.%!+,#+-(.%! /9/!
,-=! 8%&2*.."+2&#$"#("+53(.."3#"+ !,7!
92=2/! 5.(3#))%!3(&-%&8%!*+8))%+&%E!%,!.84(.#! /91!
92=21! .84(.#!*+8))%+&(!)-+'%(&+.%(!&(&!%&!D+&"+!D+)#! /9=!
92=2:! .84(.#!*+8))%+&(!D%+&3(!&#,,(!)5+'%(!"#%!)#*&+,%! /96!
,-;! 8%&2*.."+'"+/3%B&0+ !,,!
9262/! 5.(5.%#-<!"#%!5.(3#))%!"%!4+.F(B! /99!
92621! 5.(3#))%!"%!4+.F(B!+!-#45(!"%)3.#-(! /9@!
9262:! 5.(3#))%!"%!4+.F(B!+!-#45(!3(&-%&8(! /@1!
@! /*))"+$%3./".."0"+ !@9!
@-!! "#$%&'()"&#*+3"+/*))"+$%3./".."0"+ !@;!
@2/2/! 3(55%#!4#-+,,%3?#! /@6!
@2/21! $%D.#!(--%3?#! /@9!
@2/2:! -.+--#!.+"%(! /@@!
@-7! "#$%&'()"&#*+3"+/*))"+$%3./".."0"+%*31"+ !@@!
@-9! /*))"+$%3./".."0"+/*$311"2"+ !@4!
@2:2/! )-.8--8.+!"#,,#!3(55%#!4#-+,,%3?#! /@;!
@2:21! *.+&"#''#!3+.+--#.%)-%3?#!"#,,#!3(55%#!4#-+,,%3?#! /;0!
@2:2:! 3(45(.-+4#&-(!"#,,#!3(55%#!4#-+,,%3?#! /;=!
@2:2=! 4#''%!-.+)4%))%B%!3(&!3(55%#!)%44#-.%3?#! /;9!
@2:26! 4#''%!-.+)4%))%B%!3(&!3(55%#!3(+))%+,%! 100!
@-=! /*))"+$%3./".."0"+&$$"2"+ 769!
@2=2/! )-.8--8.+!"#,,#!$%D.#!(--%3?#! 10:!
@2=21! *.+&"#''#!3+.+--#.%)-%3?#!"#,,#!$%D.#!(--%3?#! 10=!
@2=2:! 3(45(.-+4#&-(!"#,,#!$%D.#!(--%3?#!+!)+,-(!"%!%&"%3#! 109!
@2=2=! 4#''%!-.+)4%))%B%!3(&!$%D.+!(--%3+!4(&(4("(! 1//!
@-;! /*))"+$%3./".."0"+%*31"+2&#+8&%$3#$*+%3'"&+ 7!7!
6
7
1 INTRODUZIONE
8
9
La comunicazione è il processo mediante il quale la informazione fluisce tra due o più soggetti;
essi sono persone, apparati fisici o enti logici capaci di emettere o ricevere: nel primo caso si ha
una sorgente di informazione, mentre nel secondo un destinatario di informazione. Ovviamente,
un medesimo soggetto può svolgere anche simultaneamente entrambe le funzioni, in emissione e
ricezione, apparendo nella duplice veste di sorgente e destinatario; comunque, le due funzioni
possono essere, e verranno, considerate separatamente.
Se la natura degli utenti finali è la medesima e la sorgente non è di tipo elettrico la comunicazione
a distanza inizia generalmente con una operazione di trasduzione, cioè con la trasformazione della
variabile di uscita della sorgente di informazione in una grandezza elettromagnetica funzione del
tempo, denominata segnale e indicata con x(t); la comunicazione ha poi termine con un’altra
operazione di trasduzione, complementare a quella iniziale, tramite la quale il segnale ricevuto
viene convertito nella opportuna variabile accettata dal destinatario. La trasduzione può avvenire
solo ad una terminazione. Nel seguito le trasduzioni non verranno prese in esame: tali operazioni
risiedono infatti all’interno di complesse entità fisiche, denominate terminali, capaci di emettere o
ricevere informazioni in forma elettromagnetica, ossia segnali, ai quali unicamente sarà rivolta la
attenzione. Un terminale emittente, ossia una sorgente di segnale che veicola la informazione,
verrà semplicemente indicato come sorgente; un terminale ricevente, ossia un destinatario di
segnale, verrà semplicemente indicato come destinatario.
Quando il flusso di informazione tra una molteplicità di terminali si attua in forma di propagazione
a distanza di un segnale in ambiente elettromagnetico, si ha telecomunicazione. L’insieme dei
terminali, dei circuiti e degli ambienti elettromagnetici in cui si propagano i segnali contenenti le
informazioni costituisce una infrastruttura di telecomunicazione. Nel caso più elementare esso si
riduce ad un collegamento unidirezionale tra sorgente e destinatario; allorché gli utenti diventano
tanti e le possibili interconnessioni necessarie per la piena connettività dovrebbero crescere
numericamente come il fattoriale, nasce la rete di telecomunicazioni, ovvero una infrastruttura per
la maggior parte condivisa (rami e nodi) ed in parte ad uso esclusivo del singolo utente (cavo o
tratta radio “ultimo metro” e apparecchio terminale); quindi, più generalmente, si hanno
numerosissimi terminali allacciati a una struttura di grande complessità, articolata in nodi, anelli e
rami e denominata rete di telecomunicazioni (vedi Figura 1.1), che consente la effettuazione
simultanea di una pluralità di comunicazioni con collegamenti variabili nel tempo.
In senso stretto si può assumere che un segnale sia una grandezza fisica, funzione reale della
variabile indipendente reale tempo, utilizzabile come veicolo della informazione che fluisce da una
sorgente a un destinatario. Perché tale grandezza fisica possa effettivamente portare informazioni
occorre che i parametri caratteristici siano ignoti al destinatario.
Dal punto di vista del comportamento esterno, una generica infrastruttura per la trasmissione della
informazione da una sorgente a un destinatario, ossia un generico sistema di trasmissione
impiegato per attuare il collegamento, è sempre rappresentabile tramite un unico blocco che,
eccitato in entrata dal segnale x(t), che in modo opportuno veicola la informazione, fornisce in
uscita un segnale di risposta y(t). Si assume che la trasmissione avvenga in maniera ideale se si
verifica la condizione:
[1.2.1] y(t) = g x(t – t0),
con g e t0 costanti reali, ossia se il segnale di uscita costituisce una replica di quello di entrata, a
meno del fattore moltiplicativo (amplificazione/attenuazione) g e del ritardo t0>0. Tali grandezze
hanno carattere irrilevante: esse sono infatti determinate, anche se non note a priori in ricezione, e
quindi non possono essere portatrici della informazione, obbligatoriamente sempre associata a
grandezze aleatorie. La relazione [1.2.1] è una condizione sufficiente, ma non necessaria affinché
si compia il trasferimento pienamente corretto della informazione: le particolari modalità con cui
questa ultima è veicolata dal segnale x(t) possono infatti consentire altre alterazioni della risposta
y(t) che risultano prive di conseguenze ai fini della fruizione della informazione ricevuta.
Il menzionato legame tra segnali uscente ed entrante riassume in modo globale il trattamento di
trasmissione a distanza che garantisce la prestazione perfetta del collegamento. Ai fini della
comprensione degli elementi essenziali è in effetti conveniente che il sistema sia rappresentato con
maggiore dettaglio, considerando più blocchi funzionali, connessi in cascata; una parte di essi, a
volte ridotta a un solo blocco come mostrato in Figura 1.2, ha nel complesso una dimensione fisica
uguale alla distanza da coprire; l’altra parte può essere invece assunta a dimensione nulla. I blocchi
della prima categoria rappresentano idealmente il mezzo trasmissivo, fondamentale responsabile
della propagazione a distanza del segnale; quelli della seconda sono gli equivalenti concettuali
degli apparati di trasmissione, di norma comprendenti circuiti elettronici o optoelettronici attivi e
suddivisibili in apparati emittenti (dal lato entrante) e apparati riceventi (dal lato uscente).
11
x(t) y(t)
apparati apparati
sorgente mezzo trasmissivo destinatario
emittenti riceventi
PE PR o
sistema di trasmissione
Figura 1.2: Schema essenziale di un sistema di trasmissione che attua un collegamento.
12
13
0 t
avendo indicato con x" (t) la funzione complessa coniugata di x(t). Con la notazione complessa in
modulo e argomento si ha inoltre:
jarg!"x( t )#$
[2.1.4] x ( t ) = x ( t ) e ,
dove
[2.1.5] x ( t ) =ˆ x 2R ( t ) +x 2I ( t ) = x ( t ) x! ( t ) ,
! xI (t ) # ' ! xR (t ) #
ˆ
[2.1.6] arg !"x ( t )#$ =artg % & + %1- &.
" x R ( t ) $ 2 %" x R ( t ) &$
Si osservi che poiché la funzione arcotangente fornisce un valore compreso nell’intervallo (-!/2,
!/2), il secondo termine del secondo membro della precedente espressione è necessario per
ricavare il valore dell’ argomento nell’intero angolo giro.
Per un segnale reale si ha la nota relazione:
[2.1.7] x ( t ) =x! ( t ) , " t # T , per x I (t) " 0,
Essendo caratterizzati da funzioni matematiche, sui segnali e tra segnali si possono effettuare tutte
le operazioni che sono consentite per le relative funzioni. In particolare, su un generico segnale
x(t) sono eseguibili le operazioni elementari di moltiplicazione per una costante e di traslazione nel
tempo, illustrate nell’esempio in Figura 2.2. Come già menzionato in precedenza, una volta
individuato in un sistema di trasmissione un segnale fisico reale x0(t), si assume che sia
equivalente dal punto di vista del trasferimento della informazione ogni altra grandezza:
[2.1.9] y(t) = g x(t – t0),
che risulti difforme da x0(t) solo per la presenza di un fattore di scala costante g, reale positivo o
negativo, e/o per una traslazione temporale, in ritardo (t0>0) oppure in anticipo (t0<0). Le
operazioni elementari di moltiplicazione per una costante reale e di traslazione nel tempo sono
dunque prive di effetto sostanziale a riguardo della comunicazione e le grandezze reali della
famiglia definita tramite la [2.1.9] si denominano segnali fedeli in senso stretto.
x g xo (t - to )
x o (t)
0 to > 0 t
Figura 2.2: Segnale reale x0(t) e sua replica fedele g x0(t - t0).
Qualora si faccia riferimento a un segnale complesso, si assume che la famiglia dei segnali fedeli
in senso lato sia più ampiamente definita tramite l’espressione:
[2.1.10] y(t) = g e-j# x(t - t0),
con # costante reale arbitraria, considerando elementare la più estesa operazione di
moltiplicazione per una costante complessa.
Passando ad altre operazioni semplici, si osserva che quella di coniugio è priva di ogni effetto se
viene applicata a un segnale reale; diversamente produce il segnale x*(t)=xR(t)-jxI(t), diverso da
x(t) e di norma non fedele. Anche la operazione di ribaltamento dell’asse dei tempi, per cui da x(t)
si ottiene x(-t ), conduce in generale a un segnale diverso e non fedele (vedi Figura 2.3a); possono
tuttavia verificarsi delle eccezioni, come ad esempio nel caso di segnale reale con andamento di
tipo simmetrico (vedi Figura 2.3b).
x(-t) x x(t) x(-t) x x(t)
a) 0 t b) 0 t
Figura 2.3 Segnale reale x(t) e segnale x(- t ) ottenuto per ribaltamento temporale.
Tra segnali sono inoltre applicabili le operazioni elementari di somma, sottrazione e
moltiplicazione, che si effettuano punto per punto. Inoltre, sui segnali è possibile effettuare
elevamento a potenza, estrazione di radice, logaritmo, derivazione, integrazione, ecc. Infine, viene
definita l’operazione di convoluzione tra due segnali nel seguente modo:
[2.1.11] x(t)$y(t) = ! x (v) y (t-v) dv
il cui significato e la cui applicazione verranno illustrati nel seguito.
17
2.2 Classificazione di segnali
L’attributo di segnale continuo o discreto si riferisce alla caratteristica del dominio o del
codominio della funzione che lo rappresenta.
Fino a questo punto sono stati considerati segnali definiti in ogni punto di un dominio temporale T,
o addirittura dell’intero asse temporale: si tratta della classe denominata dei segnali a tempo
continuo. Sono tuttavia contemplati anche segnali con esistenza solo in corrispondenza di istanti
discreti della variabile tempo, appartenenti alla classe dei segnali a tempo discreto. Questi ultimi,
pure avendo natura astratta, sono rilevanti nello studio dei sistemi di telecomunicazione,
particolarmente in vista del loro sempre maggiore sviluppo con le cosiddette tecniche numeriche.
L’approfondita caratterizzazione delle due classi di segnali introdotte sarà in seguito eseguita
separatamente. Per completezza e generalità si usano le seguenti definizioni:
• Se il dominio è un insieme continuo (limitato o illimitato) allora il segnale è tempo continuo
• Se il dominio è un insieme discreto (limitato o illimitato) allora il segnale è tempo discreto
• Se il codominio è un insieme continuo (limitato) allora il segnale è continuo
• Se il codominio è un insieme discreto (limitato) allora il segnale è discreto o quantizzato.
Il caso di dominio discreto corrisponde ad un segnale che si manifesta solo in alcuni istanti
significativi e tra i due istanti non è definito (non è nullo).
2.2.2 Segnali determinati e segnali aleatori
Figura 2.5: Esempio di realizzazione di un processo continuo espresso tramite una serie temporale
di processi con eventi isolati.
Un segnale a tempo continuo ha come dominio temporale un insieme continuo, che a meno di
menzione contraria verrà nel seguito inteso come l’intero asse temporale. Un tale segnale x(t) è
regolare nel generico istante t0 se esiste, finito o infinito, il limite per t che tende a t0 di x(t); il
segnale è poi continuo in t0 se si verifica:
[2.3.1] lim x ( t ) =x ( t 0 ) .
t!t 0
Qualora la precedente espressione sia soddisfatta in ogni punto del dominio temporale, si ha un
segnale continuo. Di tale tipo è ad esempio l’armonica reale (vedi [2.2.1]).
A causa della natura non ideale dei dispositivi e componenti impiegati nei reali sistemi di
trasmissione, i segnali ivi riscontrabili in pratica, siano essi segnali certi di prova o realizzazioni di
processi aleatori, sono tutti di tipo continuo. A volte si hanno tuttavia delle forme d’onda in cui
compaiono tratti estremamente ripidi, che assimilano con buona approssimazione l’andamento di
segnali non continui, ai quali sia stato fatto riferimento nelle fasi teoriche di analisi e di progetto
dei sistemi.
2.3.2 Segnali con discontinuità
ma si verifica la disuguaglianza dei due limiti, con valore non nullo della discontinuità
ˆ ( t +0 ) -x ( t -0 ) ! 0 .
[2.3.3] d 0 =x
20
Nell’istante t0 si definisce per il segnale non continuo il suo emivalore:
1 1 1
[2.3.4] x em ( t 0 ) =ˆ !"x ( t +0 ) +x ( t -0 )#$ = x ( t -0 ) + d 0 = x ( t +0 ) - d 0 .
2 2 2
Un segnale non continuo, che come menzionato risulta di notevole utilità ma si riscontra solo in
sede teorica, presenta spesso più di una discontinuità di prima specie.
Estendendo le considerazioni precedenti alla derivata di un segnale continuo, è possibile o meno
evidenziare una o più discontinuità di seconda specie; se anche la derivata ha un andamento
continuo, possono poi presentarsi discontinuità di terza specie osservando la derivata seconda del
segnale.
2.3.2.2 Esempi di segnali con discontinuità
Il primo esempio di segnale non continuo è offerto dal gradino unitario, con forma d’onda
mostrata in Figura 2.6a e indicato con la notazione:
" 0 , ! t<0
$$
[2.3.5] u ( t ) =ˆ # 12 , t=0 .
$
$% 1 , ! t>0
Il segnale u(t) ha l’emivalore ! nella discontinuità nell’origine; esso gode inoltre sull’intero asse
dei tempi della proprietà:
[2.3.6] u(t) + u(-t) = 1.
Un secondo esempio, con emivalore nullo nel punto di discontinuità nell’origine, è quello del
segnale segno della variabile t, mostrato in Figura 2.6.b e indicato con la notazione:
" -1 , ! t<0
$
[2.3.7] sgn ( t ) =ˆ # 0 , in t = 0 ;
$ 1 , ! t>0
%
Tra tale segnale e il gradino unitario sussiste la relazione:
[2.3.8] sgn(t) = u(t) - u(-t).
x x
1 1
u(t) sgn(t)
0 t 0 t
1 x
T 0
- __ __
T
t
2 2
Figura 2.7: Impulso rettangolare unitario, con due discontinuità di prima specie.
Si noti che, al contrario dei due segnali precedentemente definiti, la funzione rect(t/T) è
contraddistinta dalla presenza di un parametro: la durata T dell’impulso. Nel caso in cui il valore
di T sia noto, il segnale considerato è del tipo determinato, come lo sono il gradino unitario e il
segnale segno; se invece si assume che T stia a indicare una v.a., la funzione rect(t/T) diviene
l’espressione esplicita di un processo aleatorio con evento isolato.
Ogni segnale con punti di discontinuità di prima specie negli istanti tk può essere generalmente
scomposto nella somma:
[2.3.11] x(t) = x C (t) + x G (t),
dove xC(t) è un segnale continuo e xG(t) è un segnale a gradini, costante a tratti (vedi esempio in
Figura 2.8):
N
[2.3.12] x G ( t ) =! d k u ( t-t k ) , d k =x ( t +k ) -x ( t -k ) .
k=1
0 tk t
Nel caso di durata breve si usa la denominazione di segnale impulsivo o semplicemente impulso.
Se risulta tm'0, si può assegnare alla grandezza l’attributo di segnale causale a durata finita.
Un primo esempio è lo impulso rettangolare di durata T e di ampiezza finita A (vedi Figura 2.9a):
"t%
[2.3.14] x(t) = A rect $ ' ,
# T&
22
che generalizza l’impulso rettangolare unitario, con l’aggiunta di un secondo parametro. Altri
esempi sono l’ impulso triangolare di durata T e valore massimo A (vedi Figura 2.9b):
"t% "t% " t % "t%
[2.3.15] x(t) = A tri $ ' , con tri $ ' = $1- ' rect $ ' ,
# T& # T & # T/2 & # T&
e lo impulso a coseno rialzato di durata T e valore massimo A (vedi Figura 2.9c):
1# 2" t & "t%
[2.3.16] x(t) = A 1 + cos rect $ ' .
2$
% T ' ( # T&
x x x
A A A
- __
T 0 __
T t - __
T 0 __
T t - __
T 0 __
T t
a) 2 2 b) 2 2 c) 2 2
t/T
"t%
Figura 2.10: Forma d’onda del segnale sinc $ ' .
# T&
Un secondo esempio di segnale bilatero, ancora di tipo continuo, è offerto dal segnale gaussiano
unitario:
1" t %2
- $ '
[2.3.18] gauss(t/T) = e 2# T &
,
23
con valore massimo unitario nell’origine e andamento tanto più rapidamente decrescente
all’aumentare della distanza |t| dall’origine, quanto più è piccolo il valore del parametro T. Basta
allontanarsi dall’origine per un piccolo numero di intervalli T affinché il segnale gaussiano abbia
valori trascurabili rispetto all’unità; ad esempio il valore assoluto è sempre inferiore a 0,01 se |t| è
maggiore di 3,1 T.
Si ha un segnale monolatero destro se esso ha valore sempre nullo per ogni t minore di un istante
iniziale tm, ossia:
$& x ! 0 , " t<t
[2.3.19] x MD ( t ) = %
m
.
'& x # X , " t>t m
Nel caso tm=0 il segnale considerato si specifica come monolatero destro nell’origine; qualora
risulti tm'0 si assume spesso la denominazione di segnale causale a durata illimitata.
In Figura 2.11 sono mostrati a titolo di esempio due forme d’onda del tipo monolatero destro,
quella con discontinuità di prima specie del segnale unitario a decadimento esponenziale:
t
-
[2.3.20] ue (t/T) = e T
u(t),
dove il parametro T>0 è denominato la costante di tempo, e quella continua, ma con discontinuità
di seconda specie, del segnale a rampa:
1 t t
[2.3.21] ramp(t/T) =
T # u ( !)d!
-"
=
T
u(t).
x
1 ramp(t/T)
ue(t/T)
0
1 t/T
Figura 2.11: Forme d’onda di segnali monolateri destri dall’origine.
Considerato un istante finale tM, si ha un segnale monolatero sinistro se esso ha valore sempre
nullo per ogni t maggiore del menzionato istante, ossia si ha:
$& x ! X , " t< t
[2.3.22] x MS ( t ) = %
M
.
'& x # 0 , " t> t M
Rammentando la relazione [2.3.6], nel caso di segnale bilatero si può porre:
[2.3.23] x(t) = x(t)[u(t) + u(-t)] = xMD(t) + xMS(t),
ottenendo come mostrato in Figura 2.12 la bipartizione del segnale in una coppia di segnali
monolateri dall’origine, uno destro e uno sinistro:
[2.3.24] xMD(t) = x(t) u(t), xMS(t) = x(t) u(-t).
Ovviamente la bipartizione può essere attuata a partire da un generico istante t0, servendosi della
relazione u(t-t0)+u(-t+t0)=1, ottenuta dalla [2.3.6] con il cambio di variabile da t a t-t0.
24
Figura 2.12: Segnale bilatero (a) e sua bipartizione in segnali monolateri (b).
2.3.3.3 Segnali periodici a tempo continuo
Una notevole sottoclasse delle forme d’onda bilatere è quella dei segnali periodici a tempo
continuo, costituita dal rispetto della proprietà di ripetizione:
# !t"T
[2.3.25] x(t-kT0) = x(t), $ ,
% !k"Z
dove con Z è indicato l’insieme dei numeri interi e l’intervallo T0 di ripetizione dell’andamento
della forma d’onda è denominato periodo del segnale.
Gli esempi più classici di segnale periodico sono offerti dai segnali armonici: quello reale già
citato (vedi [2.2.1]) e la armonica complessa:
[2.3.26] A e (
j !0 t +" 0 )
= Acos(%0t+&0) + jAsin(%0t+&0).
Un segnale periodico si può ottenere anche dalla replica infinite volte di una funzione alementare.
Dato un segnale g(t) e definita la funzione di replica a intervallo T0 (l’assenza degli estremi in (
sta a indicare che la sommatoria si intende estesa da -) a )):
[2.3.27] repT0{g(t)} = (k g(t - kT0),
è immediato constatare che si genera un segnale periodico x(t) = repT0{g(t)}, di periodo T0 (vedi
Figura 2.13). Si noti che solo nel caso in cui g(t) sia limitato in un intervallo di durata D0*T0,
l’andamento del segnale periodico coincide con quello della funzione generatrice, g(t),
nell’intervallo in cui questa ultima è diversa da zero (vedi Figura 2.13b).
Figura 2.13: Forme d’onda periodiche ottenute tramite la ripetizione di una funzione generatrice
con durata maggiore (a) e minore (b) del periodo.
25
2.3.4 Scomposizione di segnali a tempo continuo
Un generico segnale reale a tempo continuo può essere additivamente scomposto in una
componente pari e in una componente dispari:
[2.3.28] x(t) = xP(t) + xD(t),
che sono rispettivamente caratterizzate dalle proprietà
[2.3.29] xP(t) = xP(-t), xD(t) = - xD(-t),
evidenziate nelle forme d’onda mostrate in Figura 2.14.
Figura 2.14: Componente pari (a) e componente dispari (b) di un segnale reale.
Poiché in base alle proprietà immediatamente sopra esplicitate si ottiene:
[2.3.30] x(-t) = xP(-t) + xD(-t) = xP(t) - xD(t),
valgono le relazioni:
1 1
[2.3.31] x P ( t ) = !"x ( t ) +x (-t )#$ , x D ( t ) = !"x ( t ) -x (-t )#$ .
2 2
Nel caso in cui sia identicamente nulla la componente dispari o la componente pari, si ha
rispettivamente la denominazione di segnale pari (xD(t)"0) o di segnale dispari (xP(t)"0). Sono
esempi di segnale pari l’impulso rettangolare Arect(t/T) e il segnale sinc(t/T); è invece ad esempio
dispari il segnale sgn(t).
Anche un segnale reale causale può essere scomposto in parte pari e dispari; si ha ad esempio per
il gradino unitario (vedi Figura 2.15a):
1
[2.3.32] u ( t ) = !"1+sgn ( t )#$ .
2
Nel caso di un impulso rettangolare unitario traslato in ritardo di un tempo t0>T/2 si ha poi (vedi
Figura 2.15b):
"t - t % 1 ( "t - t % " t + t 0 %+ 1 ( " t - t 0 % " t + t 0 %+
[2.3.33] rect$ 0 ' = *rect$ 0 ' + rect$ '-+ *rect$ ' - rect$ '
# T & 2) # T & # T &, 2 ) # T & # T &-,
1 x
1 x
u(t)
0 t 0 to t
x x
1 uP (t) 1
0 t 0 t
x uD(t) x
1/2 1/2
0 t 0 t
a) b)
Figura 2.15: Scomposizione in pare pari e parte dispari di un gradino unitario (a)
e di un impulso rettangolare unitario (b).
26
Nel caso di un generico segnale complesso a tempo continuo la scomposizione si generalizza in
una componente complessa hermitiana e in una componente complessa antihermitiana:
[2.3.34] x(t) = xH(t) + xAH(t),
che sono rispettivamente caratterizzate dalle proprietà:
[2.3.35] xH(t) = x!H (-t ) , xAH(t) = - x!AH (-t ) .
Si noti che la componente hermitiana ha parte reale pari e coefficiente della parte immaginaria
dispari, mentre la componente antihermitiana ha parte reale dispari e coefficiente della parte
immaginaria pari.
Poiché in base alle proprietà sopra esplicitate si ottiene:
[2.3.36] x! (-t ) = x!H (-t ) + x!AH (-t ) = xH(t) - xAH(t),
valgono le relazioni:
1 1
[2.3.37] x H ( t ) = "#x ( t ) +x! (-t )$% , x AH ( t ) = "#x ( t ) -x! (-t )$% .
2 2
Qualora sia identicamente nulla la componente antihermitiana o quella hermitiana, sia ha
rispettivamente le denominazione di segnale hermitiano, caratterizzato dalla:
[2.3.38] x(t) = x*(-t),
o di segnale antihermitiano, caratterizzato dalla:
[2.3.39] x(t) = - x*(-t).
In base alla [2.3.38] risulta che la contemporanea applicazione delle semplici operazioni di
coniugio e di ribaltamento temporale non produce alcun effetto su un segnale hermitiano.
2.3.5 Impulso ideale di Dirac
Poiché la relazione precedente implica, ponendo in particolare f(t)"1, che +(t) sia ovunque nulla
tranne che nell’origine e che il suo integrale sia unitario, ossia che si abbia per la sua area:
[2.3.42] " ! (t ) dt=1 ,
è evidente che l’impulso ideale non è una funzione in senso ordinario. Come mostrato nel
paragrafo 2.3.5.2, l’impulso ideale +(t) può essere considerato al limite come la derivata del
gradino unitario u(t).
27
2.3.5.2 L’impulso ideale come limite di funzioni ordinarie
Come già notato l’impulso ideale non è una funzione ordinaria: per una trattazione rigorosa
sarebbe necessario introdurre il concetto di distribuzione, ovvero di entità che fa corrispondere un
valore e una funzione. Non volendo uscire in questo testo dal novero delle funzioni ordinarie,
occorre però che la grandezza +(t) che compare a fattore nell’integrale [2.3.41] sia opportunamente
interpretata, come limite di funzioni ordinarie.
In proposito si consideri il gradino unitario u(t), ottenuto come limite di funzione continua,
ponendo:
t/T0
[2.3.43] u ( t ) = lim $ sinc ( ") d" ,
T0 !0
-#
dove T0>0 e il limite va effettuato a valle della integrazione. Indicata con +(t) la derivata rispetto a
t del secondo membro della [2.3.43] :
1 " t %
[2.3.44] lim sinc $ ' = +(t),
T0 !0 T
0 # T0 &
si ottiene una delle possibili interpretazioni dell’impulso ideale come limite di funzione ordinaria,
che porta a ritenere che la +(t) possa considerarsi la derivata della funzione u(t)-c, dove c è
costante. Tale relazione, che una volta determinata la costante di integrazione porta all’integrale
definito
t
[2.3.45] $ ! ( ") d" = u(t),
-#
Si denomina spazio funzionale, indicato con LP, la totalità dei segnali a tempo continuo x(t) per
cui esiste ed è finita la norma p-esima, definita dalla (la assenza degli estremi indica che l’integrale
è esteso da -) a +)):
p 1/p
[2.3.47] x ( t ) p =ˆ "$ ! x ( t ) dt %' ,
# &
dove p è un numero reale positivo. Pertanto L1 è lo spazio funzionale dei segnali assolutamente
integrabili e L2 è lo spazio funzionale dei segnali quadraticamente integrabili. Se i segnali x(t)
sono definiti solo in un dominio finito T, lo spazio funzionale da essi formato è indicato con la
notazione LP(T).
Avendo assunto che |x(t)|2 fornisca la potenza istantanea di x(t), in generale complesso, si ha la
seguente definizione della energia del segnale:
2
[2.3.48] Exx = x ( t )
2
2
= ! x (t) dt .
Una prima rilevante categoria di segnali è quella per cui Exx, reale per definizione, assume valore
finito: tali segnali, che formano lo spazio funzionale L2, sono denominati a energia finita o
semplicemente segnali di energia. Essi possono essere a durata finita, come negli esempi degli
impulsi rettangolare, triangolare e a coseno rialzato, ma anche illimitati nel tempo, come ad
esempio accade per i segnali sinc e gaussiano.
28
Nel caso di segnale illimitato nel tempo può essere considerata la sua approssimazione con un
segnale praticamente limitato nel tempo, individuando un intervallo, denominato durata pratica
del segnale, all’esterno del quale x(t) si approssima con lo zero in modo che l’integrale di |x(t)|2
esteso alla sola durata pratica del segnale fornisca un valore praticamente coincidente con la
effettiva energia Exx.
Qualora un segnale x(t) sia illimitato nel tempo e non abbia energia finita, si passa a considerare
un’altra grandezza, adottando la seguente definizione della potenza media temporale, o
semplicemente potenza del segnale:
1 2
[2.3.49] Wxx = lim
T!" T
# x (t)
T dt ,
Nel caso di segnale periodico generato per ripetizione di una funzione generatrice g(t) (vedi
[2.3.27]), si noti che Exx(T0) coincide con la energia Egg della funzione generatrice, se quest’ultima
ha durata non maggiore di T0, altrimenti è in generale diversa.
L’integrale del segnale esteso a tutto l’asse temporale,
[2.3.53] area[x(t)] = ! x ( t ) dt ,
è denominato area del segnale. Tale grandezza, in generale complessa, è sempre finita nei segnali
di energia.
Solo per i segnali di potenza può risultare diverso da zero il valore medio temporale, o
semplicemente valore medio del segnale, definito dalla:
1
[2.3.54] x = lim # x (t ) dt .
T!" T
T
Un segnale con valore medio diverso da zero può essere scomposto in due addendi: uno di valore
costante, pari al valore medio temporale x , e l’altro a valore medio nullo:
[2.3.55] xa (t) = x(t) - x .
Nel caso di segnale reale, i due addendi considerati, x e xa(t), si denominano rispettivamente
componente continua e componente alternata.
Spesso si considerano segnali di potenza reali, con codominio X finito, denominati segnali
simmetrici: essi sono privi di componente continua e hanno valori massimo e minimo opposti;
denominato valore di picco il comune valore assoluto, ossia xp=xM=|xm|, si definisce il fattore di
picco:
29
x x
[2.3.56] Fp = p = p .
xeff Wxx
Come noto il fattore di picco di una armonica reale ha valore 2 ; per ogni altro segnale
simmetrico il fattore di picco ha valore maggiore.
Si noti che i segnali di potenza sono di tipo ideale, poiché nella realtà non esistono segnali che non
abbiano valori nulli nelle parti più estreme dell’asse dei tempi. Nella pratica si considerano però
spesso come segnali di potenza quelle forme d’onda di energia che hanno durata molto maggiore
dell’intervallo temporale (a volte addirittura ridotto all’ordine dei secondi) entro il quale interessa
osservare il segnale e per le quali la potenza media temporale valutata solo nell’intervallo di
osservazione praticamente non varia al variare dell’estensione di quest’ultimo; il segnale di
potenza è poi in effetti quello che si ottiene estrapolando all’esterno del tempo di osservazione
l’andamento al suo interno.
Dal tipico andamento di un segnale a gradini è facile dedurre che esso risulta completamente
caratterizzato quando siano noti gli istanti tk di discontinuità e l’insieme, corrispondentemente
ordinato, dei livelli. In base a tale osservazione appare motivata l’introduzione del segnale a
tempo discreto, entità astratta ma assai valida sul piano logico-matematico, che è definito solo su
un insieme discreto numerabile {tn} di istanti temporali; questi possono essere in numero finito o
infinito, distribuiti nel tempo in modo generico oppure con equispaziatura tra elementi adiacenti,
come mostrato in Figura 2.16.
Figura 2.16: Insieme discreto di definizione di un segnale a tempo discreto, con distribuzione
generica (a) e con equispaziatura nel tempo (b).
Il caso più frequente e interessante è quello di istanti discreti equispaziati, con generico intervallo
costante T, per i quali si può stabilire la seguente assai semplice corrispondenza biunivoca con
l’insieme dei numeri interi:
[2.4.1] tn= nT.
Il segnale a tempo discreto è allora denominato sequenza e viene indicato con la notazione x(n),
dove il generico k-esimo elemento, o campione della sequenza, assume il valore, che può essere
sia reale che complesso:
[2.4.2] xk = x(kT).
Alle sequenze sono applicabili le operazioni elementari di moltiplicazione per una costante e di
traslazione temporale, così come quelle di coniugio e di ribaltamento temporale, con esecuzione da
compiersi campione per campione. Valgono parimenti i concetti di sequenze reali o complesse e di
sequenze tra loro fedeli, immediatamente deducibili dalle definizioni fornite per i segnali a tempo
continuo.
Se tutti i campioni xk hanno valori noti, si ottiene una sequenza determinata o certa. Si può invece
considerare che gli elementi siano variabili aleatorie, indicate con la notazione Xk: allora la
30
successione di tali v.a. diviene la rappresentazione di un processo aleatorio discreto, come già
accennato nel paragrafo 2.2.2.2.
Il primo elementare esempio di sequenza determinata è il campione unitario, mostrato in Figura
2.17a ed espresso con la notazione:
#% 1 , n=0
[2.4.3] +(n) = $ ,
%& 0 , ! n " 0
che corrisponde nel dominio del tempo discreto all’impulso di Dirac +(t), introdotto come segnale
elementare a tempo continuo, ma che non va assolutamente confuso con esso in quanto la
definizione, le proprietà analitiche ed il quadro matematico di riferimento sono estremamente
differenti.
Un secondo esempio è la sequenza a gradino unitario, mostrata in Figura 2.17b, per cui si usa
porre:
"$ 0 , ! n < 0
[2.4.4] u(n) = # .
%$ 1 , ! n > 0
Si noti che il valore nell’origine, per n=0, è unitario, a differenza dell’analogo segnale a tempo
continuo in cui si ha l’emivalore !. Vale di conseguenza la proprietà:
[2.4.5] u(n) + u(-n-1) = 1.
Tra le due particolari sequenze introdotte si ha poi la relazione:
[2.4.6] +(n) = u(n) - u(n-1).
Servendosi della serie dei campioni unitari traslati si ottiene la seguente rappresentazione di una
generica sequenza a lunghezza illimitata, denominata sequenza bilatera, con campioni che
possono essere non nulli per qualsiasi valore di k :
[2.4.7] x(n) = ,k xk+(n-k),
dove la sommatoria si intende estesa da -) a +). Nel caso in cui i campioni siano nulli per ogni k
minore di un numero intero km e maggiore di un altro intero kM>km, si ha una sequenza a
lunghezza limitata, spesso denominata stringa di campioni; nella sua rappresentazione del tipo
[2.4.7] i menzionati valori km e kM compaiono come estremi della sommatoria.
31
Nell’ambito delle sequenze bilatere si possono avere le sequenze periodiche, caratterizzate dal
continuo ripetersi di una medesima stringa di campioni, a cui corrisponde la proprietà:
[2.4.8] x(n-hN0) = x(n),
con h intero e con passo ripetizione N0, che deve essere un numero intero finito maggiore di uno.
L’intervallo temporale T0=N0T è il periodo della sequenza.
In modo analogo ai segnali a tempo continuo, a partire da numero intero km si definisce una
sequenza monolatera destra qualora i suoi campioni siano tutti nulli per k<km, per cui si pone:
!
[2.4.9] x MD (n) = " x k +(n - k);
k =k m
con km'0 si ha poi una sequenza causale. Considerato un numero intero kM si ha invece una
sequenza monolatera sinistra se i suoi campioni sono tutti nulli per k>kM, per cui si pone:
kM
[2.4.10] x MS (n) = " x k +(n - k).
k=-!
Servendosi della proprietà [2.3.23] è sempre possibile suddividere una sequenza bilatera in una
coppia di sequenze monolatere, una destra e una sinistra; ciò equivale a spezzare la sommatoria
nella [2.4.7].
Si possono infine applicare alle sequenze le considerazioni svolte sulla scomposizione dei segnali
a tempo continuo: si hanno così nel caso reale sequenze pari (xk=x-k) e sequenze dispari (xk=-x-k)
e nel caso complesso sequenze hermitiane (x k =x!-k ) e sequenze antihermitiane (x k =-x!-k ) .
2.4.3 Energia e potenza delle sequenze
Una sequenza x(n), in quanto diversa da zero solo in un insieme numerabile di istanti, non
possiede né energia né potenza, secondo la definizione adottata per i segnali a tempo continuo. È
tuttavia possibile definire in modo convenzionale le menzionate grandezze anche per le sequenze,
facendo riferimento al segnale a gradini corrispondente, ottenuto da quello a tempo discreto
mediante l’operazione di tenuta dei campioni, illustrata in Figura 2.18.
Figura 2.18: Segnale a gradini ottenuto da una sequenza con l’operazione di tenuta dei campioni.
Con il procedimento menzionato si ottengono così le grandezze convenzionali:
[2.4.11] Exx = T , k |ck|2,
1 N
2
[2.4.12] Wxx = lim # ck ,
N!" 2N+1
k=-N
denominate energia della sequenza e potenza della sequenza, che sono finite e diverse da zero
rispettivamente nel caso di sequenza di energia o di sequenza di potenza. Nel secondo caso si
definisce il valore medio della sequenza:
1 N
[2.4.13] x = lim # ck .
N!" 2N+1
k=-N
32
La potenza di una sequenza periodica, come nell’analogo tipo di segnali a tempo continuo, può
essere espressa in base all’energia Exx(T0) della sequenza troncata in un generico intervallo che
corrisponde al periodo T0=N0T, ottenendo:
E xx ( T0 ) 1 N0 2
[2.4.14] Wxx = = !c .
N 0 k=1 k
T0
Un primo caso importante riguarda i segnali di energia che, come già esposto, rappresentano
praticamente la totalità dei segnali utilizzati nelle telecomunicazioni. La misura dell’affinità tra
segnali di energia rappresenta un fattore importante in diverse applicazioni che vanno dal radar
alle comunicazioni mobili.
2.5.1.1 Funzione di intercorrelazione di segnali di energia
Nello spazio funzionale L2 si considerino due generici segnali di energia, x(t) e y(t), aventi
rispettivamente energie Exx e Eyy; si definisce la funzione di intercorrelazione temporale, o
correlazione mutua temporale, dei due segnali mediante la seguente espressione:
[2.5.1] Cxy(-) = " x ( t + !) y ( t ) dt .
*
I valori assunti nell’origine (per -=0) dalle due funzioni di intercorrelazione si denominano
energie mutue; grazie alla relazione precedente si ottiene:
*
[2.5.4] Exy ! Cxy(0) = ! x (t ) y (t ) dt = "# ! y (t ) x (t ) dt$% = C (0) ! E
* * !
yx
!
yx ,
risulta di conseguenza:
[2.5.7] .xy(-)"1.
33
In particolare per -=0 e rammentando le [2.5.4] si ottengono dalla [2.5.5] le seguenti relazioni
sulle energie:
[2.5.8] |Exy|2 = |Eyx|2 * Exx Eyy, Exy Eyx * Exx Eyy.
La funzione di intercorrelazione è in grado di evidenziare l’affinità in senso lato tra due segnali di
energia, intendendo che tale tipo di affinità sia misurata dal massimo del valore assoluto della
funzione di indice di intercorrelazione. Due segnali non hanno allora alcuna affinità in senso lato e
si denominano incorrelati, qualora sia identicamente nulla la loro funzione di intercorrelazione:
[2.5.9] Cxy (-) " 0, ossia .xy(-) " 0 ;
essi hanno invece la massima affinità in senso lato se si verifica:
[2.5.10] |.xy(-)|max = 1.
È molto interessante rimarcare che tale ultimo evento accade se e solo se si ha una coppia di
segnali fedeli, per i quali vale la relazione y(t)=g e- j! x(t-t0); il massimo di valore unitario di |.xy(-)|
si ottiene poi proprio in corrispondenza del particolare valore -=-t0. Il lettore interessato troverà la
dimostrazione nel paragrafo 2.5.1.2. I segnali fedeli sono dunque quelli, e solo quelli, tra i quali si
può verificare la massima intercorrelazione, ossia la massima affinità in senso lato.
2.5.1.2 Dimostrazione delle proprietà della funzione di intercorrelazione
Scambiando tra loro x e y nella definizione della funzione di intercorrelazione, coniugando e poi
applicando il cambio di variabile t’=t+- si ottiene:
" y ( t + !) x ( t ) dt = $% # x (t ) y (t+") dt&' = $% # x ( t'-! ) y" ( t') dt'&' = "#C xy (-! )$% ;
! "
* &
[2.5.11]Cyx(-)= !
la funzione di autocorrelazione è dunque hermitiana, con valore reale nell’origine che coincide con
l’energia del segnale:
[2.5.20] Cxx(0) = Exx.
Tale valore è quello massimo che può assumere il modulo della funzione di autocorrelazione,
poiché come caso particolare della [2.5.5] sussiste la disuguaglianza:
[2.5.21] |Cxx(-)| * Exx.
Nel caso frequente di segnale reale la funzione di autocorrelazione diviene reale e pari, ossia si ha
C xx ( ! ) = C"xx ( ! ) = Cxx(--).
La funzione di autocorrelazione evidenzia per ogni - la diminuzione dell’affinità in senso stretto
che si verifica tra un segnale e la sua stessa forma d’onda traslata nel tempo, rispetto alla piena
correlazione che si ha per -=0. Essa è anche un indice di quanta memoria un segnale abbia di sé
stesso, ossia di quanto globalmente i valori al tempo (t+-) risentano di quelli al tempo t.
Nel caso di segnale a durata finita D, si perde totalmente l’affinità in senso stretto, ossia la
memoria del segnale, per ogni traslazione, in anticipo o in ritardo, che sia maggiore di D; in tale
caso infatti la funzione di autocorrelazione è anch’essa limitata in durata, ma nell’intervallo
temporale doppio 2D, dato che per |-|>D i due segnali x(t) e x(t+-) risultano non nulli in intervalli
temporalmente separati, dando luogo all’azzeramento della funzione integranda nella funzione di
autocorrelazione. Un esempio tipico è offerto dall’impulso rettangolare A rect(t/T), con funzione
di autocorrelazione che risulta essere un impulso triangolare nella variabile indipendente -, con
valore massimo A2 e durata 2T (vedi Figura 2.19).
dove il segno di uguaglianza vale se e solo se si verifica y(t)=g e- j! x(t), ossia i due segnali sono tra
loro fedeli senza ritardo; con riferimento all’indice di intercorrelazione:
[2.5.24] .xy =ˆ
( x,y) ,
E xx E yy
risulta che esso ha modulo minore di uno, tranne nel caso già evidenziato di segnali legati dalla
semplice relazione di proporzionalità complessa.
L’indice di intercorrelazione fornisce una misura dell’affinità in senso stretto tra due segnali di
energia, ossia senza prendere in considerazione alcuna traslazione temporale. Due forme si
denominano segnali paralleli quando risulti .xy=1, ossia si abbia y(t)=|g| x(t), e segnali antipodali
nel caso particolare .xy=-1, con g=-1 e #=0, ossia y(t)=-x(t). Al diminuire di |.xy| corrisponde una
decrescente affinità in senso stretto tra i segnali, fino al caso .xy=0, ossia di prodotto scalare nullo
(x,y)=0, in cui le due forme si denominano segnali ortogonali.
Le precedenti denominazioni a carattere geometrico prendono origine dalle considerazioni svolte
nel paragrafo 2.5.1.5, a cui si rimanda il lettore desideroso di approfondimenti.
La condizione di ortogonalità tra segnali di energia, ossia l’annullarsi del loro prodotto scalare
(x,y)=0, assume spesso una notevole rilevanza: è opportuno pertanto soffermarsi su tale situazione.
In primo luogo si osserva che due segnali possono essere ortogonali senza che ciò implichi la non
esistenza di affinità in senso lato, ossia che i segnali siano incorrelati (vedi [2.5.9]); infatti per -/0
la funzione di intercorrelazione di una coppia di segnali ortogonali può essere diversa da zero o
addirittura assumere il valore massimo in modulo. Ciò accade ad esempio per un qualsiasi segnale
a durata limitata D e per una forma d’onda ad esso fedele con traslazione |t0| maggiore di 2D, che
assicura la separazione nel dominio del tempo dei due segnali e di conseguenza l’annullarsi del
loro prodotto scalare, pure contemplando che si abbia la piena affinità in senso lato.
Si tenga poi presente che la separazione nel tempo di una coppia di segnali è condizione
sufficiente, ma non necessaria per la loro ortogonalità; possono infatti essere ortogonali anche
segnali non strettamente limitati nel tempo.
2.5.1.5 Analogie geometriche formali del prodotto scalare
Tenuto conto che l’energia è il quadrato della norma seconda (vedi [2.3.47]), per il segnale somma
x(t)+y(t) si ha l’espressione:
2 2
[2.5.25] x ( t ) +y ( t ) 2 =(x+y,x+y) = (x,x) + (y,y)+20{(x,y)} = Exx+Eyy+2 E xx E yy cos1 = x ( t ) 2 +
2
y ( t ) 2 +2 x ( t ) 2
y ( t ) 2 cos1,
dove si è posto
! {( x,y)}
[2.5.26] cos1 = = 0{.xy} * 1.
E xx E yy
Nel caso di segnali paralleli si ha .xy=1 e quindi cos1 = 1; si ricava allora la relazione particolare:
2 2
[2.5.27] x ( t ) +y ( t ) 2 = !" x ( t ) 2 + y ( t ) 2 #$ ,
36
formalmente identica a quella che si avrebbe considerando in luogo dei segnali paralleli x(t) e y(t)
una coppia di vettori paralleli nello spazio. Nel caso di segnali ortogonali si verifica (x,y)=0 e, a
maggiore ragione, risultano allora 0{ ( x,y) }=0 e cos1 = 0; si ricava allora l’espressione:
2 2 2
[2.5.28] x ( t ) +y ( t ) 2 = x ( t ) 2 + y ( t ) 2 ,
formalmente identica a quella che si avrebbe considerando in luogo dei segnali ortogonali x(t) e
y(t) una coppia di vettori ortogonali nello spazio.
2.5.1.6 Famiglie di segnali ortogonali
Un insieme {xk(t)} di segnali di energia costituisce una famiglia di segnali ortogonali se si
verifica:
[2.5.29] (xk, xh ) = Exkxh = 0, ! h / k ;
se poi si ha:
#% 0 , ! h " k
[2.5.30] (xk, xh ) = Exkxh = $
%& 1 , h = k ,
"t% T/2
#% 0 , ! h " k
[2.5.32] (xk, xh) = ( e jk!t e-jh!t rect $# T '& dt = " -T/2
e(
j k-h )!t
dt = $
%& T , h = k .
Con l’accortezza di sostituire le funzioni del tipo C(-) con le analoghe del tipo R(-) e le energie
con le potenze, sono applicabili ai segnali di potenza tutte le considerazioni svolte sull’affinità e
valgono le proprietà esposte nei paragrafi 2.5.1.1 e 2.5.1.3 sui segnali di energia.
Poiché nei segnali di potenza si ha la possibile esistenza di valori medi temporali x e y non nulli,
si definiscono ulteriormente la funzione di covarianza temporale dei due segnali:
1 T/2
[2.5.42] Kxy(-) ! lim $x ( t+# ) -x &'$%y ( t ) -y&' dt ,
(
T!" T
) -T/2 %
T!" T
* ) T/2
Le funzioni sopra introdotte, applicate alle sole componenti xa(t) e ya(t) a valore medio nullo dei
segnali, coincidono con le precedenti nel caso x = y =0; in generale si hanno le semplici relazioni:
[2.5.44] Rxy(-) = Kxy(-) + xy * ,
[2.5.45] Rxx(-) = Kxx(-) + Wc,
dove si è indicato con Wc =xx ! la potenza associata alla sola componente x del segnale. Dato che
Kxx(0) è uguale alla potenza della sola componente xa(t), si evince che la potenza del generico
segnale è pari alla somma delle potenze delle due componenti considerate separatamente.
38
Nel caso particolare di segnali entrambi periodici con il medesimo periodo T0, le funzioni di
intercorrelazione e autocorrelazione sono anch’esse periodiche nella variabile indipendente -, con
periodo T0, e assumono le forme:
1 T0 /2
[2.5.46] Rxy ( ! ) = # x ( t+! ) y" ( t ) dt =Rxy ( !-kT0 ) ,
To -T0 /2
1 T0 /2
[2.5.47] Rxx ( ! ) = # x ( t+! ) x" ( t ) dt =Rxx ( !-kT0 ) .
T0 -T0 /2
Si lascia al lettore il compito di dimostrare che per l’armonica complessa unitaria e jk!ot , di periodo
T0=2!/20, e per le sue componenti delle parti reale e immaginaria, cos20t e sin20t, si hanno le
funzioni di autocorrelazione mostrate nella Tabella 2.1.
Tabella 2.1: Funzione di autocorrelazione di segnali armonici
x(t) e j!0t cos!0 t sin!0 t
1 1
Rxx(-) e j!0 " cos!0 " cos!0!
2 2
2.5.2.2 Famiglie di segnali incoerenti e incorrelati
Due segnali di potenza sono incoerenti se la loro funzione di intercorrelazione è identicamente
nulla, ossia si ha:
[2.5.48] Rxy(-) " 0 ;
essi si denominano incorrelati qualora si verifichi la condizione meno severa:
[2.5.49] Kxy(-) " 0,
che non prende in considerazione l’esistenza dei valori medi temporali.
Un insieme di segnali di potenza costituisce una famiglia di segnali incoerenti se, indicati con x(t)
e y(t) due diversi generici membri, si verifica la [2.5.48]; l’insieme forma invece una famiglia di
segnali incorrelati se si verifica la [2.5.49].
Un esempio di famiglia di segnali incoerenti è offerto dall’insieme continuo { e j!t } delle
armoniche complesse unitarie. Considerati due generici membri e j!xt e e y , con
j! t
che per fx/fy comporta valore nullo per ogni - grazie alla proprietà della funzione sinc di tendere a
zero al tendere all’infinito, positivo o negativo, del suo argomento. Si lascia al lettore il compito di
dimostrare che gli insiemi continui {cos%t} e {sin%t} formano ancora entrambi, ma
separatamente, due famiglie di segnali incoerenti.
2.5.3 Affinità tra segnali di energia e di potenza
La definizione matematica di prodotto scalare tra due segnali di energia può essere estesa a tutti i
casi nei quali l’operazione di integrazione conduce a un valore finito, anche se uno dei due segnali
è di potenza. Il risultato della operazione:
[2.5.51] (x,y) = ! x ( t ) y ( t ) dt ,
*
Per una data coppia di sequenze, x(n) e y(n), si definiscono le sequenze della variabile
indipendente intera 3:
[2.5.55] Cxy(3) " x4y = T ,k x(k+3) y*(k),
1 N
[2.5.56] Rxy(3) = lim $ x ( k+#) y* ( k ) ,
N!" 2N+1
k=-N
N!" 2N+1
)
k=-N
Nel caso della identità x(n)"y(n), le tre precedenti espressioni forniscono rispettivamente le
sequenze di autocorrelazione, Cxx(3) o Rxx(3), e la sequenza di autocovarianza temporale, Kxx(3),
della sequenza data.
Le sequenze di intercorrelazione, autocorrelazione, covarianza e autocovarianza sopra definite
hanno significati analoghi a quelli delle corrispondenti funzioni relative ai segnali a tempo
continuo: sono quindi in grado di valutare l’affinità in senso lato tra sequenze.
Nel caso di sequenze di energia sono applicabili le relazioni analoghe a quelle ottenute nei
paragrafi 2.5.1.1 e 2.5.1.3 sui segnali di energia a tempo continuo, con la sostituzione delle
funzioni del tipo C(-) con le sequenze del tipo C(3). Similmente accade per le sequenze di
potenza, considerando le sequenze del tipo R(3) e K(3) in luogo delle funzioni del tipo R(-) e K(-).
In particolare, risultano le seguenti proprietà per le sequenze di potenza reali:
5 le sequenze di intercorrelazione e di covarianza sono reali e pari e si ha:
3 RAPPRESENTAZIONI DI SEGNALI
42
43
Un generico segnale di potenza periodico x(t), di periodo T0, ammette di essere rappresentato a
partire da un insieme discreto e numerabile di infinite armoniche complesse di ampiezza unitaria:
[3.1.1] e jk!0t = cos k20t + j sin k20t,
con k intero e 20=2!/T0. Tramite una combinazione lineare a coefficienti complessi costanti di tali
funzioni, si ha infatti la rappresentazione (al solito l’assenza degli estremi nella sommatoria indica
che essa si intende estesa da -) a +)):
[3.1.2] x(t) = "k Ck e jk! t , 0
denominata sviluppo in serie di Fourier, con i coefficienti di Fourier Ck. Si noti che tale sviluppo
consente di scomporre il segnale periodico in infiniti addendi che ne costituiscono le componenti
armoniche, alle frequenze fk=k/T0 e con ampiezze |Ck| e fasi arg{Ck}.
Per ricavare i valori dei coefficienti di Fourier Ck consideriamo le particolari funzioni di energia a
durata limitata:
[3.1.3] 6k(t) = e jk!0t rect(t/T0),
ottenute dalle armoniche complesse unitarie per troncamento nell’intervallo (-T0/2, T0/2), che
formano un insieme ortogonale, con il comune valore dell’energia E k h=T0 (vedi paragrafo 6 6
2.5.1.6); si effetui per ogni k la correlazione tra il segnale x(t) e ciascuna delle 6k(t), operazione
che evidenzia l’affinità tra il segnale periodico e la k-esima funzione dell’insieme ortogonale. Si
ha infatti, invertendo l’ordine tra integrale e sommatoria:
# t &
[3.1.4] (x,6k) = )! C e h e
jh"0 t -jk"0 t
rect % ( dt = "h Ch ( !h ,!k ) = T0Ck,
$ T0 '
h
dove la correlazione può essere estesa al solo intervallo (-T0/2, T0/2), eliminando dall’integrando la
funzione rect(t/T0), dato che le funzioni 6k(t) sono tutte nulle all’esterno dell’intervallo medesimo.
I coefficienti Ck rappresentano quindi la misura dell’affinità tra il segnale periodico x(t) e ciascuna
6k(t).
Inserendo la rappresentazione in serie [3.1.2] nella espressione generale della potenza dei segnali
periodici (vedi [2.3.52]), si ottiene:
T0 /2
1
[3.1.6] Wxx =
To
"k "h Ck C!h " e(
j k-h )!0 t
dt .
-T0 /2
Le funzioni armoniche integrande per h/k hanno periodi che sono sottomultipli di T0 e quindi gli
integrali sono tutti nulli, ad eccezione di quello per h=k, che vale T0; si ricava quindi la seguente
proprietà dei coefficienti di Fourier:
2
[3.1.7] !k C k = Wxx.
44
3.1.2 Rappresentazione in serie di funzioni ortogonali
dove i coefficienti 7k, determinabili sulla base del criterio di minimizzare l’errore quadratico
medio di approssimazione ossia di rendere minimo il quadrato della distanza d( x, x! ), risultano dai
prodotti scalari (il lettore interessato alla dimostrazione è inviato al paragrafo 3.1.2.2):
[3.1.11] ! k = ( x,"k ) = $ x ( t ) "#k ( t ) dt .
T
Si noti che per calcolare i coefficienti 7k il segnale x(t) deve essere conosciuto sull’intero dominio
T, ossia la rappresentazione riguarda i segnali determinati.
L’insieme {6k(t)} è ritenuto soddisfacente per rappresentare una certa classe di segnali x(t) se la
accuratezza della rappresentazione migliora indefinitamente all’aumentare del numero N delle
funzioni utilizzate; l’insieme ortonormale {6k(t)} costituisce allora una base per la classe dei
segnali considerati. Si usa pertanto scrivere per N che tende all’infinito:
[3.1.12] x(t) = ( kXk6k(t), con Xk= 7k= (x,!k ) ,
dove il passaggio dalla notazione 7k a quella Xk indica il verificarsi della situazione soddisfacente
e il segno di uguaglianza nella rappresentazione va inteso nel senso della approssimazione lineare
in media(1); si ha poi la proprietà:
[3.1.13] (k|Xk|2 = Exx.
Si pone in evidenza che per particolari classi di segnali può accadere che si ottenga la situazione
soddisfacente con un numero finito N di funzioni ortonormali; in tale caso l’insieme {6k(t)}
(1) Si può asserire che i punti dove la rappresentazione non converge al valore del segnale sono contenuti in un insieme
di misura nulla rispetto a T.
45
costituisce un sistema completo, il numero finito N è denominato dimensione della base e la
rappresentazione assume la forma:
N
[3.1.14] x(t) = ! X k "k ( t ) , con Xk = 7k = (x, 6k),
k=1
e si hanno le proprietà:
N
2 2
[3.1.17] ( k X k E6k6k = Exx, ! Xk E6k6k = Exx.
k=1
Come già accennato, i coefficienti Xk possono essere ricavati solo se è noto l’andamento del
segnale x(t) sull’intero dominio T, ossia le rappresentazioni in serie temporali tramite un insieme
di funzioni ortogonali riguardano i segnali determinati. È tuttavia possibile considerare le [3.1.12]
e [3.1.14] come rappresentazioni esplicite di un processo aleatorio continuo, assumendo che Xk
siano delle variabili aleatorie.
3.1.2.2 Ottimizzazione della rappresentazione con funzioni ortogonali
La scelta dei coefficienti 7k che ottimizza la rappresentazione x! (t) è quella che rende minimo il
quadrato della sua distanza dal segnale x(t), espresso dalla:
2
[3.1.18] d2(x, x! ) = ! x (t ) -x! ( t ) dt = (x- x! , x- x! ) = (x,x) - (x, x! ) - (x, x! )* + ( x! , x! ).
T
Servendosi della [3.1.10] e tenuto conto della ortogonalità dell’insieme {6k(t)} si ottiene:
N N N N
*
[3.1.19] d2(x, x! ) = (x,x) - $ !"k ( x,#k ) - # ! k ( x,"k ) + " " ! k !#h ( $k ,$h ) =
k=1 k=1 k=1 h=1
N N
2
=Exx - 2 % ! " k ( x,#k )
{ }
$
+ " !k E6k 6k =
k=1 k=1
N N N
2
= Exx - 2 $ ! {" k } ! {( x,#k )} - 2 $ ! {" k } ! {( x,#k )} + '#$! {" k }%& E k k + g! ( t ) E k k.
6 6 6 6
Il valore d 2min del quadrato della distanza si ricava uguagliando a zero le derivate parziali della
[3.1.19] rispetto a 0{7k} e 8{7k}; si perviene allora al sistema:
N N
[3.1.20] # ! {( x,"k )} - # ! {" k } E k k = 0, 6 6
k=1 k=1
N N
[3.1.21] # ! {( x,"k )} - # ! {" k } E k k = 0, 6 6
k=1 k=1
ossia il segnale di errore x(t)- x! (t) della rappresentazione imperfetta risulta ortogonale a ogni
funzione 6k(t) e, di conseguenza, è ortogonale anche a x! (t) . Ciò comporta la relazione:
N
2 2 2
[3.1.23] d 2min = x - x! =E xx -! ! k E k k. 6 6
k=1
La rappresentazione in serie temporale di funzioni ortogonali è dunque soddisfacente per una data
classe di segnali se
lim d min =0 ,
N!"
k=1
Nello spazio funzionale L2 si consideri l’insieme ortogonale delle armoniche complesse troncate
nell’intervallo (-T/2, T/2):
!t$
[3.1.25] 6k(t) = e jk!t rect # & ,
"T%
dove k è intero, 2=2!/T e tutte le 6k(t) hanno la medesima energia E k k=T; si noti che per essere 6 6
T generico tali funzioni ampliano quelle usate nel caso dei segnali periodici. Con riferimento a un
qualsiasi segnale di energia g(t) a durata D limitata, si ottiene allora la rappresentazione in serie
temporale del tipo [3.1.10], in generale imperfetta:
N
t ! $
[3.1.26] g! ( t ) = " ! k e jk!t rect # & ,
k=1 "T%
dove i coefficienti 7k sono dati dalle:
1 1
T/2
[3.1.27] 7k =
E !k !k
( x,!k ) = "
T -T/2
g ( t ) e-jk!t dt ,
avendo eliminato dall’integrando la funzione rettangolare stanti i valori stabiliti come estremi di
integrazione.
A patto di estendere all’infinito la serie, ossia per N9), la rappresentazione considerata si rivela
soddisfacente per la classe dei segnali di energia che sono nulli all’esterno di un intervallo (tm, tM )
tutto contenuto entro (-T/2, T/2), condizione che implica necessariamente che la durata D= tM - tm
non sia maggiore di T; in Figura 3.1 è mostrato un esempio di segnale della classe menzionata.
Infatti, considerata una tale forma d’onda g(t) come quella da cui si genera la funzione periodica
x(t)=repT[g(t)], è allora lecito porre:
!t$
[3.1.28] g(t) = x(t) rect # & ;
"T%
servendosi della rappresentazione di x(t) in serie di Fourier (vedi [3.1.2]), si ha poi:
47
t ! $
[3.1.29] g(t) = "k Ck e jk!t rect # & ,
"T %
che confrontata con la [3.1.26] mostra che la rappresentazione, denominata serie di Fourier a
durata limitata, è soddisfacente per la classe dei segnali considerata, con durata D*T, purché si
usino i coefficienti di Fourier Ck=7k, ossia si ponga:
1
T/2
[3.1.30] Ck = " g(t)e-jk!t dt .
T -T/2
Figura 3.1: Segnale di energia a durata limitata e contenuta nell’intervallo (-T/2, T/2).
Rammentando le [3.1.17], vale inoltre la proprietà:
2
[3.1.31] T (k C k = Egg,
Figura 3.2: Segnale di energia a durata limitata esattamente contenuta nell’intervallo (t0-T/2,
t0+T/2).
Si segnala infine che la rappresentazione imperfetta con un numero N finito di addendi, applicabile
anche nel caso di segnali solo praticamente limitati nel tempo, può tornare utile per motivi di
calcolo numerico, sempre che si possa ottenere una sufficiente approssimazione.
3.1.4 Rappresentazione per interpolazione di campioni
Nello spazio funzionale L2 si consideri l’insieme ortogonale delle funzioni reali, con durata
illimitata e parametro Tc generico:
48
! t $
[3.1.32] 6k(t) = sinc # -k & ,
" Tc %
aventi tutte il medesimo valore dell’energia E k k=Tc. Con riferimento a un qualsiasi segnale di
6 6
energia reale a durata illimitata, ossia appartenente al medesimo spazio L2, si ottiene la
rappresentazione in serie temporale del tipo [3.1.10], in generale imperfetta:
N
! t $
[3.1.33] x! (t) = ! ! k si nc # -k & ,
k=1 " Tc %
dove i coefficienti 7k risultano reali e dati dalle:
1
1
' x (t ) sinc #" Tt -k &%dt .
! $
[3.1.34] 7k= (x,!k ) =
E !k !k Tc c
Grazie alla particolare proprietà delle funzioni ortogonali considerate, per cui nell’istante kTc la
k-esima funzione assume valore unitario e tutte le altre con h/k hanno valore nullo, si osserva che
la [3.1.33] per t=tk=kTc fornisce 7k= x! (kTc): i coefficienti sono pertanto i valori istantanei della
rappresentazione x! (t) negli istanti equispaziati tk.
Nell’intento di individuare le condizioni per cui la rappresentazione considerata diviene
soddisfacente, si evidenzia preliminarmente che occorre di norma assumere un numero N infinito
di funzioni ortogonali, stante la durata illimitata dei segnali da rappresentare. Con N infinito, si
ottiene poi che facendo tendere Tc a zero la rappresentazione è soddisfacente. Rammentando la
[2.3.44], dalla [3.1.34] si ottiene infatti:
1
' x (t ) sinc #" Tt -k &%dt
! $
[3.1.35] 7k = lim
Tc !0 Tc c
= " x (t ) ! (t-kT ) dt = x(kTc),
c
e poiché grazie alle proprietà delle funzioni considerate si ha anche 7k= x! (kTc), risulta che la
rappresentazione x! (t) ha in istanti estremamente tra loro ravvicinati gli stessi valori del segnale
x(t), così da consentire di porre, almeno per Tc90:
!t $
[3.1.36] x(t) = (k cksinc # -k & ,
" Tc %
dove i coefficienti reali sono i valori del segnale x(t), o campioni del segnale:
[3.1.37] ck=x(kTc),
negli istanti di campionamento equispaziati tk=kTc.
Come dimostrato in seguito, la rappresentazione sopra considerata, dovuta a Nyquist, è
soddisfacente con Tc non infinitesimo per una classe assai ampia di segnali di energia reali a
durata illimitata, purché si scelga Tc minore di un determinabile valore limite superiore TN,
denominato intervallo di Nyquist. La rappresentazione in serie temporale [3.1.16] ricostruisce
dunque il segnale per interpolazione dei campioni ck a intervallo di campionamento Tc<TN,
tramite infinite funzioni ottenute dall’impulso sinc per traslazione temporale kTc (vedi Figura 3.3).
Si ricava anche il seguente legame tra il modulo | x | del vettore e la energia del segnale:
50
N
[3.2.4] |x|2= x.x = ! x 2k = Exx.
k =1
Introducendo nella definizione di prodotto scalare nel dominio del tempo i segnali rappresentati
come combinazioni lineari delle funzioni di base 6k(t), si perviene al medesimo risultato, ossia si
ha:
Si noti che per (x,y)=0 i due vettori rappresentativi x e y sono effettivamente ortogonali nello
spazio dei segnali.
3.2.1 Ortogonalizzazione di Gram-Schmidt
Le 6(t) sono combinazioni lineari dei segnali xi(t); se questi sono linearmente indipendenti
esistono tutte le 6(t); altrimenti solo N"M di esse risultano non identicamente nulle.
Siano x(v) una funzione complessa, con codominio X, di una variabile indipendente reale v e w(z)
una funzione complessa, con codominio W, di una variabile indipendente z, in generale complessa
e diversa da v. In via del tutto generale una trasformazione, indicata con la notazione
[3.3.1] w(z) = T{x(v), z},
è definita come una legge di corrispondenza stabilita da un ente matematico, denominato
operatore, tra le funzioni di entrata x(v) e quelle di uscita w(z). La x(v) è denominata operando, la
w(z) è denominata trasformata.
Nel seguito si limita l’attenzione alle trasformazioni lineari, per le quali l’operatore soddisfa la
condizione di additività, in modo che vale la nota proprietà della sovrapposizione degli effetti:
[3.3.2] T{[c1x1(v) + c2x2(v)], z} = c1T{x1(v), z} + c2T{x2(v), z}.
In presenza di linearità e supponendo continui i domini delle variabili indipendenti, la
trasformazione può assumere l’espressione:
[3.3.3] T{x(v), z} = ! x (v) h (z,v) dv = (x (v),h (z,v)) ,
n
!
n
dove la funzione hn(z, v), in genere complessa, viene denominata nucleo della trasformazione
lineare.
Assumendo che l’operando sia un segnale x(t) tempo continuo (v=t) e che la variabile z non sia
una variabile temporale, si ha specificatamente una trasformazione lineare di segnale tempo
continuo e la trasformata, usualmente indicata con la lettera maiuscola:
[3.3.4] X(z) " T{x(t), z} = ! x (t ) h (z,t ) dt ,
n
assume il significato di rappresentazione del segnale x(t) nel dominio continuo di z, diverso da
quello temporale.
Un esempio tipico di trasformazione lineare di segnale tempo continuo è quello offerto dalla sua
rappresentazione nel dominio della frequenza con la trasformata di Fourier, in cui la variabile
z=f=%/2! è reale e il nucleo della trasformazione si particolarizza nella funzione:
[3.3.5] hn(f, t) = e-j!t .
52
Un secondo esempio è quello della trasformazione di Laplace, che permette la rappresentazione
dei segnali nel dominio della variabile complessa s=7+j%.
3.3.2 Trasformata di Fourier e sue proprietà
appartenente allo spazio funzionale L2 nel dominio della frequenza, denominata trasformata di
Fourier del segnale x(t).
La trasformazione considerata nella [3.3.7] è reversibile, ossia si ha la antitrasformata di Fourier:
[3.3.8] x(t) = " X (f ) e j!t
df = ( X ( f ),e-j!t ) ,
che appare come una rappresentazione soddisfacente con riferimento all’insieme continuo delle
funzioni [3.3.6]. Si osservi che nella [3.3.8] il segnale appare infatti composto da infinite
componenti armoniche complesse X(f) e j!t df.
Si usano spesso le notazioni:
X(f) " F {x ( t )} , x(t) " F -1 {X ( f )} .
La corrispondenza biunivoca tra il segnale nello spazio funzionale L2 nel dominio del tempo e la
sua trasformata di Fourier nello spazio L2 nel dominio della frequenza è poi indicata nel seguito
con la notazione:
x(t) ; X(f).
Si noti che per ottenere la trasformata di Fourier il segnale x(t) deve essere conosciuto sull’intero
dominio del tempo, ossia la rappresentazione considerata riguarda i segnali determinati; essa è
tuttavia formalmente applicabile anche a segnali di energia casuali quando l’aleatorietà riguardi
esclusivamente dei parametri.
La funzione complessa X(f), di norma espressa in modulo, |X(f)|, e in argomento, arg{X(f)}, è
rappresentabile graficamente con la coppia dei tracciati |X(f)| e arg{X(f)}, rispettivamente nei
piani |F|, f e arg{F}, f, denominati spettro di ampiezza e spettro di fase del segnale (vedi esempio
in Figura 3.5). La trasformata di Fourier viene pertanto anche indicata come lo spettro del segnale.
a) b)
Figura 3.5: Spettro di ampiezza (a) e spettro di fase (b) di un segnale.
53
Oltre che per i segnali di energia appartenenti allo spazio funzionale L2 nel dominio del tempo,
ossia quadraticamente integrabili, l’integrale che conduce alla funzione X(f) converge nel caso dei
segnali appartenenti a L1, cioè assolutamente integrabili. Inoltre la trasformata di Fourier può
esistere per segnali di altro tipo, come si constaterà in seguito.
3.3.2.2 Proprietà generali della trasformata di Fourier
Gli operatori che conducono alla trasformata e alla antitrasformata di Fourier godono anzitutto
della proprietà di linearità, ossia a una combinazione lineare a coefficienti costanti di più segnali
corrisponde la combinazione lineare, con i medesimi coefficienti, dei rispettivi spettri dei segnali,
e viceversa; è allora lecito porre:
[3.3.9] c1x1(t) + c2x2(t) +... ; c1X1(f) + c2X2(f)+...
In particolare, per un segnale complesso vale la corrispondenza biunivoca:
[3.3.10] xR(t)+jxI(t) ; F {x R ( t )} + j F {x I ( t )} .
La coppia di operatori manifesta inoltre la proprietà di dualità; posto che sia F{x(t)}=X(f),
scambiando nelle funzioni la variabile tempo con la variabile frequenza si ottiene infatti:
[3.3.11] F{X(t)}= x(-f).
Nella Tabella 3.1 sono riportate altre notevoli proprietà generali della trasformata di Fourier. Il
lettore è invitato a titolo di esercizio a seguire le dimostrazioni riportate nel paragrafo 3.3.3.
Tabella 3.1: Alcune notevoli proprietà della trasformata di Fourier
PROPRIETÀ SEGNALE TRASFORMATA
Scalatura x(at) 1 !f $
X# &
|a | "a%
Inversione di segno x(-t) X(-f )
Traslazione nel tempo x(t+t0) X(f) e j2!ft 0
Traslazione in frequenza x(t) e j2!f0t X(f-f0)
Coniugazione nel tempo x*(t ) X*(-f)
Coniugazione in frequenza x*(-t ) X*(f)
Derivazione nel tempo dn (j2!f)n X(f)
x( t )
dt n
Derivazione in frequenza (-j2!t)n x(t) dn
X(f)
dfn
Integrazione nel tempo " x(t)dt X(f)
j2" f
3.3.2.3 Proprietà di convoluzione della trasformata di Fourier
Due ulteriori importanti proprietà della trasformata di Fourier fanno riferimento alla operazione
denominata integrale di convoluzione tra due segnali tempo continui, in generale complessi,
indicata con la notazione x(t)$y(t) e definita mediante la espressione:
[3.3.12] x(t)$y(t) = " x(v) y(t - v) dv ,
dove v è una variabile temporale. L’operatore introdotto, che come si constaterà in seguito, ha una
notevole rilevanza, è applicabile tanto a una coppia di segnali di energia, quanto a un segnale di
energia e uno di potenza; nel primo caso si ottiene un segnale di energia, mentre nel secondo si ha
un segnale di potenza.
54
L’operazione di convoluzione gode delle proprietà associativa, distributiva e commutativa, tipiche
dell’usuale operazione di prodotto; in particolare è indifferente all’ordine dei due segnali, per cui
si ha:
[3.3.13] " x(v) y(t - v) dv = " y(v) x(t - v) dv .
Applicando l’operatore della trasformata di Fourier all’integrale di convoluzione tra una coppia di
segnali di energia e servendosi della proprietà di traslazione nel tempo, si ottiene:
[3.3.14] (x(t) " y(t),e j # t ) = ## x(v) y(t - v)e dvdt = # x(v)[ # y(t - v)e
-j " t -j" t
]
dt dv =
# x(v)Y (f)e dv = X(f) Y(f),
-j" v
e cambiando f con -f :
[3.3.18] X(-f) = " x (t ) cos!t dt +j " x (t )sin!t dt = X (f) - jXI(f).
R R R
La trasformata X(f) di un segnale reale risulta dunque una funzione hermitiana, ossia si ha la
proprietà particolare:
[3.3.19] x( t ) = x*( t ) ; X(f) = X*(-f);
lo spettro di ampiezza è dunque una funzione pari, |X(f)|=|X(-f)|, mentre quello di fase è una
funzione dispari, arg{X(f)}=-arg{X(-f)}.
Dalla osservazione degli andamenti degli spettri mostrati a titolo di esempio in Figura 3.5, si può
dedurre che il segnale a cui tali spettri si riferiscono è reale.
Se poi il segnale oltre che reale è una funzione pari, anche la sua trasformata gode della medesima
particolarità, ossia si ha la proprietà, ancora più particolare:
[3.3.20] x( t ) = x*( t ) = x(-t ) ; X(f) = X*(f) = X(-f).
3.3.3 Dimostrazioni di alcune proprietà della trasformata di Fourier
Proprietà di scalatura
[3.3.21] F{x(at)}= # x ( at ) e! j"t dt ;
a) b)
Figura 3.6: Impulso rettangolare unitario nel tempo (a) e suo spettro (b).
Il segnale sinc(t/T), con la forma d’onda mostrata in Figura 3.7a, è un classico esempio di segnale
ancora appartenente alla spazio L2, ma a durata illimitata. A partire dalla [3.3.22], applicando le
proprietà di dualità e scalatura della trasformata di Fourier si ottiene direttamente la seguente
espressione:
[3.3.38] F{sinc(t/T)} = T rect(fT),
ancora di tipo reale e pari, con il solo spettro di ampiezza tracciato in Figura 3.7b.
a) b)
Figura 3.7: Segnale sinc(t/T) nel tempo (a) e suo spettro (b).
57
I due segnali considerati si scambiano dunque tra loro passando dalla rappresentazione nel
dominio del tempo a quella nel dominio della frequenza. In particolare, il primo è limitato nel
tempo e illimitato in frequenza, mentre il secondo è illimitato nel tempo e limitato in frequenza.
3.3.4.2 Trasformata di segnali particolari
Come già accennato, la trasformata di Fourier può convergere anche nel caso di segnali particolari,
che non sono né quadraticamente, né assolutamente integrabili, ovverosia che non appartengano né
allo spazio funzionale L2, né a quello L1.
Nel caso dell’impulso ideale, rammentando la sua proprietà di campionamento si ha ad esempio:
[3.3.39] (+(t), e j!t ) = # ! (t) e -j"t
dt = e-j!t
t=0
= 1,
per cui si può evidenziare la trasformata di Fourier del segnale costante nel tempo e unitario:
[3.3.42] F{1} = +(f).
Allo scopo di determinare la trasformata di Fourier di altri segnali particolari è opportuno fare
riferimento al segnale unitario a decadimento esponenziale, e-t/T u(t) con T>0, che appartiene allo
spazio L2; come il lettore può ricavare a titolo di esercizio, il segnale considerato ha la trasformata:
T T
[3.3.43] F {e-t /T u ( t )} = = .
1+ j!T 1+ j2!fT
In base a tale ultima espressione e ponendo:
[3.3.44] sgn(t) = lim {e-t /T u ( t ) -e t /T u (-t )} ,
T!"
Pur essendo un segnale di potenza, anche una generica armonica complessa A e j(!ot+! ) , a frequenza
f0=20/2!=1/T0 e con ampiezza A e fase &, ammette la trasformata di Fourier. Poiché si ottiene:
, e j!t ) = Ae j! $ e ( dt ,
j "0 -#)t
[3.3.47] (A e (
j !0 t+")
calcolando l’integrale con gli estremi -T/2 e T/2 e poi passando al limite per T9) (il lettore
interessato faccia anche riferimento alla [2.3.43]) risulta infatti:
[3.3.48] F Ae (
{ j !o t +")
} = Ae j!
+(f-f0).
Nel caso di una generica armonica reale, tenuto conto che si può porre:
58
1 # j(!ot +") -j(!ot +") %
[3.3.49] A cos(20t + &) = A e +e &,
2 $
si ottiene la trasformata di Fourier:
1 1
[3.3.50] F{A cos(20t + &)} = A e j! +(f-fo) + A e-j! +(f+f0),
2 2
che come atteso, per essere reale il segnale, è una funzione hermitiana nella frequenza. Lo spettro,
nullo per ogni f tranne che in corrispondenza dei valori discreti ±fo, si denomina discreto o spettro
a righe, dato che viene convenzionalmente disegnato, come mostrato in Figura 3.8, con righe di
altezza uguale al modulo oppure all’argomento dell’area di ciascuna componente discreta.
Figura 3.8: Raffigurazione convenzionale dello spettro discreto di ampiezza (a) e di fase (b) di un
segnale armonico reale.
3.3.5 Affinità tra segnali di energia rappresentati in frequenza
Nel paragrafo 2.5.1 sono state svolte interessanti considerazioni sull’affinità tra due generici
segnali di energia x(t) e y(t), a partire dalla funzione di intercorrelazione Cxy(-) desumibile dai loro
andamenti in funzione del tempo. Si desidera in questa sede approfondire l’argomento,
supponendo di conoscere le rappresentazioni in frequenza dei segnali, ossia le trasformate di
Fourier X(f) e Y(f).
Se si effettua il cambio di variabile da t a -v nell’integrale che definisce la funzione di
intercorrelazione tra una coppia di segnali di energia, questa assume la forma del particolare
prodotto di convoluzione (vedi [3.3.12]):
[3.3.51] Cxy(-) = (x(t+-), y(t)) = x(-)$y*(--),
stabilendo così una interessante relazione tra le due funzioni. In base alla proprietà di
convoluzione nel tempo (vedi [3.3.15]) della trasformata di Fourier risulta allora:
[3.3.52] F {Cxy(-)} = X(f) Y*(f).
Si ottiene di conseguenza la seguente espressione della funzione di intercorrelazione in funzione
degli spettri dei segnali:
[3.3.53] Cxy(-) = F -1 {X ( f ) Y! ( f )} = # X (f ) Y (f ) e
* j!"
df ;
che mostrano come tale grandezza abbia nel dominio della frequenza una forma duale rispetto a
quella della sua definizione nel dominio del tempo.
L’ultimo membro della [3.3.53] permette di individuare una interessante condizione sufficiente
perché i due segnali siano privi di ogni affinità, ossia risultino incorrelati: se infatti gli spettri dei
due segnali sono diversi da zero in intervalli di frequenza separati si ha X(f)Y*(f)"0, ossia
l’integrando è nullo per ogni frequenza, in modo che la funzione di intercorrelazione risulta
identicamente nulla per ogni -, ossia si verifica Cxy(-)"0.
59
Con analogo ragionamento sulla [3.3.54], la menzionata separazione in frequenza di una coppia di
segnali è anche condizione sufficiente, ma non necessaria per la loro ortogonalità, così come è
stato già osservato per la separazione nel tempo, che comporta x(t)y*(t)"0.
Si rammenta che la massima affinità in senso lato si verifica se e solo se i segnali sono tra loro
fedeli, ossia sussiste la relazione y(t)=g e- j! x(t-to); passando alle rappresentazioni in frequenza si
ottiene allora la corrispondente espressione:
[3.3.55] Y(f) = gX(f) e
- j(!t o +" )
,
per cui la generica famiglia di segnali di energia fedeli è caratterizzata in frequenza da spettri di
ampiezza proporzionali e da differenze degli spettri di fase con andamenti lineari (proporzionali
nel caso di segnali reali con g>0).
3.3.6 Spettri di energia
Rammentando che il valore nell’origine Cxx(0), per -=0, fornisce l’energia Exx del segnale, si
ricavano allora le seguente espressioni:
2
dt = ! X ( f ) df ;
2
[3.3.57] Exx = ! x (t)
esse mostrano come nel dominio della frequenza la energia abbia forma duale rispetto a quella
della sua definizione nel dominio del tempo (teorema di Parseval) e inoltre suggeriscono la
denominazione di densità spettrale di energia, o spettro di energia, per il quadrato dello spettro di
ampiezza:
[3.3.58] Exx(f) = X(f) X*(f) = |X(f)|2,
funzione, sempre reale, che rivela con il suo andamento come l’energia si distribuisca sull’asse
delle frequenze.
Trasformando ambo i membri della [3.3.56] si perviene alla seguente relazione nel dominio della
frequenza, denominata di Wiener-Khintchine:
[3.3.59] Exx(f) = F{Cxx(-)} = # C ( !) e
xx
- j"!
d! ,
da cui risulta in modo diretto che lo spettro di energia è la trasformata di Fourier della funzione di
autocorrelazione.
Nel caso particolare, ma frequente, di segnale reale la funzione di autocorrelazione è reale e pari;
di conseguenza anche lo spettro di energia assume le medesime caratteristiche, ossia si ha
Exx(f)=Exx(-f).
Nelle rappresentazioni grafiche la funzione Exx(f) è preferita rispetto allo spettro di ampiezza
|X(f)|, e spesso non viene tracciata direttamente, ma tramite la sua espressione in decibel:
E (f)
E[dB] = 10 log xx ,
E xxM
prendendo come riferimento il suo valore massimo, indicato con ExxM. Per tale via risulta infatti
possibile evidenziare valori molto piccoli rispetto a quello massimo, come mostrato nell’esempio
in Figura 3.9 che si riferisce allo spettro di energia dell’impulso rettangolare, Exx(f)=T2 sinc2(fT).
60
funzioni complesse. Si noti che trasformando ambo i membri della [3.3.53] si perviene alla
seguente relazione nel dominio della frequenza:
[3.3.62] Exy(f) = F{Cxy(-)} = # C ( !) e
xy
- j"!
d! .
In generale non sono sommabili nemmeno le energie dei due segnali, dato che procedendo alla
integrazione sull’intero asse delle frequenze risulta:
[3.3.63] Ezz = ! E (f )df = Exx + Eyy+ 2 & !"#E (f )$%df .
zz xy
Se i segnali sono privi di ogni affinità, ossia sono incorrelati, come accade nel caso della
separazione in frequenza, le densità spettrali mutue sono identicamente nulle: di conseguenza i
segnali risultano sia sommabili in spettro di energia, che sommabili in energia. La incorrelazione è
condizione necessaria e sufficiente affinché due segnali siano sommabili in spettro di energia,
mentre è condizione sufficiente, ma non necessaria affinché essi siano sommabili in energia.
Infatti, tale situazione si verifica anche se risulta:
[3.3.64] & !"#E (f )$%df = 0,
xy
con densità spettrale mutua di energia non identicamente nulla. Tenuto conto della [3.3.62],
l’integrale a primo membro nella [3.3.64] corrisponde al valore nell’origine (per -=0) della
funzione di intercorrelazione, ossia al prodotto scalare; si può pertanto affermare che due segnali
ortogonali, per cui si ha Cxy(0)=0, sono sempre sommabili in energia.
61
3.3.7 Spettri di potenza
da cui risulta in modo diretto che lo spettro di potenza è la trasformata di Fourier della funzione di
autocorrelazione. Passando al dominio del tempo, per -=0 si ricava inoltre:
[3.3.67] Wxx = Rxx(0) = ! W (f ) df .
xx
funzioni complesse per cui valgono le seguenti relazioni nel dominio della frequenza:
[3.3.70] Wxy(f) = F{Rxy(-)}, Wyx(f) = F{Ryx(-)}.
In generale non sono sommabili nemmeno le potenze dei due segnali, dato che procedendo alla
integrazione sull’intero asse delle frequenze risulta:
[3.3.71] Wzz = ! W (f )df = Wxx + Wyy + 2 & !"#W (f )$%df .
zz xy
Se i segnali sono incoerenti, come accade nel caso della separazione in frequenza che applicato
alle [3.3.69] comporta Wxy(f) " Wyx(f)"0, i segnali risultano sia sommabili in spettro di potenza,
che sommabili in potenza. La incoerenza è condizione necessaria e sufficiente affinché due segnali
siano sommabili in spettro di potenza, mentre è condizione sufficiente, ma non necessaria affinché
essi siano sommabili in potenza: infatti tale situazione si verifica anche se risulta:
[3.3.72] & !"#W (f )$%df = 0,
xy
con densità spettrale mutua di potenza non identicamente nulla. Tenuto conto della [3.3.70],
l’integrale a primo membro nella [3.3.72] corrisponde al valore nell’origine (per -=0) della
funzione di intercorrelazione; si può pertanto affermare che due segnali per cui risulti Rxy(0)=0
sono sempre sommabili in potenza.
62
3.3.8 Estensione spettrale dei segnali reali
ancora con differenza relativa rispetto alla potenza W molto inferiore a uno (ad esempio inferiore a
0,01).
Per qualsiasi segnale reale, si può allora definire la larghezza di banda monolatera, o
semplicemente la banda, mediante la:
[3.3.75] B = fM – fm,
e si ha la denominazione di segnale limitato in banda. Introdotta la frequenza centrale della
banda:
1
[3.3.76] fa = (f +f ) ,
2 M m
si considera spesso anche la banda relativa del segnale reale:
B f -f
[3.3.77] =2 M m .
fa fM +fm
Sempre con riferimento al generico segnale reale, nel seguito si adotteranno le definizioni che
seguono. Un segnale in banda base è quello in cui gli estremi della banda monolatera, teorica o
pratica, rispettano la condizione:
[3.3.78] 0"fm<<fM ;
si può allora confondere la banda con la frequenza massima, ponendo B<fM, e la frequenza di
centro banda con la metà della sua larghezza. Di norma in tali casi (vedi esempi in Figura 3.10 e
Figura 3.11a) non interessa fare riferimento alla banda relativa, che comunque è attorno al valore
2. Un segnale a banda relativa contenuta è caratterizzato da una banda relativa, teorica o pratica,
che rispetta la condizione:
B 2
[3.3.79] < , ossia fM<2fm;
fa 3
si deduce anche immediatamente che la banda risulta minore della frequenza minima, ossia si ha
B<fm (vedi esempio in Figura 3.11a). Nell’ambito di tale seconda categoria, si possono poi
distinguere segnali a banda relativa stretta, per cui risulta anche B<<fa, e ancora segnali a banda
relativa molto stretta, con B minore di fa per più di un ordine di grandezza.
64
Alla prima categoria di segnali, con fM>>fm, appartengono di norma quelli direttamente forniti
dalle sorgenti di informazione o che sono il frutto di trattamenti compiuti su una molteplicità di
segnali di sorgente allo scopo di ottenere delle forme d’onda evolute, capaci di veicolare su una
medesima via fisica tutta la informazione posseduta dall’insieme dei segnali trattati.
Fanno parte della seconda categoria, con fM<2fm, i segnali che in seguito a particolari elaborazioni
effettuate a partire dalla loro forma in banda base hanno assunto una nuova rappresentazione, assai
spesso con B<<fa, più consona alle caratteristiche dei mezzi di trasmissione per grande distanza.
3.3.9 Spettri discreti di segnali periodici
che mostra come la rappresentazione nel dominio della frequenza di un generico segnale periodico
sia di tipo discreto, in corrispondenza dei valori kf0 delle componenti armoniche, con spettro
composto da righe tutte tra loro spaziate a intervallo f0=1/T0 e con valori, in generale complessi,
forniti dai coefficienti di Fourier.
Come mostrato nel paragrafo 3.3.9.2, lo spettro di potenza può essere ottenuto come trasformata di
Fourier della funzione di autocorrelazione temporale. Per tale via si ottiene lo spettro discreto di
potenza:
2
[3.3.81] Wxx(f) = !k C k +(f - kf0),
scambiando l’ordine tra integrale e sommatoria, con il cambio di variabile v=t-nT0 e tenuto conto
che si ha e-jk20nT0=1, si ricava poi:
-nT +T /2
1 0 0
1 1
[3.3.85] Ck =
T0
(n " g ( v ) e-jk!0v dv =
T0 ! g (v)e -jk"0 v
dv =
T0
G(kf0),
-nT -T /2
0 0
che permette di calcolare i coefficienti di Fourier in base alla conoscenza della trasformata di
Fourier G(f) della funzione generatrice g(t).
Utilizzando le precedenti espressioni dei coefficienti di Fourier si ottiene in definitiva la
rappresentazione in serie temporale, denominata somma di Poisson:
1
[3.3.86] x(t) = repT0[g(t)] = ( G(kf0) ejk20t,
T0 k
e la conseguente rappresentazione spettrale discreta del segnale periodico:
1
[3.3.87] X(f) = F{repT0[g(t)]} = ( G(kf0) +(f - kf0).
T0 k
Ancora, non avendo espresso alcuna ipotesi limitativa sulla durata della funzione generatrice,
quest’ultima può essere particolarizzata nel segnale troncato in un periodo xT0(t)=x(t)rect(t/T0);
indicata con XT0(f) la corrispondente trasformata di Fourier, risultano allora i coefficienti:
1
[3.3.88] Ck = XT0(kf0).
T0
3.3.9.4 Spettro del segnale replica dell’impulso ideale
Si consideri il particolare segnale periodico definito come replica a intervallo T0 dell’impulso
ideale nel tempo:
[3.3.89] repT0[+(t)] = (h +(t - hT0).
In base alla rappresentazione nel tempo con la somma di Poisson (vedi [3.3.86]) e rammentando
che la particolare funzione generatrice, ossia l’impulso ideale, ha trasformata con valore costante
unitario, si ricava l’espressione:
1
[3.3.90] repT0[+(t)] = ( ejk20t,
T0 k
dalla quale si deduce che tutti i coefficienti di Fourier del particolare segnale periodico considerato
sono uguali all’inverso del periodo. Confrontando le due precedenti espressioni si ottiene inoltre la
relazione:
66
"
[3.3.91] T0(h +(t - hT0) = (k ejk20t = 1+2# cos k!0 t .
k=1
Ponendo Ck=1/T0 nella espressione [3.3.80] dello spettro del generico segnale periodico, risulta:
1 1
[3.3.92] F{repT0[+(t)]} = ,k +(f - kf0) = repf0[+(f)],
T0 T0
ossia si dimostra che lo spettro discreto della replica a intervallo T0 dell’impulso ideale nel tempo
è, a meno del fattore 1/T0, la replica a intervallo f0 dell’impulso ideale in frequenza. Lo spettro
considerato viene a volte denominato pettine di righe spettrali e la replica corrispondente pettine di
righe temporali.
Poiché F{+(t)}=1, grazie alle proprietà di linearità e di traslazione nel tempo della trasformata di
Fourier si ottiene:
[3.3.93] F{repT0[+(t)]} = (h e-jh2!fT0 ;
confrontando tale espressione con la precedente si ottiene la relazione:
1 "
[3.3.94] ( k +(f - kf0) = (h e-jh2! fT0 = 1+2# cosh!T0 ,
T0 h=1
che nel dominio della frequenza ha la forma analoga a quella della relazione [3.3.76] nel dominio
del tempo.
Come noto (vedi [3.1.29]), un segnale di energia g(t) a durata finita nell’intervallo (-D/2, D/2) è
rappresentabile nel dominio del tempo tramite lo sviluppo in serie di Fourier a durata limitata entro
un intervallo (-T/2, T/2), purché sia stato scelto T>D, con i coefficienti di Fourier Ck dati dalla
[3.1.30]. Indicata con G(f) la trasformata di Fourier del segnale g(t) considerato, come dimostrato
nel paragrafo 3.4.2 si ricava:
[3.4.1] G(f) = (kG(k/T) sinc[(fT-k)],
dove i campioni G(k/T) alle frequenze di campionamento equispaziate fk=k/T sono
semplicemente legati ai coefficienti della serie di Fourier tramite la:
[3.4.2] G(k/T) = T Ck.
La rappresentazione [3.4.1], nota come teorema del campionamento nel dominio della frequenza,
ricostruisce perfettamente lo spettro per interpolazione dei suoi campioni alle frequenze multiple
di 1/T, purché sia soddisfatta la condizione rispetto alla durata D del segnale:
[3.4.3] T>D.
Le rappresentazioni ottenute per campioni dello spettro sono da tenersi presenti anche per segnali
che siano solo praticamente limitati nel tempo, per i quali (ad esempio per motivi di calcolo
numerico) si assume la esistenza di una durata pratica finita.
3.4.2 Dimostrazione del campionamento nel dominio della frequenza
si osserva che ponendo nell’ultimo membro della [3.4.4] %k=k2=2!k/T si ottiene la elementare
relazione [3.4.2] tra i coefficienti Ck e i campioni G(k/T) dello spettro alle frequenze discrete
multiple di 1/T. Allora la rappresentazione nel tempo in serie di Fourier assume l’aspetto:
1 !t$
[3.4.6] g(t) = (k G(k/T) ejk2t rect # & .
T "T%
Applicando la trasformazione di Fourier ad ambo i membri della espressione precedente e
rammentando la proprietà di convoluzione in frequenza, si ottiene:
1 1
[3.4.7] G(f) = (k G(k/T) F{ejk2t}$F{ rect(t/T) } = (k G(k/T) +(f - k/T) $ Tsinc(fT) =
T T
!k$
= - G # & ( ' ( v-k/T ) sinc )*( f-v) T+, dv ;
k "T%
in virtù della proprietà fondamentale dell’impulso ideale, si ricava infine la rappresentazione per
interpolazione di campioni [3.4.1].
3.4.3 Campionamento nel dominio del tempo
La rappresentazione per interpolazione di campioni nel dominio del tempo, duale rispetto a quella
[3.4.1] nel dominio della frequenza, è già stata introdotta nel paragrafo 3.1.4 come un caso
particolare di serie temporale con funzioni ortogonali. È stato tuttavia anticipato, ma non
dimostrato, che la rappresentazione può essere rigorosamente soddisfacente solo per una
opportuna classe di segnali reali di energia a durata illimitata. In questa sede si intende dimostrare
tale enunciato, che costituisce il teorema del campionamento nel dominio del tempo.
Effettuando la trasformata di Fourier su entrambi i membri della rappresentazione per
interpolazione dei campioni (vedi [3.1.36]), si ottiene:
' ! t $*
[3.4.8] X( f ) = (k ck F (sinc # -k &+ = Tc (k x(kTc) e-jk 2!fTc rect(fTc),
) " Tc %,
in cui, considerando la variabile t in luogo della frequenza f e il parametro T al posto di fc=1/Tc si
riconosce una rappresentazione in serie di Fourier del tipo [3.1.29]. In base a quanto dimostrato in
precedenza essa è dunque valida purché fc sia maggiore o uguale alla estensione dell’intervallo
all’esterno del quale deve essere nulla la funzione X(f); supposto che il segnale considerato abbia
spettro strettamente limitato con frequenza massima fM, ossia entro l’intervallo di estensione 2fM,
si ottiene allora la seguente condizione affinché sia soddisfacente la [3.1.33] e quindi la
rappresentazione per interpolazione dei campioni nel tempo:
[3.4.9] fc>2fM,
ossia
1
[3.4.10] Tc<TN = ,
2fM
dove TN è il già menzionato intervallo di Nyquist.
Riassumendo, la rappresentazione per interpolazione di campioni nel dominio del tempo è
rigorosamente soddisfacente per la classe dei segnali reali di energia a durata illimitata, ma con
spettro strettamente limitato in frequenza, a patto che l’intervallo di campionamento rispetti la
condizione [3.4.10].
68
La rappresentazione per campioni risulta anche valida per segnali reali di potenza, sempre che essi
siano strettamente limitati in banda e sia soddisfatta la condizione [3.4.10] sull’intervallo di
campionamento.
Infine, nel caso di segnali solo praticamente limitati in banda l’approssimazione della
rappresentazione è tanto migliore, quanto più sono trascurabili le componenti spettrali escluse
dalla banda pratica.
Figura 3.13: Esempio di spettro di ampiezza di un segnale reale (a) e corrispondente spettro
diverso da zero, e doppio, sul solo semiasse positivo delle frequenze (b).
La menzionata ridondanza nel dominio della frequenza può essere eliminata facendo riferimento
allo spettro, anch’esso completamente rappresentativo, definito dalla:
[3.5.1] Ax(f) = X(f) [1+ sgn(f)] = 2X+(f),
diverso da zero sul solo asse positivo e ivi pari al doppio dello spettro di x(t) (vedi Figura 3.13b);
poiché Ax(f) non è hermitiana, il segnale ax(t)=F-1{Ax(f)}, ottenibile come antitrasformata di
Fourier e denominato segnale analitico, risulta però complesso.
Procedendo dalla [3.5.1], con la proprietà di convoluzione nel tempo si ottiene la seguente
espressione del segnale analitico:
[3.5.2] ax(t) = F -1{X(f) [1+ sgn(f)]} = x(t) + x(t) $ F -1{sgn(f)},
che può essere posta nella forma (il lettore interessato ad approfondire è inviato al paragrafo
3.5.1.5):
69
[3.5.3] ax(t) = x(t) + j x̂ ( t ) ,
dove x̂(t) è un segnale reale in corrispondenza biunivoca con x(t), denominato sua trasformata di
Hilbert. Il segnale analitico è dunque certamente rappresentativo di quello reale x(t), che infatti si
desume da ax(t) con la semplice relazione:
[3.5.4] x(t) = 0{ax(t)}.
È opportuno notare che mentre il segnale reale x(t) è ridondato nella sua rappresentazione in
frequenza, per definizione il corrispondente segnale complesso ax(t) non ha più tale caratteristica,
ma è invece ridondato nel tempo, essendo rappresentativa anche la sua sola parte immaginaria.
Seppure introdotto in base alla sua trasformata di Fourier, il segnale analitico risulta in
corrispondenza biunivoca con x(t) tramite relazioni nel dominio del tempo che sussistono anche se
non sono applicabili gli operatori di Fourier. Ciò permette di servirsi della rappresentazione
complessa con ax(t) anche nel caso di segnale di potenza, purché esso oltre che reale sia a valore
medio nullo, ossia valga la x =0.
3.5.1.2 Inviluppo complesso
Si consideri un segnale di energia reale x(t) a banda monolatera limitata, con estremi fm e fM, e la
sua rappresentazione tramite lo spettro Ax(f)=2X+(f) del segnale analitico (vedi [3.5.1]), che risulta
per definizione diverso da zero nel solo intervallo (fm, fM) e deve essere nullo nell’origine nel caso
di fm=0. Assunto come riferimento una frequenza nota fc arbitraria, purché appartenente al
menzionato intervallo (fm*fc*fM), si consideri poi lo spettro traslato Ax(f+fc), che in tal modo
comprende l’origine dell’asse delle frequenze, come mostrato nell’esempio in Figura 3.14.
che permette di ricostruire in modo semplice il segnale reale x(t) a partire dal suo corrispondente
inviluppo complesso !x(t), una volta nota la frequenza arbitraria di riferimento fc.
L’andamento dello spettro X(f) del segnale è ottenibile da quello dell’inviluppo complesso,
Ix(f)=Ax(f+fc), con le operazioni di traslazione in frequenza della quantità fc, ribaltamento e
coniugio, evidenziate nella:
1
[3.5.7] X(f) = [ I x (f-fc ) + I!x (-f-fc ) ].
2
70
La precedente ricostruzione dello spettro è schematicamente illustrata in Figura 3.15, dove si può
notare come si ricavano i due addendi, riferendosi per semplicità solo ai moduli. In effetti I x ( f-fc )
si ottiene con una semplice traslazione in frequenza, mentre I!x (-f-fc ) richiede in aggiunta un
ribaltamento rispetto alla origine e un coniugio.
Figura 3.15: Esempio di spettro di ampiezza dell’inviluppo complesso (a) e di ricostruzione dello
spettro di ampiezza del segnale reale (b).
Si noti che mentre lo spettro X(f) è hermitiano, tale proprietà non è invece in generale soddisfatta
per Ix(f), a meno che non sia possibile scegliere un valore della frequenza fc per cui sia soddisfatta
la particolare condizione:
[3.5.8] X+(fc+f) = X!+ (fc-f),
nella quale il semispettro X+(f) risulta simmetrico in ampiezza e antimetrico in fase rispetto alla
frequenza fc. Risultando allora hermitiano lo spettro Ix(f), l’inviluppo complesso diviene reale.
Seppure introdotto in base alla trasformata di Fourier del segnale analitico, l’inviluppo complesso
risulta in corrispondenza biunivoca con il segnale analitico ax(t), e quindi con il segnale x(t),
tramite relazioni nel dominio del tempo che sussistono anche se non sono applicabili gli operatori
di Fourier. Ciò permette di servirsi della rappresentazione complessa tramite = x(t) anche nel caso di
segnale di potenza, purché esso oltre che reale sia a valore medio nullo.
3.5.1.3 Caratteristiche dell’inviluppo complesso
Si osserva innanzi tutto che la rappresentazione tramite l’inviluppo complesso consente di
estendere ai segnali la notazione complessa di Steinmetz, tipica della elettrotecnica, per la quale si
rammenta che si ha:
[3.5.9] a(t)=! { Ae j!ct } ,
dove il fasore complesso A=Aej , con modulo A e argomento 7 costanti reali, è rappresentativo
7
solo della funzione del tipo a(t)=A cos(%ct+7), armonica pura alla frequenza fc=%c/2!, di ampiezza
A e fase 7. Esplicitando un generico inviluppo complesso =(t) in modulo, |=(t)| = =(t), e argomento,
arg{=(t)}=7(t):
[3.5.10] =(t) = =(t) e
j!( t )
,
71
nel piano complesso 0,8 il segnale considerato può essere infatti raffigurato tramite un vettore
(vedi Figura 3.16): esso tuttavia non è più costante, come apparirebbe il fasore A, ma variabile nel
tempo.
ossia l’energia dell’inviluppo complesso ha valore doppio di quella del segnale di cui è
rappresentativo:
[3.5.13] E = == " ! (t ) dt
2
= 2Exx;
tale risultato è in linea con la natura ridondata nel tempo, e non più nella frequenza, dell’inviluppo
complesso, analoga a quella del segnale analitico a cui è strettamente legato per definizione.
Inoltre, l’energia risulta dalla somma delle energie delle sue componenti reale ac(t) e immaginaria
ac(t); infatti a partire dalla [3.5.11] si ottiene:
[3.5.14] E =
== ! a (t ) dt + ! a (t ) dt
2
c
2
s = Eacac + Easas.
Alle due precedenti espressioni ne corrispondono altre analoghe per il caso di segnali reali di
potenza a valore medio nullo, ottenibili per semplice sostituzione delle energie con le potenze.
3.5.1.4 Segnali analitici sinistro e destro
Una volta indicate con x-(t)=F-1{X-(f)} e x+(t)=F -1{X+(f)} le rispettive antitrasformate delle due
porzioni dello spettro di x(t) che si estendono rispettivamente sul solo semiasse negativo o positivo
delle frequenze, essendo X(f)=X-(f)+X+(f) grazie alla linearità dell’operatore di Fourier si ha:
[3.5.15] x(t) = x-(t) + x+(t),
ossia anche nel dominio del tempo il segnale appare scomponibile in due segnali complessi,
denominati segnale analitico sinistro e segnale analitico destro.
Stante la relazione X-(f)= X!+ (-f ) che deriva dalla hermitianità della trasformata X(f), applicando
ad essa la proprietà di coniugazione nel tempo si ottiene:
72
[3.5.16] x-(t) = x!+ ( t ) ,
ossia i due segnali sono l’uno il coniugato dell’altro. Rammentando che si è posto Ax(f)=2X+(f), si
ha ax(t)=2x+(t) e quindi in base alla [3.5.3] si ottengono le relazioni:
1 1
[3.5.17] x+(t) = [x(t) + j x̂ ( t ) ], x-(t) = [x(t) - j x̂ ( t ) ] ;
2 2
i segnali analitici sinistro e destro sono dunque entrambi rappresentativi del segnale reale x(t). Si
hanno poi le relazioni di inversione:
[3.5.18] x(t) = 20{x-(t)} = 20{x+(t)},
che consentono di determinare in modo assai semplice il segnale reale x(t) una volta noto uno
qualsiasi dei due segnali complessi considerati.
Dato che per definizione gli spettri di x-(t) e x+(t) sono separati sull’asse delle frequenze, le densità
spettrali mutue di energia sono identicamente nulle; quindi i due segnali sono tra loro incorrelati e,
a maggiore ragione, ortogonali.
3.5.1.5 Trasformata di Hilbert
Nel paragrafo 3.5.1.1 è stata introdotto il segnale reale x̂ ( t ) , per cui si è posto (vedi [3.5.2] e
[3.5.3]):
[3.5.19] x(t) $ F-1{sgn(f)} = j x̂ ( t ) .
e si ha la relazione inversa,
[3.5.25] X(f) = jsgn(f) X̂ ( f ) .
Tenendo presente anche la [3.5.25], si determinano le seguenti relazioni a riguardo degli spettri
mutui di energia e delle funzioni di intercorrelazione:
[3.5.29] E xx̂ ( f ) = - E x̂x ( f ) = jsgn(f) Exx(f), C xx̂ ( ! ) = - C x̂x ( ! ) .
Posto -=0 nell’ultima relazione e tenuto conto che le funzioni di intercorrelazione sono reali, i
segnali x(t) e x̂(t) risultano ortogonali; dato che entrambi gli spettri mutui di energia sono
puramente immaginari, ossia si ha 0{ E xx̂ ( f ) }=0, i due segnali considerati sono poi anche
sommabili in spettro di energia (vedi [3.3.45]), oltre che in energia.
Si rammenta che la trasformata di Hilbert, come il segnale analitico, è applicabile anche ai segnali
reali di potenza, purché essi siano a valore medio nullo. In tale caso valgono le relazioni analoghe
alle [3.5.28] e [3.5.29], ottenute sostituendo le funzioni del tipo E(f) e C(! ) con le corrispondenti
del tipo W(f) e R(-); in particolare le densità spettrali mutue di potenza, Wx̂x ( f ) = Wx!x̂ ( f ) , sono
puramente immaginarie, ossia si ha 0{ Wxx̂ ( f ) }=0, per cui il segnale x(t) e la sua trasformata di
Hilbert x̂ ( t ) risultano sommabili in spettro di potenza (vedi [3.3.53]), oltre che in potenza.
Nel caso di segnale di energia, applicando l’operatore di Fourier alla [3.5.31] e servendosi della
[3.5.24] si ricava lo spettro di ac(t):
[3.5.33] Ac(f)=X(f) $ F{cos(%ct)} – j [sgn(f)X(f)] $ F{sin(%ct)} ;
essendo F{cos(%ct)}= [+(f - fc) + +(f + fc)]/2 e F{sin(%ct)}= - j [+(f - fc) - +(f + fc)]/2 si ha poi:
1 1
[3.5.34] Ac(f) = { X ( f )!"1-sgn ( f )#$} $+(f - fc) + {X ( f )!"1+sgn ( f )#$} $+(f + fc) =
2 2
= X-(f) $ +(f - fc) + X+(f) $ +(f + fc),
e per la proprietà fondamentale dell’impulso ideale risulta:
[3.5.35] Ac(f) = X-(f-fc) + X+(f+fc).
74
Procedendo in modo analogo a partire dalla [3.5.32] si ottiene:
[3.5.36] As(f) = j [X-(f - fc) – X+(f + fc)].
È immediato verificare che risulta, come deve:
[3.5.37] ! (f) = Ac(f) + jAs(f) = 2X+(f + fc) = A(f + fc).
Una volta riformulata in base alla hermitianità di X(f) la particolare condizione [3.5.8], che
diviene:
[3.5.38] X+(fc + f ) = X-(f - fc),
si constata immediatamente che dalla [3.4.36] si ha As(f)"0 e dalla [3.5.35] allora risulta:
[3.5.39] Ac(f) = 2X+(f + fc) = ! (f) ,
dimostrando la menzionata condizione affinché I(f) sia hermitiana, ossia l’inviluppo complesso
! (t) sia reale.
3.5.2 Rappresentazioni reali tramite l’inviluppo complesso
! a (t) $ !
[3.5.47] &(t) = artg # s & + {1-sgn "#a c ( t )$%} + 2!n ;
" ac (t) % 2
l’ultima espressione, in cui si è assunta per la funzione polidroma arctg(x) la prima determinazione
nello intervallo (- !/2; !/2), fornisce il valore dell’argomento 7(t) dell’inviluppo complesso a meno
di un multiplo intero di angolo giro.
Come si avrà ampiamente occasione di constatare in seguito, in sede dei fondamenti della
modulazione, dando per nota la frequenza fc il contenuto informativo è tutto riconducibile alla
coppia dei segnali ac(t) e as(t), così come alla corrispondente coppia formata da =(t) e &(t). Si può
76
comunque verificare, in particolare, che una sola delle grandezze di una coppia sia responsabile
del trasferimento della informazione, come ad esempio nel caso di ampiezza istantanea unica, per
cui a meno di una inessenziale fase costante si può porre:
[3.5.48] sa(t) = ac(t) cos(%ct),
oppure nel caso di variabilità del solo inviluppo, tipicamente con fase costante nulla,
[3.5.49] s=(t) = =(t) cos(%ct),
o ancora di variabilità del solo argomento, tipicamente con inviluppo costante,
[3.5.50] s (t) = Accos[%ct + &(t)].
7
Nel caso di generico segnale reale strettamente limitato in banda, con frequenza massima fM e
minima fm/0, a prescindere che esso sia stato trasformato in segnale in banda traslata o che non
abbia subito tale tipo di elaborazione, è comunque valida la rappresentazione del tipo [3.5.41]:
[3.5.55] x(t) = ac(t) cos(%at) – as(t) sin(%at),
in cui viene scelta come riferimento per l’inviluppo complesso =(t) =ac(t)+jas(t) la frequenza
centrale fa=(fM+fm)/2 della banda monolatera.
Le ampiezze istantanee in fase e in quadratura, ac(t) e as(t), risultano allora segnali reali del tipo in
banda base con frequenza massima faM =fM - fa=B/2 e frequenza minima fam=0. Sono pertanto a
loro volta rappresentabili per interpolazione dei loro campioni, nelle forme:
! t $
[3.5.56] ai(t) = (kcik sinc # -k & , i = c, s,
" Ta c %
dove k è intero, i valori dei campioni sono dati dalle cik=ai(kTac) e l’intervallo di campionamento
rispetta la condizione:
1 1
[3.5.57] Tac< = .
2 fa M B
Assumendo comunque il massimo intervallo di campionamento consentito, la rappresentazione
applicata direttamente al segnale x(t) ne consente la ricostruzione a partire dalla sequenza dei
campioni a intervallo TN=1/2fM<1/2B, mentre quella applicata sulla parte reale e sul coefficiente
della parte immaginaria dell’inviluppo complesso richiede due sequenze di campioni invece di
una, ma con intervallo TaN=1/2faM=1/B almeno doppio, con risparmio del numero totale di
campioni necessari per unità di tempo. Tale risparmio è in pratica nullo se il segnale x(t) è del tipo
in banda base, per cui si può assumere B<fM, mentre diviene molto significativo nel caso di banda
relativa stretta, con B<<fa.
Come già accennato, si può presumere che ogni segnale fisico sia in pratica simultaneamente
limitato sia in durata T, che in banda B; da ciò deriva che esso è sempre rappresentabile con buona
approssimazione tramite un insieme finito di campioni reali. Il numero minimo N di tali elementi
rappresenta il numero dei gradi di libertà del segnale considerato; poiché in generale occorrono
due sequenze di campioni relativi all’inviluppo complesso, esso corrisponde al doppio del numero
intero che approssima il rapporto T/TaN. In definitiva risulta:
78
[3.5.58] N < 2BT,
indipendentemente dalla collocazione della banda del segnale sull’asse delle frequenze. Quanto
sopra evidenziato è assai rilevante per la valutazione della quantità di informazione che può essere
trasferita con un segnale.
79
Allo scopo di esaminare dal punto di vista informativo le caratteristiche dei segnali emessi da
terminali che operano come sorgenti, è opportuno soffermarsi brevemente sui flussi di
informazione che sotto forma di grandezze non elettromagnetiche possono accedere ai trasduttori
contenuti all’interno di tali sorgenti.
A seconda della natura della informazione è anzitutto possibile la suddivisione in due
fondamentali categorie:
• flussi di informazione continui, in cui si ha una grandezza non elettromagnetica che varia nel
tempo assumendo valori in un codominio continuo;
• flussi di informazione discreti, o flussi di dati, in cui si ha una successione temporale in istanti
discreti di simboli numerabili, come nel caso esemplare di caratteri a stampa.
In ragione dell’essenza del flusso di informazione generato, la forma d’onda emessa in
corrispondenza dalla sorgente si distingue allora in:
• segnale analogico, con andamento temporale analogo a quello del flusso informativo, ossia
con valore istantaneo proporzionale alla grandezza variabile con continuità;
• segnale numerico o digitale, con andamento temporale di vario tipo, ma emesso in modo da
essere comunque veicolo perfetto del flusso di dati.
In un segnale analogico di sorgente in generale ogni valore istantaneo è associato alla
informazione, in modo che il trasferimento ideale di quest’ultima non può che avvenire
consegnando al terminale destinatario la forma d’onda inalterata o una sua versione fedele
(totalmente correlata), con la eccezione della possibilità teorica di un andamento diverso, ma con
gli stessi campioni significativi, raramente perseguita sul piano pratico. Come si avrà occasione di
verificare in seguito, nel caso numerico si può invece ottenere il trasferimento ideale del flusso di
dati anche facendo pervenire al destinatario un segnale profondamente diverso da quello emesso
dalla sorgente.
La presente sezione si limita alla raccolta di alcuni elementi sui segnali analogici di sorgenti
sonore e di immagini, allo sviluppo di concetti basilari sui flussi di dati e sui corrispondenti segnali
numerici, nonché ad alcune considerazioni riguardanti la conversione di segnali analogici in forma
numerica.
4.2 ELEMENTI SUI SEGNALI ANALOGICI DI SORGENTE
Figura 4.3: Esempio di un tratto di segnale ottenuto per scansione per righe.
Si può notare che nel segnale di immagine considerato, oltre alla componente di informazione
dovuta alla variazione di luminosità dell’areola istantaneamente esplorata, sono anche presenti una
componente continua, legata alla luminosità media della sequenza di immagini, e due serie di
componenti armoniche, con i periodi fondamentali Tim e H, ossia con frequenze multiple di quelle
di immagine e di riga. La estensione spettrale è solo teoricamente illimitata: è infatti possibile
determinare un estremo superiore di banda finito fM, sia ammettendo una risoluzione finita nella
scansione, sia assimilando le discontinuità dovute alla cancellazione con tratti di segnale a ripidità
forte, ma finita; il lettore interessato ad approfondire è inviato al paragrafo 4.2.2.2.
4.2.2.2 Larghezza di banda di segnale di immagine per scansione
Si osservi che la distanza d tra due righe scandite adiacenti fornirebbe la distanza di
campionamento in verticale dell’immagine se la riga fosse priva di spessore; in effetti poiché il
sensore opera con areola piccola, ma finita, si può ritenere che la risoluzione verticale
dell’immagine sia peggiore, assumendo per la distanza di campionamento la grandezza:
h
[4.2.4] dc =ˆ 2d= 2 ,
Ne
dove si rammenta che h è l’altezza dell’immagine. Imponendo la stessa risoluzione anche in
orizzontale, si ricava che il tempo necessario al sensore per coprire la distanza di campionamento
dc, ossia l’intervallo di campionamento del segnale, vale:
84
d d
[4.2.5] Tc = c = c H e ,
v b
dove v è la velocità di esplorazione di una riga, di lunghezza b pari alla base dell’immagine. La
frequenza massima della banda occupata dalla sola componente della informazione si ottiene
dunque dalla espressione:
1 1 b Ne 1 b !im 1 b !im 2
[4.2.6] fM = = = Nfri = N fim ,
2Tc 2 2 h H e 2 2 h !ri 2 2 h !ri
in cui la presenza di N 2 è legata alla bidimensionalità dell’immagine.
Tenuto conto della [4.2.1], dalla precedente espressione si ricava che grossolanamente risulta
fM@N fri ; se allora il numero di righe N è molto elevato, nella banda limitata da fM possono essere
contenute moltissime armoniche della frequenza di riga, in modo da potere senz’altro ritenere che
gli impulsi di cancellazione risultano assai ripidi. In definitiva la [4.2.6] fornisce dunque la
frequenza massima della banda del segnale considerato.
4.2.2.3 Segnale video in bianco e nero
Grazie alla persistenza delle immagini sulla retina dell’occhio umano è possibile sottoporre a
quest’ultimo una sequenza di diverse immagini fisse senza che sia percepita la discontinuità
nell’evoluzione della visione: è però necessario che sia fim > 15 Hz se si vuole ottenere la
sensazione di continuità del movimento e che si abbiano almeno 45 illuminazioni al secondo per
evitare il fastidio dello sfarfallio (variazione periodica di luminosità). Nel caso della televisione si
applica il metodo della scansione per righe interallacciate dell’immagine, che viene pertanto
suddivisa in due quadri, uno per le righe dispari, esplorato per primo, e l’altro per le righe pari,
esplorato successivamente. Nello standard analogico europeo si adotta la frequenza di immagine
fim=25 Hz, che consente una buona sensazione di moto continuo, a cui corrisponde una frequenza
di quadro doppia, sufficiente ad abolire lo sfarfallio.
Nel vecchio standard analogico europeo con b /h=4/3, il numero di righe N è pari a 625, così da
ottenere i valori:
fri = 15.625 Hz, H = 64 µs ;
il numero effettivo di righe Ne è stabilito pari a 585, mentre il tempo effettivo di riga He è 82% di
H, in modo che risulti:
?im = 0,935, ?ri = 0,82.
Con tali dati si ottiene una notevole estensione spettrale, con frequenza massima attorno a 5 MHz
(il lettore interessato può servirsi della [4.2.6]).
Nel caso di segnale in bianco e nero, il valore istantaneo del segnale x(t) uscente dal trasduttore,
denominato segnale di visione, è proporzionale alla luminosità dell’areola simultaneamente
esplorata, tranne che nei tempi morti necessari per i ritorni orizzontali e verticali, durante i quali si
hanno gli impulsi di cancellazione. Allo scopo di garantire il sincronismo al trasduttore in
ricezione che restituisce l’immagine nei tempi morti orizzontali, di durata 0,18 H=11,52 µs,
vengono inseriti degli impulsi di sincronismo di riga (vedi Figura 4.4), quasi rettangolari di durata
0,09 H con un livello corrispondente al nero (xN=0) e l’altro livello di valore minore (xm=Am<0,
con Am/AM=-3 /7), mentre nei tempi morti verticali tra un quadro e il successivo, di durata
0,064 /2fim=1,28 ms, vengono aggiunti altri segnali di sincronismo di quadro, composti da più
impulsi quasi rettangolari con i menzionati due livelli, 0 e Am<0. Il segnale così completato
costituisce il segnale video in bianco e nero.
Nel caso del colore la scansione è dello stesso tipo, ma con un sensore multiplo basato sulla
tricromia. Si hanno in effetti tre segnali simultanei differenti, che assieme al segnale di
sincronismo vengono manipolati in modo complesso per ottenere un segnale video a colori di tipo
compatibile, ossia usufruibile anche da un apparato solo predisposto per il segnale in bianco e
nero. Il segnale a colori è in effetti composto di un segnale di luminanza, che reca l’informazione
di luminosità e ha le stesse caratteristiche temporali e spettrali del segnale in bianco e nero, e da
85
una coppia di segnali di crominanza che vengono elaborati e addizionati al precedente con una
opportuna tecnica, che ne permette la separazione e la restituzione individuale, pure
condividendone la banda, che resta dunque di estensione invariata.
Si consideri una sorgente di informazione che generi un flusso sincrono di dati D(n) costituito
dalla successione regolare, a intervallo temporale costante T, di simboli Dk che appartengano a un
insieme discreto numerabile e finito {Dq}, con q=1, 2,.., M. Tale insieme dei simboli, denominato
alfabeto M-nario per essere M'2 la sua cardinalità, può essere qualsiasi, come ad esempio
l’alfabeto delle lettere latine, l’insieme dei caratteri di una tastiera o, nel frequente caso M=2,
l’alfabeto binario composto dalle cifre binarie, o bit, corrispondenti ai numeri 0 e 1.
Una volta stabilita una corrispondenza biunivoca tra i simboli dell’alfabeto della sorgente e un pari
numero di diversi valori di segnale, indicata con la notazione
[4.3.1] {Dq} ; {xq}, q=1, 2,.., M,
al flusso di informazione D(n) può essere associata una sequenza reale x(n) in cui il generico
campione xk assuma uno dei valori dell’insieme {xq}, ovviamente anch’esso discreto numerabile e
finito; in tale modo si ottiene una sequenza a valori discreti, o sequenza numerica, che può essere
pensata come veicolo dei simboli del corrispondente flusso sincrono di dati, con la sua stessa
temporizzazione.
Poiché si ha un nuovo simbolo ad ogni intervallo di tempo costante T, tale grandezza, caratteristica
comune del flusso di dati e della sequenza numerica, viene denominata tempo di simbolo; la
grandezza inversa,
1
[4.3.2] R = ,
T
che fornisce il numero di simboli per unità di tempo del flusso di informazione, così come il
numero di campioni reali discreti per unità di tempo dalla corrispondente sequenza numerica, si
denomina allora ritmo di simbolo. Nel caso di alfabeto binario, l’intervallo precisabile con Tb è
denominato in particolare tempo di bit e la grandezza inversa,
86
1
[4.3.3] Rb = ,
Tb
che fornisce il numero di bit per unità di tempo del flusso di informazione, così come il numero di
campioni reali binari per unità di tempo dalla corrispondente sequenza numerica, è allora il ritmo
di bit. L’unità di misura di quest’ultimo è il bit al secondo per cui si usa la notazione bit/s; spesso
si impiegano i suoi multipli, ossia kbit/s (103), Mbit/s (106) e Gbit/s (109).
4.3.2 Segnali multilivello di sorgente
Le sequenze numeriche x(n) essendo segnali a tempo discreto sono assai utili sul piano logico, ma
restano grandezze astratte. Da esse è però immediato dedurre una tipologia delle forme d’onde a
cui realmente possono tendere i segnali numerici a tempo continuo emessi da terminali in cui la
sorgente di informazione genera un flusso sincrono di dati: ipotizzando l’impiego di semplici
circuiti elettronici a scatto istantaneo e tenuta per un tempo T, si hanno tipicamente in uscita dai
terminali dei segnali sincroni a gradini del tipo:
!t $
[4.3.4] x(t) = (k xk rect # -k & ,
"T %
nei quali ogni campione discreto xk della sequenza si manifesta concretamente tramite un livello di
segnale avente pari valore, che si conserva costante per tutto un tempo di simbolo T. La forma
sincrona del tipo [4.3.4] viene spesso denominata in generale segnale multilivello; con riferimento
alla cardinalità M, si hanno poi i casi particolari di segnale binario (M=2), segnale ternario
(M=3), segnale quaternario (M=4) e così via.
Stante lo stretto legame tra un segnale multilivello e la corrispondente sequenza numerica il ritmo
di simbolo R, o il ritmo binario Rb, e il tempo di simbolo T, o il tempo di bit Tb, sono grandezze
caratteristiche anche del segnale multilivello, o del segnale binario.
A titolo di esempio, in Figura 4.5a è mostrato un tratto di segnale quaternario, mentre in Figura
4.5b è riportata la corrispondente stringa del flusso di simboli; è immediato verificare che la
corrispondenza biunivoca [4.3.1] si particolarizza nelle associazioni: D1;x1=-3, D2;x2=-1,
D3;x3=1, D4;x4=3.
Spesso si usa una corrispondenza biunivoca tra i simboli sq dell’alfabeto, con cardinalità
esprimibile tramite la
MS=2S
e le altrettante parole binarie di S cifre binarie o bit (0 e 1); ad esempio
s1;00, s2;01, s3;10, s4;11.
Essendo S intero, il numero Ms vale 2 o 4, 8, 16, 32, 64, ecc.
Al flusso di dati s(n), con tempo di simbolo Ts, risulta così associato un flusso binario b(n) con
tempo di bit Tb ! TS/S, con Tb"TS
La grandezza inversa Rb!RS si denomina ritmo binario e si misura in bit/s.
Ponendo ad esempio x1;0, x2;1, al flusso s(n) risulta associata una sequenza binaria x(n) con
TS=kTb; passando alla forma a tempo continuo si ha poi il segnale binario di sorgente.
Il tempo di bit Tb e il ritmo binario Rb sono grandezze caratteristiche anche del segnale binario.
Ovviamente un segnale binario è il caso particolare di un segnale multilivello per la cardinalità di
alfabeto M=2. Nell’esempio in Figura 4.7 si è assunto:
s1 ; 000 s2 ; 001 s3 ; 010 s4 ; 011
s5 ; 100 s6 ; 101 s7 ; 110 s8 ; 111
bit 0 ; x1=0 bit 1 ; x2=A
I segnali multilivello espressi tramite la serie temporale [4.3.4] hanno tutti la proprietà di
conservare sempre inalterato l’intervallo temporale tra addendi adiacenti: a ciascuno di essi spetta
pertanto l’attributo sincrono, aggettivo che di norma viene sottinteso stante la rarità dei casi in cui
viene a mancare la menzionata proprietà. Tuttavia, quando si verifica i segnali numerici vengono
detti asincroni. In tale secondo tipo di segnali non è possibile fare riferimento a un unico
intervallo temporale, dato che si ha la più generale rappresentazione:
! t-t $
[4.3.5] xa(t) = (k xk rect # k & ,
" Tk %
dove gli istanti tk si succedono senza essere più vincolati dalla regolarità. In luogo del ritmo di
simbolo, si considera allora la velocità di segnalazione:
1
[4.3.6] RV = ,
TV
essendo TV il minimo valore degli intervalli tk-tk-1. L’unità di misura di RV è il baud, che esprime
il numero massimo di simboli veicolabili dal segnale asincrono nella unità di tempo.
Un esempio di segnale asincrono binario è quello mostrato in Figura 4.8a, corrispondente allo
storico messaggio S O S (tre punti, tre linee, tre punti) nell’alfabeto di Morse. Un caso attuale,
ancora binario, è invece quello esemplificato in Figura 4.8b, relativo alla emissione di caratteri di
tastiera che avviene come successione asincrona, con tempi di inizio casuali, di brevi segnali di
energia associati a stringhe di pochi bit (il bit iniziale, o start, e quello finale, o stop, sono sempre
invariati, mentre la parola costituita dagli 8 bit intermedi di ciascuna stringa è tipica del carattere).
Con riferimento a quanto già introdotto nel paragrafo 3.3.1, si richiama la seguente espressione di
una generica trasformazione lineare:
[5.1.1] T{x(v), z} = ! x (v) h (z, v) dv = (x (v), h (z, v)) ,
n
!
n
che agendo su un operando x(v), funzione complessa di una variabile indipendente continua e
reale v, conduce alla trasformata, funzione complessa di una variabile indipendente continua z.
Assumendo che l’operando sia un segnale x(v) tempo continuo (v=t) e che la trasformata sia una
funzione ancora della variabile indipendente reale t, si ottiene specificatamente una
trasformazione lineare fra segnali tempo continui:
[5.1.2] y(t) " T{x(v), t} = ! x (v) h (t,v) dv = (x (v), h (t, v)) ,
n
!
n
dove per non generare confusione la variabile temporale in entrata è rimasta indicata con la
notazione v. Tale tipo di trasformazione è tipicamente quella che un segnale in entrata, o
eccitazione, subisce nella interazione con un sistema lineare, che ne fornisce una versione
trasformata in uscita, denominata risposta.
Un sistema lineare eccitato con l’impulso ideale all’istante v0 fornisce la risposta:
[5.1.3] " ! (v-v ) h (t,v) dv = hn(t, v0);
0 n
il nucleo della trasformazione calcolato nel valore v0 è allora interpretabile come la risposta
all’impulso ideale applicato in tale istante. In particolare, assunta in entrata l’eccitazione +(v) con
v0=0, si denomina risposta impulsiva il corrispondente segnale in uscita (vedi Figura 5.1), indicato
con:
[5.1.4] h(t) = hn(t, 0).
Figura 5.1: Risposta impulsiva h(t) e risposta all’impulso ideale applicato al tempo v0.
Una trasformazione fra segnali può godere anche della proprietà della tempo invarianza o
invarianza alla traslazione che si verifica qualora ad un segnale di ingresso corrisponde,
indipendentemente dall’istante di applicazione del segnale di ingresso stesso, sempre la stessa
risposta, a meno di una traslazione della stessa entità di quella del segnale di ingresso.
Nel caso di trasformazione lineare tempo invariante (LTI) ovvero lineare invariante alla
traslazione (LIT) i parametri caratterizzanti l’operatore sono fissi nel tempo e si ha la proprietà
della sostanziale immutabilità temporale dell’effetto, ossia a una eccitazione traslata di un tempo
generico t0 corrisponde sempre la stessa risposta a meno della traslazione della stessa quantità.
Allora la risposta hn(t, v) all’impulso ideale al generico tempo v deve coincidere con la risposta
92
impulsiva a meno della traslazione della quantità v, in modo che risulti la particolare espressione
del nucleo (vedi Figura 5.1, con v=v0):
[5.1.5] hn(t, v) = h(t-v).
Una trasformazione LTI fra segnali può essere dunque espressa nella forma:
[5.1.6] y(t) = ! x (v) h (t-v) dv = (x (v), h (t-v)) ,
!
ossia la risposta è il risultato della operazione di convoluzione (vedi [2.1.11]) tra il segnale di
eccitazione x(t) e la risposta impulsiva h(t):
[5.1.7] y(t) = h(t)$x(t).
Di norma, considerata una risposta impulsiva con durata D non nulla e almeno praticamente finita,
la trasformazione [5.1.6] mostra che il valore istantaneo y(t) della risposta al tempo t risulta dalla
interpolazione di tutti i valori istantanei del segnale in entrata x(v) in corrispondenza
dell’intervallo temporale, di estensione D, in cui è diversa da zero la funzione h(t-v) (vedi Figura
5.2); perciò si assume che una trasformazione LTI sia in generale del tipo con memoria.
Figura 5.2: Valore istantaneo y(t) della risposta calcolato tramite la interpolazione continua dei
valori della eccitazione x(v) con i valori della funzione h(t-v).
Un caso particolare molto significativo è quello di trasformazione LTI priva di memoria,
caratterizzata da una risposta impulsiva di durata infinitesima g+(t-t0), con g e to costanti, ossia con
nucleo h(t-v)=g+(t-v-t0); si verifica immediatamente che le risposte sono segnali fedeli:
[5.1.8] y(t) = " x (v) g! (t-v-t ) dv = gx(t-t0),
0
in cui per ricostruire ciascun valore istantaneo in uscita è sufficiente un solo corrispondente valore
istantaneo in entrata.
Si rammenti infine che nella generica trasformazione lineare tempo variante la risposta hn(t, v)
all’impulso ideale al generico tempo v non gode più della proprietà di rimanere invariata a meno
della traslazione della quantità v.
5.1.1 Considerazioni sulla natura elettrica dei segnali
Figura 5.3: Rappresentazione di una connessione bifilare in generale (a) e nel caso di adattamento
ideale (b).
L’informazione risulta correttamente trasferita da una parte all’altra del sistema di trasmissione se
è rispettata nella connessione la condizione di adattamento ideale, secondo la quale il generatore è
una sorgente di f.e.m. eg(t) con resistenza interna costante, reale e positiva R e l’utilizzatore è
rappresentabile con una resistenza di pari valore (vedi Figura 5.3b). Infatti, in tale situazione si ha
v(t)=Ri(t)=eg(t)/2, per cui v(t) e i(t) non solo risultano proporzionali, e quindi fedeli tra loro, ma
sono anche fedeli a eg(t); si ottiene inoltre il massimo trasferimento di potenza, ossia la potenza
istantanea w(t)=v(t) i(t) è tutta assorbita dall’utilizzatore. Nella condizione di adattamento ideale, ai
fini della informazione si può dunque fare riferimento a una sola delle due grandezze nella sezione
considerata.
Si consideri il caso, schematizzato in Figura 5.4, in cui il generatore sia ideale e invece non lo sia
l’utilizzatore, per cui si ammetta comunque la rappresentazione tramite un bipolo passivo LTI
(Lineare Tempo Invariante), caratterizzato con la impedenza Z(f)/R. La connessione non avviene
più in modo ideale: venendo a cadere la relazione di proporzionalità tra v(t) e i(t), non si può
assumere infatti né che le grandezze siano segnali tra loro fedeli, né che siano fedeli alla f.e.m.
eg(t).
aventi come unità di misura la radice quadrata del Watt, che sono denominate rispettivamente
segnale diretto e segnale riflesso nella sezione considerata.
Nel caso della connessione ideale che si verifica in assenza di potenza istantanea riflessa
dall’utilizzatore, ossia con wr(t)"0 e w(t)"wd(t), si ottiene:
dove xd(t) è il segnale significativo per il trasferimento della informazione e xr(t), indicativo dello
scostamento dalla connessione ideale, è nullo.
Qualora abbiano significato fisico le tensioni diretta e riflessa, tramite le [5.1.13] si hanno le
semplici relazioni:
±1 ±1
[5.1.16] xd(t) = v d ( t ) , xr(t) = vr (t) ,
R R
in cui la indeterminazione del segno è inessenziale, alla luce delle considerazioni sui segnali fedeli.
Tramite le definizioni [5.1.9] si ottengono poi anche le seguenti espressioni dei segnali in funzione
di v(t), i(t):
1! 1 $ 1! 1 $
[5.1.17] xd(t) = # v ( t ) + Ri ( t )& , xr(t) = # v ( t ) - Ri ( t )& ,
2" R % 2" R %
che mostrano come i segnali diretti e riflessi siano ancora una combinazione lineare a coefficienti
costanti della tensione e della corrente nella sezione di connessione.
95
La scelta della coppia dei segnali diretto e riflesso, con la natura specificata nelle definizioni
immediatamente precedenti, gode dei seguenti vantaggi:
• i segnali diretto e riflesso sono grandezze omogenee, di validità generale;
• il segnale diretto xd(t), unico presente nella connessione ideale con wr(t)"0, assume il ruolo di
segnale utile nella sezione;
• il segnale riflesso xr(t), identicamente nullo nella connessione ideale, evidenzia lo scostamento
dal caso ideale, si rivela come segnale indesiderato nella sezione;
• la potenza elettrica istantanea trasferita nella sezione ha in generale la semplice espressione
w(t)= xd2 (t) - xr2 (t) , che in condizione ideale si riduce alla:
Figura 5.5: Rappresentazione di una connessione con schema unifilare, nel caso generico (a) e in
condizione di connessione ideale (b).
Nel seguito si farà pertanto riferimento prevalente a segnali con natura elettrica corrispondente alla
radice quadrata della potenza istantanea da essi veicolata e, a meno che non sia esplicitamente
formulato il contrario, si riterrà soddisfatta la condizione di connessione ideale. Quanto sopra sarà
inoltre esteso ai segnali complessi.
Nello sviluppo di alcune considerazioni basilari sulle trasformazioni LTI fra segnali è opportuno
iniziare da quella più elementare, che si compie in un sottosistema elettrico con una unica sezione
di accesso, o porta, rappresentato come mostrato in Figura 5.6, dove si è fatto ricorso allo schema
con via di accesso su cui si ha la coppia di segnali diretto e riflesso. Nel seguito un sottosistema a
una porta, in base alla sua rappresentabilità con un bipolo equivalente, verrà spesso denominato
bipolo anche qualora non abbia significato fisico l’individuazione di una coppia di poli di accesso.
I segnali possono essere entrambi di energia o di potenza; si usano le notazioni x(t) per quello
diretto, con veste di segnale entrante di eccitazione, e y(t) per quello riflesso, con veste di segnale
uscente, o risposta.
Figura 5.6: Schema di un bipolo, con segnale diretto di eccitazione x(t) e segnale riflesso di
risposta y(t).
96
Assunto che il sottosistema considerato riguardi il lato utilizzatore a valle di una generica sezione
di un sistema di trasmissione, si formula l’ipotesi che il bipolo rappresentativo abbia natura
passiva, lineare e caratterizzata con parametri fissi nel tempo; la risposta riflessa y(t) risulta quindi
associata alla eccitazione x(t) tramite una trasformazione fra segnali di tipo lineare tempo
invariante (LTI).
È noto (vedi paragrafo 5.1.1) che nel caso in cui il bipolo LTI sia connesso a un generatore con
resistenza interna equivalente reale e costante R, nella condizione ideale di impedenza del bipolo
utilizzatore uguale a R, si ha y(t)"0 per qualsiasi x(t), ossia non si ha alcuna risposta riflessa;
altrimenti si ha un segnale trasformato con espressione:
[5.2.1] y(t) = " x (v) h (t-v) dv
! = h (t)$x(t),
A
dove sotto il segno di integrale la variabile temporale in entrata è stata indicata con v. Il segnale
riflesso è dunque ottenibile tramite la operazione di convoluzione tra il segnale diretto x(t) e la
risposta impulsiva riflessa h (t); quest’ultima funzione, che caratterizza il bipolo LT I nel dominio
A
del tempo in riferimento alla resistenza R, è definita come il segnale riflesso corrispondente alla
eccitazione con l’impulso ideale all’istante v=0 [y(t)"h (t) per x(v)"+(v)], generato da una sorgente
A
denomina invece idealmente realizzabile se viene meno la sola causalità delle risposta. Nel caso di
bipolo LT I realizzabile, sia idealmente che fisicamente, esiste la trasformata di Fourier della
risposta impulsiva riflessa:
[5.2.2] A(f) = F{h (t)},A
anch’essa funzione caratteristica del bipolo considerato in riferimento alla resistenza R, ma nel
dominio della frequenza. Supposto che esista la trasformata di Fourier X(f) del segnale di
eccitazione x(t) di un bipolo passivo LTI, applicando alla espressione [5.2.1] della trasformazione
la proprietà di convoluzione nel tempo si ottiene la corrispondente relazione nel dominio della
frequenza:
[5.2.3] Y(f) = F{h (t)}X(f) = A(f)X(f).
A
Tenuto conto che l’eccitazione x(t) è il segnale diretto e che la risposta y(t) è il segnale riflesso, la
funzione A(f) viene allora denominata coefficiente di riflessione del bipolo.
Ammesso che h (t) sia reale, il coefficiente di riflessione gode della proprietà:
A
ossia A(f) è una funzione hermitiana, con modulo pari e argomento dispari; è dunque esauriente la
sua conoscenza sul solo semiasse positivo della frequenza.
In condizione di adattamento ideale nella sezione di connessione la risposta riflessa y(t) è
identicamente nulla per qualsiasi eccitazione x(t): ne segue che il bipolo deve avere risposta
impulsiva riflessa h (t)"0, ossia coefficiente di riflessione A(f)"0 nell’intero dominio della
A
frequenza. La h (t)"0 è condizione sufficiente, ma non necessaria, al fine di ottenere y(t)"0; infatti
A
nel caso di segnali entranti di tipo limitato in frequenza, con banda monolatera estesa da fm a fM,
essendo nulle le componenti spettrali all’esterno della banda la risposta riflessa è identicamente
nulla, purché risulti soddisfatta la condizione assai meno severa:
[5.2.5] A(f) = 0, ! f " ( fm ; fM ) .
97
Si noti che in tale condizione di adattamento perfetto nella sezione di connessione la risposta
impulsiva riflessa del bipolo è di norma non identicamente nulla.
5.2.2 Relazione tra coefficiente di riflessione e impedenza
Qualora abbiano significato fisico le grandezze tensione e corrente ai capi del bipolo passivo
rappresentativo del sistema utilizzatore, può tornare utile la conoscenza del legame intercorrente
tra il coefficiente di riflessione A(f) e la impedenza Z(f), anch’essa funzione caratteristica del
bipolo nel dominio della frequenza.
Rammentando le relazioni esistenti tra i segnali diretto xd(t) e riflesso xr(t) e la coppia tensione v(t)
e corrente i(t) ai capi del bipolo (vedi [5.1.16]), con le notazioni x(t)"xd(t) e y(t)"xr(t) si ha:
1! 1 $ 1! 1 $
[5.2.6] x(t) = # v ( t ) + Ri ( t )& , y(t) = # v ( t ) - Ri ( t )& ,
2" R % 2" R %
Nella ipotesi di eccitazione armonica alla frequenza f e applicando il metodo simbolico, dalle
[5.2.3] e [5.2.6] si ricavano le corrispondenti relazioni tra fasori:
[5.2.7] Y = A X,
1! 1 $ 1! 1 $
[5.2.8] X = # V + RI& , Y = # V - RI& .
2" R % 2" R %
Valendo per il bipolo il noto vincolo V = Z I, dalle precedenti espressioni si ottiene:
1! 1 $ 1! 1 $
[5.2.9] Y = # Z I- RI& = A X = A # Z I+ RI& ;
2" R % 2" R %
grazie alla linearità, risulta quindi per ogni frequenza la seguente relazione tra il coefficiente di
riflessione e la impedenza del bipolo utilizzatore:
Z(f)-R
[5.2.10] A(f) = .
Z(f)+R
Dato che il bipolo è stato assunto passivo, la parte reale di Z(f) è positiva; di conseguenza il
coefficiente di riflessione risulta limitato in modulo:
[5.2.11] |A(f)| * 1,
con valore unitario raggiunto solo per 0{Z(f)} =0.
5.2.3 Approfondimenti sul coefficiente di riflessione
si ottiene poi una espressione analoga nel caso di segnali di potenza. A meno che non si abbia
l’adattamento ideale o perfetto, la risposta riflessa y(t) risulta dunque affine al segnale diretto
entrante, dipendendo da questo e dal coefficiente di riflessione del bipolo.
Passando al dominio della frequenza, dalla [5.2.12] e dalla espressione analoga derivano le
relazioni:
[5.2.13] Eyx(f) = A(f) Exx(f), Wyx(f) = A(f) Wxx(f),
dove con E(f) o W(f) sono rispettivamente indicate le densità spettrali di energia o di potenza dei
segnali considerati. Dalla relazione [5.2.3] si ricavano poi le:
[5.2.14] Eyy(f) = |A(f)|2 Exx(f), Wyy(f) = |A(f)|2 Wxx(f) ;
98
si ha dunque l’energia o la potenza riflessa:
2 2
[5.2.15] Eyy = " ! (f ) E xx ( f ) df , Wyy = " ! (f ) Wxx ( f ) df ,
ossia la parte reale AR(f) di A(f) e il coefficiente della sua parte immaginaria AI(f) sono tra loro
legate dalla trasformazione di Hilbert nel dominio della frequenza.
Sono senza dubbio di maggiore importanza le trasformazioni fra segnali che si compiono in un
sottosistema elettrico con due sezioni di accesso, o porte, schematizzato come mostrato in Figura
5.7, dove si è fatto ricorso alle coppie di segnali diretti e riflessi sulle vie di accesso alle porte; si è
usata la notazione xi(t) per il segnale di eccitazione entrante alla porta i=1,2 e quella yi(t) per il
corrispondente segnale di risposta uscente. Come noto un sottosistema a due porte, in base alla sua
rappresentabilità con un quadripolo equivalente, è spesso denominato quadripolo anche qualora
non abbia significato fisico l’individuazione di una vera coppia di poli di accesso.
Figura 5.7: Schema di un quadripolo, con coppia di segnali entranti, o di eccitazione xi(t), e coppia
di segnali uscenti, o di risposta yi(t).
Nel caso più generale le due trasformazioni che portano alle risposte y1(t) e y2(t) hanno espressioni
complicate e dipendenti tanto da entrambe le eccitazioni x1(t) e x2(t), quanto dalla variabile
temporale indipendente.
Ammessa l’ipotesi limitativa, ma assai frequentemente verificata in pratica, che il quadripolo abbia
natura lineare e caratterizzata con parametri fissi nel tempo (tempo invarianza), i vincoli imposti
dalla particolare costituzione del sistema fra i segnali alle due porte si traducono nella coppia di
trasformazioni LTI, di norma del tipo con memoria:
[5.3.1] yi(t) = ! x (v) h (t-v) dv + ! x (v) h (t-v) dv , i=1, 2 e j=2, 1,
i ii j ij
che esprimono i segnali uscenti, o risposte, in funzione dei due segnali entranti di eccitazione. Si
noti che negli integrali di convoluzione la variabile indipendente temporale in entrata è stata
indicata con v al fine di distinguerla da quella in uscita t.
Le quattro funzioni hij(t), che caratterizzano nel dominio del tempo un generico quadripolo LTI in
riferimento a una resistenza R, si denominano risposte impulsive riflesse (per i=j) e risposte
impulsive trasmesse (per i/j), dato che coincidono con i segnali uscenti ottenibili in
99
corrispondenza di una sola eccitazione con l’impulso ideale all’istante v=0 emesso da un
generatore di impedenza interna R reale e costante; infatti si ha y1(t)"h11(t) e y2(t)"h21(t)
assumendo le eccitazioni x1(v)"+(v) e x2(v)"0, e y1(t)"h12(t) e y2(t)"h22(t) ponendo x1(v)"0 e
x2(v)"+(v).
Un quadripolo LTI, per cui si hanno le due trasformazioni [5.3.1] riportate nell’immediato seguito
con le notazioni equivalenti:
[5.3.2] y1(t) = h11(t)$x1(t) + h12(t)$x2(t), y2(t) = h21(t)$x1(t) + h22(t)$x2(t),
è fisicamente realizzabile se tutte le quattro risposte impulsive che lo caratterizzano nel dominio
del tempo appartengono allo spazio funzionale L1, sono reali e inoltre causali, ossia risulta hij(t)=0
Bt<0; è invece idealmente realizzabile se viene meno la sola causalità delle risposte. Per un
quadripolo LT I realizzabile, sia idealmente che fisicamente, esistono dunque le trasformate di
Fourier:
[5.3.3] Hij(f) = F{hij(t)},
anch’esse funzioni caratteristiche del quadripolo considerato in riferimento alla resistenza R, ma
nel dominio della frequenza. Ammesso che hij(t) siano reali vale la proprietà:
[5.3.4] Hij(f) = H!ij (-f ) ,
ossia le funzioni Hij(f) sono hermitiane, con modulo pari e argomento dispari.
Rammentando la definizione, per ogni frequenza armonica, dei parametri di diffusione Sij di un
quadripolo LTI (il lettore può comunque fare riferimento al paragrafo 5.3.2), risulta che le
riflettenze, ossia i parametri S11(f) e S22(f), si identificano con le trasformate di Fourier H11(f) e
H22(f) delle risposte impulsive riflesse h11(t) e h22(t), mentre le trasmettenze, ossia i parametri
S12(f) e S21(f), si identificano con le trasformate di Fourier H12(f) e H21(f) delle risposte impulsive
trasmesse h12(t) e h21(t).
Una volta espressa una trasmettenza di un quadripolo LTI tramite il rispettivo modulo gij(f) =
|Hij(f)| e l’opposto dell’argomento #ij(f) =-arg{Hij(f)}, in modo che per i/j risulti:
[5.3.5] Hij(f) = gij(f) e
-j! ij ( f )
,
si definiscono le seguenti grandezze reali:
[5.3.6] Gij(f) = g 2ij ( f ) = |Hij(f)|2,
1 d" ij ( f ) 1 d"
arg H ( f ) $ ,
2! df # { ij }%
[5.3.7] t0ij(f) = =-
2! df
rispettivamente denominate guadagno di inserzione e ritardo di gruppo di inserzione dalla porta j
alla porta i. In un quadripolo realizzabile la funzione Gij(f) è ovunque limitata; se è anche
fisicamente realizzabile la funzione t0ij(f) è ovunque non negativa; dato che #ij(0)=0, la funzione
#ij(f) è allora positiva (o negativa) per ogni valore positivo (o negativo) della frequenza.
Supposto che esistano le trasformate di Fourier Xi(f) dei segnali di eccitazione xi(t) di un
quadripolo LTI, applicando la proprietà di convoluzione nel tempo si ottengono dalle [5.3.2] le
corrispondenti relazioni nel dominio della frequenza:
[5.3.8] Y1(f) = H11(f) X1(f) + H12(f) X2(f), Y2(f) = H21(f) X1(f) + H22(f) X2(f).
5.3.2 Parametri di diffusione nei Quadripoli LTI
Il comportamento di un quadripolo LTI può essere descritto, per ogni frequenza f=%/2!,
considerando le semplici eccitazioni armoniche alle sue porte 1 e 2 :
[5.3.9] x1(t) = Acos(%t+71), x2(t) = A2cos(%t+72),
100
che producono i segnali uscenti, anch’essi armonici:
[5.3.10] y1(t) = B1cos(%t+C1), y2(t) = B2cos(%t+C2).
Tramite la notazione di Steinmetz si usa di solito indicare i precedenti segnali armonici con fasori,
denominati intensità d’onda quando riferiti ai segnali, entranti a frequenza f :
[5.3.11] a1 = A1 e j!1 , a2 = A2 e j!2 ,
e uscenti a frequenza f :
[5.3.12] b1 = B1 e j!1 , b2 = B2 e j!2 .
Grazie alla ipotesi LTI, assunta una stessa resistenza di riferimento R alle due porte, i vincoli
imposti sulle intensità d’onda assumono le forme assai semplici:
[5.3.13] b1 = S11a1+S12a2, b2 = S21a1+S22a2,
dove le grandezze adimensionali Sij, caratteristiche del quadripolo, sono denominate parametri di
diffusione. I parametri con coppia di pedici identici e quelli con pedici diversi si denominano
rispettivamente le riflettenze e le trasmettenze del quadripolo. Passando a considerare le funzioni
Sij(f) definite per ogni frequenza e tenendo conto della proprietà di linearità della trasformata di
Fourier, dal confronto delle relazioni precedenti con le [5.3.8] risulta che le funzioni di diffusione
coincidono con le rispettive trasformate di Fourier delle risposte impulsive del quadripolo LTI.
La condizione di realizzabilità, fisica o ideale, del quadripolo si traduce nella forma:
[5.3.14] Sij(f) = S!ij (-f ) ;
ossia i parametri di diffusione devono essere funzioni hermitiane. Essi hanno poi tutti modulo
limitato sull’intero asse delle frequenze; il valore limite superiore vale 1 nel caso dei quadripoli
passivi. Procedendo come per il bipolo, nel caso di realizzabilità fisica si dimostra che la parte
reale di ogni funzione Sij(f) e il coefficiente della sua parte immaginaria sono tra loro legate dalla
trasformazione di Hilbert nel dominio della frequenza:
[5.3.15] SijR(f) = H{SijI(f)}= ŜijI ( f ) , SijI(f) = -H{SijR(f)}= - ŜijR ( f ) .
per l’unica caratteristica significativa nel dominio del tempo del sistema considerato, ossia la
risposta impulsiva di trasferimento. Si noti che la [5.3.24] è ancora la sola trasformazione di
interesse anche nel caso in cui non si abbia un bipolo utilizzatore con adattamento perfetto, purché
si verifichi H22(f)=0 in banda.
i=1
da cui risulta che la intera cascata equivale a un quadripolo con adattamento perfetto, che ha per
funzione di trasferimento il semplice prodotto di quelle dei quadripoli componenti.
5.3.3.3 Trasferimento in banda traslata in un quadripolo
Nel caso di impiego di un quadripolo LTI, idealmente o fisicamente realizzabile, con segnali in
banda traslata, di norma rappresentati tramite gli inviluppi complessi riferiti a una frequenza
fc=%c/2! entro la banda, ammesso l’adattamento perfetto nella sezione di connessione in uscita si
103
preferisce spesso la caratterizzazione tramite la grandezza, denominata funzione di trasferimento
equivalente in banda base:
[5.3.37] H(f)=H+(f+fc).
Come illustrato nell’esempio in Figura 5.10, la funzione H(f) è ottenuta per semplice traslazione di
fc verso la origine di H+(f), ossia della sola porzione sul semiasse positivo delle frequenze della
funzione di trasferimento H(f)=H21(f).
Figura 5.10: Funzione di trasferimento equivalente in banda base di un quadripolo LTI con
adattamento perfetto in uscita impiegato con segnale in banda traslata.
Si noti che in generale la funzione H(f) non è hermitiana, ossia risulta:
[5.3.38] H(f)/H*(-f);
di conseguenza è di norma complessa la risposta impulsiva equivalente in banda base:
[5.3.39] h(t)=F-1{H(f)} = hc(t) + jhs(t).
Nella pratica è però frequente il caso di quadripoli per cui, almeno approssimativamente, vale la
proprietà H(f)=H*(-f) ; allora h(t) risulta reale, ossia si ha h(t)"hc(t) e hs(t)"0.
Inviando al paragrafo 5.3.3.4 il lettore interessato alla dimostrazione, la risposta impulsiva
equivalente in banda base consente di ricavare l’inviluppo complesso !y(t) della risposta da quello
!x(t) di eccitazione mediante la semplice trasformazione:
[5.3.40] !y(t) = h(t)$!x(t).
Ammessa l’esistenza della trasformata di Fourier Ix(f) di !x(t), si ottiene al solito la corrispondente
semplice relazione nel dominio della frequenza:
[5.3.41] Iy(f)=H(f) Ix(f)
5.3.3.4 Approfondimenti sul trasferimento in banda traslata
La funzione di trasferimento equivalente in banda base può essere scomposta nelle sue componenti
hermitiana e non hermitiana, H(f) = HH(f)+HAH(f), per cui:
1" 1
[5.3.42] HH(f) = H ( f ) +H (-f )$% , HAH(f) = "#H ( f ) -H (-f )$% .
! !
2# 2
Per antitrasformazione allora si ottiene:
1"
[5.3.43] F -1{HH(f)} = h ( t ) +h ( t )$% = hc(t),
!
2 #
1"
[5.3.44] F -1{HAH(f)} = h ( t ) -h ( t )$% = jhs(t),
!
2#
da cui risultano anche le seguenti espressioni della parte reale e del coefficiente della parte
immaginaria della risposta impulsiva equivalente in banda base:
1 -1 1 -1
F H ( f ) +H (-f ) , hs(t) = F H ( f ) -H (-f )} .
{ } j2 {
[5.3.45] hc(t) =
! !
2
Considerando i segnali analitici alle due porte (vedi [3.5.5]):
104
[5.3.46] ax(t) = !x(t) e j!ct , ay(t) = !y(t) e j!ct ,
in luogo della trasformazione fra i segnali reali y(t)=h(t)$x(t), si ha la trasformazione, che investe
unicamente il semiasse positivo delle frequenze:
[5.3.47] ay(t) = h+(t)$ax(t),
dove
[5.3.48] h+(t) = F -1{H+(f)} = h(t) e j!ct ;
si ottiene allora:
[5.3.49] !y(t) e j!ct = " ! (v) h (t-v) e
x +
j!c v
dv ,
ossia
[5.3.50] !y(t) = " !x ( v ) h + ( t-v ) e dv ,
-j!c ( t-v)
che tenendo conto della [5.3.48] conduce alla trasformazione [5.3.40] fra gli inviluppi complessi.
Si rammenti che il trasferimento ideale si ottiene quando viene verificata la condizione di segnale
fedele [1.2.1]. Alla luce di quanto esposto nei paragrafi precedenti, considerando il transito di un
segnale in un sistema di telecomunicazioni assimilato al transito in un sistema LTI, si può
verificare che tale condizione si realizza solo se:
[5.4.1] h0(t) = g +(t-t0)=F-1{g e-j2! ft 0 },
Infatti:
[5.4.2] y(t) = g x(t-t0)= h0(t)$x(t) = g+(t-t0)$x(t) = F-1{g e-j2! ft 0 }$x(t).
Questa espressione caratteristica di h0(t) comporta che il quadripolo abbia riflettenze alle due porte
e trasmettenza dalla porta 2 alla porta 1 tutte identicamente nulle (ossia con H110(f)"0, H120(f)"0 e
H220(f)"0) e che abbia inoltre dalla porta 1 alla porta 2 la trasmettenza, e quindi la funzione di
trasferimento, nella forma:
[5.4.3] H210(f) = H0(f) = g e-j2! ft 0 ,
al solito con g e t0 costanti reali.
In tal modo per qualsiasi segnale di eccitazione x(t) e generico comportamento del bipolo
utilizzatore il quadripolo fornirebbe in base alla convoluzione [5.3.24] la risposta fedele.
Il blocco considerato, soddisfacente ai fini della trasmissione per qualsiasi condizione alle porte e
anche per segnali a banda infinita, non può rappresentare nessun sistema realmente costruito ed è
pertanto denominato quadripolo ideale. L’inconveniente della impossibilità di potere
approssimare il suo comportamento ideale con effettivi sistemi fisici si ridimensiona però
drasticamente se si fa riferimento, come usuale nella pratica della trasmissione, a segnali con
spettro monolatero limitato, o almeno praticamente limitato, entro i due estremi finiti, fm e fM della
banda monolatera. Nei paragrafi seguenti sono appunto considerati i quadripoli capaci di fornire
risposte almeno in pratica fedeli a segnali di eccitazione prima del tipo in banda base e poi del tipo
in banda traslata.
105
5.4.2 Quadripoli perfetti
corrispondenti a quelle che definiscono il quadripolo ideale, ma nella sola banda interessata, sono
allora sufficienti per ottenere la trasmissione ideale dalla porta 1 alla porta 2, con assenza di
segnali riflessi e la desiderata risposta fedele y(t)=g x(t-t0).
Riassumendo, un sistema a due porte impiegato per la trasmissione di segnali in banda base è in
grado di consentire la trasmissione ideale, dalla sua porta di entrata 1 a quella di uscita 2, quando
sia rappresentabile da un quadripolo LTI che abbia nella banda utile (fm, fM):
1) riflettenze H11(f) e H22(f) e trasmettenza H12(f) nulle,
2) funzione di trasferimento H(f)=H21(f) con
• modulo costante,
• argomento proporzionale alla frequenza (a meno dell’addendo -! in caso g<0).
La condizione sulle riflettenze si denomina condizione di adattamento perfetto del quadripolo. Le
condizioni sulla funzione di trasferimento, ossia:
!"
[5.4.5] |H(f)| = |g|, arg{H(f)} = -2!ft0 + sgn (g) -1$% , ! f " ( fm ;fM ) ,
2#
sono denominate condizioni di non distorsione in banda base del quadripolo, dato che qualora
esse non siano rispettate accade che il segnale in banda base trasferito non sia fedele, ossia si
manifesti la distorsione lineare tempo invariante della risposta.
Qualora tutte le condizioni sopra elencate siano soddisfatte si ha un quadripolo perfetto in banda
base. Si noti che gli andamenti perfetti delle funzioni Hij(f) richiesti solo entro la banda utile
limitata possono essere bene approssimati in pratica da quelli dei parametri caratteristici del
quadripolo rappresentativo di un sistema effettivo operante in banda base, anche se con difficoltà
crescenti al crescere di fM nel caso fm=0 oppure, diversamente, del rapporto fM/fm.
Talvolta, in condizione di completo adattamento nelle sezioni di connessione, interessa il
trasferimento bidirezionale ossia si desidera che le coppie dei segnali diretti e riflessi risultino
separatamente fedeli, ma in completo disaccoppiamento in quanto veicoli di due distinte
informazioni che viaggiano in versi opposti; è allora immediato aggiungere la ulteriore condizione
di simmetria elettrica, pervenendo così a un quadripolo simmetrico perfetto in banda base.
Le proprietà [5.4.5] si traducono nella costanza in banda delle funzioni di guadagno e di ritardo di
gruppo (vedi [5.3.27] e [5.3.28]):
[5.4.6] G(f) = g2, t0(f) = t0, ! f " ( fm ;fM ) ,
In definitiva, dal punto di vista della trasmissione un quadripolo perfetto in banda base è
caratterizzato in banda utile da due sole grandezze, entrambe reali e positive: il guadagno G=g2 e il
ritardo di gruppo t0.
5.4.2.2 Quadripolo perfetto in banda traslata
Nel caso di un quadripolo LTI che rappresenti un sistema a due porte impiegato per la trasmissione
di un segnale in banda traslata, con estremi fm e fM della banda monolatera, le considerazioni
riguardanti le riflessioni nelle sezioni di connessione restano invariate: quindi ai fini della
106
trasmissione ideale si perviene alle stesse condizioni relative all’adattamento perfetto del
quadripolo entro la banda utile. Nei riguardi del trasferimento da una porta all’altra del quadripolo,
è invece opportuno fare riferimento alla meno severa condizione di fedeltà:
[5.4.7] !y(t) = g e-j! !x(t-t0),
dove # è un’arbitraria costante reale, espressa sugli inviluppi complessi !x(t) e !y(t) piuttosto che
sui corrispondenti segnali reali x(t) e y(t); scelta nella definizione degli inviluppi complessi una
comune frequenza di riferimento fc in entrata e in uscita, la menzionata condizione è in generale
soddisfatta se il comportamento del quadripolo e riconducibile alla trasformazione LTI priva di
memoria, con risposta impulsiva equivalente in banda base h(t) =g e- j! +(t-t0), cui corrisponde nel
dominio della frequenza la funzione di trasferimento ideale equivalente in banda base:
[5.4.8] H0(f) = g e- j! e-j2! ft 0 .
Stante la limitazione in banda della eccitazione e la linearità, è però al solito sufficiente che la
funzione di trasferimento del quadripolo equivalente in banda base soddisfi la meno severa
condizione:
-j(2!ft 0 +" )
[5.4.9] H(f) = g e , ! f " ( fm -fc ;fM -fc ) ;
dove H+(f) coincide per f'0 con la trasmettenza H21(f) del quadripolo in banda traslata e Dc = #-
2!fct0 ha valore arbitrario, essendo tale quello di #.
Riassumendo, un sistema a due porte impiegato per la trasmissione di segnali in banda traslata può
consentire la trasmissione ideale dalla porta 1 alla 2, senza alterazioni della frequenza di
riferimento nelle rappresentazioni con gli inviluppi complessi, quando sia rappresentabile da un
quadripolo LTI che abbia nella banda utile (fm ; fM) :
1) riflettenze H11(f) e H22(f) e trasmettenza H12(f) nulle,
2) funzione di trasferimento H(f)=H21(f) con
• modulo costante,
• argomento proporzionale alla frequenza a meno di un addendo arbitrario (quindi lineare).
La condizione sulle riflettenze è ancora la condizione di adattamento perfetto del quadripolo. Le
condizioni sulla funzione di trasferimento, ossia:
[5.4.11] |H(f)| = |g|, arg{H(f)} = -2!(f-fc)t0 - #, ! f " ( fm ;fM ) ,
sono denominate condizioni di non distorsione in banda traslata del quadripolo, dato che qualora
esse non siano rispettate accade che il segnale in banda traslata trasferito non sia fedele, ossia si
manifesti la distorsione lineare tempo invariante della risposta.
Qualora tutte le condizioni sopra elencate siano soddisfatte si ha un quadripolo perfetto in banda
traslata. Si noti che gli andamenti perfetti delle funzioni Hij(f) richiesti solo entro la banda utile
limitata possono essere bene approssimati in pratica da quelli dei parametri caratteristici del
quadripolo rappresentativo di un sistema effettivo; rispetto al caso in banda base, la presenza nella
seconda delle [5.4.11] di # arbitrario comporta minori difficoltà nell’approssimazione di arg{H(f)}
e, inoltre, tutte le difficoltà sono molto ridotte nel caso, molto frequente, di segnali a banda relativa
molto stretta per cui B<<fa.
Talvolta, in condizione di completo adattamento nelle sezioni di connessione, interessa il
trasferimento bidirezionale ossia si desidera che le coppie degli inviluppi complessi diretti e
riflessi risultino separatamente fedeli, ma in completo disaccoppiamento in quanto veicoli di due
distinte informazioni che viaggiano in versi opposti; è allora immediato aggiungere la ulteriore
107
condizione di simmetria elettrica, ottenendo un quadripolo LTI simmetrico perfetto in banda
traslata.
Le condizioni di non distorsione per un quadripolo LTI in banda traslata si traducono ancora nella
costanza in banda del guadagno e del ritardo di gruppo.
5.4.2.3 Quadripoli non lineari perfetti in banda relativa stretta
Ancora in relazione alla trasmissione di segnali in banda traslata, ma solo se a banda relativa
stretta, si consideri il caso particolare di un sottosistema, denominato convertitore di frequenza,
che si comporti come di seguito descritto. Le riflettenze a entrambe le porte del quadripolo
rappresentativo siano nulle nella banda di segnale; il trasferimento da una porta all’altra risulti
esprimibile tramite una relazione lineare tempo invariante tra gli inviluppi complessi degli effettivi
segnali reali y(t) e x(t) in uscita e in entrata, del tipo:
[5.4.12] !y(t) = !x(t) $hC(t) ;
infine questi ultimi siano definiti con riferimento a due diversi valori di frequenza, indicati con fce
e fcu (vedi Figura 5.11). Un convertitore, dunque, ha un comportamento non lineare nei riguardi
dei segnali reali alle porte, ma è invece lineare, oltre che tempo invariante, se si considerano i
corrispondenti inviluppi complessi.
Figura 5.11: Convertitore di frequenza impiegato con segnali in banda relativa stretta, con
frequenze di riferimento diverse in entrata e in uscita.
Si osserva che, in virtù della linearità della [5.4.12], i due segnali reali in entrata e in uscita di un
convertitore di frequenza hanno la medesima larghezza di banda B, come mostrato nell’esempio in
Figura 5.12 relativo a segnali di energia.
Figura 5.12: Esempio di spettri di ampiezza a banda relativa stretta in entrata e in uscita di un
convertitore di frequenza.
Ammessa l’inessenziale ipotesi che le frequenze di riferimento siano scelte al centro dei rispettivi
spettri, un convertitore di frequenza, seppure certamente di natura non lineare poiché si ha la
presenza in uscita di componenti spettrali non presenti in entrata, può consentire la trasmissione
ideale in banda relativa stretta a patto che gli spettri dei segnali in entrata e in uscita risultino
separati, ossia che sia soddisfatta la condizione |fce-fcu|>B, e che la funzione di trasferimento
equivalente in banda base del quadripolo rappresentativo, ottenuta per trasformazione di Fourier
dalla hC(t), soddisfi la condizione analoga alla [5.4.9]:
-j(2!ft o +" )
[5.4.13] H C (f) = gC e , ! f " (-B/2;B/2 ) .
Nel caso in cui fcu > fce si ha un convertitore perfetto in salita (UC=Up Converter), se invece fcu <
fce si ha un convertitore perfetto in discesa (DC=Down Converter). Per tale categoria di quadripoli
perfetti non è contemplato il comportamento elettrico simmetrico.
Al solito, riassumendo, un sistema a due porte operante su segnali in banda relativa stretta con
mutamento sensibile della frequenza di riferimento dell’inviluppo complesso in uscita rispetto a
108
quella in entrata può consentire la trasmissione ideale unidirezionale, qualora esista un suo
quadripolo rappresentativo non lineare tempo invariante con una funzione di trasferimento
equivalente in banda base HC(f) e se, nelle bande utili separate sull’asse delle frequenze, risultino:
1) riflettenze H11(f) e H22(f) nulle,
2) funzione di trasferimento equivalente in banda base HC(f) con
• modulo costante,
• argomento proporzionale alla frequenza a meno di un addendo arbitrario.
Tramite l’applicazione alla funzione HC(f) delle note espressioni [5.3.27] e [5.3.28], sono definibili
il guadagno del convertitore, GC(f), e il suo ritardo di gruppo, t0C(f); allora le condizioni di non
distorsione per un siffatto quadripolo si traducono nella costanza in banda sia del suo guadagno,
GC= g C2 , che del suo ritardo di gruppo, t0C.
109
6 FONDAMENTI DI TRASMISSIONE
110
111
Nel caso più semplice il sistema di trasmissione si riduce al solo mezzo trasmissivo, di norma
rappresentabile con un quadripolo LT I passivo e simmetrico, pertanto caratterizzato da identiche
riflettenze e dalle trasmettenze H12(f,r) = H21(f,r), queste ultime dipendenti dalla distanza r coperta.
In tale evenienza si ha la trasmissione ideale se le riflettenze sono nulle nella banda utile del
segnale e se la funzione di trasferimento, che allora si identifica con le trasmettenze, assume in
banda la particolare espressione:
[6.1.6] H0(f,r) = g(r) e , ! f " ( fm ;fM ) ,
-j2!ft 0 ( r )
dove:
• il fattore g(r) dipende solo da r, è positivo e soddisfa la g(r) << 1, così da potere in pratica
trascurare il segnale riflesso y1(t) nella porta di entrata rispetto a quello di eccitazione x(t);
• il ritardo t0(r) dipende anch’esso solo da r.
115
Infatti le condizioni considerate definiscono un mezzo trasmissivo perfetto, dato che oltre a
y1(t) < 0 si ha il segnale in uscita y(t) = g(r) x[t - t0(r)], fedele a quello in entrata x(t), anche se
considerevolmente affievolito.
Dato che nel generico mezzo perfetto, sia esso portante fisico o radio, il ritardo risulta
proporzionale a r, si può porre:
r
[6.1.7] t0(r) = ,
v
dove nell’inverso della costante di proporzionalità si riconosce la velocità v con cui il segnale si
propaga lungo il mezzo stesso. Tale velocità di propagazione, costante non solo al mutare di r, ma
anche al variare di f in banda utile, ha valore che dipende dalla particolare struttura: le tratte radio
hanno tutte v = c, mentre nei portanti fisici il valore è minore di c, in relazione al tipo di materiale
dielettrico.
Il modulo della funzione di trasferimento, o meglio la attenuazione A0(r) = 1/g2(r) del mezzo
trasmissivo perfetto, risulta invece esprimibile con due diverse leggi:
[6.1.8] A0(r) = e 2 7 r, per portanti fisici,
2
!r$
[6.1.9] A0(r) = A(r0) # & , per portanti radio,
" r0 %
dove la grandezza 7 > 0, indipendente da r e da f in banda utile, è denominata la costante di
attenuazione della particolare struttura fisica, mentre A(r0) è la attenuazione che si avrebbe per la
medesima particolare coppia orientata di antenne con un prefissato valore di riferimento r0 della
distanza (ad esempio r0 = 1 km).
Per i mezzi portanti fisici l’esistenza della legge esponenziale dell’attenuazione può essere dedotta
notando che comunque si pensi di suddividere in due spezzoni, lunghi r1 e r2, una struttura
uniforme di lunghezza r = r1+ r2, la attenuazione totale rimane invariata; poiché questa ultima è
data dal prodotto delle attenuazioni dei due spezzoni in cascata, si ha che A0(r1+ r2) deve
coincidere con il prodotto A0(r1)A0(r2), condizione che può essere soddisfatta solo con legge
esponenziale. Per una tratta radio la tipica dipendenza dal quadrato della distanza della
attenuazione discende dalla assunzione che la propagazione del segnale avvenga nello spazio
libero privo di perdite e, quindi, che si mantenga costante l’integrale del flusso della potenza
irradiata su qualsiasi superficie sferica di raggio r, con centro nella origine delle onde e.m. sferiche
irradiate.
I valori assunti dall’attenuazione dei mezzi trasmissivi sono di solito molto maggiori dell’unità.
Nella pratica si usa spesso la valutazione in unità logaritmiche, servendosi dei neper [Np] o, più
comunemente, dei decibel [dB]:
1
A[Np] =ˆ ln(A), A[dB] =ˆ 10 log(A),
2
dove ln e log indicano rispettivamente il logaritmo naturale e quello in base 10. In particolare, nel
caso di portanti fisici perfetti in base alla [6.1.8] risulta:
[6.1.10] A0[Np] = 7 r, A0[dB] = 7[dB/m] r,
dove si riconosce che la costante di attenuazione 7 si misura in Np/m e si è posto:
7[dB/m] = 20 log(e) 7 < 8,686 7.
Si segnala infine che con i mezzi trasmissivi effettivi è possibile avvicinare l’obiettivo
dell’adattamento perfetto alle due porte, mentre è spesso difficile ottenere nella banda utile delle
funzioni di trasferimento H( f,r) che approssimino bene il comportamento perfetto evidenziato
nella [6.1.6], soprattutto se la larghezza di banda relativa è notevole.
116
6.1.4 Canali lineari perfetti
Nella sua versione più semplice, un sistema di trasmissione ideale è costituito dal solo mezzo
trasmissivo (blocco centrale in Figura 1.2). Un sistema di trasmissione non elementare è costituito,
oltre che dal fondamentale mezzo trasmissivo, da altri sottosistemi.
Nel capitolo iniziale è stato evidenziato (vedi Figura 1.2) che la struttura tipica di un sistema di
trasmissione è costituita da un mezzo trasmissivo, con il compito del trasporto a distanza, e da
apparati di trasmissione inseriti a monte e a valle, che svolgono altre funzioni fondamentali
ripartite di norma in una pluralità di blocchi in cascata. Di norma il mezzo trasmissivo è di tipo
lineare, per avvicinare l’obiettivo del comportamento perfetto, ma spesso godono di tale proprietà
anche i blocchi funzionali degli apparati emittenti e riceventi direttamente connessi al mezzo
portante, così da costituire insieme a quest’ultimo un canale di trasmissione complessivamente
lineare.
Nel caso in cui tutti i blocchi componenti il canale siano singolarmente rappresentabili da
quadripoli di tipo LT I perfetti in una stessa banda, il comportamento globale si può ricondurre a
quello di un canale di trasmissione perfetto, o semplicemente canale perfetto, anch’esso LT I
perfetto nella medesima banda; esso ha una funzione di trasferimento uguale al prodotto di tutte
quelle degli m quadripoli rappresentativi che compongono la cascata (vedi [5.3.36]): indicato con
Gi il guadagno e con t0i il ritardo di gruppo dello i-esimo quadripolo, si hanno allora il guadagno e
il ritardo di gruppo del canale, entrambi costanti in banda:
m m
[6.1.11] G = ! G i , t0 = ! t 0i .
i=1 i=1
Osservando che in un canale perfetto sono sempre specificati gli estremi fm e fM della banda entro
la quale esso opera, si possono distinguere canali perfetti in banda base, al solito con fM >> fm, e
canali perfetti in banda relativa stretta, o molto stretta.
Sul piano puramente concettuale tale situazione è accettabile per qualsiasi distanza finita r da
coprire, poiché in teoria, per quanto grande sia il valore dell’attenuazione del mezzo ideale, il
segnale ricevuto conserva il carattere fedele richiesto dalla [1.2.1], comunque sia piccolo il valore
del fattore g; è tuttavia ragionevole, anche ignorando la presenza in ricezione di segnali
indesiderati, porsi l’obiettivo del ripristino del livello di potenza del segnale ricevuto y(t).
Nella sua configurazione più semplice, un canale perfetto comprende almeno un blocco attivo in
aggiunta al mezzo trasmissivo: si tratta di un amplificatore perfetto con guadagno GA = g 2A ,
rappresentabile con un quadripolo LT I con la elementare funzione di trasferimento HA( f ) = gA
costante in banda utile. L’amplificatore è inserito per recuperare il notevole affievolimento del
segnale uscente dal mezzo trasmissivo con attenuazione A(r) >> 1 (nella realtà l’affievolimento
totale è dovuto ad una pluralità di elementi di cui il mezzo trasmissivo è quello che fornisce il
contributo maggiore; gli altri contributi riguardano guide d’onda, elementi passivi, divisori di
segnali, dispositivi vari); ponendo i due sottosistemi in cascata, si ha infatti in banda utile il
guadagno complessivo del quadripolo equivalente al canale:
GA
[6.1.12] Geq = , ! f " ( fm ;fM ) ,
A (r )
che con GA = A(r) consente di ottenere un segnale fedele trasferito a valle della cascata che ha la
stessa potenza di quello di eccitazione, lasciando come unico effetto della trasmissione ideale nel
canale considerato, a guadagno complessivo unitario, la presenza del ritardo t0(r) introdotto dal
mezzo trasmissivo. Quanto sopra vale indipendentemente dalla collocazione dell’amplificatore,
all’inizio o alla fine del canale.
La presenza dell’attenuazione A0(r)>>1 può quibdi essere facilmente compensata con un
amplificatore, capace di fornire in uscita un segnale z(t) replica di quello in entrata y(t) a meno di
un fattore gA>>1, ossia dotato di un guadagno:
117
W
[6.1.13] GA = zz = g 2A ;
Wyy
tenendo conto anche che A0(r)=Wxx/Wyy, si ottiene infatti complessivamente:
GA
[6.1.14] Wzz = GA Wyy = Wxx,
A0 (r )
che nel caso della scelta GA=A0(r) fornirebbe Wzz=Wxx, come mostrato nello schema in Figura
6.5a. Il risultato della compensazione dell’attenuazione è lo stesso se l’amplificatore precede il
mezzo trasmissivo, come mostrato in Figura 6.5b.
In alcuni casi l’elaborazione viene appunto applicata, prendendo lo spunto dalle [6.2.4], per
sagomare opportunamente lo spettro del segnale in uscita, ossia per distribuire in modo diverso la
sua energia o potenza entro la medesima banda; ciò spesso viene attuato anche senza alterare
l’energia o la potenza complessiva. Nel caso in cui si abbia una elaborazione senza taglio di banda,
la funzione di trasferimento H( f ) del quadripolo LT I impiegato deve essere non nulla nell’intera
banda di segnale.
Diversamente si può avere lo scopo di eliminare parte dello spettro di un segnale, utilizzando un
quadripolo LT I che alle frequenze considerate abbia funzione di trasferimento nulla, o quasi nulla
in modulo: la elaborazione lineare è allora del tipo con taglio di banda.
Un modo per osservare l’effetto nel dominio del tempo prodotto da una generica elaborazione
lineare consiste nel porre tanto il segnale di eccitazione x(t) quanto la risposta y(t) nelle forme
campionate:
! t $ ! t $
[6.2.6] x(t) = ( k xksinc # -k & , y(t) = ( k yk sinc # -k & ,
" TN % " TN %
dove xk e yk sono i campioni completamente rappresentativi dei segnali:
[6.2.7] xk = x(kTN), yk = y(kTN),
essendo TN = 1 / 2 fM l’intervallo di Nyquist. Dal punto di vista del trasferimento della
informazione, una elaborazione lineare che agisce in modo continuo sulla grandezza fisica
istantanea del segnale, può essere dunque posta in corrispondenza a una trasformazione che opera
a tempo discreto tra una sequenza entrante x(n) e una uscente y(n), aventi per elementi i rispettivi
campioni dei segnali x(t) e y(t), con intervallo temporale TN invariato in entrata e in uscita.
Come dimostrato nel paragrafo 6.2.1.2, a cui si rinvia il lettore interessato ad approfondire, la
trasformazione effettuata con un quadripolo LT I distorcente fisicamente realizzabile fa assumere
alla corrispondente elaborazione a tempo discreto sui campioni dei segnali la forma lineare
particolare:
!
[6.2.8] yk = " h n xk -n = h0 xk + h1 xk-1 +...+ hm xk-m +...,
n=0
in cui hn sono gli elementi di una sequenza monolatera destra caratteristica del quadripolo,
denominata risposta impulsiva discreta equivalente. Dalla [6.2.8] si evince che una
trasformazione LT I con memoria opera la convoluzione tra la sua sequenza monolatera
caratteristica h(n) e quella x(n) del segnale in entrata. Ogni campione yk della sequenza y(n) del
segnale distorto in uscita è dato da una combinazione lineare a coefficienti reali costanti di un
numero in teoria infinito di campioni xk del segnale entrante, a partire da quello corrispondente
allo stesso istante e procedendo a ritroso per tutti quelli passati. Nella pratica si può assumere che
la risposta impulsiva equivalente sia una sequenza monolatera h(n) di lunghezza finita.
6.2.1.2 Risposta impulsiva discreta equivalente
Si consideri un quadripolo LT I con funzione di trasferimento H( f ), eccitato da un segnale x(t)
limitato superiormente in banda con estremo finito fM.
120
Pertanto ammette l’intervallo di campionamento massimo:
1
[6.2.9] TN = .
2 fM
Ai fini della risposta della trasformazione, il quadripolo può essere sostituito con uno equivalente,
con funzione di trasferimento resa periodica in frequenza con periodo 2 fM = 1/ TN:
[6.2.10] Heq(f) =ˆ rep2fM{H(f) e j2! ft 0 rect(f TN)} e-j2! ft 0 ,
dato che questo differisce dal primo solo alle frequenze in cui è nulla l’eccitazione. Il modulo di
Heq( f ) é continuo, dato che |H( f )| è una funzione pari; per ottenere anche la continuità
dell’argomento di Heq( f ) é opportuno che il ritardo t0 sia scelto in modo da soddisfare la
arg{H( fM)}= - 2!f t0.
La [6.2.10] può essere espressa in serie di Fourier, ottenendo:
!
[6.2.11] Heq( f ) = " h n e- j 2 !nfT
N
,
n=0
-fM -fM
denominata risposta impulsiva discreta equivalente, a cui corrisponde una sequenza monolatera
destra h(n) con intervallo temporale TN. Servendosi di tale funzione nella convoluzione
y(t) = h(t) $ x(t), dove l’eccitazione è espressa nella forma campionata [6.2.6], si ottiene la risposta
anch’essa in forma campionata:
! t $ !
t ! $ !
[6.2.14] y(t) = heq(t) $ ( k xk sinc # -k & = " k " hn xk +(t - nTN) $ sinc #" T -k &% = " k " hn xk sinc
" TN % n=0 N n=0
! t $ ! t $
# -k+n & = ( kyk sinc # -k & ,
" TN % " TN %
dove nell’ultimo passaggio è stato effettuato il cambio di variabile discreta da k - n a k e gli
elementi yk relativi al segnale trasformato risultano dati dalla:
!
[6.2.15] yk= " x k-n h n .
n=0
La elaborazione lineare senza taglio di banda è assai varia, potendo scegliere una qualsiasi
funzione di trasferimento H( f ), nel rispetto della reversibilità della operazione. Nel seguito
verranno presi in esame alcuni tipi, significativi per la trasformazione che li caratterizza. Due
esempi assai diffusi sono le trasformazioni LT I rispettivamente attuate tramite le operazioni di
derivazione e integrazione nel dominio del tempo:
dx ( t ) t
[6.2.18] y(t) =
dt
, y(t) = " x (u) du .
-!
Si noti che a meno di una costante tali elaborazione sono tra loro complementari, ossia l’una
consente le reversibilità dell’altra.
Applicando alle [6.2.18] la trasformazione di Fourier, si determinano le seguenti funzioni di
trasferimento del derivatore ideale e dello integratore ideale:
1
[6.2.19] HDi ( f ) =ˆ j2!f, HIi ( f ) =ˆ .
j2!f
I relativi quadripoli non sono tuttavia nemmeno idealmente realizzabili, come appare dalle
precedenti funzioni caratteristiche che hanno ciascuna un polo, rispettivamente per f 9 ) e per
f = 0.
A partire da segnali limitati in banda con fm non nullo, le trasformazioni [6.2.18] sono ottenibili
con reversibilità con quadripoli LT I con memoria fisicamente realizzabili, che abbiano funzioni di
trasferimento del tipo:
[6.2.20] HD ( f ) =ˆ HDi ( f ) g e-j2 ! ft 0 , ! f " ( fm ;fM ) ,
dove g e t0 sono costanti reali positive. Si può verificare che nella banda di segnale il modulo delle
funzioni di trasferimento è limitato e non nullo e il ritardo di gruppo risulta uguale a t0. Questi
quadripoli complementari, denominati rispettivamente derivatore perfetto e integratore perfetto,
122
alterano profondamente la distribuzione della energia o della potenza del segnale entro la stessa
banda; in base alle [6.2.4] si ha infatti per un derivatore:
[6.2.22] Eyy( f ) = (2!f)2 g2 Exx( f ), Wyy( f ) = (2!f)2 g2 Wxx( f ),
e per un integratore:
Figura 6.8: Densità spettrale in entrata (a) e densità spettrale in uscita rispettivamente da un
derivatore (b) e da un integratore (c).
Altri esempi di elaborazione analogica lineare senza taglio di banda e reversibile sono quelli offerti
dalla coppia di quadripoli LT I con memoria fisicamente realizzabili, ancora tra loro
complementari, con le rispettive funzioni di trasferimento, aventi moduli costanti e unitari in una
banda da fm a fM:
! ! $
-j#2 !fto + sgn(f)&
[6.2.24] HH ( f ) =ˆ - j sgn( f ) e -j2 ! ft 0
=e " 2 %
, ! f " (fm ;fM ) ,
! ! $
-j#2 !fto - sgn(f)&
[6.2.25] H H( f ) =ˆ j sgn( f ) e -j2 ! ft 0
=e " 2 %
, ! f " (fm ;fM ) ;
le trasformazioni sono tuttavia applicabili a patto che i segnali di eccitazione siano privi di
componenti spettrali in prossimità della origine, ossia si abbia ancora fm>0.
Si può verificare che nella banda considerata il ritardo di gruppo risulta uguale alla costante
positiva t0. I due quadripoli considerati, che non alterano la distribuzione spettrale dell’energia o
della potenza, hanno l’effetto fondamentale di introdurre un addendo a gradino nell’argomento
delle funzioni di trasferimento, con conseguente sfasamento aggiuntivo di ±!/2 di ciascuna
componente spettrale uscente; essi vengono pertanto denominati sfasatori di ±" / 2.
Il lettore interessato ad ulteriori approfondimenti può constatare che i quadripoli sfasatori
considerati attuano la trasformazione e la antitrasformazione di Hilbert (vedi [3.5.22] e [3.5.27]), a
meno del ritardo t0.
Si noti che nell’intervallo (fm ; fM) le funzioni HD ( f ) e H H ( f ), così come la coppia HI ( f ) e HH ( f ),
hanno argomenti con lo stesso tipo di andamento, di cui in Figura 6.9 sono mostrati gli esempi.
I quadripoli costruibili con cui si ottengono con buona approssimazione, ma non esattamente, gli
andamenti nella banda di segnale delle funzioni di trasferimento dei quattro tipi di elaboratori
lineari considerati hanno caratteristiche prive di discontinuità, sia in modulo che in argomento,
sull’intero asse delle frequenze. Per una assegnata tolleranza sui piccoli scostamenti in banda tra le
funzioni di trasferimento effettive e quelle teoriche, la complessità circuitale cresce con il valore
del parametro:
B fM -fm
[6.2.26] QH =ˆ = ,
fm fm
123
che quanto più è grande tanto più rende difficile e costosa la costruzione; l’approssimazione è
pertanto facile nel caso di trasformazioni da effettuare su segnali in banda relativa stretta (B<fm), e
ancora di più se molto stretta.
Nell’intento di separare un segnale utile x(t) con banda limitata entro l’estremo superiore fM da
eventuali altri segnali addizionali, che invece abbiano componenti spettrali non nulle solo
all’esterno del menzionato intervallo, si individua immediatamente la funzione di trasferimento
(vedi Figura 6.10):
[6.2.27] Hti( f ) =ˆ rect(f/2ft) e-j2!ft 0 ,
con frequenza di taglio ft = fM, caratteristica del quadripolo LT I denominato filtro passa-basso
rettangolare. Il sistema, infatti, consente il trasferimento trasparente, a meno di un ritardo t0
costante, di ogni componente spettrale che cada nella banda passante, tra 0 e ft entro cui si ha
|Hti( f )| = 1, e non permette alcun trasferimento nella banda oscura, tra ft e infinito entro cui si ha
invece Hti( f ) = 0.
Figura 6.10: Modulo della funzione di trasferimento del filtro passa-basso rettangolare, a linea
continua, e del filtro passa-basso perfetto, a tratteggio.
Dato che la funzione di trasferimento [6.2.27] è strettamente limitata in banda, la risposta
impulsiva è illimitata nel tempo: con t0 finito viene allora a mancare la causalità, ossia il filtro
passa-basso rettangolare è solo idealmente realizzabile. Almeno nella banda del segnale utile la
prestazione considerata è tuttavia garantita da un quadripolo LT I fisicamente realizzabile,
denominato filtro passa-basso perfetto, per il quale il modulo della funzione di trasferimento è
ancora unitario fino alla frequenza di taglio, ossia si ha:
124
[6.2.28] Ht( f ) =ˆ Hti( f ), ! f < ft ,
ed è prossima a zero per | f |>ft, tranne che nel piccolo intervallo di transizione >ft, adiacente alla
banda passante, entro il quale si passa dal valore uno a valori quasi nulli, come mostrato
nell’andamento a tratteggio in Figura 6.10.
Nel passare a quadripoli effettivamente costruibili con cui si ottiene con buona approssimazione la
prestazione considerata, si motiva la collocazione dei filtri tra i sistemi che compiono elaborazioni
lineari con memoria, senza taglio di banda sul segnale utile. Nella pratica infatti non è possibile
ottenere una ripida transizione tra banda passante e banda oscura senza produrre piccoli, ma
inevitabili effetti di distorsione nel segnale in uscita. Una categoria di filtri pratici, denominata a
massima piattezza o di Butterworth, ha ad esempio il seguente andamento della attenuazione:
[6.2.29] AB( f ) = 1 + k2( f / ft) 2n,
con k2<1 e n intero positivo, che per qualsiasi valore di n fornisce alla frequenza di taglio
AB( ft)=1+ k2 ; anche se si fissa un valore piccolo di k2 e un valore elevato di n, l’attenuazione non
è rigorosamente costante nella banda del segnale utile, che di conseguenza risulta distorto in
uscita, anche se in modo marginale. Adottando, come accade per la categoria dei filtri di
Tchebysheff, un andamento AT( f ) dell’attenuazione con piccole oscillazioni in banda passante,
tutte di ampiezza 1+ k2 che è ancora il valore alla frequenza di taglio, è possibile ottenere a parità
dell’ordine del polinomio in frequenza che esprime la funzione AT( f ) una sua più ripida crescita
nell’intervallo di transizione, ma con accentuazione dell’effetto distorcente, a pari valore di k2.
Esistono poi altri tipi di filtri con andamenti ancora più complessi.
Una volta stabilita la tolleranza dello scostamento rispetto al comportamento del filtro ideale, si
perviene spesso al tracciamento di una maschera (vedi Figura 6.11) che almeno fissa il valore
massimo A = 1+ k2 ammesso per l’attenuazione variabile in banda utile (poco maggiore di uno),
l’estensione dell’intervallo di transizione >ft e il valore minimo ammesso per l’attenuazione in
banda oscura (assai maggiore di uno). Si può allora individuare il valore minimo da assegnare
all’ordine 2n del polinomio AB( f ) per soddisfare i requisiti, ossia affinché l’andamento
dell’attenuazione del filtro sia all’interno della maschera. Lo stesso procedimento può essere
applicato anche alle altre categorie di filtri.
Figura 6.11: Attenuazione di un filtro passa-basso a massima piattezza, con andamento contenuto
in una maschera assegnata.
A parità di tolleranze, la complessità circuitale del filtro, che aumenta con n, è in generale tanto
maggiore quanto più grande è il valore del parametro:
[6.2.30] Qt =ˆ ft .
!ft
In aggiunta al tipo di filtro passa-basso, si considerano altri quadripoli che compiono elaborazioni
lineari senza taglio di banda, ancora con caratteristiche decisamente selettive in frequenza. In
ragione dei loro comportamenti, mostrati in Figura 6.12 tramite gli andamenti della attenuazione
125
A[dB] = 10 log A espressa in decibel, i quattro principali tipi si denominano filtro passa-basso (a),
filtro passa-alto (b), filtro passa-banda (c) e filtro elimina-banda (d).
Figura 6.12: Andamento della attenuazione in decibel nei tipi principali di filtri - passa-basso (a),
passa-alto (b), passa-banda (c) ed elimina-banda (d).
Nella parte inferiore della Figura 6.12 è anche riportata l’usuale simbologia nelle rappresentazioni
con schemi a blocchi.
Le funzioni di attenuazione dei tipi di filtri di nuova introduzione possono essere ricavati dalla
espressione dell’attenuazione A( f ) del tipo passa-basso tramite semplici sostituzioni della variabile
indipendente:
• con (ft/f) al posto di (f/ft) si ottiene l’attenuazione del tipo passa-alto, con frequenza di
taglio ft;
• con (f-fa)/ft al posto di (f/ft) si ottiene l’attenuazione del tipo passa-banda, con larghezza
di banda passante Bt = 2 ft centrata sulla frequenza fa;
• con ft/(f-fa) al posto di (f/ft) si ottiene l’attenuazione del tipo elimina-banda, con larghezza
di banda oscura Bt = 2 ft centrata sulla frequenza fa.
6.2.4 Elaborazione lineare con taglio di banda
Figura 6.13: Risposta impulsiva del filtro passa-basso rettangolare con ritardo t0 (a) e del filtro
fisicamente realizzabile che lo approssima (b).
Un filtro passa-basso fisicamente realizzabile con funzione di trasferimento che approssimi bene
quella rettangolare ha una risposta impulsiva simile a quella di Figura 6.13a. Come mostrato in
Figura 6.13b, si ha ancora un impulso con un tempo di salita circa pari a >t=1/2ft e un massimo in
corrispondenza a un istante t0 (con t0 >>>t), che può essere assunto come tempo di ritardo del
filtro; si manifestano però delle apprezzabili differenze, che riguardano una lieve asimmetria
dell’impulso rispetto al suo punto di massimo e, soprattutto, le elongazioni, che si mostrano più
brevi: quella in anticipo è nulla per t " 0, mentre quella in ritardo è trascurabile per t >2t0. In
definitiva la risposta impulsiva di un filtro passa-basso effettivo può considerarsi praticamente
limitata in durata nell’intervallo (0; 2t0).
Si noti che quanto meglio la funzione di trasferimento del filtro effettivo approssima quella ideale
(con sempre più elevato valore del parametro [6.2.30]), ovverosia quanto più la sua risposta
impulsiva è simile a hti(t), tanto maggiore deve risultare il tempo di ritardo t0 e, quindi, la durata
pratica della risposta impulsiva stessa. Infatti, il filtro passa basso ideale con funzione di
trasferimento rettangolare implica una risposta impulsiva di durata infinita. Pertanto, per poter
effettuare completamente la convoluzione occorre che trascorra un tempo infinito.
L’effetto nel dominio del tempo provocato dal transito di un generico segnale in banda base x(t)
nel filtro passa-basso rettangolare può essere calcolato, volta per volta, tramite la convoluzione
hti(t) $ x(t). Passando a un filtro passa-basso effettivo, il segnale distorto in uscita si ottiene con la
medesima operazione, ma utilizzando la effettiva risposta impulsiva ht(t), del tipo mostrato in
Figura 6.13b. In generale si possono comunque formulare le seguenti considerazioni.
127
Nel caso di segnale di energia strettamente limitato in un intervallo di durata D, e quindi
teoricamente illimitato in banda, la distorsione per taglio di banda è sicuramente presente e si
evidenzia qualitativamente sotto due aspetti:
• lo smussamento della forma d’onda temporale in uscita, tanto maggiore quanto minore è la
frequenza di taglio ft, principalmente evidente nei tratti di maggiore ripidità del segnale in
entrata;
• la elongazione nel tempo con una durata pratica che si può assumere pari a D+2t0, come si
può dedurre dalla y(t) = ht(t) $ x(t) tenendo conto che la risposta impulsiva ha praticamente
durata 2 t0 (si rammenti che la convoluzione tra due segnali a durata finita ha una durata pari
alla somma delle due durate).
Nel caso di segnali strettamente limitati in banda, con frequenza massima fM, il primo degli aspetti
di cui sopra si manifesta ovviamente solo se ft<fM; il secondo perde significato, poiché pure
assumendo che la durata D sia praticamente finita il suo valore è di norma tale da potere trascurare
l’incremento 2t0. Se poi la porzione di spettro eliminata non è molto notevole, come nell’esempio
mostrato in Figura 6.14, l’effetto di distorsione con smorzamento della forma d’onda è debole,
così da potere essere accettato nella pratica della trasmissione, come accade nel caso del segnale
telefonico analogico che viene superiormente limitato in spettro a 3,4 kHz.
ciascuna correlazione (b,6h) fornisce isolatamente il valore ah, anche se a meno di un coefficiente
noto E che corrisponde alla energia della funzione 6(t), dalla quale traggono origine per
66
Si noti che nelle condizioni menzionate la [6.3.2] estende la rappresentazione tramite una base a
un segnale di potenza, sempre che esso sia però significativo solo nei riguardi della sequenza dei
valori ak da esso veicolata. Si usa pertanto considerare l’insieme {6k(t)} come una base e
denominare forma di base la funzione 6(t).
Inviando al paragrafo 6.3.1.2 il lettore interessato alla corrispondente condizione di reversibilità
nel dominio della frequenza, da questa si accerta che non esistono forme di base con estremo
superiore di banda f M che sia minore di 1/2 T. Poiché i segnali elaborati b(t) sono composti da una
6
combinazione lineare a coefficienti costanti di funzioni ottenute da quella di base 6(t) per
traslazione temporale, ossia hanno una banda che non può superare f M, ne consegue l’importante
6
limitazione:
1
[6.3.6] fbM = f M ' f0 =ˆ .
2T
6
la densità spettrale di potenza ottenuta per ripetizione a intervallo fT dello spettro di energia E (f), 66
si osserva che W(f) è periodica in frequenza, di periodo fT, ed è pertanto rappresentabile in serie di
Fourier:
[6.3.10] W( f ) = (3 C3 e j2!"f /fT ,
con i coefficienti:
1
[6.3.11] C = 3
fT $E !! (f)e- j2"#f /fT df .
In conclusione, se la funzione C (-) ha nel dominio del tempo la proprietà [6.3.5], dalla [6.3.13]
66
risulta immediatamente W(f)=T C (0) = T E , ossia in base alla [6.3.9] vale la corrispondente
66 66
dalla [6.3.13]:
$
[6.3.15] T E = T E + 2T % C !! ("T)cos(2#f"T) ,
66 66
"=1
che comporta la [6.3.5] in quanto per essere vera devono essere nullo il secondo termine del
secondo membro ovvero tutti i termini di C per 3#0. 66
Si noti in primo luogo che la proprietà della simmetria vestigiale, valendo per ogni f, deve essere
soddisfatta anche alla particolare frequenza f0 =ˆ 1/2T e ciò implica che lo spettro di energia E (f) 66
di una forma di base necessariamente si estende almeno fino a f0. Si dimostra allora che non
esistono forme di base con estremo superiore di banda minore di 1/2T; per il valore di f M non 6
esiste invece alcuna condizione generale di limitazione superiore, in modo che una forma di base
può essere illimitata in frequenza. Nel caso in cui E (f) sia limitato in f0, la proprietà della
66
simmetria vestigiale interessa per ogni frequenza solo un addendo; considerando n = 0 si ricava
allora che lo spettro di energia è costante nell’intervallo (-f0;f0) e vale T2: la forma di base a banda
minima è dunque la funzione 60(t) =ˆ sinc(t/T).
130
Nella ipotesi che lo spettro di energia E (f) sia limitato entro 1 / T, la proprietà [6.3.14] interessa
66
per ogni frequenza solo coppie di spettri traslati adiacenti; per il valore f=f0+>f con >f limitato tra
0 e f0, la [6.3.14] assume infatti la forma:
[6.3.16] E (f0+>f) + E (f0+>f-2f0) = E (f0+>f)+E (>f-f0)=T E ;
66 66 66 66 66
dato che per >f = f0 risulta E (0) = T E e tenuto conto che E (f) è pari si ottiene:
66 66 66
che esprime la proprietà della simmetria vestigiale nel caso particolare considerato.
6.3.1.3 Segnali soddisfacenti il criterio di Nyquist
Dal segnale elaborato b0(t) ottenibile, solo teoricamente, a partire dalla forma di base a banda
minima 60(t) = sinc(t/T) è possibile rintracciare i valori ak anche per mezzo della semplice
osservazione dei valori istantanei in hT; infatti risulta:
[6.3.18] b0(hT) = (k ak sinc[(hT-kT)/T] = (k ak sinc(h-k) = ah,
grazie alla particolare proprietà:
[6.3.19] sinc(3) = 0, per 3 =ˆ h - k / 0.
La proprietà [6.3.19] non è esclusiva della forma sinc(t/T): basta ad esempio considerare la
funzione x(t) sinc(t/T), con x(t) segnale di energia, per constatare che essa ha almeno gli stessi zeri
negli istanti 3T per 3 / 0. Individuata una generica funzione di energia q(t), che sia diversa da zero
nell’origine e goda della proprietà:
[6.3.20] q(3T) = 0, per 3 / 0,
un segnale che abbia l’espressione:
[6.3.21] pN(t) = ( k ak q(t-kT),
consente ancora di rintracciare i valori ak tramite la semplice osservazione dei valori istantanei,
poiché si ha, almeno negli istanti hT, pN(hT) = ah q(0), come è immediato da verificare. La
proprietà [6.3.20] è usualmente indicata come criterio di Nyquist in memoria di colui che per
primo la evidenziò.
Un segnale del tipo pN(t), costituito da una combinazione lineare a coefficienti costanti di funzioni
traslate di kT ottenute a partire da una funzione che soddisfa il criterio di Nyquist, è denominato
segnale soddisfacente il criterio di Nyquist. Poiché gli ak sono in corrispondenza con i simboli di
una sequenza numerica e risultano individualmente distinguibili nell’andamento del segnale, si usa
anche affermare che questo è privo di interferenza intersimbolo (ISI = Inter Symbol Interference),
o privo di ISI.
Si noti che nei segnali del tipo introdotto mediante la [6.3.21] non è stato espresso però alcun
vincolo sulla ortogonalità delle funzioni traslate, ossia tale proprietà non è in generale soddisfatta.
Ciò non esclude l’esistenza di segnali del tipo b(t), ossia espressi in serie di funzioni traslate
ortogonali, in cui nel contempo la forma di base rispetta il criterio di Nyquist. La reversibilità
ideale della elaborazione che produce un segnale di tale categoria può pertanto basarsi anche sulla
più semplice osservabilità diretta dei suoi valori istantanei.
6.3.2 Elaborazioni lineari su segnali a gradini
operazione complementare. Per tale via si passerebbe, senza tema di perdita di informazione, dal
segnale a gradini a(t) solo praticamente limitato in frequenza, a un segnale elaborato b(t) con
contenuti spettrali non nulli esclusivamente nella banda finita (0;f M), essendo fbM = f M.
6 6
Ammesso, con riserva di immediata successiva verifica, che sia realizzabile una elaborazione
lineare con taglio di banda a carattere reversibile, essa si compie eccitando con a(t) un quadripolo
LT I con memoria (vedi Figura 6.15), avente una funzione di trasferimento HF ( f ) nulla oltre la
frequenza di taglio f M. Grazie alla linearità, che stabilisce sempre lo stesso legame di
6
convoluzione tra ciascuna coppia di addendi corrispondenti delle serie in entrata e in uscita, la
risposta risulta nella forma [6.3.2] a meno di un ritardo t0, qualora sia soddisfatta la relazione:
[6.3.22] 6( t – t0) = F-1{HF ( f )}$ rect(t/T);
applicando la trasformazione di Fourier si ricava allora:
1 !(f) -j2!ft0
[6.3.23] HF ( f ) = e .
T sinc(fT)
Si può verificare che per la presenza di E( f ) a numeratore la funzione di trasferimento HF( f ) è
nulla per | f | > f M; inoltre, notata l’esistenza nel denominatore di zeri alle frequenze n/T, con n
6
intero diverso da zero, si accerta che il modulo |HF ( f )| rimane limitato a patto che la frequenza
massima f M della forma di base sia minore della frequenza in cui si cade il primo zero, ossia
6
minore di 1 / T.
La simmetria vestigiale impone che il residuo di spettro, per ogni scostamento >f oltre il valore f0,
compensi quanto manca allo spettro, per ogni scostamento > f entro f0, per raggiungere il valore
nell’origine. Nella pratica si adotta come forma di base a banda normale una delle funzioni
dell’insieme {6 (t)}, denominato famiglia a coseno rialzato, che appunto gode della proprietà
7
della simmetria vestigiale; infatti, fissato un valore compreso tra 0 e 1 del parametro 7,
denominato fattore di roll-off, gli spettri di energia normalizzati E (f)/T2 assumono valore unitario
77
per |f|<1 - 7, sono nulli per |f|>1 + 7 e tra tali due estremi hanno l’andamento tipico della funzione
coseno nel primo mezzo periodo, rialzata di una unità, come mostrato nell’esempio in Figura
6.16a. Si rammenti che l’andamento a coseno rialzato è quello della densità spettrale di energia e
non quello della funzione del tempo 6 (t).7
Figura 6.16: Spettri di energia di forme di base della famiglia a coseno rialzato (a) e guadagno dei
relativi formatori (b).
L’estremo superiore dello spettro di una forma di base della famiglia a coseno rialzato assume la
seguente espressione in dipendenza dal fattore di roll-off 7 :
1+!
[6.3.26] f =ˆ f = = (1+7)f0.
2T
7 67 M
Si noti che alla famiglia considerata appartiene anche, per il valore 7 = 0, la funzione sinc(t/T), che
è stata appunto indicata con 60(t); essa ha infatti la densità spettrale di energia E00 ( f ) = T2 rect(fT)
(vedi linea sottile in Figura 6.16a) e assume il minimo valore ammissibile della banda f = f0. 7
Il guadagno del formatore lineare relativo a una forma 6 (t) della famiglia a coseno rialzato
7
assume la espressione:
1 E !! ( f )
[6.3.27] GF (f) = ;
T 2 sinc 2 ( fT )
7
il suo andamento è esemplificato in Figura 6.16b per i due valori 7 = 0, caso della forma 60(t), e
7 = 0,3 del fattore di roll-off.
133
Inserendo lo spettro di energia rettangolare della 60(t) nel denominatore della [6.3.27], si
determina il guadagno GF0( f ) = |HF0 ( f )|2 del formatore lineare corrispondente (vedi linea sottile in
Figura 6.16b), che mostra una forte discontinuità in corrispondenza della frequenza di taglio f0. La
notevole complessità che si dovrebbe di conseguenza affrontare, per costruire un sottosistema
effettivo avente comportamento che approssimi adeguatamente quello del quadripolo formatore
corrispondente alla forma a banda minima, sconsiglia decisamente la scelta di 60(t) nelle
applicazioni.
Le prestazioni dei formatori lineari della famiglia a coseno rialzato, fatta esclusione per il caso
7 = 0 già esaminato, sono approssimabili con sottosistemi effettivi; già per valori di 7 che si
discostino poco da zero, si hanno transizioni blande di GF ( f ) attorno alla frequenza di taglio f ,
7 7
che non creano difficoltà nella costruzione. Si osserva infine che non è comunque fisicamente
possibile ottenere un guadagno esattamente nullo nella banda oscura; altrimenti la risposta
impulsiva del formatore sarebbe illimitata in tempo e per quanto sia grande, ma finito, il valore del
ritardo t0 ammesso verrebbe meno la causalità.
6.3.2.3 Filtri adattati
Da un segnale b(t) ottenuto a partire da una generica forma di base 6(t) che rispetti la condizione
di ortogonalità delle sue forme traslate (vedi [6.3.4]), è possibile estrarre con temporizzazione kT i
campioni ak dell’originario segnale a gradini a(t) con un sistema fisico che, almeno con buona
approssimazione, sia capace di effettuare le previste correlazioni (b, 6k) (vedi [6.3.3]). Il sistema
risulta tuttavia di notevole complessità realizzativa.
Si rammenti che la funzione di autocorrelazione C (-) di una forma di base soddisfa in generale il
66
criterio di Nyquist (vedi [6.3.5]); sarebbe allora possibile rintracciare i valori ak di un segnale
elaborato linearmente b(t), con la osservazione dei valori istantanei del segnale privo di ISI :
[6.3.28] bN(t) = ( k ak C (t - kT),
66
ottenibile a valle di una elaborazione su b(t) che fosse capace di sostituire ciascuna delle sue forme
traslate 6(t-kT) con la corrispondente funzione C (t-kT). Si ha infatti, grazie alla menzionata
66
proprietà:
[6.3.29] bN(hT) = ( k ak C ( hT-kT) = ( k ak C (3T) = ah E ,
66 66 66
Procedendo come nel caso dei formatori lineari, si ricava che la desiderata elaborazione che
conduce al segnale soddisfacente il criterio di Nyquist è lineare, ossia effettuabile con il transito in
un quadripolo LTI (vedi Figura 6.17); la funzione di trasferimento H ( f ) di quest’ultimo, ottenibile
6
dalla convoluzione:
[6.3.30] C ( t – t0) = F-1{H ( f )}$ 6(t),
6 E
ha l’espressione:
E!! (f) -j2!ft0
[6.3.31] HE( f ) = e = ! " (f) e-j2!ft0 ,
!(f)
essendo F{C (t)} = E ( f )=E(f) E*(f). Si verifica immediatamente che la funzione di trasferimento
6 66
H ( f ) è nulla per | f |>f M e che il quadripolo LT I individuato, denominato per la sua funzione
E 6
caratteristica filtro adattato alla forma di base, o semplicemente filtro adattato, è idealmente
realizzabile.
semplice espressione:
[6.3.32] G (f) = E (f);
E7 77
il suo andamento è perciò del tipo di quello esemplificato in Figura 6.16a per i due valori 7 = 0,
caso della forma 60(t), e 7 = 0,3 del fattore di roll-off. Per valori di 7 che si discostino poco da
zero, si hanno attorno alla frequenza di taglio f transizioni ancora più blande di quelle nel
7
corrispondente formatore lineare, che creano modeste difficoltà nella costruzione del filtro
adattato. Si osserva ancora che non è comunque fisicamente possibile ottenere un guadagno G ( f ) E
esattamente nullo nella banda oscura; altrimenti la risposta impulsiva del filtro adattato sarebbe
illimitata in tempo e per quanto sia grande, ma finito, il ritardo t0 ammesso verrebbe meno la
causalità.
6.3.3 Elaborazione non lineare su segnali a gradini
La elaborazione a partire da un segnale a gradini a(t) per fornirne una diversa rappresentazione
(vedi [6.3.2]), in serie di funzioni di energia ottenute per traslazioni kT da una forma di base,
diviene concettualmente assai semplice se quest’ultima è almeno praticamente limitata nel tempo
con durata inferiore a T. Infatti in tale caso, che si evidenzia usando per la forma di base la diversa
notazione F(t) e particolarizzando il segnale elaborato nella forma:
[6.3.33] b (t) =ˆ ( k ak F(t-kT),
F
La elaborazione considerata produce quindi segnali espressi in serie di funzioni traslate ortogonali,
in cui nel contempo la forma di base rispetta il criterio di Nyquist: la reversibilità ideale può
pertanto basarsi anche sulla più semplice osservabilità diretta dei valori istantanei.
In contropartita della favorevole caratteristica sopra evidenziata, in ogni segnale elaborato b (t) F
permane l’inconveniente della estensione in teoria infinita della banda, ma dal punto di vista
pratico si può assumere un limite superiore finito f M, che a parità di T risulta tanto minore quante
F
più sono assenti le discontinuità nella forma F(t) e nelle sue successive derivate. Con riferimento a
esempi già mostrati, si ottiene allora una banda pratica che si riduce passando dalla forma
rettangolare (vedi Figura 2.9a) all’impulso triangolare privo di discontinuità (vedi Figura 2.9b) e
ancora all’impulso a coseno rialzato (vedi Figura 2.9c), che è continuo assieme alla sua derivata.
In altro modo si può affermare che l’effetto di distorsione prodotto sul segnale elaborato [6.3.33]
dalla soppressione delle componenti spettrali oltre la frequenza:
2
[6.3.34] f TM = = 4f0,
T
F
che sarebbe sensibile nel caso di segnale a gradini rettangolare, diviene tollerabile per segnali
elaborati con l’impulso triangolare e trascurabile con quello a coseno rialzato. Paragonando
l’estremo pratico di banda f TM al limite inferiore teorico f0, la riduzione di banda conseguibile,
F
provvedendo poi nel segnale in uscita y(t) alla tenuta di tali campioni per una durata pari allo
stesso T, come mostrato in Figura 6.20 ed espresso dalla:
! t-t $
[6.3.36] y(t) = ( h bx(hT) rect # 0 -h & , per x = N, F.
" T %
Il lettore interessato a ulteriori elementi tecnici sul campionamento è inviato al paragrafo 6.3.4.2.
in cui è posto in evidenza il valore del campione isolato, x0 = x(t0), del segnale. Con lo schema in
Figura 6.21, in cui la prima delle due operazioni è assimilata tramite un interruttore che si
supponga chiuda il circuito solo all’istante t0 per una durata brevissima >t, si approssima il
campionamento isolato con tenuta.
137
Figura 6.22: Schema di campionatore isolato con tenuta per una durata T.
Infine, azionando gli interruttori in Figura 6.22 in modo ripetitivo a intervallo T, si ottiene il
campionamento ciclico con tenuta per una durata T.
6.3.5 Elaborazione complessiva con taglio di banda
In relazione alla trasmissione ideale del segnale a(t), ma con taglio di banda che consente di
minimizzare i requisiti banda del canale, la restituzione a gradini viene effettuata a valle di un
filtro adattato, che fornisce un segnale bN(t) privo di ISI. Indicato con t0 il ritardo del formatore a
gradini, grazie alla [6.3.29] si ottiene all’uscita del formatore a gradini il desiderato segnale:
! t-t $ ! t-t $
[6.3.39] y(t) = (hbN(hT) rect # 0 -h & = ( h ah E rect # 0 -h & = E a(t-t0),
" T % " T %
77 77
dove il fattore E7 corrisponde alla energia nota della forma di base 67 (t), della famiglia a coseno
rialzato, impiegata nelle precedenti elaborazioni.
A meno degli inessenziali ritardi, si ha la configurazione della elaborazione complessiva con taglio
di banda di segnali a gradini mostrata in Figura 6.23; da essa si nota come l’insieme del filtro
adattato e del formatore a gradini costituisca un sottosistema che, inserito immediatamente in
cascata al formatore lineare, opera la elaborazione inversa, dando un segnale in uscita in forma
fedele a quello in entrata della cascata. Ampliando un concetto già introdotto (vedi [6.2.17]), i due
blocchi funzionali in Figura 6.23a e in Figura 6.23b sono dunque una coppia di quadripoli
complementari.
Figura 6.23: Formatore lineare (a) e quadripolo complementare (b), costituito dal filtro adattato
corrispondente e dal formatore a gradini.
138
In un segnale bN(t) a banda limitata, entro la frequenza massima f =(1+7)/2 T della sua forma di
7
base della famiglia a coseno rialzato, l’assenza della interferenza intersimbolo è in teoria assicurata
solo in un istante in ciascun intervallo di durata T e in pratica nelle strette vicinanze. Se il segnale
viene osservato sullo schermo di un oscilloscopio con tempo di persistenza della traccia molto
maggiore di T e in cui l’asse orizzontale dei tempi sia sincronizzato con gli istanti di lettura (al
centro dello schermo), si ottiene nel caso di due soli possibili valori di ak una immagine del tipo
mostrato in Figura 6.24a; la forma si presenta in modo da motivare la usuale denominazione di
diagramma a occhio. Si noti che i valori dei livelli a1 e a2 non sono punti di massimo o di minimo
del segnale.
Figura 6.24: Diagrammi a occhio per modulazione binaria: caso ideale (a) e con interferenza
intersimbolica (b).
La Figura 6.24a evidenzia come la sincronizzazione del formatore a gradini sia critica, anche nel
caso teorico in cui si ha la massima “apertura dell’occhio”, uguale alla distanza tra i livelli.
Eventuali scostamenti del formatore lineare e del filtro adattato dalle prestazioni teoriche, oppure
imperfezioni nella trasmissione tra tali sottosistemi, provocano distorsione con conseguente
comparsa di interferenza intersimbolica, che come mostrato in Figura 6.24b viene evidenziata da
una riduzione della apertura dell’occhio, tanto più marcata, quanto più sono forti i menzionati
fenomeni.
6.3.6 Elaborazione complessiva con riduzione della banda pratica
Nella trasmissione ideale del segnale a(t) senza taglio di banda, ma con un segnale RZ in forma
tale da sopportare bene la soppressione delle componenti spettrali alle più alte frequenze che possa
essere causata da un canale, la restituzione a gradini viene effettuata subito a valle di quest’ultimo,
che fornisce un segnale b (t) con distorsione trascurabile, praticamente ancora privo di ISI.
F
Indicato con t0 il ritardo del formatore a gradini, poiché dalla [6.3.33] risultano i valori istantanei
b (hT) = ah F(0) si ottiene all’uscita del formatore a gradini il desiderato segnale:
F
! t-t $ ! t-t $
[6.3.40] y(t) = ( h bF(hT)rect # 0 -h & = (hahF(0)rect # 0 -h & = F(0)a(t-t0),
" T % " T %
dove il fattore F(0) corrisponde al valore per t = 0 della forma di base F(t), a durata almeno
praticamente uguale a T.
A meno degli inessenziali ritardi, si ha la configurazione della elaborazione complessiva con
riduzione della banda pratica di segnali a gradini mostrata in Figura 6.25; da essa si nota come il
formatore a gradini costituisca un sottosistema che, se inserito immediatamente in cascata al
formatore RZ, opera la elaborazione inversa, dando un segnale in uscita in forma fedele a quello in
entrata della cascata. I due blocchi funzionali in Figura 6.25a e in Figura 6.25b costituiscono
dunque una coppia di quadripoli complementari.
Figura 6.25: Formatore RZ (a) e quadripolo complementare (b), costituito dal formatore a gradini.
139
In un segnale bF(t) ottenuto con una forma di base di durata T l’assenza della interferenza
intersimbolo è in teoria sempre assicurata; ma è ovvio che si ha la convenienza a collocare gli
istanti di lettura in corrispondenza del valore massimo assunto da F(t), che si suppone sia FM=F(0).
Dato che il valore della forma di base varia attorno al suo massimo, la sincronizzazione del
formatore a gradini è ancora critica; mentre non lo sarebbe se il formatore a gradini fosse applicato
su un segnale anch’esso a gradini, come spesso avviene per effettuare operazioni di lettura e
scrittura nell’ambito degli apparati della tecnologia della informazione.
6.4 Multiplazione
Applicando in modo più ampio il concetto delle trasformazioni complementari, che a una
operazione reversibile di segnale ne fa seguire un’altra capace di restituire la forma di partenza
(eventualmente a meno di un fattore e di un ritardo), si apre la strada a una ulteriore serie di
trattamenti dei segnali.
Nella trasmissione i segnali subiscono infatti frequentemente, oltre a quelle già menzionate nel
paragrafo 6.1.4 e comunque compiute su un segnale singolo, delle altre operazioni che
coinvolgono un insieme di più segnali, in genere dello stesso tipo. Si tratta dal lato emittente della
operazione di multiplazione, mediante la quale le informazioni veicolate da N segnali indipendenti
xi(t), entranti su altrettante vie fisiche e denominati segnali tributari, vengono trasferite in modo
reversibile in un solo segnale evoluto x(t) su una unica via fisica, denominato segnale multiplato;
nel lato ricevente si trova la operazione complementare, di demultiplazione, che ripristina la
individualità dei segnali. La Figura 6.26, tralasciando le inessenziali costanti g e t0, mostra un
sistema di trasmissione a cui è aggiunta una coppia complementare di apparati multiplatore (Mux)
e demultiplatore (Demux).
q 1 2 3 4 5 6 7 8
y1 y2 y3 000 001 010 011 100 101 110 111
Figura 6.27: Esempio di un tratto di un segnale binario (c) e i corrispondenti elementi della
sequenza dei livelli quantizzati (a) e del flusso binario (b).
La conversione analogico-numerica trova sempre più vasta applicazione, soprattutto sui segnali di
sorgenti sonore, ma anche su quelli di sorgenti di immagine. In particolare nel caso del segnale
telefonico si procede al campionamento con intervallo Tca = 125µs (fca = 8 kHz), alla
quantizzazione dei campioni con intervalli non uniformi nel codominio (xm ; xM) e adottando la
cardinalità M = 256 (S = 8), per concludere con la trasformazione in segnale binario, indicato come
segnale telefonico PCM (PCM = Pulse Code Modulation). Il suo tempo di bit risulta
Tb = 15,625 µs, ossia il corrispondente ritmo binario vale Rb = 64 kbit/s.
Tale incremento, o meglio il decremento del ritmo binario entrante a parità del valore Rv accettato
dal sistema di trasmissione, è la contropartita del miglioramento della prestazione in termini di
BER conseguito.
Nel seguito vengono sommariamente introdotti due metodi fondamentali: la codifica a blocchi e la
codifica convoluzionale. I due metodi non sono in alternativa; oltre che isolatamente, possono
infatti anche essere usate entrambe in concatenazione, ossia una più esterna e l’altra più interna.
6.6.1.2 Cenni sulla codifica lineare a blocchi
Nel caso della codifica lineare a blocchi, sulla base dei k elementi della sequenza binaria x(n),
estratti dal flusso entrante ad ogni intervallo di durata costante k Tx, il codificatore compone in un
registro a k stadi una stringa x1 x2...xk di altrettanti bit, denominata blocco. La parte sostanziale
della operazione consiste nella elaborazione, tramite combinazioni lineari, di ogni blocco entrante
in una stringa uscente y1 y2...yn, denominata parola di codice, costituita da un numero n di bit
maggiore di k (vedi fig. 6.25); la codifica a blocchi considerata viene pertanto indicata tramite la
coppia di valori (n,k).
143
sono ottenute dalle precedenti tramite combinazioni lineari, in aritmetica modulo-2, definite in
modo opportuno; nel caso di un solo bit ridondante si ha ad esempio il criterio che risulti
comunque pari, o anche dispari, il numero complessivo delle cifre 1 nelle parole di codice. Anche
assumendo n - k = 1, risulta evidente che ogni errore introdotto dalla trasmissione imperfetta che sia
unico entro una parola di codice può essere rivelato, ma non corretto, con modesta complessità e a
spesa di un incremento del ritmo binario di un fattore (k +1)/ k (vedi [6.6.2]). Per ottenere la
capacità di correzione di errore occorre un numero non piccolo di cifre di controllo di parità, che
comporta valori elevati di k, e quindi apprezzabili ritardi, se non si vuole abbassare troppo la
frequenza di codifica, ossia se non si desidera produrre un eccessivo aumento del ritmo binario Rv,
144
a valle della codifica. Si noti comunque che la complessità della rete logica non dipende tanto da k,
quanto dalla differenza n - k.
La codifica a blocchi sistematica di tipo (2,1), con la regola che sia dispari il numero delle cifre 1,
costituisce il caso elementare, denominato codifica di Manchester; essa ha la complessità minima,
ma in contropartita provoca addirittura il raddoppio del ritmo binario del segnale codificato. Le
parole di codice corrispondenti ai due possibili blocchi, degenerati nelle singole cifre x1 = 0 e
x2 = 1, sono costituite dalle coppie di bit alternati 01 e 10, entrambe con probabilità ! se sono
associate ciascuna a una delle due cifre in entrata supposte equiprobabili; le rimanenti due
configurazioni sono le coppie di bit identici 00 e 11, aventi comunque probabilità nulla. Ogni
errore, che non sia accompagnato da un altro errore adiacente, origina la ricezione di una delle
configurazioni a probabilità nulla ed è pertanto rivelabile; non può tuttavia essere corretto, essendo
impossibile riconoscere quale bit della coppia sia quello errato. La codifica di Manchester ha in
effetti capacità molto modeste nei riguardi di soddisfare l’obiettivo del miglioramento delle
prestazioni, così che nella pratica trova piuttosto applicazione per le particolari proprietà che essa
conferisce al segnale nel canale in seguito alla successiva operazione di modulazione.
Un esempio più significativo di codifica sistematica a blocchi è offerto dalla codifica di Hamming
(7,4), ancora di tipo sistematico ( yi = xi, per i = 1, 2 3 4 ), per cui vale la regola stabilita dalle n - k
, ,
Figura 6.31: Esempi di simboli numerici di un alfabeto quaternario (a) e ottonario (b).
147
Molto spesso la regola [6.6.8] di codifica di simboli viene scelta in modo che a stringhe y1y2...yL
differenti per un solo bit corrispondano sempre elementi adiacenti dell’insieme dei simboli [6.6.9];
la regola si denomina allora codifica di Gray.
Un primo esempio di codifica semplice di simbolo è quello offerto dalla codifica di Gray con
ML = 4, che associa i simboli zq alle stringhe y1y2 con la regola:
[6.6.10] z = 4 y1 + 2(y1H y2 ) - 3,
dove il segno H indica la operazione di somma modulo-2, la notazione y corrisponde alla
operazione di negazione della cifra binaria e le due cifre binarie possono assumere i valori 0
oppure 1. È immediato verificare che si tratta di una regola di Gray, dato che si ottengono le
associazioni mostrate in Tabella 6.2.
Tabella 6.2: Associazioni stabilite dalla regola di Gray per ML = 4.
q 1 2 3 4
zq -3 -1 1 3
y1 y2 01 00 10 11
Si lascia al lettore l’esercizio di verificare che le regole di Gray per ottenere i simboli zq dati dalla
[6.6.9] nei casi ML=8 e ML=16 hanno le espressioni:
[ 6.6.11] z = 8 y1 + 4 y1H y2 + 2 y1H y2 H y3 - 7, ML = 8,
[ 6.6.12] z = 16 y1 + 8 y1H y2 + 4 y1H y2 H y3 + 2 y1H y2 H y3H y4 - 15, ML = 16.
Nel caso ML = 8 si ottengono le associazioni mostrate in Tabella 6.3.
Tabella 6.3: Associazioni stabilite dalla regola di Gray per ML = 8.
q 1 2 3 4 5 6 7 8
zq -7 -5 -3 -1 1 3 5 7
y1 y2 y3 010 011 001 000 100 101 111 110
Molti canali di trasmissione per la natura stessa del mezzo trasmissivo richiedono che il segnale in
linea s(t) sia del tipo in banda traslata, con banda relativa stretta attorno a una frequenza fc assai
elevata, come accade per le fibre ottiche e le tratte radio; oppure per particolari circostanze di
impiego è necessario che non si abbiano componenti spettrali prossime all’origine, come nel caso
della trasmissione dati in un canale telefonico. D’altra parte all’inizio del sistema, o meglio a valle
di una elaborazione (vedi blocco SBE in Figura 6.4), si ha in generale una coppia di segnali, bc(t) e
bs(t), che sono invece del tipo in banda base, spesso con identica frequenza minima fbm nulla o
prossima allo zero e la stessa frequenza massima fbM inferiore a fc: nei casi considerati risulta
dunque necessaria una elaborazione sulla coppia menzionata (vedi blocco MO in Figura 6.4) che
produca il diverso segnale s(t) avente spettro tutto contenuto all’interno della banda offerta dal
canale; ovviamente ai fini del corretto trasferimento della informazione l’operazione deve essere
reversibile, ossia deve esistere la elaborazione complementare che agendo su s(t) restituisca due
forme fedeli a bc(t) e bs(t).
Dato che a valle del trattamento considerato si hanno in s(t) componenti spettrali non presenti a
monte, la elaborazione considerata deve essere necessariamente compiuta tramite un sottosistema
con comportamento non lineare; sarà parimenti non lineare anche il sottosistema complementare.
In effetti nel caso qui considerato della modulazione armonica si fa ricorso ad operazioni non
148
lineari che coinvolgono bc(t) e bs(t) in emissione, oppure s(t) in ricezione, con un segnale armonico
noto:
[6.7.1] c(t) =ˆ cos(%ct + &c),
denominato segnale portante e caratterizzato dalla frequenza fc=%c/2! e da una inessenziale fase
&c; l’ampiezza, anch’essa inessenziale, può essere assunta unitaria. Il segnale modulato s(t) nel
canale è convenientemente rappresentabile con riferimento alla frequenza fc, nella sue già note
forme di segnale in banda traslata (vedi [3.5.41] e [3.5.42]), di seguito riportate per comodità:
[6.7.2] s(t) = =(t) cos[%ct+&(t)] = ac(t) cos(%ct) – as(t) sin(%ct),
oppure tramite il suo inviluppo complesso:
[6.7.3] !(t)= =(t) e j! (t) = ac(t) + jas(t),
in cui l’argomento 7(t) è uguale a &(t) a meno di un multiplo dell’angolo giro.
I metodi di modulazione armonica possono essere distinti in due categorie: quella della
modulazione tramite prodotto, in cui appunto si impiega l’operazione di prodotto con segnali
armonici a frequenza fc, e quella della modulazione di angolo, in cui si interagisce sull’angolo che
costituisce l’argomento della oscillazione. Nel seguito ci si limita a considerare i soli aspetti
essenziali che determinano il mutamento della collocazione spettrale e che prescindono dalla
natura analogica o numerica dei segnali; gli schemi dei modulatori e demodulatori (MO e DEM) e
gli effetti prodotti sulla modulazione armonica dalle eventuali elaborazioni nelle sezioni in banda
base (SBE e SBR) sono oggetto di un successivo capitolo.
6.7.2 Cenni sulla modulazione tramite prodotto
Tramite l’unico prodotto tra il segnale portante [6.7.1] e un solo segnale reale in banda base
b(t) " bc(t), assumendo dunque che risulti bs(t) " 0, si ottiene la modulazione a prodotto semplice, o
modulazione a prodotto, con segnale modulato:
[6.7.4] sx(t) =ˆ b(t) c(t) = b(t) cos(%ct + &c),
e inviluppo complesso:
[6.7.5] !sx(t) = b(t) e j!c .
Si noti che di norma b(t) assume sia il segno positivo che quello negativo, in modo che l’inviluppo
reale =sx(t) = |!sx(t)| = |b(t)| non ha lo stesso andamento di b(t).
Supposto che esista la trasformata di Fourier B( f ) di b(t), dalla [6.7.5] si ricava immediatamente lo
spettro dell’inviluppo complesso Isx(f) = B(f) e j!c , in modo che rammentando la [3.5.7] si
determina quello del segnale modulato a prodotto:
1
[6.7.6] Sx(f) = [B( f - fc) e j!c + B*(- f - fc) e- j!c ].
2
L’andamento del modulo Sx(f) è del tipo mostrato in Figura 6.32. Lo spettro del segnale modulato
è dunque composto, a meno del fattore 1/2, di due repliche di quello modulante B( f ) traslate di ±fc;
dalla stessa figura si constata immediatamente che tali repliche risultano separate tra loro in
frequenza a patto che si abbia:
[6.7.7] fc > fbM,
che dunque rappresenta la condizione di reversibilità della modulazione a prodotto. Con la
modulazione a prodotto, a volte anche denominata a banda laterale doppia (DSB = Double Side
Band), si ottiene quindi un segnale che risulta ridondato nel dominio della frequenza, e perciò più
resistente ai difetti del canale; tale ridondanza è la contropartita vantaggiosa del requisito di una
banda di canale doppia di quella in banda base.
149
Figura 6.32: Spettri di ampiezza del segnale modulato a prodotto (linea marcata) e del segnale
modulante in banda base (linea grigia).
Nel caso di segnale di potenza valgono considerazioni analoghe sugli spettri di potenza. In
definitiva la banda Bx di sx(t) nel canale risulta centrata su fc e ha estensione doppia della
frequenza massima in banda base:
[6.7.8] Bx = 2 fbM.
Un interessante caso particolare si ha quando b(t) sia ottenuto da un segnale in banda base x(t) con
una semplice elaborazione lineare del tipo:
[6.7.9] b(t) = Ac [1 + k x(t)] ' 0,
ossia con Ac e k costanti e quest’ultima sia scelta in modo che risulti semore | k x(t)| * 1 e quindi:
[6.7.10] =sx(t)=|b(t)|=1+kx(t).
Allora nei riguardi di x(t) si ottiene il sottocaso della modulazione di ampiezza (AM = Amplitude
Modulation), caratterizzata dalla semplice proporzionalità a meno di una costante tra l’inviluppo
del segnale modulato e il segnale originario. Si noti tuttavia che nella AM si ha la trasmissione nel
canale del segnale di portante Ac cos(%ct + &c), che in quanto noto non è utile al trasferimento della
informazione mentre richiede una potenza maggiore di quella effettivamente utile, riguardante le
sole bande laterali. Un tipico andamento nel tempo di segnale AM è mostrato in Figura 3.17.
Più generale è la modulazione a prodotto in quadratura, a volte anche denominata modulazione
di ampiezza istantanea in quadratura (QAM = Quadrature Amplitude Modulation), che necessita di
una elaborazione, capace di fornire i due segnali reali in banda base a valore medio nullo, e di due
prodotti con segnali armonici in quadratura di fase; si ottiene in tale modo il segnale in banda
traslata nella forma generale (vedi [6.7.2]):
[6.7.11] s(t) = bc(t) cos(%ct) – bs(t) sin(%ct),
dove bc(t) e bs(t) risultano come le ampiezze istantanee delle due portanti in quadratura. I due
addendi in s(t) sono singolarmente dei segnali modulati a prodotto con la stessa frequenza di
portante e di conseguenza i loro spettri condividono la stessa banda nel canale, per una estensione
pari al doppio della frequenza massima fbM. Con la modulazione a prodotto in quadratura si ha
ancora la ridondanza nel dominio della frequenza, ma grazie alla sovrapposizione degli spettri ciò
non costa in termini di requisito di banda nel canale. Dato che i due segnali addendi in s(t) benché
sovrapposti in frequenza risultano separabili, come dimostrato in un capitolo successivo, la
elaborazione è ancora reversibile nel rispetto della condizione fc>fbM.
6.7.3 Cenni sulla modulazione armonica di angolo
dove K è una costante e h (t) è un’arbitraria funzione che ammette la trasformata di Fourier
F F
H ( f ) = F [h (t)]. Un tipico andamento nel tempo di segnale modulato di angolo è quello già
F F
modulante b(t) rende assai ardua la determinazione dello spettro modulato di angolo. Tale spettro,
che con lecito riferimento al solo semiasse positivo delle frequenze ha comunque in generale un
andamento simmetrico rispetto a fc (vedi ad esempio Figura 6.33) e non riconducibile a quello di
b(t), è in teoria infinitamente esteso, ma adottando una regola pratica può essere assunto
sostanzialmente limitato entro l’intervallo, denominato banda di Carson:
[6.7.15] B = 2 ( >fp + fbM ),
7
dove >f p è la deviazione di frequenza, ossia il valore di picco della deviazione di frequenza
istantanea >f(t) legata alla fase istantanea dalla già nota relazione [3.5.53], qui riportata:
1 d! (t)
[6.7.16] >f (t) = .
2! dt
Per garantire la reversibilità della modulazione di angolo è dunque opportuno soddisfare la:
[6.7.17] fc>>>fp + fbM.
Figura 6.33: Spettri di ampiezza del segnale modulato di angolo (linea marcata) e del segnale
modulante in banda base (linea grigia).
Si noti dalla [6.6.14] che al crescere di K la fase istantanea &(t) varia maggiormente e quindi
F
aumenta sia il valore di picco >fp che quello della banda pratica B , con crescente introduzione di
7
ridondanza nel dominio della frequenza del segnale modulato e conseguente maggiore protezione
nei riguardi dei difetti del canale, con la contropartita dell’aumento del requisito di banda di
quest’ultimo.
Il caso particolare più semplice dal punto di vista analitico è la modulazione di fase (PM = Phase
Modulation), per cui nella [6.6.14] si assume h (t) " +(t), ossia H (t) " 1, in modo che la fase
F F
7 PROCESSI ALEATORI
152
Si è a volte fatto riferimento ai segnali quali veicoli di informazione: in proposito occorre tuttavia
precisare che si tratta di segnali aleatori, in quanto quelli determinati, ossia già noti nel loro intero
andamento temporale, non sono ovviamente portatori di alcuna informazione. Nei problemi di
telecomunicazioni si incontrano sovente dei segnali la cui evoluzione nel tempo sfugge a
caratterizzazioni di tipo deterministico, quali quelle richiamate in precedenza; vengono allora
considerati di tipo casuale e trattati in forma statistica. È necessario prendere in considerazione
tutti i possibili segnali con probabilità non nulla di essere osservati, poiché in generale ciascuno di
essi considerato isolatamente non è sufficientemente rappresentativo. Allo scopo si vuole in questo
paragrafo introdurre alcuni cenni sulle sorgenti dei flussi di informazione, anche per la migliore
comprensione, in senso stocastico, tanto dei contenuti informativi, quanto delle caratteristiche dei
segnali aleatori, oggetto della analisi condotta nei paragrafi successivi.
In primo luogo, la emissione elementare di una informazione può essere schematizzata con la
scelta del valore di una variabile aleatoria reale, nel seguito indicata con la notazione v.a.. La
sorgente è denominata analogica se la v.a., Z, è continua, ossia se la sua generica determinazione,
z, può assumere uno qualsiasi dei valori non numerabili in un intervallo noto, di norma finito; è
invece denominata numerica, se la v.a., Zq, è discreta, ossia se la sua determinazione può
assumere uno qualsiasi dei simboli che costituiscono un insieme, {zq} con q = 1, 2,.., M, discreto,
numerabile e finito.
Con riferimento al caso numerico, la considerata emissione elementare è riconducibile alla scelta
di un simbolo, zq, tra gli M possibili diversi elementi che nel loro complesso formano un alfabeto
M-nario. A tale evento si associa la quantità di informazione:
1
[7.1.1] I(zq) =ˆ log 2 ,
P(zq )
dove P(zq) è la probabilità di zq. La occorrenza di una delle due cifre binarie in condizione di
equiprobabilità [P(0)=P(1)=!] corrisponde dunque alla unità di quantità di informazione,
denominata bit. Sempre che i simboli siano equiprobabili, ossia si abbia:
1
[7.1.2] P(zq) = ,
M
e che nella M = 2b sia b intero, la quantità di informazione, identica, di ciascun simbolo coincide
con il numero b delle cifre binarie ad esso associabili.
Considerando l’evoluzione di una sorgente, si passa al flusso di informazione. Nel caso analogico
si ha molto spesso un flusso continuo nel tempo: volta per volta, si è allora di fronte alla
generazione di una funzione campione, x(t), che costituisce la realizzazione di un processo
stocastico continuo reale, indicato con X(t), comprendente tutte le realizzazioni possibili; il
processo per ogni generico tempo t di saggiatura si riduce alla v.a. continua Xt= X(t), come quella
già precedentemente introdotta. Nella Figura 7.1 sono mostrate alcune realizzazioni di un processo
continuo, ponendo in evidenza le determinazioni della v.a. Xt, nell’istante t, così come quelle della
v.a. Xt+ , nell’istante t+-.
#
x(t)
. . . . . . . . . . . . . . . . . . . . . . . .
x(t)
t
t t+!
Figura 7.1 - Esempio di realizzazioni di un processo continuo.
I segnali aleatori che veicolano la informazione nei sistemi di telecomunicazione si ottengono
dalle sorgenti a valle di opportuni procedimenti di conversione della natura fisica dei flussi di
informazione: da quella generica con cui esso nasce, alla natura elettrica. Tali trattamenti sono
attuati da trasduttori, apparati che non interessano la trasmissione e pertanto verranno in seguito
ignorati, ritenendoli interni alle sorgenti. Se la sorgente è analogica, la forma emessa in modo
casuale, ossia un segnale analogico, ha andamento aleatorio nel tempo analogo a quello del flusso
di informazione considerato: di conseguenza anch’esso è la realizzazione di un processo continuo.
Se invece la sorgente è numerica, si ha in corrispondenza un segnale numerico, con vario
andamento aleatorio, ma comunque sempre associato al flusso numerico di informazione
considerato: tralasciando il caso astratto del segnale campionato numerico, nella pratica sia ha
pertanto ancora la realizzazione di un processo continuo, seppure dipendente da un processo
discreto a valori discreti.
In definitiva, tutti i possibili segnali fisici aventi probabilità non nulla di transitare in un sistema di
trasmissione, ma sempre generabili da sorgenti dello stesso tipo, nel loro insieme costituiscono un
processo stocastico continuo reale, di cui la singola forma d’onda, x(t), è la realizzazione .
7.1.2 Caratterizzazione dei processi continui
In un processo continuo reale X(t), ad ogni generico istante di saggiatura, t, corrisponde una v.a.
continua, Xt=X(t), e i valori istantanei, xt = x(t), di tutte le possibili realizzazioni sono quelli che la
v.a. Xt può assumere. La distribuzione dei valori xt è caratterizzata tramite la funzione:
p(xt ; t),
denominata densità di distribuzione o anche densità di probabilità all’istante t; il valore di
p(xt;t)dxt esprime infatti la probabilità che la Xt assuma al tempo t un valore compreso tra xt e
xt+dxt. Più in generale, occorre la conoscenza della interdipendenza statistica di una ennupla di
v.a., X1, X2,.., Xn, ottenute in corrispondenza degli istanti di saggiatura t1, t2, .., tn, tutti arbitrari. Si
ricorre allora alla densità di distribuzione congiunta o anche densità di probabilità congiunta di
ordine n:
pn = pn (x1,x2,..,xn;t1, t2, .., tn);
154
ad esempio p2dx1dx2 rappresenta la probabilità che ai tempi t1 e t2 i valori assunti da X1 e X2 siano
compresi rispettivamente tra x1 e x1+ dx1 e tra x2 e x2+ dx2. La conoscenza della funzione pn è
sufficiente affinché siano note tutte le funzioni di ordine inferiore; si ha infatti:
[7.1.3] pn-1 = ! p n dx n .
Generalmente la v.a. Xn al tempo tn è condizionata dalla eventuale conoscenza delle v.a. estratte in
corrispondenza dei precedenti istanti tn-1,.., t2, t1; si definisce quindi la densità di distribuzione
condizionata o anche densità di probabilità condizionata di ordine uno e con n-1
condizionamenti:
p|n-1 = p|n-1(xn ; tn | xn-1,.., x2, x1; t n-1,.., t2, t1) ;
il valore di p|n-1dxn esprime la probabilità che al tempo tn la Xn assuma un valore compreso tra xn e
xn+ dxn, sotto il condizionamento dei valori xn-1,.., x2, x1. Si ha poi:
[7.1.4] pn = p|n-1pn-1(xn-1,.., x2, x1; t n-1,.., t2, t1) ,
e reiterando la stessa [7.1.4]:
[7.1.5] pn= p|n-1 p|n-2 p|n-3....p|1 p(x1; t1).
Per caratterizzare completamente un processo non è sempre necessaria la conoscenza delle densità
di probabilità di ordine comunque elevato, come nel seguito mostrato.
Un caso particolarmente semplice è quello in cui si verifica la ipotesi di completa indipendenza
statistica tra tutte le v.a. Xt, in corrispondenza di istanti di saggiatura diversi: allora tutte le
funzioni condizionate si riducono alla densità di distribuzione del primo ordine e dalla [7.1.5] si
ottiene che la densità di probabilità congiunta di ordine n si esprime semplicemente come il
prodotto di n funzioni del primo ordine.
Per particolari processi stocastici, detti processi di Markoff del primo ordine, la dipendenza
statistica tra diversi valori di Xt si esaurisce con il valore contiguo, ossia vale per le funzioni
condizionate di qualsiasi ordine la proprietà:
[7.1.6] p|k-1 = p|1(xk; tk | xk-1;tk-1) ;
dalla [7.1.5] risulta allora:
[7.1.7] pn= p|1(xn ; tn | xn-1, tn-1):::p|1(x2; t2| x1; t1) p(x1; t1).
Ne segue che i processi del tipo considerato sono completamente descritti dalla densità di
probabilità di secondo ordine (vedi [7.1.3]). Nei processi di Markoff di ordine n la descrizione è
completa se si conosce la densità di probabilità di ordine n +1.
Pur arrestando la conoscenza alla densità di probabilità del secondo ordine, è possibile il calcolo di
alcune grandezze di un generico processo, atte a rappresentare sinteticamente almeno le sue più
importanti caratteristiche. Nel seguito si rimarrà pertanto entro tale limitazione.
Si adotti per l’operatore di media statistica la notazione:
E {Fn } = ! Fn (v1, v 2 ,.., v n )p n (v1, v 2 ,.., v n )dv1 dv 2 ..dv n
n ,
dove Fn è una funzione delle v.a. V1,V2,..,Vn e l’integrale è ennuplo. Al generico istante di
saggiatura t1, stante la v.a. X1=X(t1), si definiscono il valore medio statistico del processo (o
speranza matematica), la potenza media statistica del processo e la varianza del processo,
rispettivamente mediante le:
[7.1.8] E{x1} = ! x1p(x1;t1 )dx1 =ˆ ?(t1) ,
{
[7.1.13] E !"x1 -E {x1 }#$!"x 2 -E {x 2 }#$ } = "" (x -E{x }) (x -E{x }) p (x ,x ;t ,t )dx dx =ˆ K(t1,t2);
% !
1 1 2 2 2 1 2 1 2 1 2
Nella realtà operativa della trasmissione i segnali, utili o indesiderati che siano, sono realizzazioni
di processi stocastici. Se si considerano osservazioni molto prolungate le caratteristiche dei segnali
nel dominio statistico (in particolare il valore medio e la funzione di autocorrelazione) non
risultano invariate nel tempo: basti fare riferimento alla durata finita delle comunicazioni, nonché
alla possibilità che su uno stesso collegamento transitino in tempi anche immediatamente
successivi i segnali, in teoria tutti di energia finita, generati da sorgenti assai diverse (ad esempio
sorgente vocale o di dati in banda fonica); d’altra parte il progetto e l’esercizio in opera degli
apparati e dei mezzi che costituiscono i sistemi di trasmissione può essere basato sulle prestazioni
di larga media osservabili in numerosi intervalli di breve durata. Ciò giustifica la prassi comune di
estrapolare, su tutto l’asse dei tempi, le caratteristiche dei segnali, quali esse risultano da
valutazioni statistiche compiute su intervalli temporali limitati, purché di durata sufficiente; in altri
termini è spesso accettabile la ipotesi di invarianza nel tempo della natura aleatoria dei segnali in
transito. Concludendo, è lecito concentrare l’attenzione su quella particolare categoria di processi,
denominata dei processi stocastici continui stazionari, che a prescindere dalle caratteristiche che
verranno precisate in seguito, hanno come realizzazioni segnali aleatori di potenza.
Nei processi continui stazionari tutte le funzioni di densità di probabilità risultano invarianti
rispetto a una traslazione temporale; in particolare, quindi, godono di tale proprietà anche le
(1) La notazione con il segno della operazione di coniugio, superflua nel caso considerato di processo reale, torna
successivamente utile nella estensione ai processi complessi.
156
grandezze sintetiche poco sopra introdotte. I processi stocastici più interessanti per le
telecomunicazioni, in quanto costituiscono una classe che comprende i precedenti, ma è molto più
ampia, sono quelli debolmente stazionari o stazionari in senso lato, per i quali la proprietà
considerata vale in riferimento alle funzioni del primo e secondo ordine; ossia ponendo t1 = t + - e
t2= t con - qualsiasi, si ottiene una densità di probabilità del generico valore istantaneo x1 = x(t + -)
indipendente dal tempo:
[7.1.16] p(x1 ; t1) = p(x2 ; t2) = p(x1) = p(x2) ,
e una densità di probabilità congiunta della coppia di valori istantanei x1=x(t+-) e x2=x(t) che
dipende da -:
[7.1.17] p2(x1, x2 ; t1, t2) = p2(x1, x2; -) .
Nell’ambito della prassi qui seguita, di limitare la caratterizzazione dei processi al secondo ordine,
non è dunque apprezzabile la differenza tra la stazionarietà effettiva e quella in senso lato: pertanto
nel seguito tale distinzione verrà trascurata, ma il lettore ricordi che quanto ricavato per i processi
della classe più ristretta è valido per quelli stazionari in senso lato.
In un processo stazionario il valore medio statistico, la potenza e la varianza risultano delle
costanti; si ottiene rispettivamente:
[7.1.18] E{x(t)} = ! x1p(x1 )dx1 =ˆ ?x ,
{ }
[7.1.22] E !" x(t+! )-E { x(t+! )}#$!" x(t)-E { x(t)}#$ = "" (x -! )(x -! ) p (x ,x ;" )dx dx =ˆ Kxx(-),
% !
1 2 2 1 2 1 2
(1) La notazione con il segno della operazione di coniugio, superflua nel caso considerato di processo reale, torna
successivamente utile nella estensione ai processi complessi.
157
?x , Rxx(-) ,
che dunque rivestono un ruolo fondamentale per la caratterizzazione sintetica di un processo
stazionario.
Mantenendo la ipotesi di stazionarietà, è possibile la definizione della densità spettrale di potenza
o anche spettro di potenza del processo, tramite la relazione di Wiener-Khintchine:
[7.1.27] Px( f ) =ˆ F{Rxx(-)} ;
si ha la espressione:
1 2
[7.1.28] Px(f) = lim E X T (f) ,
{ }
T!" T
dove con XT(f) si è indicata la trasformata di Fourier della generica realizzazione troncata
nell’intervallo finito di osservazione T. Si noti che la funzione Px( f ) è reale per definizione,
essendo Rxx(-) hermitiana, ed è non negativa in virtù della [7.1.28]; essa diviene una funzione pari
nel caso, molto frequente, di processo reale. Servendosi delle [7.1.24] e [7.1.27] si ricava la
espressione:
[7.1.29] Px(f) = F{Kxx(-) + |?x|2} = F{Kxx(-)}+ | ?x|2+(f) ,
che evidenzia la esistenza di una componente spettrale discreta nella origine, legata al quadrato del
modulo del valore medio statistico. Calcolando in - = 0 l’antitrasformata di Fourier della [7.1.27] e
rammentando la [7.1.25] si ricava:
[7.1.30] Px = ! Px (f)df .
Si consideri una coppia di processi reali continui, X(t) e Y(t), congiuntamente stazionari, ossia per
cui entrambe le densità di probabilità del primo ordine siano indipendenti dal tempo (vedi [7.1.16])
e la densità di probabilità congiunta della coppia di valori istantanei x1=x(t+-) e y2 = y(t) dipenda
dalla differenza - = t1-t2 tra gli istanti di saggiatura e non dai loro valori assoluti. Oltre alle
grandezze caratteristiche già introdotte per ciascun processo (nel seguito distinte tramite l’aggiunta
del pedice singolo x o y), in analogia con le [7.1.21] e [7.1.22] si definiscono la funzione di
158
intercorrelazione e la funzione di covarianza mutua della coppia di processi(1), che risultano
entrambe funzioni di -:
[7.1.32] E{x(t+-)y*(t)} =ˆ Rxy(-) ,
[7.1.33] E{[x(t + -) - ?x][y(t) - ?y]*} =ˆ Kxy(-) ,
dove ?x e ?y sono i valori medi statistici; scambiando tra loro i pedici nelle [7.1.32] e [7.1.33], si
dimostrano le (con il cambio di variabile z=t+-):
[7.1.34] Ryx(-) =R !xy (-") , Kyx(-) = K!xy (- " ) .
(1) La notazione con il segno della operazione di coniugio, superflua nel caso considerato di processo reale, torna
successivamente utile nella estensione ai processi complessi.
159
[7.1.44] Pxy(f) = ?x !"y +(f) , se: Kxy(-) " 0 .
Due processi continui stazionari statisticamente indipendenti, per cui le densità di probabilità
congiunte di vario ordine si riducono ai prodotti delle densità congiunte di ciascun processo preso
separatamente:
[7.1.47] pn+m(x1, x2,.., xn, y1, y2,.., ym) = pn(x1, x2,.., xn) pm(y1, y2,.., ym),
sono sempre incorrelati. Se almeno uno ha valore medio nullo sono anche incoerenti.
7.1.5 Processo somma e processo complesso
Si consideri il processo continuo, A(t), con realizzazioni a(t) = x(t) + y(t) date dalla somma di
quelle di due processi reali congiuntamente stazionari, e si applichino le [7.1.18] e [7.1.21]. Data
la linearità dell'operatore di media statistica, E{•}, il valore medio statistico risulta:
[7.1.48] ?a= E{x(t)+y(t)}= E{x(t)}+E{y(t)}= ?x+?y.
Si ottiene poi la funzione di autocorrelazione:
[7.1.49] Raa(-)=E{[x(t+-)+y(t+-)][x(t)+y(t)]*}=E{x(t+-)x*(t)}+
E{y(t+-)y*(t)}+E{x(t+-)y*(t)}+E{y(t+-)x*(t)}= Rxx(-)+Ryy(-)+Rxy(-)+Ryx(-) .
Il processo somma considerato è dunque anch’esso stazionario. Grazie alle [7.1.28] e [7.1.40] si ha
inoltre:
[7.1.50] Pa(f) = Px(f) + Py(f) + 20{Pxy(f)} .
La incoerenza dei due processi addendi (vedi [7.1.41] e [7.1.42]) è allora condizione sufficiente
affinché i processi X(t) e Y(t) si sommino in potenza, così come in densità spettrale di potenza:
[7.1.51] Pa= Px+ Py , Pa( f ) = Px( f ) + Py( f ), se: Rxy(-) " 0 .
La regola della semplice somma in potenza vale inoltre anche nel caso che i due processi reali
diano luogo a v.a. ortogonali, come dimostrabile integrando la [7.1.50] e applicando la [7.1.46];
pertanto qualora la funzione di intercorrelazione sia nulla nella origine si usa la denominazione di
processi additivi in potenza:
[7.1.52] Pa= Px+ Py , se: Rxy(0) = " Pxy (f)df= " !{ P (f)} df=0 .
xy
Si rammenti che in generale non risultano però sommabili gli spettri di potenza, ossia si ha Pa(f) /
Px(f) + Py(f).
Si noti infine che l'indipendenza statistica tra i due processi addendi, che risultano allora
incorrelati, permette la semplice somma delle potenze e degli spettri solo a patto che almeno uno
dei due processi abbia valore medio nullo (vedi [7.1.42] e [7.1.43]).
Un secondo caso interessante, per cui è ancora sfruttabile la linearità dell’operatore di media
statistica, è quello del processo complesso, B(t), con realizzazioni b(t)=x(t)+jy(t) dove X(t) e Y(t)
sono ancora due processi reali congiuntamente stazionari.
Applicando le [7.1.18] e [7.1.21], si ricava il valore medio statistico:
[7.1.53] ?b = E{x(t)+jy(t)} = E{x(t)}+jE{y(t)}= ?x+j?y.
160
Si ottiene poi la funzione di autocorrelazione:
[7.1.54] Rbb(-) = E{[x(t+-)+jy(t+-)][x(t)+jy(t)]*}= E{x(t+-)x*(t)}+E{y(t+-)y*(t)}-
jE{x(t+ -)y*(t)}+jE{y(t+-)x*(t)}=Rxx(-)+Ryy(-)-j[Rxy(-)-Ryx(-)].
Il processo complesso considerato è dunque anch’esso stazionario. Grazie alle [7.1.27], [7.1.38] e
[7.1.40] si ha inoltre:
[7.1.55] Pb(f) = Px(f)+Py(f)+28{Pxy(f)}.
Ponendo -=0 nelle [7.1.36] e [7.1.54], si ricava che la potenza del processo complesso considerato
è sempre la somma delle potenze dei due processi che si compongono:
[7.1.56] Pb = Px + Py ;
la loro eventuale incoerenza (vedi [7.1.42]) è allora condizione sufficiente affinché sia valida
anche la semplice relazione riguardante le densità spettrali di potenza:
[7.1.57] Pb(f) = Px(f)+Py(f), se: Rxy(-) " 0 .
7.1.6 Processi discreti reali stazionari
[7.1.62] E{[z(k + 3) - ?z][z(k) - ?z]}= ## (z k +! -"z )(z k -"z )p 2 (z k +!,z k ;!)dz k +! dz k =ˆ Kzz(3),
dove entrambe le grandezze Rzz(3) e Kzz(3) sono funzioni pari e valgono le proprietà:
[7.1.63] Rzz(3) = Kzz(3) + !2z , |Rzz(3)| * Rzz(0) = Pz , |Kzz(3)| * Kzz(0) = ! 2z ,
[7.1.64] Rzz(0) = Pz = ! z2 + !z2 = Kzz(0) + !z2 .
Come nel caso di processo continuo, il valore medio statistico e la funzione di autocorrelazione
sono sufficienti a caratterizzare un processo discreto stazionario.
Considerando una coppia di processi discreti reali, Z(n) e V(n), entrambi congiuntamente
stazionari, in aggiunta alle grandezze sintetiche sopra introdotte per ciascun processo, e in seguito
161
distinte tramite l’aggiunta del pedice singolo z o v, si definiscono la funzione di intercorrelazione
e la funzione di covarianza mutua della coppia di processi:
[7.1.65] E{z(k + 3) v(k)} =ˆ Rzv(3) ,
[7.1.66] E{[z(k + 3) - ?z] [v(k) - ?v]} =ˆ Kzv(3) ,
dove ?z e ?v sono i valori medi statistici; scambiando tra loro i pedici nelle [7.1.65] e [7.1.66], si
dimostrano le:
[7.1.67] Rvz(3) = Rzv(-3) , Kvz(3) = Kzv(-3) .
Tra le due funzioni sussiste la relazione:
[7.1.68] Rzv(3) = Kzv(3) + ?z?v;
valgono inoltre le proprietà:
[7.1.69] R zv
2
(!) * Rzz(0)Rvv(0) = PzPv ,
[7.1.70] K zv
2
(!) * Kzz(0)Kvv(0) = ! z2 ! 2v ,
avendo indicato con Pz e Pv e con ! 2z e ! 2v rispettivamente le potenze e le varianze dei due processi
discreti.
Due processi discreti congiuntamente stazionari si dicono incoerenti se la funzione di
intercorrelazione è nulla per ogni 3, ossia si ha:
[7.1.71] Rzv(3) " 0.
Se invece tutti i valori della funzione di covarianza sono nulli:
[7.1.72] Kzv(3) = Rzv(3) - ?z ?v " 0 ,
i due processi si denominano incorrelati. Due processi discreti stazionari statisticamente
indipendenti sono sempre incorrelati; se almeno uno ha valore medio nullo sono anche incoerenti.
7.1.6.2 Processi discreti reali stazionari a valori discreti
Tutte le espressioni riportate sono applicabili anche a un processo discreto a valori discreti,
indicato con Zq(n), che corrisponde a una sequenza di infinite v.a. discrete, Zqk, capaci di assumere
uno dei precisati valori di un insieme discreto, {zq}, di cardinalità finita M. Poiché, sempre nel
caso stazionario e con limitazione al solo secondo ordine, le v.a. discrete sono caratterizzate dalle
probabilità:
[7.1.73] P(zq1; k1) = P(z q2; k2) = P(zq) =ˆ !q, q = 1, 2 ,.., M,
indipendenti dalla variabile intera di saggiatura, e dalle probabilità congiunte:
[7.1.74] P2(zi1, zj2; k1,k2) = P2(xi, xj; 3) =ˆ !ij (3) , i , j = 1, 2 ,.., M ,
che dipendono dalla differenza intera 3 = k1- k2, occorre però che l’operatore di media statistica
assuma le forme specifiche:
dove F1 è funzione della v.a. discreta Zqk e F2 è in generale una funzione di entrambe le v.a.
discrete Zi1 e Zj2.
162
7.2 PROCESSI STOCASTICI CICLOSTAZIONARI
In molti casi pratici accade che in un processo continuo, S(t), si manifesti una componente additiva
periodica(1), e quindi di tipo determinato, come ad esempio nel caso in cui si ha la realizzazione:
[7.2.1] s(t) = x(t) + Accos(%ct) ,
dove x(t) è la realizzazione di un processo reale stazionario, X(t), mentre Ac e %c=2!fc sono
costanti note. In altri casi si ha poi una periodicità nascosta, che non appare additivamente, come
ad esempio nel caso della realizzazione:
[7.2.2] s(t) = x(t)cos(%ct) ,
ma che si manifesta quando si attuino sul processo delle trasformazioni non lineari.
Se nel calcolare la funzione di autocorrelazione di un processo si giunge a una espressione
periodica in t, ossia si ottiene R(t,-)=R(t-kT0,-), si usa la denominazione di processo stocastico
ciclostazionario. Si può precisare ulteriormente che si tratta di processo ciclostazionario del primo
ordine, oppure del secondo ordine, se la menzionata periodicità si manifesta, oppure non si
manifesta, anche nel valore medio statistico. Ad esempio, applicando le [7.1.8] e [7.1.12] alla
[7.2.2], si ottengono le espressioni:
[7.2.3] ?s(t) = E{x(t) cos(%ct)} = E{x(t)}cos(%ct) = ?xcos(%ct),
1
[7.2.4] Rss(t,-)=E{x(t + -)cos[%c(t+-)]x(t)cos(%ct)} = E{x(t+-)x(t)}cos[%c(t+-)]cos(%ct)= Rxx(-
2
1
)cos(%c-)+ Rxx(-)cos[%c(2t+-)],
2
che qualificano il processo come ciclostazionario del primo o del secondo ordine, rispettivamente
per ?x diverso da zero o nullo.
Nei casi menzionati di ciclostazionarietà, si usa ricondurre la analisi a quella dei processi
stazionari, con l’espediente di considerare la aggiunta sull’asse dei tempi di una traslazione
aleatoria, z, e di effettuare la media statistica anche su tale v.a. indipendente, con le ulteriori
ipotesi che essa abbia densità di distribuzione, p(z)=1/T0, uniforme in un intervallo pari al periodo
di ciclostazionarietà. Con tale procedimento si ha infatti l’effetto (vedi paragrafo 7.2.3.1) di
eliminare la dipendenza da t nelle grandezze sintetiche considerate(2), che risultano:
T /2
1 0
! (t)dt ,
T0 -T!/2 s
[7.2.5] ?s = E{?s(t+z)}=
0
T /2
1 0
R (t,! )dt ,
T0 -T!/2 ss
[7.2.6] Rss(-) = E{Rss(t+z, -)} =
0
ossia sono calcolabili come valori medi nel periodo delle rispettive funzioni con periodicità nella
variabile indipendente t.
Scontando la applicazione del procedimento sopra menzionato, le considerazioni sviluppate in
precedenza sugli spettri di potenza e sulla intercorrelazione risultano applicabili ai processi
ciclostazionari. Se essi sono del primo ordine, nello spettro di potenza compaiono delle
componenti discrete, Pci+(f-fci), associate alle frequenze fci delle periodicità; la densità spettrale di
(1)In alcuni processi possono manifestarsi componenti determinate con più periodicità, con periodi anche tra loro non
commensurabili.
(2) Risulta tuttavia eliminata anche la correlazione tra componenti spettrali, introducendo la possibilità di errori nella
valutazione degli spettri di potenza in alcuni rari casi particolari.
163
potenza è invece una normale funzione continua per f /0, nel caso dei processi ciclostazionari del
secondo ordine.
7.2.2 Processi rappresentati tramite inviluppo complesso
Si consideri un processo reale, X(t), rappresentato tramite inviluppo complesso, ossia con
realizzazione nella forma:
[7.2.7] x(t)= ! {x(t)e j!ct } = xc(t) cos(%ct) – xs(t) sin(%ct) ,
dove xc(t) e xs(t) sono le realizzazioni di due processi reali in banda base, Xc(t)e Xs(t), con densità
spettrali di potenza Pc(f) e Ps(f) limitate entro fcM=fsM< fc=%c/2!.
Il processo inviluppo complesso, X(t), con realizzazione x(t)=xc(t)+j xs(t), è stazionario se i due
processi componenti sono congiuntamente stazionari, mentre è ciclostazionario se lo è anche uno
solo di essi. A valle della eventuale media temporale dopo la aggiunta di una traslazione aleatoria
[nel caso di ciclostazionarietà di uno o di entrambi i processi Xc(t) e Xs(t)], la funzione di
autocorrelazione Rxx(-), del processo X(t) risulta (vedi [7.1.54]):
[7.2.8] Rxx(-)= Rcc(-) + Rss(-) - j[Rcs(-) – Rsc(-)] ,
con ovvio significato dei simboli a secondo membro. Si applica poi la regola della semplice
somma in potenza (vedi [7.1.56]), ottenendo la relazione:
[7.2.9] Px= Pc + Ps ,
dove sono indicate con Px, Pc e Ps le rispettive potenze dei processi X(t), Xc(t) e Xs(t). Per
trasformazione di Fourier della [2.8[7.2.8] si ottiene la densità spettrale di potenza del processo
inviluppo complesso (vedi [7.1.55]):
[7.2.10] Px(f)= Pc(f)+Ps(f)+28{Pcs(f)} .
Tornando al processo reale X(t), a partire dalla [7.2.7] e applicando la [7.1.49] si può calcolare la
sua funzione di autocorrelazione:
1 1 1
[7.2.11] Rxx(t,-) = [Rcc(-)+Rss(-)] cos(%c-) + [Rcs(-)-Rsc(-)] sin(%c-) + [Rcc(-)-Rss(-)]cos[%
2 2 2
1
c(2t+-)]- [ Rcs(-)+Rsc(-)] sin[%c(2t+-)] .
2
La presenza degli ultimi due addendi a secondo membro della espressione [7.2.11] evidenzia che
in generale il processo considerato è ciclostazionario, anche nel caso di stazionarietà di entrambi i
processi in banda base Xc(t) e Xs(t). La dipendenza periodica dal tempo t della funzione di
autocorrelazione può essere eliminata, come già segnalato, mediante la integrazione in un periodo
(vedi [7.2.6]): la Rxx(-) risulta allora data dai soli primi due addendi della [7.2.11]:
1 1
[7.2.12] Rxx(-) = [Rcc(-)+Rss(-)]cos(%c-) + [Rcs(-)-Rsc(-)]sin(%c-).
2 2
Si ha allora, per -=0, la relazione tra le potenze:
1 1
[7.2.13] Px = (Pc+Ps) = Px.
2 2
Trasformando la [7.2.12] e tenendo conto della [7.1.40], si giunge poi alla seguente espressione
della densità spettrale di potenza del processo X(t):
1 1
[7.2.14] Px(f) = [Pc(f-fc)+Ps(f-fc)+Pc(f+fc)+Ps(f+fc)]- 8{Pcs(f-fc)-Pcs(f+fc)};
4 2
rammentando la [7.2.10] si ha allora la relazione, illustrata in Figura 7.2:
164
1
[7.2.15] Px(f) = [Px(f-fc)+Px(-f-fc)].
4
Px (f)
1 1
Px-(f) = ---P (-f-fc )
4 x
P (f-fc )
Px+(f) = ---
4 x
-f 0 f f
c c
Figura 7.2 - Relazione tra la densità spettrale di potenza di un processo reale ciclostazionario non
in banda base e quella del suo inviluppo complesso, Px (f ) .
È interessante notare che il processo X(t), di norma ciclostazionario, diviene stazionario se, e solo
se, entrambi i processi in banda base, sono stazionari e inoltre risultano soddisfatte le relazioni:
[7.2.16] Rcc(-) = Rss(-) ,
[7.2.17] Rcs(-) = - Rsc(-) .
Ponendo - = 0 nelle [7.2.17] e [7.1.34], si ottiene Rcs(0) = 0; di conseguenza nel caso considerato
le v.a. Xc(t) e Xs(t), al medesimo generico istante t, devono essere ortogonali (vedi [7.1.45]), ossia i
processi in banda base devono essere additivi in potenza.
7.2.3 Processo stazionario non in banda base
Si consideri un processo stazionario reale X(t), con realizzazione x(t) che non sia del tipo in banda
base. Si faccia poi riferimento al processo X̂(t) , avente per realizzazione la trasformata di Hilbert
x̂(t) , e ai processi X+(t) e X-(t), con rispettive realizzazioni x+(t) = [x(t)+j x̂(t) ]/2 e x-(t) = [x(t) - j
x̂(t) ]/2; tutti i processi risultano a valore medio statistico nullo, come il processo X(t). Poiché per
definizione gli spettri di tutte le realizzazioni troncate x+T(t) e x-T(t) sono diversi da zero solo sui
semiassi rispettivamente positivo o negativo delle frequenze, le densità spettrali di potenza dei
processi X+(t) e X-(t),
[7.2.18] Px+(f) = F{Rx+x+(-)} , Px-(f) = F{Rx- x-(-)} ,
godono della medesima proprietà e, inoltre, risulta nulla la densità spettrale mutua di potenza (vedi
[7.1.38]), ossia si ha Px+x-(f)"0, e i processi X+(t) e X-(t) si rivelano incoerenti. Dalla x(t) = x+(t)+x-
(t) e x̂(t) =-j[x+(t)-x-(t)] si ottiene allora:
[7.2.19] Px(f) = Px̂ (f) = Px+(f) + Px-(f),
da cui per antitrasformazione derivano le analoghe relazioni tra le funzioni di autocorrelazione dei
due processi:
[7.2.20] Rxx(-) = R x̂x̂ (!) = Rx+x+(-) + Rx-X-(-) .
Si ricavano inoltre per le funzioni di intercorrelazione e le loro trasformate le relazioni:
[7.2.21] R xx̂ (!) = - R x̂x (!) = j[Rx+x+(-) - Rx-x-(-)] ,
[7.2.22] Pxx̂ (f) = Px̂x (f) = j[Px+(f)-Px-(f)] .
Dalle [7.2.20] e [7.2.21] si nota che R x̂x (!) è la trasformata di Hilbert della Rxx(-).
Indicata al solito con Px la potenza del processo X(t), sempre per la incoerenza tra i processi X+(t)
e X-(t) si ha:
165
1
[7.2.23] Rx+x+(0) = Rx-X-(0) = Px ,
2
da cui deriva immediatamente:
[7.2.24] R xx̂ (0) = R x̂x (0) = 0;
Fissata una frequenza fc arbitraria, purché entro la banda del processo X(t), si consideri poi il
processo in banda base X(t), con realizzazione x(t)=xc(t)+jxs(t) corrispondente all’inviluppo
complesso di x(t). Le componenti in fase e in quadratura sono reali, del tipo in banda base e legate
alle realizzazioni dei processi X(t) e X̂(t) dalle relazioni xc(t)=x(t)cos(%ct)+ x̂(t) sin(%ct) e xs(t)=-
x(t)sin(%ct)+ x̂(t) cos(%ct). Calcolando da queste le funzioni di autocorrelazione si ottengono le:
1 1 1
[7.2.26] Rii(t,-) = [Rxx(-)+ R x̂x̂ (!) ]cos(%c-) - [ R xx̂ (!) - R x̂x (!) ]sin(%c-) ± [Rxx(-)- R x̂x̂ (!) ]cos[
2 2 2
1
%c(2t+-)]± [ R xx̂ (!) + R x̂x (!) ]sin[%c(2t+-)] ,
2
dove vale la scelta superiore o inferiore del segno rispettivamente per i=c oppure i=s. Grazie alle
[7.2.20] e [7.2.21], che annullano gli addendi periodici in t, si hanno infine le relazioni:
[7.2.27] Rcc(-) = Rss(-) = Rxx(-)cos(%c-)+ R x̂x (!) sin(%c-).
Come già evidenziato nel paragrafo precedente, in virtù della stazionarietà in senso lato del
processo X(t), anche i processi in banda base Xc(t) e Xs(t) risultano dunque stazionari in senso lato,
con identiche funzioni di autocorrelazione (vedi anche [7.2.16]) e con valore medio statistico
nullo.
Ponendo - = 0 nella [7.2.27] e rammentando le [7.2.24] risulta:
[7.2.28] Pc = Ps = Px .
Si noti che la potenza non si divide sui due processi che hanno per realizzazioni le parti reale e
immaginaria dell’inviluppo complesso, ma si ritrova identica su ciascuno di essi.
Tramite le [7.2.20] e [7.2.21], la [7.2.27] può assumere la forma:
[7.2.29] Rcc(-) = Rss(-) = Rx+x+(-) e - j ! c " +Rx-x-(-) e j ! c " .
Per trasformazione di Fourier si ricavano allora le densità spettrali di potenza dei processi in banda
base:
[7.2.30] Pc( f ) = Ps( f ) = Px+(f+fc)+Px-(f-fc) .
Le funzioni di intercorrelazione, Rcs(-) e Rsc(-), dei processi Xc(t) e Xs(t) si possono ricavare dalle
già menzionate espressioni delle realizzazioni in funzione di x(t) e x̂(t) , ottenendo le relazioni:
che evidenzia che i processi componenti in fase e in quadratura sono additivi in potenza.
Si ricavano poi le rispettive densità spettrali mutue di potenza, Pcs(f) e Psc(f):
[7.2.33] Pcs(f) = -Psc( f ) = j[Px+(f+fc) - Px-(f-fc)] ,
166
che, essendo Px( f ) reale, sono puramente immaginarie. I processi Xc(t) e Xs(t) non sono in
generale incoerenti; in base alla proprietà Px+(f)=Px-(-f ), si può poi dimostrare che il verificarsi
della particolare relazione di simmetria rispetto a fc:
[7.2.34] Px+(f+fc) = Px+(fc-f) ,
è condizione sufficiente affinché i processi Xc(t) e Xs(t) siano incoerenti.
In virtù delle [7.2.29] e [7.2.31], la funzione di autocorrelazione (vedi [7.2.8]) del processo
inviluppo complesso, che risulta stazionario in senso lato e a valore medio statistico nullo, si
particolarizza nella forma:
[7.2.35] Rxx(-)= 2[Rcc(-)-j Rcs(-)] = 4Rx+x+(-) e - j! c " ;
si ha pertanto la densità spettrale di potenza:
[7.2.36] Px(f)= 2[Pc(f) - j Pcs(f)] = 4Px+(f+fc) .
Nel secondo termine della precedente equazione si noti che, essendo Pcs(f) puramente
immaginaria, Px(f) è comunque espressa come somma di due funzioni reali, in accordo alla
definizione stessa di densità spettrale di potenza, sempre reale non negativa. Nella [7.2.36] si
riconosce poi la già evidenziata relazione [7.2.15] tra gli spettri di potenza dei processi X(t) e X(t).
Integrando la [7.2.36] e rammentando la [7.2.28] si ottengono infine le relazioni tra le potenze:
1
[7.2.37] Px = Pc = Ps = Px .
2
7.2.3.1 Appendice 1. Parametri sintetici nei processi ciclostazionari
Nei processi ciclostazionari del secondo ordine la funzione di autocorrelazione risulta periodica,
ossia si ha:
[7.2.38] R(t–T0, -) = R(t, -) .
Se si introduce una traslazione aleatoria, z, sulla origine dell'asse dei tempi e si ipotizza per tale
variabile la indipendenza statistica e la distribuzione uniforme della densità di probabilità in un
periodo, che perciò risulta:
1
[7.2.39] p(z) = ,
T0
il valore medio statistico della [7.2.38] rispetto a z fornisce:
T0 /2 t+T0 /2
1
[7.2.40] E{R(t+z, -)}= " R(t+z,!)p(z)dz = " R(x,!)dx ,
-T0 /2
T0 t-T0 /2
Il procedimento conduce alla eliminazione della dipendenza dal tempo nella funzione R(t, -) senza
alcuna altra ipotesi oltre alla periodicità di quest’ultima. Esso è dunque applicabile anche al valore
medio statistico di un processo ciclostazionario del primo ordine, per cui si ha:
[7.2.42] ?(t-T0) = ?(t) ,
e quindi risulta:
167
T0 /2
1
[7.2.43] E{?(t+z)}=
T0 " !(t)dt = ?.
-T0 /2
Sovente si hanno processi rappresentati tramite una serie temporale infinita di segnali di energia
noti, ciascuno dei quali recante una v.a. continua. L’esempio più comune è offerto dal tipo di
processo reale con fattori aleatori, X(t), con realizzazione che si presenta nella forma:
[7.3.1] x(t) = (kzkp(t-kT) ,
con k variabile intera e T costante, e dove:
5 zk=z(k) sono le determinazioni delle v.a. continue, Zk, che costituiscono con la loro sequenza,
Z(n), un processo discreto reale stazionario;
5 p(t) è una funzione reale, praticamente limitata nel tempo con durata pratica Tp anche molto
maggiore di T, avente spettro di energia E pp(f) strettamente limitato in banda ed energia:
dove Cpp(-) è la funzione di autocorrelazione temporale di p(t), avente per trasformata di Fourier
lo spettro di energia E pp(f).
Anzitutto, il processo reale discreto stazionario Z(n) risulta caratterizzato (vedi par. 7.1.6) tramite
il valore medio statistico, E{z(k)}=?z, e la sua funzione di autocorrelazione, E{z(k+3)z(k)}=Rzz(3
). Si ricavano poi la funzione di autocovarianza, Kzz(3)=Rzz(3)- !2z , e la potenza, Pz= Rzz(0)= ! 2z + !2z
, dove ! 2z è la varianza del processo discreto.
Ponendo nella [7.3.1] zk=zek+?z (con Zek è indicata la corrispondente v.a. equa, ossia con la stessa
caratterizzazione stocastica a meno del valore medio nullo), risulta immediatamente che il
processo continuo X(t) comprende l’addendo periodico, con periodo T:
[7.3.3] x0(t) = ?zrepT{p(t)}=?z(kp(t-kT) ,
ed è quindi in generale ciclostazionario, del primo ordine se ?z/ 0 .
Come mostrato nel paragrafo 7.3.4.1, a partire dalla [7.3.1] e applicando le [7.1.12] e [7.2.6] si
determinano il valore medio statistico e la funzione di autocorrelazione (privi della dipendenza dal
tempo) del processo continuo ciclostazionario X(t):
1
?z ! p(t)dt ,
[7.3.4] ?x=
T
1 1 1
[7.3.5] Rxx(-) = (3Rzz(3)Cpp(--3T)= !2z repT{Cpp(-)}+ (3Kzz(3)Cpp(--3T) .
T T T
A riguardo del valore medio del processo continuo si osserva che esso si annulla se è nullo quello
del processo discreto, ossia se si verifica ?z=0; è inoltre possibile ottenere un valore medio nullo
anche per ?z/0, con opportuna scelta della forma p(t) che comporti l’azzeramento del suo
integrale.
Applicando alla [7.3.5] la relazione di Wiener-Khintchine (vedi [7.1.27]), si giunge alla seguente
espressione della densità spettrale di potenza del processo continuo:
1 2 1 1 1
[7.3.6] Px(f) = !z (kck+(f-kf0) + E pp(f) (3Kzz (3) e-j2!"fT = 2 !2z (kE pp(kf0)+(f-kf0)+ E pp(f)
T T T T
& 2 $ )
(! z + 2 % K zz (")cos(2#"fT)+ .
' "=1 *
168
Si noti che nello spettro del processo compaiono:
5 una serie di componenti discrete a frequenza multipla di f0=1/T, associate alla presenza nel
processo dell’addendo periodico x0(t) (vedi [7.3.3]), di entità proporzionale al quadrato del
valore medio statistico del processo discreto Z(n);
5 una parte continua, con andamento che dipende sia da quello dello spettro di energia della
forma determinata p(t), che dalla funzione entro parentesi quadra nella [7.3.6], periodica di
periodo f0=1/T; tale funzione risulta la somma di una costante, pari alla varianza del processo
discreto Z(n), e di una variabile legata alla autocovarianza dello stesso processo per i valori 3/
0.
Grazie alla stazionarietà del processo discreto, la energia media statistica del generico addendo
della serie [7.3.1], separatamente considerato, è invariante con k, ossia è una caratteristica del
processo continuo:
[7.3.7] ExT =ˆ E{E kk}= E { " z 2k p 2 ( t ! kT ) dt} =PzE pp.
Nel seguito verranno considerati due casi, assumendo la ipotesi di ortogonalità tra le v.a. Zk, o
quella di ortogonalità dei segnali addendi di energia che costituiscono la forma periodica
repT{p(t)}; per entrambi si dimostra che la potenza del processo X(t) può essere espressa tramite la
semplice relazione:
E xT
[7.3.8] Px = ,
T
ossia la potenza può essere immediatamente calcolata come rapporto tra il comune valore, ExT,
della energia media statistica degli elementi della serie e il valore, T, della sua cadenza temporale.
7.3.1.1 Caso di ortogonalità delle v.a. del processo discreto
Se le v.a. Zk del processo discreto sono tutte ortogonali tra loro, ossia la funzione di
autocorrelazione del processo Rzz(3) è nulla per ogni 3/0, mentre per 3=0 si ha Rzz(0)=Pz= ! 2z (?
z=0), la [7.3.5] diviene:
1 1
[7.3.9] Rxx(-)= Rzz(0)Cpp(-) = PzCpp(-);
T T
per -=0 e tenendo conto delle [7.3.2] e [7.3.7], la potenza del processo X(t) assume la espressione:
1 1 E
[7.3.10] Px= Rxx(0)= PzCpp(0)= PzE pp= xT , per Rzz(3) = 0 con 3/0 .
T T T
Per trasformazione di Fourier della [7.3.9] si ottiene inoltre:
1
[ 7.3.11] Px( f ) = PzE pp(f) ,
T
ossia l’andamento dello spettro di potenza del processo è privo di componenti discrete ed è
proporzionale a quello dello spettro di energia della funzione nota p(t).
7.3.1.2 Caso di ortogonalità delle forme traslate nel tempo
Se tutte le funzioni determinate p(t-kT), traslate nel tempo, sono tra loro ortogonali, ossia si
verifica:
)+ E , '=0
[7.3.12] & p ( t ! kT ) p ( t ! hT ) dt = C pp #( h ! k ) T% =C pp ( 'T ) = * pp
" $ ,
,+ 0, ' ( 0
la [7.3.5] per - =0 fornisce, a prescindere dalla dipendenza statistica delle v.a. Zk:
169
1 1 E
[7.3.13] Px= Rxx(0) = Rzz(0) E pp = PzE pp = xT , per Cpp(3T) = 0 con 3/0 .
T T T
È importante rimarcare che, grazie alla menzionata ortogonalità delle forme traslate, la potenza del
processo non risente della presenza della intercorrelazione tra le v.a. Zk del processo discreto.
Questa si manifesta invece nell’andamento della densità spettrale di potenza, per cui vale la forma
generale [7.3.6].
7.3.2 Processi campionati in banda base
Quanto esposto nel paragrafo precedente è applicabile ai processi reali continui stazionari con
realizzazione rappresentata tramite campioni. Considerato un processo in banda base X(t) con
frequenza massima fM e scelto un generico periodo di campionamento Tca*1/2fM, la generica
realizzazione ammette la rappresentazione tramite la serie temporale:
" t %
[7.3.14] x(t) = (kck sinc $ ! k' ,
# Tca &
con k variabile intera, e dove:
! i campioni ck=x(kTca) sono le determinazioni delle v.a. continue Ck che costituiscono con la loro
sequenza, C(n), un processo reale discreto stazionario;
! sinc(t/Tca) è la nota funzione di campionamento, con energia e spettro di energia date
rispettivamente dalle:
[7.3.15] E ss= Tca ,
[7.3.16] E ss(f) = Tca2 rect(fTca) ,
e che gode della proprietà di ortogonalità delle forme traslate:
[7.3.17] Css(3Tca) = 0 , per 3/0 .
Tenuto conto che la funzione sinc(t/Tca) ha integrale di valore uguale a Tca, in base alla [7.3.4]
risulta immediatamente:
[7.3.18] ?x= ?c,
ossia il valore medio statistico, ?x, del processo continuo coincide con quello, ?c, del processo
discreto costituito dalla sequenza dei campioni aleatori.
Servendosi dei risultati del paragrafo precedente e notando che la [7.3.16] limita lo spettro
nell’intervallo di frequenza (-1/2Tca;1/2Tca), si ricava per la densità spettrale di potenza del
processo continuo la espressione:
& $ )
[7.3.19] Px(f) = !2c +(f) + Tcarect(fTca) (! c2 + 2 % K cc ( ") cos ( 2#"fTca )+ ,
' "=1 *
dove ! 2c e Kcc(3) sono rispettivamente la varianza e la funzione di autocovarianza del processo
discreto C(n), costituito dalla sequenza delle v.a. aventi per determinazioni i campioni aleatori
presi a intervallo Tca. Grazie alla [7.3.17], la potenza del processo continuo può essere
semplicemente ottenuta dividendo per Tca la energia media statistica del generico elemento della
serie temporale con cui il processo stesso è formulato; si ha allora dalla [7.3.7] e dalla [7.3.15]:
1
[7.3.20] Px= PcE ss= Pc = ! 2c + "2c ,
Tca
essendo Pc la potenza del processo discreto.
Tenuto conto che la rappresentazione tramite campioni conserva inalterata la forma del segnale al
variare dell’intervallo di campionamento, purché risulti Tc"1/2fM, si hanno le considerazioni
170
seguenti, basate sulla invarianza delle caratteristiche sintetiche del processo continuo con
realizzazione [7.3.14], in particolare di ?x, Px e di Px(f) per le quali risultano le [7.3.18], [7.3.19] e
[7.3.20].
In base alle [7.3.18] e [7.3.20], la sequenza dei campioni aleatori mantiene invariate le grandezze
del primo ordine, ossia ?c, ! 2c e Pc, al variare del periodo di campionamento Tca; risulta invece
diversa la energia media statistica, ExTca=PxTca, del generico elemento della serie temporale.
Tenendo conto della [7.3.19], risulta anche diversa la funzione di autocovarianza, Kcc(3), per ogni
3/0. In particolare, si evince che, essendo per ipotesi Px(f)=0 per f>fM, i diversi campioni aleatori
sono incorrelati (ossia risulta Kcc(3)=0 per 3/0) se, e solo se, il processo continuo ha densità
spettrale costante da fm=0+ a fM=B:
P ! f $
[7.3.21] Px ( f ) = rect # &
2fM " 2fM %
e inoltre il periodo di campionamento assume il valore massimo: Tca=1/2fM=1/2B, ossia è uguale
all’intervallo di Nyquist. In tale particolare caso il processo continuo si denomina un processo
bianco in banda base.
7.3.3 Processi complessi con fattori aleatori
Si consideri un processo continuo reale ciclostazionario non in banda base e il relativo processo
inviluppo complesso rappresentativo X(t), con realizzazione (vedi [7.2.7]) che si suppone
formulata in termini della serie temporale:
[7.3.22] x(t)= xc(t)+jxs(t) = (k(ak+jbk)p(t - kT),
dove al solito k è una variabile intera e:
! ak e bk sono le determinazioni delle v.a. continue, Ak e Bk, che costituiscono con le loro
sequenze, A(n) e B(n), una coppia di processi reali discreti stazionari;
! p(t) è una funzione reale, praticamente limitata con durata pratica Tp anche molto maggiore di
T, avente spettro di energia E pp(f) strettamente limitato in banda base.
A partire dalla [7.2.10] e con simbologia e procedimento analoghi a quelli usati per giungere alla
[7.3.6] si ottengono la funzione di autocorrelazione e la densità spettrale di potenza del processo
continuo X(t):
1
[7.3.23] Rxx(-) = ( {[Raa(3)+Rbb(3)]Cpp(--3T)-jRab(3)[Cpp(-- 3T) - Cpp(-+3T)]}
T 3
1 1 2
[7.3.24] Px(f)= 2 ( !2a + !2b )(kE pp(kf0)+(f-nf0)+ E pp(f)( ! 2a + ! 2b )+ E pp(f){
T T T
#
$ K aa ( !) + K bb ( !) cos(2 "! f T) -( 3Kab(3)sin(2!3fT)},
!=1
in cui compare anche la covarianza, Kab(3), dei due processi discreti. Nella valutazione della
potenza Px del processo inviluppo complesso non ha invece alcun effetto la dipendenza statistica
tra i due processi discreti, come si nota immediatamente dalla [7.3.23] per -=0 tenendo conto che
la autocorrelazione, Cpp(u), è una funzione pari dell’argomento u; ciò è in accordo con il legame di
semplice somma (vedi [7.2.13]) tra la potenza Px e quelle, Pc e Ps, dei due processi reali Xc(t) e
Xs(t).
Rammentando le [2.4.27] e [7.3.7], la energia media statistica del generico elemento della serie
temporale [7.3.22] assume la espressione:
[7.3.25] ExT =E { ! (a 2
k +b 2k ) p 2 (t-kT)dt = (Pa+ Pb)E pp = ( ! 2a + ! 2b + !2a + !2b ) E pp.
}
171
Sia nel caso di ortogonalità delle v.a. Ak e Bk (Raa(3)=Rbb(3)=0 per ogni 3/0), che in quello di
ortogonalità delle forme traslate (vedi [7.3.12]) seppure in presenza di correlazione tra le v.a., si
ottiene dunque per la potenza del processo considerato:
E xT 1
[7.3.26] Px = = (Pa+Pb)E pp .
T T
La analisi svolta può essere utilizzata nel caso di un processo continuo, in generale
ciclostazionario, strettamente limitato in una banda B e con frequenza minima fm/0. Adottando per
la realizzazione la rappresentazione con doppia sequenza di campioni e assumendo Ak=Cck,
Bk=Csk, T=1/B e p(t)=sinc(t/T), e quindi anche E pp=T (vedi seconda delle [7.3.15]), dalla [7.3.26]
si ricava la potenza del processo inviluppo complesso rappresentativo:
[7.3.27] Px = ! 2Cc + ! 2Cs + !2Cc + !2Cs ,
con ovvio significato dei simboli. Grazie alla [7.2.13], si ottiene infine la potenza del processo
considerato, che è semplicemente la metà di quella fornita dalla [7.3.27]. Si lascia al lettore il
compito di dimostrare che se il processo è stazionario i valori medi statistici dei campioni aleatori
sono nulli (?Cc=?Cs=0) e per le loro varianze risulta:
1
[ 7.3.28] ! 2Cc = ! 2Cs = P = Px .
2 x
in armonia con la [7.2.28].
7.3.4 Processo somma di processi reali con fattori aleatori
Si consideri un particolare tipo di processo continuo X(t), con realizzazione che sia rappresentabile
nella forma:
[7.3.29] x(t) = (k[akp1(t-kT)+bkp2(t-kT)],
con k variabile intera e dove:
! ak e bk sono le determinazioni delle v.a. continue, Ak e Bk, che costituiscono con le loro
sequenze, A(n) e B(n), una coppia di processi reali discreti stazionari;
! p1(t) e p2(t) sono funzioni reali, con energie E 11 e E 22, praticamente limitate nel tempo con
durata pratica anche molto maggiore di T, e che rispettano la condizione:
[7.3.30] %pi(t-kT) pj(t-hT)dt=Cij[(h-k)T]= Cij(3T)=0, per 3=0 e i#j e per 3#0.
Con simbologia e procedimento analoghi a quelli usati per giungere alla [7.3.23] si ottiene la
funzione di autocorrelazione del processo continuo considerato:
1 1
[7.3.31] Rxx(-)= (3{Raa(3)C11(--3T)+Rbb(3)C22(--3T)}+ (3Rab(3)[C12(--3T)+C21(-+3T)].
T T
Lasciando al lettore l’esercizio di calcolare la densità spettrale di potenza e dimostrare che essa
risente della intercorrelazione tra i processi discreti, ci si limita a verificare che invece la potenza
del processo continuo è indipendente da Rab(3). Infatti, tenuto conto delle [3.33], la [7.3.31]
fornisce per -=0:
1 E
[7.3.32] Px= Rxx(0) = [Raa(0) E 11+ Rbb(0) E 22] = 1 (PaE 11 + PbE 22) = TxT ,
T T
dove Pa e Pb sono al solito le potenze dei processi discreti e ExT è la energia media statistica del
generico elemento della serie temporale, come risulta dalla espressione generale:
2
[7.3.33] ExT =E { ! [a p (t-kT)+b p (t-kT)] dt} = P E
k 1 k 2 a 11 + Pb E 22+ 2 Rab(0)C12(0) ,
Applicando la [7.1.12] e sempre tenendo conto che l’aleatorietà risiede nelle sole variabili Ak, si
ottiene la funzione di autocorrelazione del processo ciclostazionario considerato:
[7.3.39] Rxx(t, -)=E{[(kzkp(t-kT)][(hzhp(t-hT+ -)]}=(k(hE{zkzh}p(t-kT)p(t-hT+ -)
Con la sostituzione di variabile intera 3 = h - k e servendosi della [7.1.61] si ha poi:
Una categoria molto interessante è quella dei processi continui gaussiani, che gode della
importante proprietà di consentire la piena conoscenza statistica solo in base a quella della
funzione di densità di probabilità del secondo ordine. In particolare nel caso di stazionarietà, che in
seguito di quanto sopra menzionato è sempre in senso stretto, la funzione di densità di probabilità
del primo ordine di un processo continuo gaussiano reale ha la espressione, indipendente dal
tempo:
173
(x-#)2
1
[7.4.1] pg(x) =ˆ
-
e 2! ,
2
! 2"
dove ? è il valore medio statistico, I2=R(0)-?2 è la varianza e R(-) è la funzione di
autocorrelazione del processo; la densità di probabilità del secondo ordine è anch’essa una
funzione esponenziale analoga alla [7.4.1], che risulta completamente determinata quando si
conosca R(-). Nel caso, assai frequente, di processo continuo gaussiano stazionario a valore medio
nullo (?=0) è dunque sufficiente la sola conoscenza della funzione di autocorrelazione, oppure
della densità spettrale di potenza (vedi [7.1.27]).
La somma di processi gaussiani indipendenti è ancora un processo gaussiano, con valore medio
somma dei valori medi e varianza somma delle varianze. Si può inoltre dimostrare (teorema del
limite centrale) che la somma di un numero n di segnali aleatori appartenenti a processi arbitrari,
ma indipendenti, tende di norma ad approssimare un processo gaussiano al tendere di n
all'infinito. Risulta allora ben comprensibile la frequente caratterizzazione di un processo
stocastico come gaussiano: un tipico esempio nel campo delle telecomunicazioni è quello della
schematizzazione dell'insieme di numerosissimi segnali indesiderati aleatori additivi, non
associabili al segnale utile e dovuti a una miriade di cause indipendenti, tramite un processo
continuo gaussiano reale che viene denominato rumore gaussiano (GN=Gaussian Noise). Nel
seguito della sezione si fa particolare riferimento a quest’ultimo, ma si rammenti che quanto
ricavato è applicabile a qualsiasi processo dello stesso tipo, sia indesiderato che utile.
Nelle telecomunicazioni un processo stazionario rappresentativo di un rumore gaussiano e assunto
a valore medio nullo, viene di norma caratterizzato tramite la sua densità spettrale di potenza, N(f).
Assegnata tale funzione, sono immediatamente calcolabili la funzione di autocorrelazione:
[7.4.2] Rnn(-) = F-1{N(f)} ,
e la potenza Pn, che per l’annullarsi del valore medio risulta pari alla varianza ! 2n del processo;
servendosi della [7.1.30] si ha:
2
[7.4.3] Pn= ! n = ! N (f)df .
Si noti che in linea di massima tanto più è esteso l'intervallo di frequenza entro cui N(f) è diverso
da zero, tanto maggiore risulta la potenza, o varianza, del rumore.
Sovente si considera il caso in cui si ha N(f)=N0, ossia la densità spettrale di potenza è invariante
con la frequenza, e si adotta la denominazione di rumore gaussiano bianco (WGN=White
Gaussian Noise); altrimenti il rumore si dice genericamente colorato. Dalla [7.4.2] con N(f)
costante risulta la funzione di autocorrelazione del rumore gaussiano bianco:
1
[7.4.4] Rnn0(-) = N0+(-) = N0+(-),
2
dove con
[7.4.5] N0=2N0
si usa indicare la potenza del rumore gaussiano bianco per unità di banda, ricavabile dalla [7.4.3]
con l’integrale limitato da -1 Hz a 1 Hz.
Si noti dalla [7.4.3] che se la densità spettrale del rumore fosse rigorosamente costante su tutto
l’asse delle frequenze, si avrebbe l’assurdo fisico di una potenza infinita; nella pratica la qualifica
di rumore bianco viene in effetti adoperata intendendo che la uniformità della densità spettrale si
verifichi solo entro una banda limitata, ma di estensione tale da comprendere largamente quella
occupata realmente dallo spettro utile a cui di norma si aggiunge quello del rumore. Con
riferimento a un processo continuo gaussiano utile, l’attributo bianco comporta invece che la
densità spettrale di potenza sia costante nella sua banda limitata e nulla altrove (vedi par. 7.3.2).
Con riferimento al dominio del tempo, una generica realizzazione n(t) del rumore è un segnale
simmetrico teoricamente non limitato (vedi [7.4.1]); in pratica, è tuttavia possibile definire un
174
valore di picco del rumore, np, come quel valore che ha una assai piccola probabilità, Pp, di essere
superato dal valore assoluto di n(t):
[7.4.6] Pp =ˆ 2 pg (n)dn .
!
" np
Servendosi della [7.4.1], la espressione precedente può essere ricondotta alla forma:
" n %
[7.4.7] Pp= erfc(x) = erfc $ p ' ,
# 2! n &
dove si è fatto ricorso alla funzione complementare di errore:
2
[7.4.8] erfc(x) =ˆ e dy ,
" -y 2
!
# x
e si è posto:
[7.4.9] np= x 2 In .
Se allora si assume ad esempio Pp=10-5, risultando dalla [7.4.7] x=3,12, dalla [7.4.9] si calcola
np=4,46In, da cui si ottiene il fattore di picco a 10-5 del rumore gaussiano:
np
[7.4.10] Fpn= = 4,46,
!n
ossia Fpn(dB) = 20 log Fpn= 13 dB.
7.4.2 Rumore gaussiano stazionario non in banda base
Si abbia un rumore gaussiano stazionario, N(t), con densità spettrale di potenza, N(f), diversa da
zero solo per 0<fm<|f|<fM (spesso fm è apprezzabilmente maggiore di zero e il processo è del tipo
in banda traslata). Scelta arbitrariamente una frequenza fc entro la banda del processo, si può
adottare per la generica realizzazione la rappresentazione (vedi [7.2.7]):
[7.4.11] n(t) = nc(t)cos(%ct) - ns(t)sin(%ct) .
A partire dalla [7.4.11], si possono ottenere (vedi [7.2.27]) le seguenti espressioni, identiche, delle
funzioni di autocorrelazione dei processi in banda base, Nc(t) e Ns(t), che hanno le realizzazioni
nc(t) e ns(t):
[7.4.12] Rncc(-) = Rnss(-) = Rnn(-)cos(%ct)+ R n̂n (-) sin(%ct) ,
dove Rnn(-) e Rn̂n (-) sono rispettivamente la funzione di autocorrelazione del rumore e la funzione
di intercorrelazione tra il processo che si ottiene dalla trasformazione di Hilbert del rumore e il
rumore stesso. I processi Nc(t) e Ns(t) risultano gaussiani stazionari; ponendo -=0 nella [7.4.12] si
ricavano poi le seguenti relazioni tra le potenze:
[7.4.13] ! 2nc = ! 2ns = ! 2n ;
si noti che, al contrario di quanto l’intuito potrebbe suggerire, la potenza del rumore non in banda
base non si divide sui processi in banda base, ma si ritrova identica su ciascuno di essi. La
giustificazione deriva, al solito, dal particolare legame tra il segnale e il suo inviluppo complesso
rappresentativo.
Le identiche densità spettrali di potenza dei processi di rumore in banda base hanno la forma (vedi
[7.2.30]):
[7.4.14] Nc(f)=Ns(f)=N+(f+fc)+N-(f-fc).
Si noti che l’andamento di tali funzioni dipende non solo da quello di N(f), ma anche dalla scelta
di fc, come mostrato in Figura 7.3; tra l’altro, se fc coincide con uno degli estremi della banda i
175
rumori in banda base hanno la massima estensione, da –B a B (vedi Figura 7.3.b,c), mentre la
estensione è minima, da -B/2 a B/2, nel caso in cui fc sia scelto al centro della banda (vedi Figura
7.3.d).
N (f)
a)
-f -f 0 f f f
M m m M
N (f)= N (f)
c s
b)
-B 0 B f =f f
c m
N (f)= N (f)
c s
c)
0 f =f f
c M
N (f)= N (f)
c s
d)
-B/2 0 B/2 f =f f
c a
Figura 7.3 - Densità spettrale di potenza di un rumore gaussiano non in banda base (a) e dei
relativi processi in banda base, con fc agli estremi di banda (b,c) e al centro (d).
Un caso particolare, ma assai frequente, è quello in cui il rumore gaussiano è bianco, con densità
spettrale di potenza costante in banda, N0, e nulla altrove. Se si sceglie fc al centro della banda, la
[7.4.14] diviene:
[7.4.15] Nc(f) = Ns(f) = 2N0rect(f/B) = N0rect(f/B) ;
la relazione [7.4.13] tra le potenze dei processi assume inoltre la forma particolare:
[7.4.16] ! 2nc = ! 2ns = 2 N0B = N0B .
Poiché risulta soddisfatta la condizione di simmetria del semispettro N+(f) rispetto a fc (vedi
[7.2.34]), i due rumori in banda base risultano incoerenti e, in quanto gaussiani, statisticamente
indipendenti.
7.4.3 Rumore gaussiano bianco nello spazio dei segnali
Si consideri un processo stazionario fisico, X(t), le cui realizzazioni reali, x(t), possano essere
ritenute simultaneamente limitate in durata T e in banda B.
Adottando per la generica realizzazione del processo una rappresentazione tramite una base, con
buona approssimazione si ha lo sviluppo:
N
[7.4.17] x(t) = " x k !k (t) ,
k=1
tramite il quale le realizzazioni del processo continuo X(t) vengono poste in corrispondenza con
quelle del processo stazionario discreto, X(n), costituito da una sequenza numerabile di N'2BT
v.a. Xk. Nello spazio dei segnali individuato dall'insieme dei versori {66 k} associati all’insieme {6
k(t)} di N funzioni ortonormali, ciascuna realizzazione x(t) del processo è dunque rappresentabile
con un vettore x avente per coordinate i particolari valori x1, x2, .., xN estratti per le variabili Xk.
Inoltre, risulta possibile una scelta delle 6k(t) che conduce a uno sviluppo del tipo [7.4.17] in cui le
v.a. sono incorrelate (sviluppo di Karhunen-Loeve).
176
Nel caso della realizzazione di un rumore gaussiano bianco, N(t), a valor medio nullo e con
potenza per unità di banda, N0, pari al doppio della densità spettrale di potenza, N0, uniforme su
tutto l’asse delle frequenze, limitatamente all’intervallo temporale di definizione della base {6k(t)}
vale la:
N
[7.4.18] n(t) = lim " n k !k (t) ,
N!" k=1
in cui, qualsiasi sia la base {6k(t)}, le v.a. Nk, che hanno determinazioni nk, hanno tutte (vedi
paragrafo 7.4.3.1) valor medio nullo:
[7.4.19] E{nk} = 0 ,
e identica varianza:
1
[7.4.20] E{ n 2k } = N0 = N0 .
2
Le v.a. considerate, inoltre, sono tutte gaussiane e tra loro statisticamente indipendenti.
Nello spazio dei segnali con dimensione N tendente all’infinito, una realizzazione del rumore
considerato è dunque rappresentabile con un vettore, n, avente componenti nk ciascuna con
funzione di densità di probabilità del primo ordine (vedi [7.4.1]):
n 2k
1 -
[7.4.21] p(nk) = e N0 .
!N 0
Grazie alla indipendenza statistica, il vettore risultante n ha dunque la funzione di densità di
probabilità di ordine N tendente all’infinito:
2
n
N -
[7.4.22] pN &(n) =
9 ! p(n k ) = (!N0)-N/2 e N0
.
k=1
Servendosi della linearità della [7.4.23] e tenendo conto che il valor medio statistico del rumore è
nullo, ossia si ha E{n(t)}=0, si ottiene:
T/2
[7.4.24] E{nk} = " E {n(t)} ! (t)dt =0.
k
-T/2
Le componenti del rumore sono dunque variabili aleatorie tutte a valor medio nullo.
Sempre dalla [7.4.23] si ricava:
T/2 T/2 T/2 T/2
[7.4.25] E{nknh}= " " E {n(x)n(y)} !k (x)!h (y)dx dy = " "R nn (y-x)!k (x)!h (y)dx dy .
-T/2 -T/2 -T/2 -T/2
Nel caso in cui il rumore sia bianco, con densità spettrale costante N0 in una banda estesa
dall’origine fino alla frequenza massima fM, ossia valga la (vedi [7.3.24]):
[7.4.26] N(f) = N0 rect(f/2fM),
antitrasformando si ricava la funzione di autocorrelazione del rumore:
177
[7.4.27] Rnn0(-) = N02fMsinc(2fM-);
facendo tendere fM all’infinito si ottiene allora (vedi [7.4.4]):
1
[7.4.28] Rnn0(-) = N0+(-) = N0+(-), fM 9 ) .
2
Introducendo la [7.4.28] nella [7.4.25] si ha dunque:
T/2 T/2 T/2 "$ N =N /2 , h=k
!(y-x)"k (x)"h (y)dx dy = N0 (t)! (t)dt
0 0
[7.4.29] E{nknh} = N0 # # " k h
! = #
0 , h!k
.
-T/2 -T/2 -T/2 $%
Le componenti del rumore bianco con banda tendente all'infinito sono dunque variabili aleatorie
tutte incoerenti e, in quanto gaussiane, statisticamente indipendenti; esse hanno inoltre tutte
identica varianza:
1
[7.4.30] E{ n 2k } = N0 = N0 .
2
7.5 PROCESSI DI MARKOV
I processi di Markov sono caratterizzati dal fatto che ciascuna variabile aleatoria estratta all’istante
tn dipende soltanto dalla variabile estratta all’istante tn-1.
Essi possono essere caratterizzati sia da un insieme di stati continui che discreti. In tale ultimo
caso si denominano anche catene di Markov. In questo caso se anche la variabile temporale
appartiene ad un insieme discreto la dipendenza si estende sempre e soltanto ad una unità di tempo
anteriore.
Analiticamente le enunciate proprietà si esprimono nel modo seguente:
[7.5.1] p[x(tn+1)=xn+1|x(tn)=xn, x(tn-1)=xn-1, …, x(t1)=x1] = p[x(tn+1)=xn+1|x(tn)=xn]
dove t1<t2< … <tn<tn+1.
Casi particolari di processi di Markov sono il processo di nascita e morte, la passeggiata casuale, il
processo di rinnovo.
Prima di passare alla trattazione dei processi di Markov distinguendo tra il caso a tempo discreto
ed il caso a tempo continuo vengono enunciate alcune proprietà di carattere generale.
7.5.1 Proprietà dei processi di Markov
Proprietà 1
Applicando alla [7.5.1] (276) la legge della catena
[7.5.2] p(x1, …, xn)=p(xn|xn-1, …, x1) ''' p(x2|x1)p(x1)
si ottiene:
[7.5.3] p(x1, …, xn)=p(xn|xn-1)p(xn-1|xn-2) ''' p(x2|x1)p(x1)
Se viceversa la [7.5.3] (278) è vera per ogni n allora il processo xn è Markoviano in quanto (vedi
[7.5.2] (277))
p ( x1,..., x n!1, x n )
[7.5.4] p ( x n x n!1,..., x1 ) = = p ( x n x n!1 )
p ( x1,..., x n!1 )
Proprietà 2
Dalla proprietà 1 segue che
[7.5.5] E{xn|xn-1, …, x1}= E{xn|xn-1}
Proprietà 3
Un processo di Markov rimane tale se si opera un ribaltamento dell’asse dei tempi
178
[7.5.6] p(xn|xn+1, …, xn+k)= p(xn|xn+1)
Dimostrazione:
La parte sinistra della [7.5.6] (281) è uguale a:
p ( x n , x n+1,..., x n+k ) p ( x n+1 x n )
[7.5.7] = p (xn )
p ( x n+1,..., x n+k ) p ( x n+1 )
e dal momento che
[7.5.8] p(xn+1|xn)p(xn)= p(xn,xn+1)= p(xn|x n+1) p(xn+1)
la [7.5.6] (281) risulta verificata.
7.5.2 Processi di Markov a tempo discreto
Una sequenza di variabili aleatorie x1, x2, …, x n costituisce una catena di Markov tempo discreto
se per ogni n (n=1, 2, …) ed ogni possibile valore che le variabili aleatorie possono assumere
(i1<i2<…<in) si verifica:
[7.5.9] p[xn=j |xn-1=in-1, …, x1=i1] = p[xn=j | xn-1=in-1]
dove la p['] va intesa come probabilità di transizione.
Quindi, coerentemente alla definizione di questa classe di processi, la storia dell’evoluzione è
completamente contenuta nello stato attuale. Ovviamente per ricostruire la successione degli stati è
necessario fornire la probabilità iniziale. Pertanto data la probabilità iniziale e le probabilità di
transizione è possibile stabilire univocamente la probabilità di trovarsi nei vari stati nell’istante n.
Se la probabilità di transizione non dipende da n si dice che la catena di Markov è omogenea
ovvero:
[7.5.10] pij = p[xn=j | xn-1=i].
In tal modo si può definire la probabilità di transizione a m passi
[7.5.11] p(ij ) =ˆ p !"x n+m = j x n = i#$ .
m
Si noti che in generale una catena di Markov omogenea non è stazionaria. Comunque in molti casi
tende ad essere stazionaria per n9&.
La [7.5.12] (287) rivela semplicemente che per passare dallo stato i allo stato j in m passi
dobbiamo passare dallo stato i allo stato generico k in m-1 passi e successivamente dallo stato k
allo stato j in un passo. La probabilità risultante è il prodotto delle due probabilità in quanto questi
ultimi due eventi sono indipendenti. Sommando le probabilità su tutti i possibili k si ottiene la p(ij )
m
.
Una catena di Markov nella quale ogni stato può essere raggiunto da ogni altro stato è detta
irriducile. In termini di probabilità di transizione questo si esprime nell’esistenza di un intero m0
tale che p(ij 0 ) > 0 .
m
Sia A l’insieme di tutti gli stati della catena di Markov. Un sottoinsieme di stati A1 è detto chiuso
se non è possibile alcuna transizione tra uno qualsiasi degli stati di A1 verso qualsiasi degli stati di
A1c (con A1c complemento di A1). Se A1 è composto da un solo stato questo è denominato stato
assorbente (che corrisponde a pii=1).
Se A è chiuso e non contiene alcun sottoinsieme chiuso allora otteniamo una catena di Markov
irriducibile. In caso contrario si dice riducibile.
Consideriamo la probabilità che si ritorni una volta nello stato j dopo n passi:
179
[7.5.13] p j (n)
=ˆ p [ ritorno a j in n passi]
n=1
Se pj = 1 lo stato viene chiamato ricorrente, altrimenti se pj < 1 viene chiamato transitorio. Inoltre
se è possibile ritornare allo stato j soltanto ai passi D, 2 D, 3 D, … lo stato si dice periodico con
periodo D. Se D=1 lo stato è aperiodico.
Considerando gli stati per i quali pj=1 si può definire il tempo medio di ricorrenza:
!
[7.5.15] M j =ˆ " np(j )
n
n=1
Se Mj=& lo stato j è detto a ricorrenza nulla, se Mj<& è detto a ricorrenza non nulla.
Definiamo la probabilità di trovare il sistema nello stato j al passo n-esimo:
[7.5.16] !(i ) =ˆ p [ x n = j]
n
[7.5.19] ! j =ˆ " ! i p ij
i
Esempio
Consideriamo il diagramma a stati finiti mostrato in Figura 7.4 come rappresentazione di una
catena di Markov.
3/4 1
0
1/4
1/4
1/4 3/4
1/4
1/2
!0=0!0+0.25!1+0.25!2
[7.5.24] !1=0.75!0+0!1+0.25!2
!2=0.25!0+0.75!1+0.5!2
Siccome la prima delle [7.5.24] (299) è linearmente dipendente dalle altre due è necessario
introdurre la [7.5.18] (293) che in questo caso è
[7.5.25] !0+!1+!2 = 1
Risolvendo il sistema
!0=0.2
[7.5.26] !1=7/25=0.28
!2=13/25=0.52
Analogamente
e quindi
!= !P
Ritornando all’esempio ipotizziamo che il sistema sia inizialmente nello stato 0 con probabilità 1
ovvero
!(0) = [1, 0, 0]
!(0) = [0, 1, 0]
!(0) = [0, 0, 1]
che fornisce la probabilità che il sistema sia nello stato j al passo n essendo passato dallo stato i al
passo m"n. Si può affermare che in istanti intermedi q il sistema sia passato da stati intermedi k.
[7.5.32] p ij ( m, n ) = % P !"x n = j, x q = k x m = i#$
k
182
La (307) può essere riscritta come:
[7.5.33] p ij ( m, n ) = % P !"x q = k x m = i#$ P !"x n = j x m = i, x q = k #$
k
nota come equazione di Chapman-Kolmogorov per una catena di Markov tempo discreto.
7.5.3 Processi di Markov a tempo continuo
Le catene di Markov a tempo continuo sono caratterizzate dall’avere gli istanti di tempo in cui il
sistema può cambiare stato appartenenti ad un insieme continuo.
Per ogni intero n e per ogni sequenza t1, t2, …, tn+1 tale che t1< t2< …< tn+1
[7.5.36] p[x(tn+1)=j |x(t1)=i1, …, x(tn)=in] = p[x(tn+1)=j | x(tn)=in]
La probabilità di transizione in funzione del tempo si può definire come segue:
[7.5.37] p ij (s, t ) =ˆ P !"X ( t ) = j X (s) = i#$
con X(t) stato al tempo t>s. Se consideriamo tre istanti successivi s"u"t, nel passare dallo stato i al
tempo s allo stato j al tempo t il processo dovrà passare da uno stato k intermedio al tempo u. Si
giunge così alla equazione di Chapman-Kolmogorov per una catena di Markov tempo continuo:
[7.5.38] p ij (s, t ) = ! p ik (s, u ) p kj ( u, t )
k
183
8 MEZZI TRASMISSIVI
184
185
L’elemento fondamentale della trasmissione è il mezzo trasmissivo, nel cui ambito il segnale
elettromagnetico si propaga per la distanza r del collegamento con una velocità di norma non
molto diversa da quella caratteristica di un’onda e.m. (e.m.=elettromagnetica) nel vuoto (c=3'108
m/s); tale velocità finita, anche se molto grande, è la principale responsabile del ritardo di
ricezione t0(r), crescente con r. I mezzi trasmissivi si distinguono in due categorie: le linee di
trasmissione, sistemi materiali a distribuzione uniforme secondo una coordinata longitudinale, che
nel guidare la propagazione del segnale fino alla sua destinazione coprono materialmente la
distanza r del collegamento e perciò sono anche denominati portanti fisici; le tratte radio, nelle
quali il segnale irradiato da una antenna emittente si propaga liberamente sotto forma di onde e.m.
fino ad essere captato da una antenna ricevente a distanza r, perciò anche denominati portanti
radio. I mezzi portanti fisici hanno struttura costituita da due conduttori isolati con dielettrico
oppure formata da soli dielettrici: si tratta, rispettivamente, delle coppie metalliche e delle fibre
ottiche.
Di norma la natura dei mezzi trasmissivi è passiva e il loro comportamento è lineare; nello schema
equivalente ideale, in cui si ammette anche la caratteristica di invarianza nel tempo, oltre al
menzionato ritardo è significativa la attenuazione del mezzo portante, funzione crescente della
distanza r:
Wxx
[8.1.1] A0(r) = ,
Wyy
dove sono indicate con Wxx e Wyy le potenze dei segnali x(t) e y(t), rispettivamente alla entrata e
alla uscita del mezzo stesso. Se i materiali dei portanti fisici fossero ideali, grazie alla uniformità
della linea la configurazione dell’onda e.m. guidata rimarrebbe invariata in ogni sezione, a meno
del ritardo di propagazione; l’affievolimento del segnale che invece caratterizza i mezzi reali è
allora dovuto alle perdite ohmiche nei materiali. Nel generico mezzo portante radio, l’onda e.m.
irradiata distribuisce invece la sua potenza e.m. su una superficie sferica di area sempre crescente
con la distanza, in modo che l’affievolimento del campo e.m. in un punto lontano può essere in
prima approssimazione valutato tenendo conto del solo effetto menzionato, connaturato al
fenomeno della propagazione libera, ossia trascurando le caratteristiche fisiche dello spazio reale
interessato.
Il mezzo trasmissivo è molto importante nei riguardi del servizio offerto dall’intero collegamento;
talvolta la scelta del tipo è obbligata, come ad esempio nelle trasmissioni con terminali mobili,
sempre effettuate via radio, ma nella maggiore parte dei casi deriva da considerazioni economiche
in un contesto non ideale.
8.1.1 Coppie metalliche
Quando le distanze da coprire tra due terminali fissi siano modeste, si ricorre spesso all’impiego di
un mezzo portante fisico costituito da una coppia di conduttori metallici, isolati tra loro da
materiale dielettrico, posati lungo il tracciato del percorso stabilito tra i terminali. Di norma la
sezione trasversale è invariata, sia nella geometria che nei materiali: un tale tipo di struttura è
denominata linea di trasmissione uniforme a coppia metallica o più semplicemente coppia
metallica. La propagazione del segnale avviene nel dielettrico, con onda e.m. piana, avente sia
campo elettrico che campo magnetico sempre giacenti sul piano trasversale, ossia con modo di
tipo TEM (TEM=Trasverso Elettrico e Magnetico); il metallo assolve dunque la funzione di guida
lungo il tracciato del mezzo portante.
I tipi più comuni di linee metalliche sono la coppia simmetrica (vedi Figura 8.1a), comunemente
denominata anche linea bifilare o doppino, e la coppia coassiale (vedi Figura 8.1b). Nel primo
caso si ha un esempio di struttura aperta, con un campo e.m. che si estende in teoria in tutto lo
spazio; il secondo caso appartiene invece alla categoria delle strutture chiuse, in cui il campo e.m.
186
si assume praticamente confinato all’interno di un conduttore cavo, con effetto di schermo anche
nei riguardi di eventuali altri campi e.m. generati all’esterno della coppia da fenomeni naturali o
artificiali non correlati alla trasmissione desiderata. Mirando ai benefici derivanti dalla
schermatura, si impiega anche il doppino schermato (vedi Figura 8.1c), altro esempio di struttura
chiusa.
Figura 8.1: Coppie metalliche, di tipo simmetrico aperto (a), coassiale (b) e simmetrico chiuso (c).
I dati strutturali della coppia sono quelli dei materiali, ossia la costante dielettrica J (o quella
relativa Jr=J/J0) e la permeabilità magnetica µ=µ0 dell’isolante(1) e la conducibilità I e la
permeabilità magnetica µm del conduttore, e quelli relativi alla geometria della sezione: il diametro
comune d e l’interasse D dei fili nella coppia simmetrica oppure il diametro esterno d del
conduttore interno, il diametro interno D del conduttore esterno e lo spessore s di quest’ultimo
nella coppia coassiale.
Per garantire la uniformità, ossia la invarianza della sezione di una coppia bifilare, i conduttori
sono a volte immersi in un materiale plastico isolante (ad esempio polietilene, con Jr=2,26). Più
comunemente, ciascun filo metallico è circondato da una sua guaina in plastica di spessore
costante e l’uniformità dell’interasse degli elementi della coppia è ottenuta intrecciandoli e
contenendoli in una ulteriore guaina; l’avvolgimento a spirale dei fili ha anche l’importante
funzione di protezione nei riguardi dei disturbi, ottenuta per compensazione degli effetti indotti sui
due conduttori che ad ogni semipasso invertono la loro posizione relativa ai campi e.m.
disturbanti. Un valore tipico del diametro dei fili è d=0,6 mm.
Il centraggio del conduttore interno di una coppia coassiale può essere ottenuto come mostrato in
Figura 8.2, con dischetti di dielettrico (a), con un materiale plastico isolante avvolto a spirale (b)
oppure pieno in modo da colmare interamente lo spazio tra i due conduttori (c); ammesso che il
passo dei dischetti o della spirale sia sufficientemente breve, si può assumere che il dielettrico sia
omogeneo, con costante dielettrica di valore intermedio tra quello dell’aria e del materiale isolante:
si passa così da un valore di Jr attorno a 1,1 al valore di 2,26, nel caso del polietilene pieno.
Figura 8.2: Sezione longitudinale di coppia coassiale con dischetti (a) e con spirale (b).
Alle soluzioni strutturali considerate in Figura 8.2 corrispondono, nell’ordine, comportamenti
trasmissivi di minore qualità, ma in contropartita si acquisisce maggiore flessibilità meccanica
della struttura, soprattutto se nel caso di dielettrico pieno il conduttore esterno viene realizzato in
forma di calza di rame (fili di assai piccolo diametro intessuti secondo spirali controavvolgentesi).
Nel caso di isolamento a dischetti si hanno i valori tipici d=2,6 mm e D=9,5 mm. Nelle strutture
coassiali posate in opera, spesso affiancando più coppie, si usano adeguate guaine protettive
dell’insieme, costituendo un cavo coassiale.
Attualmente le coppie metalliche vengono impiegate quasi esclusivamente su distanze brevi,
tipicamente inferiori a 1 km.
Nella trasmissione tra due terminali fissi a grande distanza, ma per certi segnali anche a breve
distanza, è assai frequente l’impiego di un mezzo portante fisico basato su una struttura
interamente isolante, in modo da abolire le perdite dovute a materiali conduttori. Nella soluzione
tipica mostrata in Figura 8.3, a salto di indice (“step index”), la struttura è costituita da due
materiali dielettrici separati da una unica superficie cilindrica, a sezione circolare di raggio a, che
delimita il nucleo interno (“core”) dal mantello che lo circonda (“cladding”). Il primo materiale ha
costante dielettrica relativa Jr1=J1/J0 e indice di rifrazione n1= !r1 , mentre il secondo ha Jr2=J2/J0
e n2= !r 2 di valore assai poco minore di n1; entrambi, usualmente vetro di silice con opportuni
diversi droganti, hanno indice di rifrazione di valore attorno a 1,4 e permeabilità magnetica
µ1=µ2=µ0, uguale a quella del vuoto.
Figura 8.3: Fibra ottica con sezione a simmetria circolare (a), e profilo teorico dell’indice di
rifrazione n lungo il raggio (b).
La struttura schematizzata in Figura 8.3, con sezione invariante in senso longitudinale ed
estensione trasversale finita del mantello, è usualmente denominata fibra ottica, date le sue
piccolissime dimensioni trasversali (di norma, 2d=125 µm) e l’uso di frequenze prossime a quelle
dello spettro visibile. La fibra ottica è una struttura aperta, con campo e.m. che si estende in teoria
in tutto lo spazio dielettrico, non omogeneo; tuttavia nelle condizioni di impiego il campo e.m.
guidato è in pratica prevalentemente concentrato nella regione del nucleo, in modo che nel
mantello i valori del campo risultano trascurabili già a distanze dall’asse minori del raggio esterno
d. Nella pratica la struttura è dunque efficientemente schermata.
Una fibra ottica può consentire la propagazione di una pluralità di diverse configurazioni di onde
e.m., o modi guidati, che essendo tutti di tipo non TEM hanno però una propria frequenza di
taglio, al di sotto della quale la propagazione del modo non si può sostenere. Nella maggiore parte
delle applicazioni, e sempre per distanze oltre il chilometro, allo scopo di ottenere migliori
prestazioni si opera con il solo modo fondamentale, che ha la minore frequenza di taglio; scelta la
frequenza di eccitazione o la sua corrispondente lunghezza d’onda K=c / f, si ottiene la desiderata
fibra monomodo con la riduzione al valore opportuno del raggio a del nucleo: tipicamente si ha
2a<10 µm adoperando lunghezze d’onda attorno a 1 µm (1,3 o 1,55 µm). A parità di frequenza di
impiego, una struttura che opera in regime plurimodale, ossia una fibra multimodo, ha un
maggiore diametro del nucleo, attorno 2a<60 µm, riducendo in contropartita delle sue peggiori
prestazioni trasmissive i problemi di accoppiamento tra fibra e terminali e tra spezzoni di fibra.
Nell’ambito del processo di produzione la fibra ottica viene a volta ricoperta con un rivestimento
dielettrico, opaco alle frequenze impiegate, che oltre ad assicurare una ancora più completa
schermatura ha il compito principale di consentire una migliore maneggevolezza della struttura,
altrimenti molto fragile; il diametro esterno risulta così raddoppiato. Nelle strutture posate in opera
con affasciamento di più fibre, si usano adeguate guaine protettive dell’insieme, costituendo un
cavo ottico.
Il notevole impiego delle fibre ottiche nella trasmissione è dovuto alla possibilità di ottenere un
valore molto piccolo dell’affievolimento del segnale per unità di lunghezza percorsa nel mezzo,
grazie all’assenza di materiali conduttori e alle basse perdite che il vetro di silice mostra attorno
alla lunghezza d’onda di 1,5 µm, ossia per frequenze estremamente elevate (oltre 1014 Hz).
188
8.1.3 Tratte radio
Nei casi di libera mobilità di almeno uno dei terminali o della sua lontana collocazione nello
spazio circostante la Terra, la trasmissione può essere attuata unicamente impiegando la
propagazione e.m. libera. Tale modalità è anche molto conveniente nella trasmissione con
diffusione della informazione, ossia quando si vuole trasferire lo stesso segnale da un terminale
generatore a una grande molteplicità di terminali utilizzatori fissi; può anche essere usata con
profitto per la trasmissione tra due punti fissi in alternativa ai mezzi fisici, tipicamente in
particolari condizioni orografiche o per il vantaggio offerto dalla tempestività della installazione.
La struttura basilare di una tratta radio comprende una coppia di antenne e lo spazio libero
interposto (vedi Figura 8.4), supposto in prima approssimazione ideale. Le antenne sono sistemi
materiali con una porta accessibile ai segnali classici: eccitando con un segnale entrante x(t)
un’antenna emittente, essa è capace di irradiare un campo e.m. sferico che in ogni punto dello
spazio libero ha intensità istantanea di campo elettrico e magnetico entrambe proporzionali al
segnale, a meno di un ritardo legato alla distanza; un’antenna ricevente investita da un tale campo
e.m. è capace di captare la radiazione, fornendo un segnale uscente y(t) proporzionale alle
menzionate intensità istantanee e, quindi, fedele al segnale x(t) di eccitazione della tratta.
D d
d D
a) b) c)
Figura 8.5: Coppie metalliche, di tipo simmetrico aperto (a), coassiale (b) e simmetrico chiuso (c)
I dati strutturali della coppia sono quelli dei materiali, ossia la costante dielettrica J (o quella
relativa Jr!J /J0) e la permeabilità magnetica µ = µ0 dell’isolante (1) e la conducibilità I e la
permeabilità magnetica µm del conduttore, e quelli relativi alla geometria della sezione: il diametro
comune d e l’interasse D dei fili nella coppia simmetrica oppure il diametro esterno d del
conduttore interno, il diametro interno D del conduttore esterno e lo spessore s di quest’ultimo
nella coppia coassiale.
Per garantire la uniformità, ossia la invarianza della sezione di una coppia bifilare, i conduttori
sono a volte immersi in un materiale plastico isolante (ad esempio polietilene, con Jr = 2,26). Più
comunemente, sono circondati entrambi da una guaina a spessore costante di tale materiale e
quindi intrecciati; il loro avvolgimento a spirale ha anche l’importante funzione di protezione nei
riguardi dei disturbi, ottenuta per compensazione degli effetti indotti sui due conduttori che ad
ogni semipasso invertono la loro posizione relativa ai campi e.m. disturbanti.
Il centraggio del conduttore interno di una coppia coassiale può essere ottenuto come mostrato in
Figura 8.6, con dischetti di dielettrico (a), con un materiale plastico isolante avvolto a spirale (b)
(1) I valori nel vuoto sono J0 = (36!)-1 10-9 [F/m] e µ0= 4! 10-7 [H/m].
190
oppure pieno in modo da colmare interamente lo spazio tra i due conduttori (c); ammesso che il
passo dei dischetti o della spirale sia sufficientemente breve, si può assumere che il dielettrico sia
omogeneo, con costante dielettrica di valore intermedio tra quello dell’aria e del materiale isolante:
si passa così dal un valore di Jr attorno a 1,1 al valore di 2,26, nel caso del polietilene pieno.
a) b) c)
Figura 8.6: Sezione longitudinale di coppia coassiale con dischetti (a) e con spirale (b).
Alle soluzioni considerate corrispondono, nell’ordine, comportamenti elettromagnetici di minore
qualità, ma in contropartita si acquisisce maggiore flessibilità meccanica della struttura, soprattutto
se nel caso di dielettrico pieno il conduttore esterno viene realizzato in forma di calza di rame (fili
di assai piccolo diametro intessuti secondo spirali controavvolgentesi).
Solo per brevi lunghezze (di norma minori di 10 m) e nel caso di trasmissione di segnali in banda
traslata ad altissima frequenza (di norma dell’ordine di grandezza di 1 GHz = 109 Hz), si fa uso di
guide d’onda metalliche, strutture chiuse con conduttore unico cavo, prevalentemente del tipo a
sezione rettangolare come mostrato in Figura 8.7a; altre strutture guidanti di tipo aperto
caratterizzate da costanti di attenuazione molto maggiori di quelle delle guide d’onda, come ad
esempio la microstriscia (vedi Figura 8.7b), trovano impiego per lunghezze assai più brevi (di
norma minori di10 cm). Per la scarsa o nulla rilevanza che tali strutture hanno nella funzione di
mezzo trasmissivo (ben diverso è il loro ruolo come elementi di connessione nell’ambito degli
impianti, degli apparati e addirittura dei circuiti integrati) nel seguito non verranno più prese in
considerazione.
a) b)
Figura 8.7: Guida d’onda metallica rettangolare (a) e microstriscia (b) .
Assunto che il tronco di linea sia adattato (Ac(f,))"0, ossia Zc(f)"R) e posta la sua funzione di
trasferimento sotto la forma generica di esponenziale complesso, Hc(f, L) " e - !(f ,L) , imponendo che
per ogni frequenza il comportamento di due tronchi in cascata di lunghezza z e L-z, con z positivo
minore di L, sia identico a quella dell’intero tronco, si ricava che nell’esponente si ha la
separazione delle variabili f e L:
[8.3.3] Hc(f, L) = e
-!c ( f )L
,
dove la grandezza complessa:
1
[8.3.4] Dc(f) = - ln[Hc(f, L)],
L
indipendente dalla lunghezza L, è la costante di propagazione della coppia.
L’attenuazione di inserzione del tronco di linea adattata risulta dalla costante di attenuazione della
coppia, 7c(f) ! 0{Dc(f)}, tramite la relazione:
[8.3.5] Ac(f, L) = |Hc(f, L)|-2 = e
2! c ( f )L
.
Nota la costante di fase della coppia, Cc( f ) ! 8{Dc(f)}, si ottengono poi il tempo di ritardo:
arg {H c ( f, L )} !c ( f )
[8.3.6] trc(f, L) ! - = L,
2!f 2"f
e il tempo di ritardo di gruppo:
1 d" 1 d!c ( f )
[8.3.7] tc(f, L) ! - arg {H c ( f, L )}$% = L.
2! df # 2! df
Si noti che i due ritardi sono entrambi proporzionali alla lunghezza L; inoltre essi coincidono se e
solo se la costante di fase è proporzionale alla frequenza; allora risultano indipendenti dalla
frequenza. Una struttura per cui non è soddisfatta tale condizione viene qualificata come un mezzo
trasmissivo dispersivo.
A/m(), orientato come Js del corrispondente caso ideale e con intensità J che diminuisce con legge
I
esponenziale reale allontanandosi dalla superficie, verso l’interno dei conduttori, come mostrato
nell’esempio in Figura 8.8.
J" (0)
dielettrico
!!0
m
! C
conduttore
µ ,"
m
La tabella mostra che alle basse frequenze, ad esempio al di sotto di 10 kHz, la penetrazione della
corrente nei conduttori è tale che, per le usuali dimensioni nelle applicazioni di trasmissione
(ingombri delle sezioni dei conduttori di norma inferiori al millimetro) si può ammettere la ipotesi
di distribuzione uniforme della densità di corrente volumetrica sulla sezione, anche per materiali
ad alta conducibilità come il rame. Tale ipotesi non è invece affatto valida alle alte frequenze: +m
si riduce addirittura a 1 µm a 4,4 GHz! Comunque, già a 60 kHz è sufficiente penetrare di appena
0,27 mm all’interno di un conduttore di rame per trovare una densità di corrente pari a 0,37 volte
quella in superficie (la riduzione è a un decimo per una penetrazione di 0,62 mm).
Alle basse frequenze, per cui di norma è trascurabile l’effetto pellicolare, la resistenza assiale
unitaria di un singolo conduttore reale con sezione di area A e contorno di perimetro C risulta dalla
nota relazione, ricavabile per f 9 0 (in corrente continua):
1
[8.3.14] rb1 = .
!A
194
Per frequenze sufficientemente alte (per cui è valida la C+m << A), associando all’effetto pellicolare
una sezione ridotta (vedi appendice A5.2) avente un’area equivalente in continua data dal prodotto
del perimetro C per lo spessore +m, si ha invece:
1 1 !µ m
[8.3.15] ra1 (f) = = f ,
!C"m ( f ) C "
In contropartita dell’incremento della resistenza assiale unitaria, sempre alle alte frequenze,
l’effetto pellicolare consente una efficace schermatura delle strutture chiuse, giacché anche piccoli
spessori del conduttore esterno possono bastare a ritenerle impenetrabili da parte di eventuali
campi e.m. generati al di fuori della linea. In particolare la struttura della coppia coassiale, così
come quella del doppino schermato, è proprio motivata dalla possibilità di racchiudere il segnale
utile in un volume che risulta ben protetto dalle interferenze, sempre che lo spessore del metallo
sia sufficientemente maggiore di +m. Si noti in proposito dalla [8.3.13] che la schermatura alle
basse frequenze, altrimenti poco efficace, può essere migliorata ricorrendo a materiali conduttori
ad alta permeabilità magnetica avvolti in spessore sottile sul conduttore di rame esterno.
8.3.3 Comportamento delle coppie metalliche
8.3.3.1 Condizioni di Heaviside
Come è stato evidenziato in precedenza, dal punto di vista della utilizzazione sono rilevanti la
impedenza caratteristica, Zc(f), e la costante di propagazione, Dc(f), grandezze in generale
complesse e dipendenti dalla frequenza, che vengono anche denominate parametri secondari della
coppia. Volendo perseguire l’obiettivo di una trasmissione perfetta occorre dunque mirare ad
ottenere che nella banda utile del segnale la linea reale abbia:
• impedenza caratteristica reale e costante, Zc(f) = R,
• costante di attenuazione indipendente dalla frequenza, 7c(f) = cost,
• costante di fase proporzionale alla frequenza, Cc(f) = 2!f/vc, con vc = cost.
Tra i parametri primari e quelli secondari valgono le note relazioni (vedi appendice A5.3):
r + j! l
[8.3.17] Zc(f) = ,
g + j! c
Al tendere a zero della frequenza, si può assumere r(f) < r(0) = rb >> %l, dove tenuto conto che i
due conduttori della coppia, di sezione A1 e A2, sono percorsi in serie dalle correnti volumetriche
si ha dalla [8.3.14]:
1 A1 + A 2
[8.3.25] rb = rb1 + r b2 = .
! A1A 2
Trascurando allora j%l rispetto a r nelle [8.3.23] e [8.3.24], si perviene alle seguenti espressioni del
modello asintotico a bassa frequenza:
rb rb 1
[8.3.26] Zb(f) ! = (1 - j ) ,
j! c 4! c f
[8.3.27] Db(f) ! j ! c rb = (1 + j ) ! f c rb ,
e quindi
[8.3.28] 7b( f ) = Cb(f) = ! c rb f.
Le [8.3.26] e [8.3.27] sono perciò ben lungi dal soddisfare le condizioni di trasmissione perfetta.
Se invece si fa tendere la frequenza verso l’infinito, ammesso che risulti r( f ) « %l si può trascurare
r rispetto a j%l nella [8.3.23] e assumere nella [8.3.24] l’approssimazione:
(1) Di norma si ottiene r/g>>l/c, stante i valori molto piccoli assunti da g; per soddisfare le [8.3.19] [5.2.19] si
ricorreva all’aumento di l ottenuto avvolgendo un filo ferromagnetico sui conduttori di rame (metodo Krarup) o
inserendo in serie delle bobine a distanza periodica molto minore della lunghezza d’onda (metodo Pupin).
196
r (f ) r (f )
[8.3.29] 1+ <1-j .
j! l 2! l
Si giunge allora alle seguenti espressioni del modello asintotico ad alta frequenza:
[8.3.30] Za ! l = R,
c
" r (f ) %
[8.3.31] Da (f) ! -! 2 l c $1-j ',
# 2! l &
e quindi
1 r (f )
[8.3.32] 7a(f) = , Ca(f) = 2!f l c .
2 R
Si noti che tanto la impedenza caratteristica Za, che la costante di fase Ca(f), assumono le
medesime espressioni che avrebbero nel rispetto delle condizioni di Heaviside, senz’altro
soddisfacenti le rispettive condizioni di trasmissione perfetta. Altrettanto non si può invece
affermare per la costante di attenuazione, 7a( f ). Tenuto conto che i due conduttori della coppia, di
sezione A1 e A2 e di perimetro C1 e C2, sono in serie, dalle [8.3.15] e [8.3.16] si ricava infatti:
1 !1 1 $
[8.3.33] r( f ) < ra(f) = ra1(f) + ra2(f) = # + & = rb kr f ,
!" m " C1 C2 %
dove rb è dato dalla [8.3.25] e
A1A 2 (C1 +C 2 )
[8.3.34] kr ! !µ m" ,
C1C2 ( A1 +A 2 )
è una costante dipendente dai materiali e dalla geometria della sezione; dalla prima delle [8.3.32]
si ha dunque:
1 rb
[8.3.35] 7a (f) < kr f ,
2 R
che mostra una dipendenza proporzionale con la radice della frequenza. Si noti che per le
frequenze, non troppo basse, per cui la [8.3.33] è validamente applicabile, l’effetto pellicolare
impone che si abbia ra(f) » rb; di conseguenza risulta:
[8.3.36] kr f » 1.
!b (f ) l 2 1 1 4! l
[8.3.38] = ! c rb f = ,
!a ( f ) c k r rb f kr rb
!b ( f ) 1 rb 1
[8.3.39] = ! c rb f = .
!a ( f ) 2! f l c 4! l f
Posto:
197
rb
[8.3.40] fx ! ,
4! l
dalle precedenti si ricavano le più semplici forme:
fx
[8.3.41] Zb( f ) = (1 - j ) Za,
f
1 1
[8.3.42] 7b(f) = 7a( f ),
kr fx
fx
[8.3.43] Cb(f) = Ca(f).
f
Dalla [8.3.43] si deduce che per f = fx si ha il comune valore Cb(fx) = Ca(fx) = X, per cui la
grandezza fx definita tramite la [8.3.40] risulta essere la frequenza di incrocio delle costanti di fase
dei due modelli. Nella Figura 8.9 sono tracciati con linea sottile gli andamenti di |Zc|/R, 7/X e C/X
forniti dai due modelli asintotici al variare della frequenza normalizzata f/fx; sono poi riportati a
tratto pieno gli andamenti delle medesime funzioni ricavabili dalle [8.3.17] e [8.3.18] con la r(f)
effettiva.
|Zc|/R !/ X , "/ X
10 10 100 100
b
1 1 10 10
" a
a
0,1 f / fx 1 f / fx
0,1 1 2 10 0,1 1 10
b
!
0,1 0,1
a) b)
Figura 8.9: Andamenti asintotici (a tratto sottile) ed effettivi (a tratto pieno) del modulo della
impedenza caratteristica (a) e delle costanti di attenuazione e di fase (b).
Si osserva in conclusione quanto segue:
• i modelli asintotici in bassa e alta frequenza sono attendibilmente impiegabili solo quando la
frequenza fx risulti nettamente esterna alla banda utile del segnale da trasmettere;
• il comportamento delle coppie metalliche alle alte frequenze è decisamente più prossimo a
quello perfetto, ma comporta attenuazioni maggiori;
• nel campo di validità dei modelli la costante di attenuazione appare comunque variabile con
legge proporzionale alla radice quadrata della frequenza e, grazie alla [8.3.40], si constata che
la crescita alle frequenze elevate avviene con un fattore costante minore di quello alle
frequenze basse;
• il comportamento a banda larga delle coppie metalliche, con la frequenza fx interna alla banda
utile del segnale da trasmettere, è marcatamente imperfetto.
8.3.4 Mezzi trasmissivi con coppie simmetriche
1 2 µ0 1
[8.3.46] ra(f) = !µ m" f =2 f ;
! !d !" d
ammesso che sia D»d/2, si hanno poi le seguenti espressioni approssimate degli altri due parametri
primari significativi (si rammenta che g può essere trascurato):
µo
[8.3.47] l < ln(2D/d),
!
!"0"r
[8.3.48] c < .
ln ( 2D/d )
Da tali ultime espressioni risulta l’impedenza caratteristica ad alta frequenza (vedi [8.3.30]):
l 1 µ0 1 " 2D % 120 " 2D %
[8.3.49] Za = < ln $ '= ln $ ' ;
c ! !0 !r # d & !r # d &
Scegliendo a titolo di esempio i valori 2D/d = 5 [ln(2D/d) = 1,61] e Jr=2,26 (polietilene), per alcuni
valori molto comuni del diametro d si calcolano i valori mostrati in Tabella 8.2 della resistenza
assiale unitaria in continua, della induttanza assiale unitaria, della capacità trasversale unitaria,
della impedenza caratteristica ad alta frequenza e della frequenza di incrocio.
Tabella 8.2: Parametri caratteristici di una coppia simmetrica
d [mm] 0,4 0,6 0,9
rb [2 / km] 275 122 44
l [mH / km] 0,64
c [nF / km] 40
Za [2] 128
fx [kHz] 33,8 15,0 6,7
I dati dell’ultima riga mostrano come nella più diffusa applicazione della coppia simmetrica, ossia
per il collegamento di terminali con trasmissione di segnali entro la banda 300 - 3.400 Hz, tipica
della telefonia analogica, sia ammissibile il modello asintotico a bassa frequenza, con parametri
primari indipendenti dalla frequenza.
A partire dalla [8.3.41] e con i valori sopra considerati si hanno allora gli andamenti del modulo
della impedenza caratteristica a bassa frequenza mostrati in Figura 8.10, sensibilmente variabili
nella banda telefonica attorno a 600 2. A partire dalla [8.3.28] si hanno poi gli andamenti della
costante di attenuazione e della costante di fase mostrati in Figura 8.11. Da essi si deduce che è
sufficiente contenere opportunamente la lunghezza del tratto di coppia entro alcune centinaia di
metri per poterlo considerare elettricamente corto, ossia con effetti praticamente trascurabili a
riguardo della risposta in fase.
199
Figura 8.10: Esempi di andamenti del modulo della impedenza caratteristica di coppie simmetriche
in bassa frequenza.
Figura 8.11: Esempi di andamenti costante di attenuazione e della costante di fase di coppie
simmetriche in bassa frequenza.
Nei casi in cui il tratto di coppia venga usato per distanze nettamente maggiori di quelle
considerate oppure per la trasmissione di segnali con estremo di banda ben superiore a quello della
banda telefonica, è necessario considerarne il comportamento senza assumere approssimazioni
asintotiche.
47 mm 71 mm
nastro di 800 coppie
alluminio
guaina
1 d 2 + 4 s D 1 4 (1+d /4sD)
2
[8.3.53] rb < = ;
! !d 2 s D ! !d 2
si hanno poi le seguenti espressioni approssimate degli altri due parametri primari significativi (si
rammenta che g può essere trascurato):
µo
[8.3.54] l < ln(D/d),
2!
2!"0"r
[8.3.55] c < .
ln ( D/d )
Da tali ultime espressioni risulta l’impedenza caratteristica ad alta frequenza (vedi [8.3.30]):
201
l 1 µ0 1 60
[8.3.56] Za = < ln(D / d) = ln(D/d);
c 2! !0 !r !r
si calcola infine dalla [8.3.40] la frequenza di incrocio:
rb 2 (1+d 2 /4sD)
[8.3.57] fx = < .
4 ! l !"µ 0 d 2 ln ( D/d )
dove ft è la frequenza di taglio del primo modo superiore nel cavo coassiale. Si noti che con i
valori sopra considerati si ottiene fD < 108 , ossia D < 10 mm per f=10 GHz.
8.3.5.2 Cavi a coppie coassiali
Nel passato la coppia coassiale è stata largamente impiegata come mezzo trasmissivo per
collegamenti a grande distanza, su lunghezze anche di alcune migliaia di chilometri, con segnali
del tipo in banda base sia analogici che numerici. Per la esigenza di disporre di almeno due coppie,
da dedicare ai due versi delle comunicazioni tipicamente bidirezionali come la telefonia, ma
soprattutto per aumentare la capacità di trasporto in direttrici ad alto traffico era prassi comune
raccogliere una pluralità di coppie coassiali all’interno di un struttura cava, appunto denominata
cavo a coppie coassiali o semplicemente cavo coassiale.
I cavi coassiali trovavano largo impiego per disporre di collegamenti di giunzione tra i nodi
principali delle reti nazionali, oltre che per realizzare collegamenti internazionali, continentali e
transoceanici. Nelle direttrici nazionali a maggiore traffico la multiplazione di spazio, che
inizialmente riuniva quattro coppie coassiali, si è spinta fino a raccogliere una ventina di esse. Un
esempio tipico di un cavo di tale tipo, per posa interrata, è quello mostrato in Figura 8.13,
contenente 16 coppie isolate a dischetti con dimensioni d=2,6 mm e D=9,5 mm. Si può notare
come la struttura sia adeguatamente protetta, oltre che da un rivestimento plastico, da una guaina
in alluminio corrugato che assicura buone proprietà meccaniche pur consentendo una certa
flessibilità. Negli interstizi tra le coppie coassiali e le nastrature erano spesso alloggiate anche
alcune coppie simmetriche cordate assieme due a due, denominate bicoppie.
guaina in plastica
guaina in alluminio
corrugato
nastrature
con valori pratici non superiori a 1%. Entrambi i materiali hanno permeabilità magnetica, µ1= µ
-7
2= µ0= 4! 10 [H/m], uguale a quella del vuoto.
z
2d r
d
a
01
n2 n1 n
2a
a) b)
Figura 8.14: Fibra ottica con sezione a simmetria circolare (a), e profilo teorico dell’indice di
rifrazionenlungo il raggio (b).
La struttura schematizzata in Figura 8.14, con sezione invariante in senso longitudinale ed
estensione trasversale finita del mantello, è usualmente denominata fibra ottica, date le sue
piccolissime dimensioni trasversali (di norma 2d = 125 µm) e l’uso di frequenze prossime a quelle
dello spettro visibile. Nell’ambito del processo di produzione la fibra ottica viene ricoperta con un
rivestimento dielettrico, opaco alle frequenze impiegate, che oltre ad assicurare una completa
schermatura alle frequenze interessate ha il compito di consentire una migliore maneggevolezza
del mezzo trasmissivo, altrimenti molto fragile; il diametro esterno risulta così raddoppiato.
La fibra ottica a salto di indice di rifrazione viene in effetti realizzata con un profile non
discontinuo, ma raccordato in modo continuo tra i valori n1 e n2 entro un breve intervallo centrato
sul raggio teorico a del nucleo. Il comportamento non è tuttavia molto discosto da quello
deducibile con il modello teorico a salto di indice. Gli approfondimenti sugli effetti di particolari
profili dell’indice di rifrazione, sempre del tipo con transizione quasi brusca tra nucleo e mantello
oppure con profilo graduale (in inglese “graded index”), esulano dallo scopo delle presenti note.
Nonostante che il percorso effettivo della fibra ottica sia in generale curvilineo, si assume in
seguito che la struttura sia cilindrica lungo il suo sviluppo assiale, in modo da potere adottare una
coordinata rettilinea z: i raggi di curvatura dell’asse sono infatti abbastanza grandi da potere
assumere che il comportamento e.m. della struttura sia equivalente a quello che si avrebbe qualora
essa fosse posata lungo una retta.
204
8.4.2 Grandezze caratteristiche delle fibre ottiche
8.4.2.1 Modi guidati
La fibra ottica è una struttura aperta, con campo e.m. che si estende in teoria in tutto lo spazio
dielettrico, non omogeneo. Tuttavia nelle condizioni di impiego il campo e.m. guidato è in pratica
prevalentemente concentrato nella regione del nucleo, di raggio a, in modo che nel mantello i
valori del campo risultano trascurabili a distanze dall’asse minori del raggio, d, della superficie
cilindrica che lo delimita; ciò rende lecita la ipotesi di mantello indefinitamente esteso in senso
trasversale.
Una fibra ottica ideale con mantello praticamente illimitato può consentire la propagazione di una
pluralità di modi guidati, a patto che la frequenza sia maggiore delle frequenze di taglio di questi
ultimi. A tale proposito è usuale fare riferimento alla frequenza normalizzata, definita per una
struttura nota dalla:
[8.4.2] V ! a % µ 0 (!1 -!2 ) = a k n12 - n 22 = a k n2 2! ,
che tiene conto della assai piccola quota Ppi di potenza perduta in un percorso di lunghezza unitaria
in ragione della potenza iniziale Pi dell’onda e.m.. La potenza perduta Ppi è dovuta a
trasformazione di energia e.m. guidata che si converte in calore, con corrispondente attenuazione
per assorbimento, oppure che si converte in energia e.m. di modi irradianti, con corrispondente
attenuazione per irradiazione. In entrambi i casi si hanno sia cause intrinseche, legate ai materiali
dielettrici, che estrinseche, connesse a impurità indesiderate nei materiali o a irregolarità nella
geometria della struttura (principalmente la non rettilineità dell’asse).
Ammettendo la medesima qualità nei due dielettrici di una fibra geometricamente perfetta, si
perviene a costanti di attenuazione che alla frequenza assegnata assumono sostanzialmente il
medesimo valore 7(f), indipendentemente dai modi, tranne che per un sensibile aumento
206
nell’intorno delle frequenze di taglio(1).
In una buona struttura reale, con mantello in vetro di silice
assai puro e nucleo costituito dal medesimo materiale, ma opportunamente drogato allo scopo di
ottenere la desiderata differenza dell’indice di rifrazione, la costante di attenuazione ha un
andamento come quello mostrato nell’esempio in Figura 8.15, che palesa la convenienza ad
applicare le guide dielettriche considerate impiegando segnali con lunghezze d’onda nell’intervallo
spettrale del vicino infrarosso (frequenze dell’ordine di 3 1014 Hz).
" [dB/km]
diffusione
4 di Rayleigh
assorbimenti
ione ossidrile
2
assorbimento assorbimento
ultravioletto infrarosso
0
0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 ! [µm]
Figura 8.15: Costante di attenuazione in una fibra di vetro di silice.
La Figura 8.15 tiene conto delle seguenti cause di attenuazione intrinseca:
• diffusione di Rayleigh con conversione in energia e.m. irradiante, secondo una legge
proporzionale a K-4, dovuta a fluttuazioni microscopiche dell’indice di rifrazione,
• assorbimento nell’infrarosso con conversione in calore, dovuto a vibrazioni molecolari,
• assorbimento nell’ultravioletto con conversione in calore, dovuto a transizioni elettroniche;
tiene inoltre conto dell’attenuazione estrinseca per assorbimento con conversione in calore, dovuto
a presenza di impurità (solo ione ossidrile OH-).
Nella fase iniziale delle applicazioni nelle telecomunicazioni le fibre ottiche erano prodotte con
maggiore attenuazione estrinseca per impurità indesiderate, con effetto più rilevante proprio in
corrispondenza dei valori più bassi della attenuazione intrinseca. Fu allora scelto di operare in
corrispondenza della lunghezza d’onda portante Kc< 0,85 µm, che si usa denominare 1a finestra,
anche per la disponibilità di sorgenti ottiche direttamente funzionanti attorno a tale valore. In
seguito ai decisi miglioramenti tecnologici dei processi produttivi le applicazioni si sono orientate
prima verso la lunghezza d’onda Kc < 1,3 µm e poi Kc< 1,55 µm, rispettivamente denominate 2a
finestra e 3a finestra: infatti in una fibra ottica attuale di buona qualità a tali valori corrispondono
rispettivamente un minimo relativo e il minimo assoluto di 7(K) (vedi Figura 8.15).
8.4.2.4 Modello approssimato con l’ottica geometrica
Limitatamente al caso di una fibra ottica a salto di indice di rifrazione con rapporto a / K
sufficientemente grande da permettere la propagazione di un numero molto elevato di modi
(V » Vti = 2,405), si può ricorrere a un modello approssimato ottenibile applicando l’ottica
geometrica.
(1)In prossimità del taglio il campo si estende in quota considerevole nel mantello e il diametro esterno finito di
quest’ultimo non rende più accettabile l’ipotesi di identica perdita intrinseca nei due dielettrici.
207
!t n 2 < n1
no = 1
!L !
!A
n1
i=0
Il difetto evidenziato nella [8.4.20] è valutabile qualitativamente tramite il valore massimo delle
differenze (vedi [8.4.9]):
n1 - n 2 ! d(Vbi ) d(Vb j ) $
[8.4.21] >tij(fc) ! (tic – tjc) L < L# - &,
c "# dV Vc dV V &%
c
tra i ritardi di gruppo degli m modi che si possono efficacemente propagare alla frequenza
normalizzata Vc, ottenibile dalla fc tramite la [8.4.2]. In base agli andamenti delle funzioni
d(Vbi)/dV mostrati in figura A5.2, il massimo valore teorico della [8.4.21] risulterebbe >tM = 2 (n1
- n2)L/c; se però si escludono quei pochi modi più veloci per cui si verifica d(Vbi)/dV < 1 per
209
Vti < Vc, dato che per essi l’attenuazione da valutare in prossimità del taglio risulta nettamente
maggiore di quella degli altri modi, il valore massimo della [8.4.21] si ottiene in pratica dalla
differenza tra il ritardo di gruppo del modo più lento di ordine elevato, per cui d(Vbi) /dV < 2, e
quello del modo più veloce che sia lontano dal taglio, ossia il ritardo del modo fondamentale per
cui si ha d(Vb0) /dV < 1; si assume dunque (vedi [8.4.1]):
n1 - n 2 n
[8.4.22] >tM < L(2 - 1) < 2 L> .
c c
Indicati con tr1L ! n1L/c e tr2L ! n2 L/c i tempi di ritardo intrinseci dei due materiali dielettrici sul
percorso di lunghezza L, risulta >tM < tr1L - tr2L , da cui non è però lecito dedurre che tr1L e tr2L siano
il massimo e minimo ritardo di gruppo nel tronco di fibra.
Il difetto evidenziato dalla [8.4.20] limita l’impiego delle fibre multimodo a salto di indice al caso
di tronchi di lunghezza L abbastanza breve (dell’ordine di 100 m) da soddisfare la condizione >
tMB«1, ossia:
c
[8.4.23] LB << ,
n2 !
in modo che per le frequenze in banda utile possano essere quasi trascurate le differenze tra i
ritardi di gruppo, ossia l’effetto della dispersione intermodale risulti contenuto in limiti accettabili.
Ricorrendo al modello approssimato con l’ottica geometrica e trascurando in modo analogo la
dispersione del materiale, si ricava per il generico raggio guidato con angolo di incidenza & > &L il
tempo di ritardo nel tronco di lunghezza L, coincidente per ipotesi con il ritardo di gruppo:
n1
[8.4.24] trL(&) = L;
c sin ( ! )
considerando il percorso più lungo (& = &L) e quello più breve (& = ! / 2), si ha allora servendosi
della [8.4.12] la differenza massima:
n12 n n n
[8.4.25] >tM = L - 1 L < 1 2 L>,
c n2 c n2 c
praticamente uguale alla [8.4.22]. Il risultato deriva dal fatto che l’approssimazione con l’ottica
geometrica non tiene conto della propagazione in prossimità della frequenza di taglio e ciò
corrisponde all’avere considerato nella [8.4.22] solo i modi per cui si ha d(Vbi)/dV ' 1.
8.4.3.2 Comportamento in regime monomodale
Il comportamento di un tronco di guida dielettrica di lunghezza L diviene decisamente molto
soddisfacente anche per notevole larghezza di banda monolatera utile B (dell’ordine del GHz), a
patto di operare in regime di propagazione unimodale(1), ossia con frequenze (V<Vt1=2,405) che
diano luogo alla propagazione del solo modo fondamentale. Si ha infatti in tale caso la scomparsa
del dannoso effetto di dispersione intermodale, che altrimenti comporterebbe una severa
limitazione del prodotto LB (vedi [8.4.23]), con la conseguente possibilità di estendere molto la
lunghezza L (anche fino a 100 km). Diviene allora rilevante la dispersione intramodale,
denominata anche dispersione cromatica, legata allo scostamento dalla linearità del ritardo di
gruppo specifico (vedi [8.4.9] per i = 0) e perciò bene evidenziata tramite la derivata non nulla di
quest’ultimo:
dt i 1 d 2! 1 d 2 (kn 2 ) n1 - n 2 d 2 (Vb)
[8.4.26] s ! = 2 < + 2 V ,
d ! c dk 2 c 2 dk 2 c k dV 2
calcolata con le medesime approssimazioni che hanno condotto alla [8.4.9].
(1)
In seguito nella costante di propagazione e nelle grandezze ad essa legate viene omesso il pedice indicativo del
modo fondamentale, non necessario in regime monomodale.
210
Grazie alla unimodalità, nello schema equivalente generale in Figura 8.17 resta una unica linea di
trasmissione; si hanno ancora di norma delle perdite di accoppiamento agli estremi, che possono
essere valutate globalmente tramite una riflettenza H11,0(f, L) e il coefficiente di riflessione del
carico, mentre la trasmettenza del tronco di fibra ottica monomodo si semplifica nella:
[8.4.27] H0(f, L) = L0 e - ! (f ) L e - j!( f ) L ,
dove il coefficiente L0 dipende dalle effettive condizioni agli estremi.
Dato che la trasmissione interessa una banda monolatera relativa B/fc che risulta comunque molto
piccola dato il valore estremamente elevato della frequenza portante fc = c/Kc, per f attorno a fc ma
con | f - fc| non del tutto trascurabile rispetto a fc è lecito ignorare la debole dipendenza dalla
frequenza della costante di attenuazione (vedi Figura 8.15) ponendo:
[8.4.28] 7( f ) < 7( fc) !7,
ma non si può trascurare la dispersione intramodale. La costante di fase del modo fondamentale è
comunque rappresentabile con buona approssimazione tramite lo sviluppo in serie di potenze di
punto iniziale fc, troncato al secondo ordine:
1
[8.4.29] C(f) < Cc + 2!( f - fc)tc + [2!(f - fc)]2sc, per |f - fc| * B/2,
2
dove Cc ! C(fc), tc ! t(fc) e sc ! s(fc).
Posto M0 ! L0 e - ! L e - j!c L , il quadripolo equivalente in banda base (vedi [5.4.9]), a partire da quello
rappresentato dalla [8.4.27], può essere scomposto in due elementi in cascata, come mostrato in
Figura 8.18, ottenendo un quadripolo ideale con trasmettenza:
[8.4.30] H0 (f,L) = M0 e - j 2! f t c L ,
avente ritardo di gruppo costante tcL e attenuazione anch’essa costante:
[8.4.31] A0 (f, L) = |H0 (f,L)|-2 = |L0|-2 e 2 !L ,
seguito da un quadripolo con trasmettenza avente attenuazione unitaria, ma non perfetto in
argomento a causa della dispersione intramodale cui corrisponde un valore sc in generale non
nullo:
[8.4.32] Hs(f, L) = e ! j(2!f"ts ) ,
2
Indicato con s0(t) ! M0sde(t - tcL) l’inviluppo complesso in entrata, si ottiene in uscita:
211
[8.4.36] sdu(t) = hs(t) $ s0(t) = s0(t) ! j[2s0(t) - s0(t+>ts) - s0(t->ts)],
che al di là della deformazione messa in evidenza dal segnale additivo entro parentesi quadra, nel
caso di durata limitata di s0(t) rivela un effetto di incremento della durata del segnale in uscita
della quantità 2>ts, che nell’ambito di validità del modello deve rispettare la [8.4.34].
8.4.4 Mezzi trasmissivi con fibra ottica monomodo
Dn 2
10 D
1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 ! [µm]
-10 Dg
-20
Figura 8.19: Coefficiente di dispersione cromatica in una fibra di vetro di silice e contributi di
dispersione di materiale (a tratteggio) e di guida (a tratto e punto).
Poiché le espressioni riguardanti la dispersione sono state ottenute introducendo delle
approssimazioni, i piccoli errori che esse comportano non permettono di ricavare con esattezza il
punto di zero K0. Con metodi di analisi più approfonditi, che tengono anche conto del reale profilo
continuo dell’indice di rifrazione nel passaggio dal nucleo al mantello, è comunque possibile
proporzionare la fibra ottica, ossia stabilire i valori di >e di a, in modo da ottenere il
soddisfacimento della [8.4.16], che comporta l’assenza dei considerati effetti di dispersione del
secondo ordine. Nel caso di impiego della fibra ottica in 3a finestra, per ottenere che K0 si sposti
attorno a 1.550 nm si considerano spesso profili di indice opportuni, ottenendo strutture
denominate fibre ottiche a dispersione spostata o fibre ottiche DS (Dispersion Shifted).
Una fibra ottica ben progettata per una lunghezza d’onda Kc< K0 dà luogo a valori di D(Kc) minori
di 3 ps/nm km, che in 3a finestra conducono a valori di sc inferiori a 0,4 10-26 s2/m. Dalla [8.4.33]
con L = 100 km si ottiene allora >ts < 14 ps, che risulta in pratica trascurabile anche a fronte del
brevissimo tempo di bit T = 400 ps, corrispondente al ritmo binario di 2,5 Gbit / s.
qualcosa di simile a:
213
Quando le distanze da coprire tra due terminali fissi siano contenute e i segnali abbiano banda utile
non molto estesa, si ricorre spesso all’impiego di un mezzo portante fisico costituito da una coppia
di conduttori metallici, isolati tra loro, posati lungo il tracciato del percorso stabilito tra i terminali.
Di norma la sezione è invariata, sia nella geometria che nei materiali: un tale tipo di struttura è
denominata linea di trasmissione uniforme a coppia metallica o più semplicemente coppia
metallica. Nel seguito si presuppone che la struttura sia cilindrica lungo lo sviluppo longitudinale,
in modo da potere adottare una coordinata rettilinea z; anche se il tracciato effettivo è spesso
curvilineo, il suo raggio di curvatura è infatti sufficientemente grande da potere assumere che il
comportamento e.m. della linea sia equivalente a quello che si avrebbe qualora essa fosse posata
secondo una unica direzione.
Assunto il comportamento perfetto, il mezzo considerato è rappresentabile tramite un quadripolo
LTI simmetrico, passivo, adattato, caratterizzato quindi entro la banda utile del segnale trasmesso
dalla funzione di trasferimento (vedi [3.4.10]):
[4.4.1] H(f) = S21(f) = S12(f) = g(L) e - j 2 ! f L/v , per fm * | f | * fM,
dove in particolare il modulo della funzione di trasferimento risulta dipendere dalla lunghezza L
del mezzo tramite la legge di proporzionalità inversa:
r
[4.4.2] g(L) = g(L1) 1 ,
r
essendo L1 una distanza di riferimento (ad esempio r1 = 1 km). La menzionata specificità è dovuta
al meccanismo della trasferimento e.m. (e.m. = elettromagnetico) del segnale lungo il mezzo
trasmissivo, che si ammette avvenga per propagazione libera di una onda e.m. sferica (vedi
appendice A4.5), nello spazio costituito da un dielettrico omogeneo, isotropo e privo di perdite.