Sei sulla pagina 1di 51

SENSORI, SEGNALI E RUMORE

Notifica
Milano, 4 aprile 2011
Un gruppo di studenti di buona volont del Politecnico di Milano ha creato e mantiene il sito web
www.polihelp.com, destinato a promuovere e facilitare tra gli studenti lo scambio di appunti e dati
utili per la didattica.
DallAprile 2011 il sito mette a disposizione appunti raccolti da uno studente alle lezioni
dellinsegnamento Sensori, Segnali e Rumore da me tenuto ed io sono stato pregato di segnalare
questa disponibilit agli studenti interessati.
Notifico che come docente dellinsegnamento Sensori, Segnali e Rumore non ho e non mi
assumo alcuna responsabilit per il contenuto di questi appunti, che non hanno alcuna veste
ufficiale per linsegnamento.
Ci premesso, ritengo che liniziativa di facilitare questi scambi tra studenti sia utile e segnalo il
link per raggiungere gli appunti detti:
http://www.polihelp.com/materieLs/SENSORI_SEGNALI_E_RUMORE
%5CSensori_segnali_rumore_2011.pdf
In fede
Prof. Sergio Cova
1
Prefazione
La crescita, lo sviluppo economico, la ricerca del di pi inghiottono le nostre quotidianit.
Individualismo, egoismo, solipsismo, tendenza all'isolamento inconsapevole, questo rischiamo di
diventare finch la societ (cio noi stessi) ci porr davanti priorit sbagliate, valori distorti, modelli
antieroici di dodici interminabili fatiche senza riposo, clich occidentali universalizzati...
Il lavoro, la produttivit, un falso senso del dovere: siamo vittime inconsapevoli dei nostri stessi
modelli, condannandoci ad ore ed ore di clausura, senza pensare che il senso della vita non in noi
stessi, che la felicit non necessariamente dipende dal reddito, che il sacrificio deve sempre e
comunque portare ad un risultato tangibile per noi e, aggiungerei, soprattutto per chi ci vicino. Ho
visto miei amici e colleghi perdere il senso del sacrificio, diventare fabbriche di esami di cui dopo
una settimana non ricordavano non solo formule e concetti, ma neanche il senso pratico. E la mia
esperienza di studio nella laurea triennale mi ha condotto alla riflessione che il lavoro di squadra
l'unica soluzione possibile per:
Evitare le clausure
Ottimizzare i tempi
Dare il giusto peso alle relazioni umane
Il terzo punto il cuore della questione: siamo ingegneri per il mondo, per facilitare e ottimizzare le
cose ai nostri compagni di vita su questo meraviglioso pianeta. Se non conosciamo, apprezziamo,
supportiamo, amiamo gli altri uomini, abbiamo fallito in partenza la nostra missione.
Questo il perch del mio (spero diventi il nostro) lavoro: ricopiare gli appunti presi a lezione non
toglie moltissimo tempo e aiuta a fissare meglio i concetti nell'atto di rielaborarli e riesprimerli con
diverse parole. Mi piacerebbe che questi appunti, totalmente non ufficiali per l'insegnamento e
esenti da qualsiasi controllo da parte del prof. Cova, fossero il frutto di un lavoro comunitario, di
stesura e di revisione, e spero possano accompagnarci come un fedele compagno nel percorso verso
l'esame. Scrivetemi per qualsiasi consiglio, aggiunta, correzione (giuseppe.daucelli@gmail.com), e
richiedetemi pure il file originale (formato .ODT) se volete apportare personalmente anche
modifiche corpose.
Happiness only real when shared
Chris McCandless
2
Perch occuparsi di sensori, segnali e rumore
Nell'elettronica analogica, specie in quella di front-end, occorre della circuiteria specifica per
l'acquisizione di informazioni in tempi piuttosto veloci.
I sensori traducono segnali di diverso tipo (variabili fisiche) in segnali elettrici. La grandezza
primaria rilevata non mai, tuttavia, pulita e priva di fluttuazioni proprie.
Ai sensori segue un'elettronica di testa che porta il segnale elettrico al resto della circuiteria di
elaborazione. Qualsiasi pezzo del sistema aggiunge per il suo rumore. Ad un certo punto, per,
lavorando correttamente, avremo fatto emergere il segnale in modo da rendere il rumore
trascurabile. Riportiamo adesso alcuni esempi di sensori, ad esempio quelli resistivi.
Termosensori
Si utilizzano tipicamente, per realizzare termosensori, dei resistori in platino perch il platino
presenta variazione lineare della resistivit con la temperatura ( poT ), dunque la legge con cui
varia la resistenza del tipo
A R=o A T R
0
con
o10
3
C
1
e
AT=TT
0
e ancora
R
0
=R(T
0
)
.
Il segnale ottenuto iniettando una corrente costante
I
0
un segnale di tensione
A V=o A T V
0
con
AV=V V
0
e
V
0
=I
0
R
0
.
Perch il termometro funzioni, il sensore deve avere una dissipazione di potenza molto piccola,
pena un autoriscaldamento che falserebbe la misura. Ne consegue, poich P=
V
2
R
che il segnale
ottenuto dovr essere necessariamente piccolo (rispetto al rumore).
Strain gauge
Si tratta di sensori di dilatazione: la dilatazione di un resistore comporta l'aumento della sua
resistenza. La misura dello strain del tipo
c=
AL
L
0
; l'unit di misura della (che un numero
puro) il microstrain (10
-6
). La variazione di resistenza per dilatazione quantificabile con una
relazione del tipo
A R=Gc R
0
con G2 , coefficiente piezoresistivo. Il segnale misurabile
sar dunque
A V=Gc V
0
.
Continua a valere la necessit di non scaldare il sensore per le stesse ragioni presentate per i
termosensori.
In definitiva, i sensori resistivi sono all'incirca dei generatori di segnale (a bassa impedenza):
3
Le variazioni del segnale hanno un rate all'incirca nell'ordine dei Khz (al pi), e questo ci fa
restringere il campo circa la risposta in frequenza del preamplificatore in relazione al rumore che
questo introdurrebbe: non occorrono amplificatori a banda larga, perch introdurrebbero una
gran quantit di rumore spettrale.
Per dare potenza al sensore ci sono due opportunit:
DC bias, DC output
AC bias, AC output
Se la quantit fisica da misurare cambia lentamente (rispetto alla frequenza dell'eventuale AC bias),
queste opportunit si traducono in:
DC bias, tensione di uscita variabile lentamente
AC bias, AC output modulata in ampiezza
Sensor measurement setup
Ecco il tipico schema di misura che si adotta e il rumore presente nelle singole fasi:
Segnali e trasformata di Fourier
I segnali presentano, in teoria, variazioni di natura deterministica (descrivibile ad ogni istante da
una funzione matematica, tipo
x=1(t )e
t
T
che un impulso esponenziale). Ciascun segnale pu
essere descritto nel dominio del tempo come sovrapposizione degli effetti di impulsi elementari
6(t ) di ampiezza x(t ) dt .
Nel dominio della frequenza questo stesso segnale si pu invece vedere come somma di sinusoidi.
N.B.: si adoperer la trasformata di Fourier e non quella di Laplace perch Laplace risulta
inutilizzabile in presenza di rumore. Tutte le funzioni di rilevanza rispetto ai nostri scopi sono
trasformabili secondo Fourier.
Ecco le definizioni rispettivamente di antitrasformata e trasformata di Fourier:
x(t )=

+
X(f )e
j2 f t
df
4
Sensor
Preamp
(frontend)
Filtering Measure
Signal
Noise
Significant
noise of
sensor
Significant
noise of
preamp
Negligible
noise of
filtering
circuit
Significant
noise of
meter circuit
X ( f )=

+
x(t )e
j 2 f t
dt
Ci sono particolari segnali (sinusoidi pure o in generale segnali periodici) che presentano
componenti spettrali definite (non infinitesime), a delta di Dirac. In particolare, poi, se il segnale
x(t) reale, X(f) presenta delle propriet importanti:
Simmetria Hermitiana: X(f )=X
*
( f ) che implica dunque X(f )=X( f ) e
arg X(f )|=arg X (f )| .
Ancora, si ha che:
x(0)=

+
X (f ) df
X (0)=

+
x (t ) dt
Si vede inoltre che la larghezza di banda e l'estensione temporale hanno prodotto costante
(banda larga segnale veloce nel tempo, ecc...).
In presenza di sistemi lineari e tempo costanti (a parametri fissi nel tempo), possibile la
funzione di trasferimento del sistema con stretta relazione con la risposta all'impulso del sistema
stesso:
y(t )=x (o)h(o)=

+
x(o) h(t o) do
Ci significa che il segnale in uscita dal sistema la convoluzione del segnale in ingresso con la
funzione di -response del sistema. Questo vale perch il segnale x(t) un segnale tempo continuo
e dunque esprimibile come sovrapposizione di tante piccole delta di ampiezza opportuna.
Graficamente possibile avere un'idea di com' fatto y(t) con il seguente metodo:
5
h()
x()
y(t)
Segnali di energia
Si definisce energia di un segnale x(t) la quantit:
E= lim
T -+

T
T
x
2
(o) do=

+
x
2
(o) do
Si pu dimostrare anche che E=

+
x
2
(o) do=

+
X( f )
2
df
Un segnale si definisce di energia se la sua energia limitata.
Funzioni di autocorrelazione e cross correlazione (per segnali di tipo energia)
K
xx
(f)= lim
T -+

T
T
x(o) x(o+f) do=

+
x(o) x(o+f) do
Si tratta di una misura di quanto un segnale continui, durante il suo svolgimento temporale, a
somigliare a s stesso.
N.B.:
K
xx
(0)=E
, e inoltre la funzione di autocorrelazione sempre simmetrica
6
Va da s che questo tipo di misura pu essere esteso al caso in cui si voglia capire quanto invece due
segnali si assomiglino. In tal caso si definisce la funzione di cross correlazione:
K
xy
(f)= lim
T -+

T
T
x(o) y(o+f)d o=

+
x(o) y(o+f)d o
Un'espressione alternativa della funzione di mutua correlazione da cui si possono trarre interessanti
risultati la seguente:
K
xy
=x(o)y(o)
. Questo ci fa capire che la trasformata delle funzioni
di mutua e autocorrelazione il prodotto delle trasformate (nel caso dell'autocorrelazione il
modulo quadro di X(f)).
Spettro di energia
Si definisce spettro di energia di x(t) la quantit S
x
=X (f )
2
.
La sua definizione alternativa si basa sulla funzione di autocorrelazione e sul fatto che la sua
trasformata il modulo quadro della trasformata del segnale di partenza:
S
x
=F K
xx
|=F x(o)x(o)|=X(f ) X (f )=X
*
(f ) X(f )=X( f )
2
Propriet delle funzioni di correlazione
Autocorrelazione:
K
xx
sempre simmetrica:
K
xx
(f)=K
xx
( f)
;
K
xx
ha il massimo positivo e sempre in = 0:
K
xx
(0)>K
xx
(f)
con K
xx
(0) > 0;
Cross correlazione (x(y) e y(t) sono due diversi segnali di energia):
K
xy
non simmetrica, ma K
xy
() = K
yx
(-);
Il massimo di K
xy
non necessariamente positivo n nello zero;
7
In ogni caso il massimo assoluto limitato da.
Media aritmetica:
K
xy
(f)

<
1
2
K
xx
(0)+K
yy
(0)|
;
Media geometrica: K
xy
(f)<
.
K
xx
(0) K
yy
(0)
;
Autocorrelazione di somme di segnali:
Se si ha un segnale del tipo z(t) = x(t) + y(t), la sua autocorrelazione calcolabile in funzione delle
autocorrelazioni di x(t) e y(t) e delle loro cross correlazioni:
K
zz
(f)=

+
z(o) z (o+f) do=

+
x (o)+y (o)| x(o+f)+y(o+f)| d o=
=K
xx
(f)+K
xy
(f)+K
yx
(f)+K
yy
(f)
Con questo risultato risulta comodo calcolare lo spettro di energia di z(t) come somma dei due
spettri (reali) di x(t) e y(t) e dei due cross spettri (complessi e coniugati):
S
z
(f )=F K
zz
(f)|=Z(f )
2
=X (f )
2
+X
*
(f )Y (f )+X (f )Y
*
(f )+Y (f )
2
In definitiva:
S
z
(f )=S
x
(f )+S
xy
( f )+S
yx
( f )+S
y
(f )
.
Segnali di potenza
Si definisce potenza di un segnale la quantit:
P= lim
T -+

T
T
x
2
(o)
2T
do
Un segnale si definisce segnale di potenza se la sua potenza limitata.
N.B.: Per questo integrale non consentito utilizzare il teorema di Parseval
Consideriamo il segnale x
T
() o x troncato tale che:
x
T
() = x() per || < T
x
T
() = 0 per || > T
In questa maniera sar possibile applicare il teorema di Parseval e esprimere la potenza del segnale
x(t) in funzione della sua trasformata X(f).
P= lim
T -+

+
x
T
2
(o)
2T
do= lim
T-+

+
X
T
( f )
2

2T
df =

+
lim
T-
X
T
(f )
2

2T
df
8
Spettro di potenza
Analogamente al caso dei segnali di energia, per i segnali di potenza si definisce lo spettro di
potenza nel seguente modo:
S
x
(f )=lim
T-
X
T
(f )
2
2T
Si pu dunque ridefinire la potenza in funzione dello spettro di potenza:
P=

+
S
x
(f ) df
Autocorrelazione di tipo potenza
K
xx
(f)=lim
T -

T
T
x(o) x(o+f)
2T
do=lim
T-

x
T
(o) x
T
(o+f)
2T
d o
N.B.: per T finito

T
T
x(o) x(o+f) do

x
T
(o) x
T
(o+f)d o . Tuttavia per T che tende
all'infinito questa uguaglianza risulta valida.
Passando al dominio di Fourier e tenendo conto dell'ultima considerazione, ridefiniamo lo spettro di
potenza in funzione dell'autocorrelazione:
S
x
(f )=F K
xx
(f)|
In analogia al caso dei segnali di energia, per cui l'energia era calcolabile come la funzione di
autocorrelazione calcolata in = 0, per i segnali di potenza sar la potenza ad essere pari a K
xx
(0).
P=K
xx
(0)=

+
S
x
(f ) df
Cross correlazione di tipo potenza
K
xy
(f)=lim
T -

T
T
x(o) y(o+f)
2T
d o
E anche in questo caso possibile considerare i segnali troncati.
9
Propriet delle funzioni di correlazione per segnali di potenza
K
xx
simmetrica rispetto all'origine;
K
xx
ha massimo in = 0;
K
xy
non simmetrica ma K
xy
() = K
yx
(-)
Segnali tronchi
Qualsiasi segnale reale non mai esteso all'infinito: sar dunque un segnale tronco. Il risultato
assomiglia ad una finestratura rettangolare nel dominio del tempo:

10
In termini spettrali, la moltiplicazione tra segnali nel dominio del tempo si traduce in una
convoluzione tra le loro trasformate di Fourier:
La convoluzione delle forme presentate in figura evidentemente il sinc che rappresenta R(f)
centrato negli impulsi che rappresentano X(f). Ne deduciamo che per ottenere un segnale (troncato)
quanto pi fedele al segnale idealmente illimitato nel tempo, le code dei due sinc non devono
interferire in modo significativo.
Questo effetto si ottiene considerando una finestratura temporale sufficientemente grande
(idealmente T).
11
Rumore
Il rumore un segnale non deterministico e indesiderato, che pertanto non porta alcuna
informazione e dev'essere in qualche modo filtrato.
In figura vengono mostrate tre forme generate esattamente dallo stesso meccanismo, ma che, a
parit di istante, presentano valori diversi. Esempi di rumore possono essere:
Moto casuale di cariche in una resistenza a causa della temperatura: la corrente media che
attraversa la resistenza nulla poich mediamente tante sono le cariche che si spostano in un
verso quanto quelle che si spostano nell'altro;
Rumore shot in una giunzione: dovuto al forte campo elettrico a cui sottoposta la
giunzione, determina una corrente mediamente non nulla;
Se si considera il valore istantaneo in tutti i sistemi rumorosi (v. figura precedente), abbiamo un
insieme di valori tra loro differenti, ma il meccanismo di generazione sempre il medesimo. Per
capire cosa succede occorre considerare una singola forma d'onda isolatamente:
Misureremo dunque N valori (su N forme d'onda) tutti all'istante t
1
in unit x. I valori misurati si
addenseranno come mostrato in figura:
12
La curva in blu si ottiene quando, da un insieme finito di prove su intervalli x finiti si passa a:

A x-dx
;
N- ;
Infatti definiamo la frequenza statistica come
AN
k
N
=Af
k
. Se A x-dx ,
A N
k
-dN
k
=n( x
k
) dx
, e pertanto Af
k
-df
k
=
dN
k
N
=
n( x
k
)
N
dx .
E infine, se N- , df
k
=
n( x
k
)
N
dx=p( x) dx , dove p(x) la densit di probabilit.
Ci sono anche casi in cui la densit di probabilit pi o meno fluttuante in certi intervalli di
tempo (varia rispetto, ad esempio, a quella a riposo). Un esempio il caso dello shot noise nelle
giunzioni, in cui una maggiore corrente di segnale implica pi rumore. Questi sono casi di rumore
non stazionario.
N.B.: non vero che la densit di probabilit funzione di due variabili (x,t). Piuttosto, si dovrebbe
parlare di
p
t
1
( x)
;
13
t
1
t
2

Se campioniamo a tempi molto vicini ( f-df ), i valori trovati dovranno necessariamente essere
piuttosto simili tra loro. Ma allontanandosi, la parentela tra i valori trovati si allenta, finch questi
non diventano indipendenti. Questo significa che la descrizione probabilistica d'insieme non
del tutto esauriente.
Consideriamo, poi, l'offset: gli offset sono statistici e possono avere la medesima distribuzione del
rumore, ma in due istanti diversi questi presentano sempre lo stesso valore, cosa che non si verifica
per il rumore. Non dunque vero che, fornendo la p(x) per qualunque tempo, questa descrive il
processo, neanche nel caso stazionario. Occorrer definire, accanto alla densit di probabilit
marginale sopra definita, quella congiunta.
Medie temporali e d'insieme
Come messo in evidenza dalla figura, possibile calcolare due tipi di medie:
Media temporale: <x >=lim
T -

T
T
x(t )
2T
dt ;
Media d'insieme: x=

+
x p( x)dx ;
La media che, per quanto riguarda il rumore, ha pi significato, quella d'insieme.
N.B.: quando si vuole caratterizzare un amplificatore in laboratorio, si costretti ad eseguire delle
osservazioni nel tempo. In molti casi il rumore un processo ergodico, e pertanto
l'approssimazione x = <x> ben posta.
14
<x> media temporale
x media d'insieme
Piccolo quadro riassuntivo della descrizione probabilistica del rumore
Probabilit marginale (marginal probability): p
m
(x) = p
m
(x,t
1
) per ogni istante t
1
;
Caso stazionario: p
m
= p
m
(x);
Probabilit congiunta (joint probability): p
j
(x
1
,x
2
) = p
j
(x
1
,x
2
;t
1
,t
2
) = p
j
(x
1
,x
2
;t
1
,t
1
+) per
ogni t
1
e per ogni t
2
= t
1
+ ;
Caso stazionario: p
j
= p
j
(x
1
,x
2
;) (cade la dipendenza da t
1
);
Momenti della distribuzione
La determinazione delle distribuzioni di probabilit pu risultare spesso molto difficoltosa. In
fondo, per, ai fini della caratterizzazione del rumore di un circuito, sufficiente capire quanto
dispersi siano i valori assunti dal rumore stesso. Lo strumento matematico che aiuta in questo
senso quello dei momenti della distribuzione.
Data la distribuzione p(x), il momento di ordine n di p(x) cos definito:
m
n
=

+
x
n
p(x)dx
Elenchiamo i momenti pi rilevanti e il significato che assumono ai fini della caratterizzazione
statistica del rumore:
Momento di ordine 0 (normalizzazione): la normalizzazione della distribuzione,
semplicemente ricorda che, come naturale che sia,

+
p(x) dx=1 ;
Momento di ordine 1 (valore medio): tipicamente per il rumore questo momento ha valore
nullo (si noti che nel caso del rumore shot il momento di ordine 1 valuta le fluttuazioni
medie intorno al valor medio del rumore stesso;
Momento di ordine 2 (valore quadratico medio): a questo momento danno contributo
identico gli scarti positivi e quelli negativi, dunque fornisce un'idea generale di come siano
sparpagliati i dati;
Sarebbe possibile andare ancora avanti (ad esempio il momento di ordine 3, a cui danno contributi
di segno opposto gli scarti positivi e negativi indica la direzione verso la quale la distribuzione
skewed, come fosse un parametro di simmetria/asimmetria), ma ai nostri fini sufficiente arrivare
fino al momento di ordine 2, e non occorre andare oltre.
E' possibile, per estensione, definire i momenti delle probabilit congiunte:
m
jk
=

+
x
1
j
x
2
k
p( x
1,
x
2
)dx
1
dx
2
15
Questa grandezza fornisce una misura di com' fatta la distribuzione delle due variabili e d un'idea
di quanto queste siano tra loro collegate. Il momento di primo ordine di probabilit congiunta per x
1
e x
2
ad esempio:
m
11
= x
1
x
2
=

+
x
1
x
2
p( x
1,
x
2
) dx
1
dx
2
Due variabili statistiche sono indipendenti se la probabilit che si verifichi un certo evento sulla
prima non dipende dalla probabilit che si verifichi un evento sull'altra. Vale dunque la regola del
prodotto delle probabilit:
p( x
1,
x
2
)-p(x
1
) p( x
2
)
E se si verifica anche x
1
x
2
-

x
1

x
2
, le due variabili sono incorrelate.
Esempio: consideriamo le variabili statistiche x e y. Viste separatamente, abbiamo le seguenti
grandezze:
x-

x
2
, pari a u
x
2
se x a media nulla;
y-

y
2
, pari a u
y
2
se y a media nulla;
Ora consideriamo la variabile somma x + y:
x+y -

( x+y)
2
=

( x
2
+2xy+y
2
)=

x
2
+2 xy+

y
2
=u
x
2
+2 xy+u
y
2
Ne deduciamo che la varianza della somma di due variabili pari alla somma delle varianze se la
media del prodotto nulla ( 2 xy=0 ). In tal caso avremo due variabili incorrelate.
L'incorrelazione di grande aiuto nello sviluppo dei calcoli sul rumore.
N.B.: indipendenza incorrelazione perch, se due variabili sono indipendenti, si ha che
xy=

xy p( x , y) dxdy=

xy p( x) p( y) dxdy=0 .
La descrizione al livello di momento di 2 ordine pi facile da usare: se si in grado di
determinarlo per ogni istante e per ogni coppia di istanti, si ha una funzione meno dettagliata delle
distribuzioni, ma pi compatta, e funzione di . Per = 0 fornisce il valore quadratico medio,
mentre scostandosi dallo 0 ci si aspetta che la funzione diminuisca (poich diminuisce la
parentela tra i valori della variabile all'aumentare della distanza di tempo che intercorre tra un
campione e l'altro). Caratteristica del rumore studiato la velocit con cui la funzione diminuisce.
Se si considerano dunque due campioni a distanza temporale , la varianza della loro somma la
somma delle varianze a patto che sia abbastanza grande.
In definitiva, ai fini dello studio del rumore, importante semplicemente che si abbia
l'autocorrelazione del rumore:
R
xx
(t
1,
t
1
+f)=

x(t
1
) x (t
1
+f)
. Questa pu essere calcolata in
casi:
16
Stazionari:
R
xx
(t
1,
t
1
+f)=R
xx
(f)
;
Non stazionari:
R
xx
(t
1,
t
1
+f)
;
In entrambi i casi a = 0 corrisponde il valore quadratico medio di x:
R
xx
(t
1,
t
1
)=

x
2
per f=0| .
Naturalmente, ai nostri fini, sarebbe utile poter applicare queste considerazioni all'analisi nel
dominio della frequenza, ma prima cerchiamo di chiarire un concetto fondamentale, quello di
rumore bianco.
Rumore bianco
La sua propriet caratteristica che due campioni, comunque prelevati, sono completamente
incorrelati. La sua autocorrelazione una funzione di Dirac, e pertanto la sua densit spettrale
risulta uniforme:
Stazionario: R
xx
() = S (), con S costante;
Non stazionario: R
xx
() = S() (), con S variabile con ;
Descrizione del rumore nel dominio di Fourier
Ricordiamo che, se dovessimo accomunare il rumore ad una famiglia di segnali, di certo
sceglieremmo quelli di potenza, poich il rumore, come segnale idealmente illimitato nel tempo, ha
energia tendente a divergere. Ha senso dunque calcolarne la potenza, applicando il teorema di
Parseval per passare dal dominio del tempo a quello di Fourier.
P=lim
T -
1
2T

+
x
T
2
(t )dt =lim
T -
1
2T

+
X
T
(f )
2
df =

+
lim
T -
1
2T
X
T
( f )
2
df =

+
S( f )df
La quantit nell'ultimo integrale S(f), ma occorre ridefinire tale funzione nel caso del rumore, che
non presenta forme d'onda univoche ma statistiche. La cosa pi ovvia da fare calcolare la media
d'insieme della potenza:

P=lim
T -
1
2T

+
x
T
2
(t )dt =lim
T -
1
2T

+
x
T
2
(t )dt =lim
T -

+
X
T
(f )
2

2T
df
Ci implica che:
S
x
(f )=F K
xx
(f)|=F
lim
T -

+
x
T
(o) x
T
(o+f) do
2T
|=F lim
T-
K
xx ,T
(f)
2T
|=lim
T -
F K
xx , T
(f)|
2T
=
= lim
T -
X
T
(f )
2

2T
17
Capiamo che la media temporale dell'autocorrelazione in realt la media d'insieme di K
xx
():
K
xx
(f)=<R
xx
(t ,t +f) >
E dunque, in definitiva,
S
x
(f )=F K
xx
(f)|=F <R
xx
(t ,t +f) >|
In pi, in condizioni stazionarie, R
xx
non dipende da t, e pertanto potremo trascurare anche
l'operazione di media temporale:
S
x
(f )=F R
xx
(f)|
Shot current noise (rumore shot)
E' noto che la densit spettrale del rumore shot 2qI, dove I la corrente di segnale che scorre
nel diodo e q la carica dell'elettrone (pulse charge). Cerchiamo di risalire a questa espressione.
Sia h(t) la forma dell'impulso normalizzata (ad area unitaria, tale cio che

+
h(t ) dt =1 ).
L'impulso di corrente shot sar dunque cos fatto:
Il rumore shot una squenza casuale di impulsi elementari tra loro indipendenti. La probabilit
che un impulso parta tra l'istante t e l'istante t+dt data da p dt.
N.B.: la probabilit p costante perch indipendente dalla presenza di altri impulsi.
Il parametro p corrisponde anche al tasso medio di impulsi nell'unit di tempo. Ci significa
che la corrente media di rumore shot esattamente pq. Verifichiamolo:
Un impulso che parte in un qualsiasi istante porta, all'istante t, una corrente q h(). La probabilit
che un impulso parta in p d. Dunque i (t )=I =

0
+
q h(o) pd o=pq

0
+
h(o)d o=pq , come
volevasi dimostrare.
Cerchiamo dunque il valore quadratico medio della corrente. Per fare ci dovremmo contemplare la
possibilit che infiniti impulsi si verifichino congiuntamente in tanti istanti diversi, e valutare
un gran numero di prodotti incrociati dovuti al quadrato. Tuttavia ci limiteremo al caso di una
coppia di impulsi che potrebbero verificarsi negli istanti e (senza sbagliare in modo
18
e(t) = q h(t)
considerevole perch in fondo la probabilit congiunta di tre o pi impulsi risulta trascurabile
rispetto a quella di due di essi):
i
2
(t )= qh(o)+q h()|
2
=q
2
h
2
(o)+q
2
h
2
()+qh(o)qh()+qh(o)qh()
Adesso, fatte queste considerazioni, calcoliamo la media d'insieme di i
2
(t).
i
2
(t )=

0
+
q
2
h
2
(o) pd o+

0
+

0
+
q h(o) pdoqh() pd =
pq
2

0
+
h
2
(o) d o+pq

0
+
h(o) pd opq

0
+
h() pd =pq
2

0
+
h
2
(o)d o+( pq)
2
=
pq
2

0
+
h
2
(o) d o+(i (t ))
2
=pq
2

0
+
h
2
(o)d o+I
2
Il rumore la differenza tra la corrente totale e quella di segnale, che in sostanza il valore
medio di quella totale:
n
i
(t )=i (t )i (t )
Dunque calcoliamo il valore quadratico medio di questa quantit:
n
i
2
=i
2
(t )(i (t ))
2
=i
2
(t )I
2
=pq
2

0
+
h
2
(o) d o=qI

0
+
h
2
(o)d o=qI

+
h
2
(o)d o
Possiamo dunque applicare il teorema di Parseval ottenendo:
n
i
2
=qI

+
H (f )
2
(f )df
19
La probabilit che questi termini siano
non nulli la probabilit che un impulso
parta in (), e cio pd (pd).
La probabilit che questi termini siano
non nulli la probabilit che partano
due impulsi (indipendenti) in e in , e
cio pd pd.
Tutte le possibilit
di impulso singolo
Tutte le possibilit
di impulso di coppia
pq = I
Vale perch h() = 0 per <0
Pertanto S
i
( f )=qIH(f )
2
e n
i
2
=

+
S
i
( f )df . Il 2 nella formula nota dovuto al fatto che
calcolare questo integrale come calcolare il doppio dell'integrale della sola parte positiva di
S
i
(f) (data la sua simmetria). Dunque, per capirci, considerando un'analisi su tempi molto pi grandi
della larghezza di R
xx
(), per cui si pu porre
R
xx
(f)6(f)
:
S
i
(f) = 2qI (spettro unilatero);
S
i
(f) = qI (spettro bilatero);
La supposizione di trovarsi in presenza di rumore bianco vale a patto che si scelga di lavorare su
tempi (di segnale) molto pi lunghi del tempo di attraversamento della giunzione (che
approssimativamente il tempo nel quale gli impulsi di corrente shot si estinguono).
N.B.: un rumore qualunque pu essere considerato generato da un meccanismo di questo tipo.
Rumore Johnson Nyquist (thermal noise) e sistemi poissoniani a media nulla
Processi di rumore di questo tipo si verificano a causa della temperatura di conduttori utilizzati nella
regione ohmica (come resistori). La differenza sostanziale rispetto al caso del rumore shot consiste
nel fatto che gli impulsi di corrente possono essere registrati in entrambe le direzioni. Questo accade
poich le correnti di agitazione termica sono dovute agli urti tra portatori.
Per valutare

i (t ) si dovranno prendere in considerazione tanto i contributi degli impulsi


positivi (ad esempio, cariche che si avvicinano ad un elettrodo) quanto quelli degli impulsi
negativi (cariche che se ne allontanano:

i (t )=P
+

0
+
q h(o) pd oP
-

0
+
qh(o) pd o=0
N.B.: la concentrazione di portatori in un conduttore di diversi ordini di grandezza pi alta della
concentrazione di portatori in un semiconduttore (siamo, qui, nell'ordine di 10
22
carriers/cm
3
).
Mediamente tra un urto e il successivo intercorrono circa 10
-14
secondi). La durata media dello
shot di corrente termica dunque molto inferiore di quella dello shot in giunzione.
N.B.: in assenza di tensione applicata (e quindi di corrente di segnale nel resistore), il rumore
termico comunque presente, perch (in regime ohmico!) indipendente dalla corrente di segnale. Il
campo elettrico eventualmente applicato, perch si continui a lavorare in regime ohmico, deve
infatti perturbare non di molto questi equilibri.
E' possibile valutare il rumore Johnson Nyquist in termini di corrente e di tensione. Dovremo
considerare che il rumore aumenta in generale all'aumentare della temperatura. Inoltre, il rumore in
corrente aumenter all'aumentare della conduttivit del dispositivo, mentre quello in tensione
aumenter con la resistenza del dispositivo stesso:
20
Current noise: pq
2
= 2KTG;
R
ii
() = pq
2
k
hh
() = 2KTG k
hh
();
S
i
(f) = 2KTG |H(f)|
2
(dove si pu porre k
hh
() (), S
i
= costante = 2KTG), densit
bilatera;
Voltage noise: pq
2
= 2KTR;
R
vv
() = pq
2
k
hh
() = 2KTR k
hh
();
S
v
(f) = 2KTR |H(f)|
2
(dove si pu porre k
hh
() (), S
v
= costante = 2KTR), densit
bilatera;
N.B.: le approssimazioni di spettro costante valgono se si lavora su bandwidths inferiori a circa 100
Thz, condizione verificata nella stragrande maggioranza dei casi pratici di sensoristica. In tal caso
valida l'approssimazione di rumore bianco.
Filtraggio
Il filtraggio aiuta a migliorare il rapporto tra la parte utile del segnale elettrico (quella che porta
l'informazione) e quella rumorosa.
Filtraggio lineare vale il principio di sovrapposizione degli effetti;
Il filtraggio lineare in sostanza una somma pesata dei valori dell'ingresso x(t) considerato in
diversi istanti di tempo, con pesi indipendenti da x(t), ma che possono essere dipendenti dal
tempo di misura.
Filtraggio tempo discreto
E' il tipo di filtraggio che avviene nei DSP:
y(t
m
)=w
1
x(
1
)+w
2
x(
2
)+w
3
x(
3
)+...+x
n
(
n
)=

k=0
n
w
k
x(
k
)=

k=0
n
w
k

k
21
FILTERING
METER
Acquisition of y
value at time t
m
Signal
x(t)
Filtered
y(t)
22

n
...

n
...

INGRESSO
[x()]
WEIGHTS
[w()]

n
...

OUTPUT
[y(t
m
)]
t
m
Filtraggio tempo continuo
Nel filtraggio tempo continuo, w diventa una funzione continua del tempo. Viene detta funzione
peso o funzione memoria. Ci chiediamo se sia possibile rilevare sperimentalmente tale funzione.
Un modo, efficace anche concettualmente stimolare il sistema con un impulso. Diamo
un'occhiata a cosa accadrebbe mandando ad esempio due impulsi (si noti che, pur disegnati sullo
stesso grafico, gli impulsi si intendono riferiti a due sistemi diversi, o comunque intesi in modo che
non ci sia sovrapposizione nelle uscite):
Abbiamo riportato il caso di un semplice RC passabasso: molto evidente in questo caso il concetto
di memoria, poich, a parit di istante di misura della funzione peso, il peso di un evento pi
lontano nel tempo (impulso 1) pi basso di quello di un evento pi recente (impulso 2).
E' anche evidente che la funzione peso ha la stessa forma della risposta alla delta, ma
ribaltata e centrata nell'istante t
m
. Dunque:
y(t
m
)=

+
w
m
() x()d
23

INGRESSO []
OUTPUT
[y(t
m
)]
1
2
Ma y(t
m
)=x()h()=

+
x()h(t
m
)d , quando ha senso parlare di risposta alla delta e
funzione di trasferimento, in caso cio di filtri lineari a parametri costanti. In tal caso
w()=h(t
m
)
Se il filtro risulta invece a parametri non costanti, non vero che diventa non lineare. Infatti le
variazioni dei parametri non sono imposte dal segnale in ingresso (solo in questo caso si avrebbe un
filtro non lineare).
In ogni caso utile anche in questo frangente introdurre un metodo che ci consenta di passare al
dominio di Fourier. In particolare dovremo introdurre un'estensione del teorema di Parseval:

+
a(t ) b(t ) dt =

+
A( f ) B
*
( f ) df =

+
A( f ) B(f ) df
Nel nostro caso dunque si avr y(t
m
)=

+
w
m
() x()d =

+
X (f )W
m
( f ) .
Consideriamo un caso semplice di filtro a parametri variabili: un RC commutato. I parametri
commutati sono un caso particolarmente comodo di parametri variabili poich possono assumere
un numero discreto di valori, ed facile valutare ci che accade in corrispondenza di ognuno di
essi.
Bisogna capire cosa accade alla funzione peso quando l'interruttore aperto e quando questo
chiuso. Per farlo inviamo in ingresso un impulso e valutiamo la funzione peso.
24
N.B.: la funzione peso esiste sempre, anche per sistemi a parametri variabili (in effetti,
matematicamente, la funzione di Green dell'equazione lineare che descrive il filtro).
Quando, dunque, lo switch chiuso, il comportamento del filtro regolare, e la funzione peso
calcolabile nel modo visto in precedenza. Quando invece lo switch aperto, il circuito va in stato
di hold, e pertanto il valore della tensione letta ai capi del condensatore sar costante fintantoch lo
switch resta aperto. Ci significa che i valori dell'ingresso letti in queste circostanze avranno
peso nullo. Quando lo switch si richiude, il condensatore riprende a scaricarsi, e pertanto l'uscita
continuer a calare esponenzialmente riprendendo esattamente dal valore che aveva assunto prima
dell'apertura.
Ed ecco dunque la forma della funzione peso, che nulla, come gi detto, dove l'interruttore
aperto.
25
N.B.: se l'impulso arriva quando l'interruttore aperto, la risposta sar nulla ovunque e dunque lo
sar anche la funzione peso.
Notare anche che se la costante di tempo dell'RC abbastanza grande (molto pi grande del tempo
di chiusura dell'interruttore), il dispositivo si comporta da gated integrator, poich restituisce in
uscita esattamente il valore dell'area dell'ingresso (poich non ha abbastanza tempo per decadere).
Rumore a valle di un filtro
In figura x() il rumore, w() la funzione peso del nostro filtro e y(t) il segnale di uscita dal
filtro in presenza del solo rumore, di cui vogliamo ricavare quante pi informazioni possibile.
Come sempre in presenza di rumore, adotteremo una trattazione statistica, ritenendo nota
R
xx
(,+) e cercando dunque di ricavare R
yy
(t,t+). La quantit che, in sostanza, conosciamo,
x() x(+) . A valle del filtro si avr:
y(t ) y(t +)=

+
x() w
t
() d

y(t)

+
x() w
t +
() d

y (t +)
=

+
x() x()w
t
()w
t+
()d d =
=

+
x() x()w
t
()w
t+
() d d =

+
R
xx
( ,) w
t
() w
t+
()d d
E' sufficiente tornare alla variabile per ottenere finalmente l'autocorrelazione di y(t):
R
yy
(t ,t +)=

+
R
xx
( , +) w
t
() w
t +
(+)d d
Dunque il valore quadratico medio del rumore :

y
2
(t )=

+
R
xx
(, +)w
t
()w
t
(+)d d
26
w()
x() y(t)
Ponendo = +
osserviamo che questa
quantit esattamente
R
xx
(,)
Sono quantit
deterministiche, non ha
senso mediarle!
Se il rumore stazionario, cade la dipendenza di R
xx
dall'istante :

y
2
(t )=

+
R
xx
( ) w
t
()w
t
(+)d d =

+
R
xx
( )d

+
w
t
( ) w(+)

k
ww
()
d | =
=

+
R
xx
()k
ww
( )d
Quest'ultimo risultato ci consente l'estensione al dominio di Fourier grazie al teorema di Parseval:

y
2
=

+
S
x
( f )W( f )
2
df
N.B.: tutte le funzioni nel dominio della frequenza in gioco sono pari.
Se il rumore stazionario, intuitivo comprendere che un filtro a parametri costanti produrr in
uscita del rumore stazionario. Un filtro a parametri non costanti, invece, produrr rumore non
stazionario anche se quello in ingresso stazionario.
In caso di rumore stazionario, R
xx
sar funzione di una sola variabile, che chiamiamo :
R
yy
(t
1,
t
1
+)=

+
R
xx
( ) w
1
()w
2
(, )d d =

+
R
xx
( )d

+
w
1
()w
2
(+)d
k
12w
()=

+
w
1
()w
2
(+)d
Pertanto potremo scrivere che l'autocorrelazione del rumore in uscita l'integrale del prodotto di R
xx
per la cross correlazione delle funzioni peso: R
yy
(t
1,
t
1
+)=

+
R
xx
() k
12w
() d .
Passiamo adesso al dominio della frequenza e calcoliamo il valore quadratico medio del
rumore in uscita, per qualsiasi filtro lineare (a parametri costanti o non, indifferentemente):
27
Le funzioni w
1
e w
2
si possono
classificare come di tipo
energia, pertanto l'ultimo
integrale una cross
correlazione di tipo energia
y
2
(t
1
)=

+
R
xx
( )k
11w
()d , e per il teorema di Parseval: y
2
(t
1
)=

+
S
x
( f )W
1
( f )
2
df ,
ricordando che la trasformata della funzione di autocorrelazione il modulo quadro della
trasformata della funzione stessa.
E' di particolare rilevanza considerare il caso di filtro lineare a parametri costanti in presenza di
rumore non stazionario in ingresso:
R
yy
(t
1,
t
2
)=

+
R
xx
(, )w
1
()w
2
()d d =

+
R
xx
(,)h(t
1
)h(t
2
)d d
Se il rumore stazionario, l'espressione si semplifica ulteriormente:
R
yy
(t
1,
t
2
)=R
yy
(t
1
+)=R
xx
(,)h()h()
Poniamo = , ottenendo dunque

d =d
d =d
. Dunque:
R
yy
()=R
xx
()h()h()=R
xx
()k
hh
()

y
2
=

+
R
xx
() k
hh
()d

+
S
x
( f )H ( f )
2
d
Dunque la densit spettrale di rumore in uscita dal filtro S
y
( f )=S
x
( f )H ( f )
2
Ripetiamo le stesse considerazioni in presenza di rumore bianco. La funzione di autocorrelazione
del rumore bianco una delta di Dirac di area:
Costante nel tempo (
S
b
()
) se il rumore stazionario;
Variabile nel tempo (
S
b
()()
) se il rumore non stazionario;
Usiamo l'espressione generale (non stazionaria) per calcolare l'autocorrelazione a valle del filtro:
R
yy
(t
1,
t
1
+)=

+
S
b
()()w
1
()w
2
(+)d d =

+
S
b
()w
1
()w
2
()d
Perch l'integrale del prodotto di una delta per un'altra funzione pari alla funzione stessa calcolata
dove guizza la delta. Allo stesso modo:
28
y
2
(t
1
)=

+
S
b
()w
1
2
()d
Se il rumore bianco anche stazionario, S
b
costante, e pertanto pu esser portata fuori dagli
integrali. Ne risulta che:
R
yy
(t
1,
t
1
+)=S
b

+
w
1
()w
2
()d =S
b
k
12w
(0)
y
2
(t
1
)=S
b
k
11w
(0) = R
yy
(t
1,
t
1
)|=S
b

+
w
1
2
()d =S
b

+
W
1
( f )
2
df
Nel caso particolare del filtro a parametri costanti, w(t )=h(t ) , e dunque
k
11w
diventa
l'autocorrelazione della risposta alla , nel dominio del tempo, e
W
1
( f )

2
=H( f )
2
nel dominio
della frequenza.
29
Teorema di Parseval
Caratteristiche fondamentali dei filtri lineari a parametri costanti
Un filtro lineare a parametri costanti completamente caratterizzato dalla sua risposta alla
nel dominio del tempo e dalla sua funzione di trasferimento nel dominio della frequenza;
La funzione peso per l'acquisizione al tempo t
m
semplicemente w
m
() = h(t
m
);

W
m
( f )

2
=H( f )
2
;
I filtri lineari a parametri costanti posti in cascata sono permutabili;
I filtri lineari a parametri costanti sono reversibili: se un filtro lavora su un certo segnale
producendone un altro in uscita, esiste un filtro (detto restauratore) che restituisce il segnale
d'ingresso. Questo nasce dal fatto che nessuna componente in frequenza viene totalmente
azzerata;
N.B.: nella pratica la permutabilit in realt impossibile data la limitazione delle regioni di
linearit (si provi ad invertire un preamplificatore per piccolo segnale con un robusto amplificatore
di potenza!).
N.B.: la reversibilit affetta dal problema che componenti in frequenza abbattute di centinaia di
dB se amplificate all'indietro riportano con s tonnellate di rumore!
N.B.: i filtri a parametri variabili non sono certo reversibili. Considerando ad esempio uno switch,
non c' modo di ricostruire il segnale in ingresso che c'era a switch aperto.
Dato che il rumore bianco pi facile da studiare, sempre conveniente (e si pu sempre fare)
trovare un filtro lineare a parametri costanti che sbianchi il nostro rumore.
30
Filtri passa basso
Come sempre, il nostro obiettivo recuperare la parte di informazione che ci interessa scremandola
dal rumore. Quello che dobbiamo fare sfruttare al meglio le differenze tra il segnale e il rumore. Il
modello di filtraggio scelto dipende dal nostro obiettivo; infatti del segnale potrebbe interessarci:
Solo l'ampiezza: saremo liberi di scartare pi componenti ad alta frequenza e quindi pi
rumore, o, equivalentemente nel tempo, di fare una media su pi campioni;
Ampiezza e forma: avremo bisogno di un filtraggio meno stringente per evitare di scartare
informazioni rilevanti;
Un filtro passa basso caratterizzato, in frequenza, da una funzione peso che enfatizza le basse
frequenze abbattendo le alte. Risulta particolarmente utile qualora il segnale sia concentrato a bassa
frequenza e il rumore sia a larga banda. Una pesatura stretta in frequenza (low pass) corrisponde
ad una pesatura larga nel tempo. Tale filtraggio corrisponde pertanto ad un'operazione di media
temporale su intervalli di tempo pi o meno larghi. Ecco dunque la situazione che ci si presenta:
31
f
s(t)
S(f)
+
n(t)
S
n
(f)
t
t
f
F
F
Filtro passa basso RC a parametri costanti
response: h(t )=
1
T
F
1(t )e

t
T
F
Rise time:
T
R
=2,2T
F

1
3f
p
Funzione di trasferimento:
H ( f )=
1
1+j 2 f T
F
,
H ( f )
2
=
1
1+( j 2 f T
F
)
2
32
x(t)
y(t)
1
T
f
T
R
1
0,5
0 f
p
= 1/2T
f
, -3dB pole f
response Step response
Funzione peso:
w
m
()=h(t
m
)
nel dominio del tempo. Pertanto, dato che un ritardo
corrisponde, nel dominio di Fourier, ad un semplice sfasamento, si ha
W
m
( f )

=H ( f )
.
Il taglio in frequenza pu essere considerato circa al livello della frequenza del polo fp (dove il
segnale attenuato di 3 dB)
Autocorrelazione della funzione peso:
k
ww
( )=
1
2T
F
e


T
F

Per quanto visto in precedenza possiamo gi valutare alcune caratteristiche dell'uscita in presenza di
rumore bianco. Ricordiamo possiamo supporre di essere in presenza di rumore bianco qualora
l'autocorrelazione del rumore sia molto pi stretta della funzione peso (
T
n
T
F
, e in tal caso
R
xx
()=S
b
( )
). Il valore quadratico medio dell'uscita sar:

y
2
=

+
R
xx
()k
ww
()d =S
b
k
ww
(0)=
S
b
2T
F
Nel dominio della frequenza, non ha senso ragionare su un rumore a spettro illimitato. Introdurremo
il concetto di banda equivalente di rumore. E' un concetto valido solo quando la banda del rumore
molto pi larga della banda della funzione peso del filtro (
f
n
f
p
) e ci aiuta ad evitare il
calcolo dell'integrale quando si vuole valutare ad esempio

y
2
, semplificandolo in una
moltiplicazione. Vediamo come si ragiona.
Abbiamo detto di voler calcolare

y
2
con una moltiplicazione, e dunque ragionevole porre:
33
t
m
k
ww

y
2
=S
b
2f
n
, dove f
n
la banda equivalente di rumore. Questa quantit dovr essere uguale al
nostro vecchio integrale:

y
2
=S
b

+
W
m
( f )
2
df =S
b
k
ww
(0) . Si avr pertanto, per qualsiasi filtro
passa basso e in condizioni di rumore a larga banda, f
n
=
k
ww
(0)
2
.
Nel nostro caso specifico si avr
f
n
=
1
4T
f
=

2
f
p
.
N.B.: la banda equivalente di rumore non la frequenza di taglio del polo! E' all'incirca il 50% in
pi di f
p
.
N.B.: per come abbiamo ottenuto la f
n
nel caso del filtro RC, possiamo fare una considerazione
interessante:
f
n
=
1
4T
f
2f
n
2T
f
=1
. Questo significa che riducendo la costante di tempo del
circuito si deve considerare una banda equivalente di rumore pi ampia.
34
Linea di ritardo
(e.g. cavo coassiale)
In figura rappresentata la versione attiva del filtro RC. Il suo guadagno DC regolato dalla
resistenza di feedback R
f
e da R
i
. La parte di circuito racchiusa nel rettangolo tratteggiato consente
la realizzazione a parametri costanti (senza switch!) di funzioni peso all'incirca rettangolari
quando la costante di tempo sufficientemente lunga rispetto al tempo T
p
considerato. Questo filtro
detto RC a media mobile.
Ecco come, all'incirca, avviene la sottrazione tra le funzioni peso nell'RC a media mobile:
Per poter eseguire correttamente il confronto tra la versione attiva a media mobile e quella passiva
dell'integratore RC occorre imporre una condizione che uguagli il rapporto segnale rumore tra i
due. Va imposto in particolare che
T
p
=2T
F
, poich l'integratore attivo esegue una media
sull'intervallo T
p
e

y
2
=(
1
T
p
)
2
T
p
=
1
T
p
. Si deve dunque avere
1
T
p
=
1
2T
F
.
In definitiva, a parit di SNR, l'integratore attivo media su due costanti di tempo. Se il segnale
lento nel tempo rispetto al rumore, questa operazione abbatte il rumore esaltando il segnale stesso.
35
_
=
w
1
w
2
w
TOT
T
p
Ampiezza al
quadrato di w
Integrata
su tutto T
p
N.B.: per valutare quanto rumore passa attraverso il filtro, importante saper valutare l'area del
grafico di H( f )
2
. In questo i grafici logaritmici non ci sono affatto d'aiuto!
Osserviamo il comportamento in frequenza dei due circuiti:
RC integrator:

W
f
( f )

H
f
( f )

=
1

1+(2 f T
F
)
2
Mobile mean filter: W
a
( f )=H
a
( f )=

sin( f T
p
)
f T
p

(il suo primo zero a
f =
1
T
p
)
E' interessante notare che, a differenza di W
f
(f), la W
a
(f) ha degli zeri, ma le due funzioni hanno
inviluppi praticamente identici.
36
Filtri RC a parametri commutati
La costante di tempo del circuito determina la forma della sua funzione peso e dunque il suo
comportamento da gated integrator, semplice RC commutato o sample/hold. Quello che importa
quanto la costante RC grande rispetto al tempo T
G
di chiusura dello switch.
In generale il circuito funziona in tre fasi:
1. C scarico e l'interruttore aperto;
2. L'interruttore si chiude, il segnale viene acquisito caricando C;
3. L'interruttore si riapre e si va in fase di hold: C resta carico;
N.B.: sebbene abbiano funzioni peso simili, i filtri gated integrator e mobile mean sono distinti.
Basti pensare che il primo a parametri variabili (commutati) e il secondo a parametri costanti.
N.B.: il sample/hold ideale ha costante di tempo tendente a zero (funzione peso tendente alla ).
Non possibile tuttavia realizzare una costante di tempo piccola a piacere: siamo limitati dalla R
che, ad esempio nelle tecnologie a MOS, nell'ordine dei k e dalla C, che difficilmente supera i
pF. La tecnologia ci limita a di qualche decina di ns.
Nel caso del gated integrator, poich la costante di tempo molto lunga, la risposta al gradino
durante la chiusura dello switch potr essere approssimata con la sua tangente, di pendenza
T
G
T
F
. Alla fine del tempo T
G
avremo dunque un segnale di uscita V
o
circa pari a V
i
T
G
T
F
. Ma
37
T
G
T
G
T
G
Gated integrator
T
F
>> T
G
Switched RC
T
F
T
G
Sample/hold
T
F
<< T
G
T
G
T
F
, dunque
V
o
V
i
.
Occorrer dunque amplificare il segnale, tenendo d'occhio il rumore introdotto dall'amplificatore
che useremo.
Poniamo G=
T
G
T
F
: il guadagno del nostro filtro. Il valore quadratico medio del rumore

y
n
2
=S
b
T
G
T
F
2
=S
b
G
2
T
G
( facile calcolarlo, dato che k
ww
(0)=

+
w
2
(t )dt dove w(t) una
funzione all'incirca continua di ampiezza
1
T
F
e durata T
G
).


y
n
2
=S
b
1/2 G
T
G
1/ 2
Notiamo che l'aumento di T
G
migliora l'SNR. Infatti, mentre il segnale cresce con T
G
, il rumore
decresce con T
G
1/2
. Tempi di apertura pi rapidi rendono il sistema pi veloce, ma peggiorano l'SNR.
Cascata di filtri RC
Due filtri RC posti in cascata non possono essere collegati cos:
Perch in tal modo i due filtri interagirebbero, dando luogo ad un filtro diverso dalla cascata dei
due filtri RC. Occorrer un buffer, che eviter l'effetto di carico:
38
N.B.: la risposta all'impulso del nostro sistema del tipo
t
T
F
1
T
F
e
t
T
F
.
Calcoliamo la banda equivalente di rumore per la cascata dei due filtri RC (supponendoli identici):

y
n
2
=S
b

+
w
2
()d =S
b

+
W ( f )
2
df . Per un filtro a parametri costanti possiamo sostituire
w(t) con h(t) e W(f) con H(f), ottenendo:

y
n
2
=S
b

+
(
t
T
F
)
2
1
T
F
2
e
2
t
T
F
dt =S
b

+
1
1+(2 f T
F
)
2
|
2
df
N.B.: la funzione di trasferimento del filtro complessivo il quadrato della funzione di
trasferimento del singolo filtro.
Il primo integrale decisamente pi semplice da calcolare (si calcola per parti), e il risultato :

y
n
2
=S
b
1
8T
F
39
INPUT DOPO IL PRIMO
STADIO
OUTPUT
Possiamo dedurre che la banda equivalente di rumore dimezzata, mentre il valore efficace del
rumore si ridotto di un fattore
1
2
.
Rumore intrinseco di un circuito sample/hold
Il circuito di sample/hold ha una resistenza, che intrinsecamente sorgente di rumore. Questo
rumore si traduce sostanzialmente in un rumore di lettura il cui valore quadratico medio :

y
R
2
=2KTR
1
2RC
=
KT
C
Il valore quadratico medio del rumore introdotto dalla resistenza non dipende dalla resistenza stessa,
ma solo dalla capacit. Osserviamo infatti che, se ad esempio alziamo il valore di R, alziamo
proporzionalmente la densit spettrale del rumore, ma ne restringiamo la banda equivalente.
Le due variazioni si compensano e lasciano dunque invariato

y
R
2
.
Questa constatazione peraltro coerente con le leggi della termodinamica: per il teorema di
equipartizione, l'energia media dell'elettrone nella resistenza
1
2
KT
per ogni grado di libert del
sistema. Nel nostro caso avremo un unico grado di libert (la costante RC). L'energia del nostro
circuito peraltro immagazzinata nel solo condensatore. Quantifichiamola:
E
C
=
1
2
C

y
R
2
=
1
2
KT
. Pertanto

y
R
2
=
KT
C
.
Risulta evidente che l'entit del rumore si abbassa all'aumentare di C. Eppure le cose peggiorano
all'aumentare della C se le grandezze che interessano sono altre:
Ragionando in termini di carica (rumorosa): Q=C
2

y
R
2
;
Ragionando in termini di numero di elettroni:

N
q
2
=

KT
q
C
q
400C(in pF) ;
Rumore intrinseco di un gated integrator
Anche in questo circuito abbiamo una resistenza che intrinsecamente produce del rumore. Questo
rumore di lettura avr valore quadratico medio:

x
n
2
=S
b
1
T
G
=
2KTR
T
G
=
KT
C

2RC
T
G
=
KT
C

2
G
dove G=
T
G
T
F
1 . In questo caso il rumore in fase
di lettura include un enorme fattore di peggioramento, dato dal guadagno.
Confronto tra rumori di lettura di gated integrator e sample/hold
Nel gated integrator si ha

x
eq
2
=
S
b
T
G
=
2KTR
T
G
=
2KTR
T
G

C
C
=2
KT
C
T
F
T
G

KT
C
poich
T
F
T
G
.
40
E KT / C il rumore di lettura del sample/hold. Confermiamo dunque che i tempi di apertura
brevi ci fanno pagare in termini di rumore di lettura. Il vantaggio del gated integrator d
vantaggi in termini di SNR poich il segnale cresce linearmente col tempo di integrazione, mentre il
rumore cresce con la radice di T
G
(perch il rumore quadratico cresce linearmente con T
G
).
Integratore tempo discreto
Realizzare un integratore tempo discreto equivale semplicemente a prelevare un certo numero di
campioni del segnale prodotto da un gated integrator tempo continuo nel tempo di chiusura T
G
.
In particolare, se il tempo di
campionamento T
S
, saremo in
grado di prelevare N = T
G
/ T
S
campioni in una singola apertura di
gate.
Il segnale che avremo in uscita sar dunque
S
y
=NP S
x
dove N il numero dei campioni
prelevati e P il peso del singolo campione. Significa, in sostanza, che il guadagno in DC
dell'integratore tempo discreto NP . Vediamo se possibile trovare analogie col caso
continuo nel computo del rumore: il campione di rumore che sporca l'uscita sar esprimibile
come somma dei campioni di rumore che sporcano i singoli campioni sommati (la somma
un'operazione lineare):
n
y
=

k =1
N
Pn
x
k
. Passando ai valori quadratici medi, si ha

n
y
2
=P
2
(

n
x1
2
+

n
x2
2
+...+n
x1
n
x2
+...) . Al
solito, tutti i prodotti incrociati saranno nulli se possibile considerare il rumore come bianco. In
definitiva, se il rumore stazionario (e quindi tutti i contributi in parentesi sono tra loro identici):

n
y
2
=N P
2

n
x
2
. Come nel caso tempo continuo, il rumore quadratico cresce proporzionalmente
al tempo di integrazione (essendo N proporzionale a T
G
). In termini di SNR:
(
S
N
)
y
=
S
y


n
y
2
=
N P S
x

N P
2

n
x
2
= N
(
S
N
)
x
Regolando opportunamente il peso P, possibile ottenere un guadagno DC unitario, in modo che
S
x
=S
y
. E' sufficiente che sia
P=
1
N
. In ogni caso, pur alterando P, si agisce in modo lineare
sul segnale e in modo ancora lineare sul quadrato del rumore.
41
w
discrete
()
T
G
T
S
Filtro RC tempo discreto
Trattiamo adesso il mediatore esponenziale tempo discreto. Differisce dall'integratore poich la
variazione del peso dei singoli campioni in ogni finestra di integrazione rilevante (decade
esponenzialmente, ma non molto rapidamente).
In particolare il peso di ogni
campione k sar esprimibile
come w
k
=Pr
k
con
1r1
e cio r molto
vicino ad 1.
Il segnale in uscita sar dunque S
y
=S
x
P

k =0

r
k
=S
x
P
1
1r
. Dunque il guadagno in DC del
nostro circuito sar
P
1r
. Anche in questo caso si pu ottenere un guadagno unitario prendendo
P=1r . Sul rumore si pu ripetere il ragionamento fatto in precedenza. Stavolta per potremo
portare fuori dalla sommatoria il peso ma dovremo considerare il fattore r. Nel calcolo del valore
quadratico medio tale fattore diventer ovviamente r
2
.

n
y
2
=P
2
(

n
x0
2
+r
2

n
x1
2
+... r
2k

n
xk
2
) , considerando in partenza nulli i prodotti incrociati (rumore
bianco). Se, inoltre, il rumore stazionario:

n
y
2
=

n
x
2
P
2
(1+r
2
+... r
2k
+...)=

n
x
2
P
2 1
1r
2
. Possiamo
adesso calcolare il rapporto segnale/rumore:
(
S
N
)
y
=
S
y


n
y
2
=
P S
x
(1r)

1r
2
P
2

n
x
2
=
(
S
N
)
x

1+r
1r

(
S
N
)
x

2
1r
Impossibilit di migliorare il SNR oltre quello dei circuiti tempo continui
Abbiamo osservato che l'integratore tempo continuo migliora il rapporto segnale rumore di un
fattore
N , dove
N= f
S
T
G
. Sembrerebbe che aumentando a piacimento la frequenza di
campionamento si potrebbe migliorare all'infinito il SNR. Si pu notare, tuttavia, che il SNR
massimo ottenibile esattamente quello dell'integratore tempo continuo. In effetti intuitivo
pensare che a frequenze di campionamento molto alte si esce dal range di incorrelazione del
rumore. Infatti f
S
T
G
=N=
T
G
2T
n
, essendo T
n
la larghezza di autocorrelazione del rumore. Dunque
f
S
=
1
2T
n
. Oltre questa frequenza di campionamento si perde la propriet di incorrelazione
del rumore.
Per avere pi chiara la situazione cerchiamo di capire in che modo il nostro sistema faccia passare il
rumore.
42
w
discrete
()
T
S
Circa uguale a 2 perch
r molto vicino ad 1
43
|W(f)|
sampler
|S(f)|
gate
*
-f
S
f
S
2f
S
-2f
S
... ...
f
S
2f
S
-f
S
-2f
S
|W(f)|
tot
Il rumore, in realt, non ha banda infinita, ma limitato a una certa banda f
n
. Finch f
s
< f
n
, la
W ( f )
tot
contiene pi repliche del gated integrator (in particolare ne conterr
2f
n
f
S
=
2f
n
T
G
N
), e
fa dunque passare pi rumore del gated integrator stesso. Al limite (per f
s
che si avvicina a f
n
)
potremo ottenere esattamente il comportamento del gated integrator tempo continuo, ma
mai un comportamento migliore.
Boxcar integrator
L'integratore boxcar differisce dai circuiti visti in
precedenza perch non prevede reset tra
un'acquisizione e la successiva. Il boxcar calcola
dunque una media esponenziale mantenendo il
decadimento di fattore r tra acquisizioni
successive.
La funzione peso sar dunque fatta come indicato
in figura:
N.B.: se
T
G
T
F
, il boxcar si comporta da integratore a peso (circa) costante.
N.B.: la media eseguita dal filtro boxcar dipende da quanti campioni vengono prelevati e non dal
tempo in cui questi vengono prelevati (caratteristica resa evidente dal fatto che la funzione peso, in
fase di apertura dello switch, viene praticamente congelata).
Un circuito simile a quello appena visto ma da non confondere col boxcar integrator il
seguente:
44
r
1
Gate
w()
T
C
T
G
In questo circuito il buffer separa
l'input dalla parte effettivamente
integratrice (l'RC). Ci significa che,
in presenza di buffer e a switch
aperto, la capacit si scarica sul
buffer stesso (che presenta impedenza
di uscita molto bassa). Tra una
rilevazione e l'altra, dunque, la
funzione peso non manterr lo stesso
valore: le aperture di switch sono fasi
di perdita, nel senso che l'area
complessiva della curva esponenziale
resta unitaria (caso passivo), ma la somma delle aree delle zone con peso non nullo inferiore
all'unit!
Il circuito mostrato a
sinistra non un
boxcar. Si noti infatti
che il nodo 1 a
potenziale quasi
fermo (terra virtuale)
e dunque, a switch
aperto, determina un
comportamento
analogo al circuito
visto sopra (con la
decadenza della
funzione peso che
continua a switch
aperto). Inserendo uno
switch sincrono come
in figura, si riottiene
un comportamento da
boxcar.
45

w()
1
Filtraggio ottimo
Consideriamo casi in cui ci tocca misurare esclusivamente l'ampiezza di segnali (impulsivi) di
forma normalizzata
(
f (t ) tale che

+
f (t )dt =1
)
e tempo di arrivo noti. Ci chiediamo
quale filtro ottimizzi il SNR. Consideriamo inizialmente rumore bianco stazionario in ingresso:
Il segnale in uscita avr espressione:
u(t
m
)=

+
f ()w
m
()d =Ak
fw
(0)u
2
(t
m
)=A
2
k
fw
2
(0)
Mentre il rumore quadratico medio:

n
u
2
(t
m
)=S
b

+
w
m
2
()d =S
b
k
ww
(0)

n
u
2
(t
m
)=S
b
k
ww
(0)
Di conseguenza il quadrato dell'SNR sar il rapporto tra le due quantit appena calcolate:
SNR
2
=
A
2
S
b
k
fw
2
(0)
k
ww
(0)
N.B.: se la funzione peso w() ha un guadagno non unitario G, k
fw
introduce un contributo G (che al
quadrato fa G
2
, mentre k
ww
introduce un G
2
. Ai fini del SNR, dunque, possiamo ignorare la
presenza dell'eventuale guadagno.
Possiamo ad esempio ragionare tenendo costante il rumore rispetto alle variazioni sulla forma di w,
e cio considerando costante S
b
k
ww
(0). Il nostro obiettivo sar dunque massimizzare k
fw
(0). Si
tratta di una mutua correlazione, dunque, in generale, non ha il massimo nell'origine, ma altrove,
per quanto limitato in modulo dalle medie dei massimi di w() e f():
k
fw
2
(0)k
ff
(0)k
ww
(0) e vale l'uguaglianza qualora w() f () . Dunque il peso ottimale
(in condizioni di rumore bianco e stazionario) si ottiene se f() e w() hanno la stessa forma.
46
W
m
= ?
IN OUT
A f(t)
S
b
()
u(t
m
)
n
2
u
(t
m
)
(
S
N
)
max
2
=
A
2
S
b
k
ff
2
(0)
k
ff
(0)
=
A
2
S
b

+
f
2
()d =
A
2

+
f
2
()d
S
b
2 f
n

n
b
2
2 T
n

larghezza autocorrelazione
=

+
A
2
f
2
()

n
b
2
d
2T
n
Per il teorema di Parseval (passaggio utile se non interessano le informazioni di fase su f()), si pu
passare al dominio di Fourier:
(
S
N
)
max
2
=
A
2
S
b

+
F( f )
2
df
Passiamo al caso di rumore bianco non stazionario: il rumore in uscita avr autocorrelazione
R
n
=S
b
()()
e valore quadratico medio

n
u
2
(t
n
)=

+
S
b
()w
2
() d . Ma possibile porre
S
b
()w
2
()=
S
b
()w()|
2
= w' ()|
2
, mentre il segnale in uscita resta u
2
(t
m
)=A
2
k
fw
2
(0) .
In funzione di w'(), dunque, il rumore in uscita avr valore quadratico medio

n
u
2
(t
m
)=

+
w' ()|
2
d =k
w' w'
(0) .
Ponendo anche
f ' ()=
f ()

S
b
()
ci si pu ricondurre ad una situazione analoga a quella del caso
stazionario:
u
2
(t
m
)=

+
f ()

S
b
()

f ' ()

S
b
()w()

w' ()
d
|
2
=A
2
k
f ' w'
(0)
.
Questo ci fa capire che stavolta la funzione peso deve adattarsi sia al segnale sia al rumore:
w' ()=
f ()

S
b
()
w()=
f ()
S
b
()
. Con questo accorgimento otteniamo che il massimo SNR :
(
S
N
)
max
2
=A
2

+
f
2
( )
S
b
()
d , ma
S
b
()
2T
n
=

n
u
2
S
b
()=2T
n

n
u
2
, dunque
(
S
N
)
max
2
=

+
A
2
f
2
()

n
u
2
()
d
2T
n
.
47
Energia totale del
segnale nel tempo 2T
n
Esempio: rumore shot
Il rumore shot si pu considerare bianco
oltre i Ghz (gli impulsi shot hanno durata
nell'ordine dei microsecondi e larghezza di
autocorrelazione nell'ordine dei
nanosecondi).
Determina, su un segnale variabile molto
lentamente rispetto al rumore (circa
costante), una situazione del tipo:
I ( )=I
B
+I
S
()I
B
se I
B
I
S
In termini di densit spettrale di rumore, dunque, si ha
S
b
()=q I
B
+q I
S
()q I
B
, sempre se
I
B
I
S
.
Il filtro ottimo per segnali di questo tipo , in generale, w
B
()=
f ( )
S
b
()
=
I
S
()
I
B
+I
S
()
Si nota che se l'ampiezza degli impulsi shot trascurabile rispetto al segnale, ci si pu ricondurre al
caso stazionario.
N.B.: per la propriet di reversibilit dei filtri lineari, se ci si trova in presenza di rumore non bianco
sempre possibile trovare un filtro a parametri costanti detto di sbiancamento. Se occorre questo
passaggio, il filtro ottimo costituito dalla cascata del filtro di sbiancamento e del filtro ottimo
suggerito dalla natura del segnale e messo in relazione al rumore in uscita dal filtro sbiancante:
48
I()
I
B
I
S
()
FS
(filtro sbiancante)
FA
(filtro adattato)
A f()
R
m
()
A g()
R
bb
() = S
b
()
Rumore non
bianco
Rumore
bianco
Filtro ottimo
Appunti dalle esercitazioni (incompleti)
Utilizzo pratico di operazioni e funzioni di uso comune
La convoluzione: y(t )=x(t )h(t )=

+
x()h(t)d E' utile per valutare l'uscita
di un sistema lineare a parametri costanti noti l'ingresso e la risposta alla ;
Vediamo un importante utilizzo dell'operazione di convoluzione:
E' noto che
R
yx
()=R
xx
()h()
. Questa relazione si pu sfruttare per calcolare la h() se
sono noti i segnali in ingresso ed uscita (in particolare se x(t) rumore bianco in uscita avremo
esattamente h(-)!). E' una considerazione particolarmente utile in situazioni di calibrazione.
L'autocorrelazione: k
xx
()=

+
x( t ) x( t +)dt D una valutazione della periodicit di
un segnale, poich dice quanto il segnale assomiglia a se stesso spostato nel tempo;
N.B.: se l'autocorrelazione una , noto il segnale in un istante non possiamo dire
assolutamente nulla sul segnale stesso altrove;
Restando sull'autocorrelazione, importante chiedersi perch sia utile che il rumore possa essere
considerato bianco (totalmente incorrelato:
R
xx
()=()
). Le ragioni sono varie:
Dominio del tempo: in situazione di segnale sporcato da rumore, se individuiamo coerenza
nel segnale risultante, siamo certi che questa non sia dovuta al rumore;
Dominio della frequenza: a parit di potenza di rumore, un rumore che distribuisce la
potenza su tutto lo spettro preferibile rispetto ad un rumore passabasso, poich
filtrando sul solo spettro
del segnale possibile
scartare gran parte della
potenza di rumore
preservando praticamente
tutta quella del segnale;
49
S
x
(f)
f
h(t)
x(t)
y(t)
Statistica del rumore: nel calcolo del valore quadratico medio non ci sono contributi
rettangolari dovuti alla correlazione tra istanti diversi. La media di campioni presi in
istanti diversi fornisce dunque il segnale originale: questo conferma che un filtraggio
passabasso in caso di rumore bianco migliora di molto l'SNR (Signal to Noise Ratio);
N.B.: il rumore bianco, nella realt, non esiste, e cio esiste solo rumore la cui autocorrelazione
solo approssimativamente una .
Ma allora, se non esiste un'autocorrelazione a , come modelliamo l'approssimazione della ?
Di sicuro non possiamo usare il rettangolo ( come limite per la durata del rettangolo tendente a 0
ad area costante). Vediamo perch:
La trasformata di un rettangolo una
funzione seno cardinale, che ha anche
valori negativi. Nel nostro caso, per, i
valori negativi non avrebbero senso fisico:
F R
xx
()|=S
x
( f )
Dove S
x
(f) una densit spettrale di
potenza, decisamente una quantit non
negativa su tutte le frequenze.
Per questa ragione ha pi senso considerare un'approssimazione a triangolo, dato che la sua
trasformata un sinc
2
, non negativo su tutto lo spettro.
Un'autocorrelazione triangolare anzich a pone un'importante limitazione: il triangolo una
funzione di larghezza finita, dunque non vero che due campioni di rumore sono sempre incorrelati
comunque vengano considerati. Questo indica che per ottenere un valore medio attendibile dovremo
sovracampionare, e cio considerare pi campioni di segnale.
La larghezza dell'autocorrelazione indice della frequenza di campionamento oltre la quale la
stima del segnale originale non migliora pi.
50
S
x
(f)
f
S
x
(f)

R
xx
()
f
F
Funzione peso: indice di quanto l'uscita si ricorda dell'ingresso. Ad esempio una
funzione peso continua e costante tipo rettangolo ci dice che l'uscita presa nell'istante finale
del rettangolo sar la somma dei valori dell'ingresso misurati nella durata del rettangolo
(gated integrator).
51

Potrebbero piacerti anche