Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Corso di
WEB:
http://biomedia4n6.uniroma3.it/teaching/teoria_dei_segnali.html
SERVIZI DI TELECOMUNICAZIONE
Nodo di
commutazione
rete di
telecomunicazione
SORGENTE DESTINATARIO
generatore di destinatario di
messaggi messaggi
messaggio messaggio
convertitore convertitore
messaggio/segnale segnale/messaggio
segnale
Canale di comunicazione
In generale nel modellare il comportamento della sorgente si
possono individuare due momenti concettualmente distinti:
1. La formulazione del messaggio da trasmettere e
l’individuazione del destinatario.
2. La concretizzazione del messaggio astratto in una forma fisica
adeguata affinché possa pervenire al destinatario: il SEGNALE.
FORMA D'ONDA
La descrizione più naturale di un segnale è costituita dalla
funzione matematica che descrive l'andamento della grandezza
fisica che fa da supporto al messaggio in funzione del tempo, dello
spazio o dello spazio-tempo. Tale funzione prende il nome di
forma d'onda.
X :T → Cn
100
80
60
40
20
0
0 1 2 3 4 5
x[k]= x(t k )
Inoltre non si fa riferimento alla durata degli intervalli tra gli istanti
di tempo, cosicché non si può fare riferimento all'aspetto dinamico
del segnale (e.g. velocità di variazione di un segnale).
1.5
1
0.5
0
-0.5 0 1 2 3 4 5
-1
-1.5
RAPPRESENTAZIONE GEOMETRICA DEI
SEGNALI
Scopo:
Esempio
x(t) y(t)
S
Siano:
H : X →Y
= a 1 y 1 (t)+ a 2 y 2 (t)
N N
H ∑
i =1
ai xi (t ) =
∑ a H [ x ( t ) ].
i =1
i i
∞ ∞
H
∑
i =1
ai xi (t ) =
∑a H [x (t )]
i =1
i i
ovvero
∫
H a ( σ ) x ( t , σ ) dσ =
∫ a ( σ ) H [ x ( t , σ ) ]dσ .
Def.: Un sistema S si dice lineare se la trasformazione H ad esso
associata è lineare in senso esteso.
avendo posto y ( t ) = H [ x ( t ) ]
In tal caso l'adozione di particolari basi di rappresentazione i cui
elementi siano ottenibili per traslazione di una funzione
elementare w(t) consente di scrivere il generico segnale x(t) come:
x(τ ) =
∫ a ( τ ) w ( τ − τ ) dτ
Di conseguenza l'uscita corrispondente sarà pari a
y(τ ) =
∫ a ( τ ) h ( τ − τ ) dτ
essendo h(t) l'uscita corrispondente alla funzione elementare w(t).
SISTEMI LINEARI E PERMANENTI A TEMPO
DISCRETO
ε 0 = (1 0 0 … 0 … 0)
ε 1 = (0 1 0 … 0 … 0)
…………………….
ε n = (0 0 0 … 1 … 0)
ε N-1 = (0 0 0 … 0 … 1)
• Ogni elemento di tale spazio può essere espresso come
combinazione lineare dei vettori costituenti la base:
N −1
=
∑
n =0
x [ n ]ε n
SISTEMI LINEARI A TEMPO DISCRETO
In termini di segnali al vettore ε 0 corrisponde il segnale tempo
discreto, indicato nel seguito con u 0 [k], e noto in letteratura con il
termine di impulso a tempo discreto, che assume il valore 1 per k=0
e 0 altrove
1.5
1
1 per k = 0
u0 [k ] =
0.5
0 altrove
0
-3 -2 -1 0 1 2 3
Ogni altro elemento della base può essere ottenuto per traslazione
temporale di u 0 [k].
1.5
Ad esempio l'elemento
1
corrispondente a ε n è pari a
0.5
u 0 [k-n]
0
1
2
3
2
3
1
n
n+
n+
n+
n-
n-
n-
SISTEMI LINEARI A TEMPO DISCRETO
2
1.5
1
0.5
0 x[k] =
-0.5 -1 0 1 2 3 4
-1
-1.5
-2
2
1.5
1
0.5 x[0]u 0 [k] +
0
-0.5 -1 0 1 2 3 4
-1
-1.5
-2
2
1.5
1
+ x[1]u 0 [k-1] +
0.5
0
-0.5 -1 0 1 2 3 4
-1
-1.5
-2
2
1.5
1
0.5 + x[2]u 0 [k-2] +
0
-0.5 -1 0 1 2 3 4
-1
-1.5
-2
2
1.5
1 + x[3]u 0 [k-3]
0.5
0
-0.5 -1 0 1 2 3 4
-1
-1.5
-2
RISPOSTA IMPULSIVA
Dato un segnale a tempo discreto per esso vale la seguente
rappresentazione in termini di impulsi a tempo discreto
∞
x[ k ] = ∑ x [ n ]u 0 [ k − n ] (1)
n = −∞
∞
y[k ] = ∑ x [ n ]h [ k − n ]
n = −∞
CONVOLUZIONE DISCRETA
y [ k ] = x[ k ]∗ h[ k ]
∞
= ∑ x [ n ]h [ k − n ]
n = −∞
b f ( t o ) t 0 ∈[ a , b ]
∫a
f ( t ) u 0 ( t − t 0 ) dt =
0 t 0 ∉[ a , b ]
IMPULSO MATEMATICO
Commento: A causa della risoluzione limitata degli strumenti, un
qualsivoglia procedimento di misura non consente di rilevare
direttamente il valore assunto da un segnale x(t) in un dato istante
(m)
t 0 ma piuttosto il valor medio del segnale x ∆t ( t 0 ) in un
1 τ 0 + ∆τ / 2
∫
(m)
x ∆τ ( τ 0 ) = x ( τ ) dτ
∆τ τ 0 − ∆τ / 2
∆τ ∆τ
= x ( τ ′ ), τ ′ ∈ τ0 − , τ0 +
2 2
τ 0 + ∆τ / 2
∫ x ( τ ) dτ
τ 0 − ∆τ / 2
t0-∆t/2 t0 t0+∆t/2
IMPULSO MATEMATICO
Commento: Di conseguenza, dal punto di vista operativo il valore
assunto dal segnale in t 0 può essere visto come il limite a cui
tende il valor medio quando l'intervallo di osservazione diviene
infinitesimo:
(m)
x ( τ 0 ) = lim x ∆τ =
∆τ →0
τ 0 + ∆τ / 2
∫
1
= lim x( τ) dτ =
∆τ →0 ∆τ τ − ∆τ / 2
0
∞
∫
1
= lim x ( τ ) recτ ∆τ ( τ − τ 0 ) dτ =
∆τ →0 ∆τ − ∞
∞
∫
1
= lim x ( τ ) recτ ∆τ ( τ − τ 0 ) dτ
∆τ →0 − ∞ ∆τ
∞ 1
∫− ∞ ∆t rect ∆t ( t ) dt = 1
IMPULSO MATEMATICO
Proprietà fondamentali:
i. proprietà di campionamento
∞
x(τ ) =
∫− ∞ x ( τ ) u 0 ( τ − τ ) dτ
(è conseguenza diretta della definizione e della simmetria
dell'impulso matematico rispetto all'origine)
iii. simmetria
u0 (t ) = u0 ( −t )
1
u 0 ( at ) = u 0 ( t ), a≠0
|a|
x (t )u 0 (t − t 0 ) = x (t 0 )u 0 (t − t 0 )
RISPOSTA IMPULSIVA
Dato un segnale a tempo continuo per esso vale la seguente
rappresentazione in termini di impulsi matematici
∞
x(τ ) =
∫− ∞ x ( τ ) u 0 ( τ − τ ) dτ (1)
∞
y(τ ) =
∫ −∞
x ( τ ) h ( τ − τ ) dτ
INTEGRALE DI CONVOLUZIONE
L'operatore che lega l'uscita del sistema all'ingresso e alla risposta
impulsiva prende il nome di integrale di convoluzione del
sistema, ovvero di convoluzione e sarà indicato nel seguito con il
simbolo *
x(t) h(t)
h(t) = x(t)
∞ −∞
x(t ) ∗ h(t ) =
∫−∞
x ( t ) h ( t − t ) dt = −
∫
∞
x ( t − x ) h ( x ) dx =
∞
=
∫−∞
x ( t − x ) h ( x ) dx
= h(t ) ∗ x(t )
c.d.d.
CONVOLUZIONE: PROPRIETÀ
associatività
[x ( t ) ∗ z ( t )]∗ h ( t ) = x ( t ) ∗ [z ( t ) ∗ h ( t )]
x(t) x(t)
z(t) h(t) = z(t)*h(t)
∞ ∞
∫ ∫
[x (t ) ∗ z (t )]∗ h(t ) = x ( x ) z ( t − x ) dx h ( t − t ) dt
− ∞ − ∞
∞ ∞
=
∫ ∫ h [( t − x ) − ( t − x )] z ( t − x ) dt x ( x ) dx
− ∞ − ∞
∞
=
∫
−∞
[z ( t − x ) ∗ h ( t − x ) ] x ( x ) dx
= x (t ) ∗ [z (t ) ∗ h (t )]
c.d.d.
CONVOLUZIONE: PROPRIETÀ
distributività rispetto alla somma
x ( t ) [h1 ( t ) + h 2 ( t ) ] = x ( t ) ∗ h1 ( t ) + x ( t ) ∗ h 2 ( t )
h1(t)
x(t) x(t)
+ = h1(t)+h2(t)
h2(t)
∞ ∞
=
∫−∞
x ( t − t ) h1 ( t ) dt +
∫ x ( t − t ) h 2 ( t ) dt
−∞
= x ( t ) ∗ h1 ( t ) + x ( t ) ∗ h 2 ( t )
c.d.d.
CONVOLUZIONE: PROPRIETÀ
1. x(t ) ∗ u0 (t ) = x(t )
2. x(t ) ∗ u0 (t − t0 ) = x(t − t0 )
3. posto
z (t ) = x(t ) ∗ y (t )
si ha
Infatti:
x(t − ta ) ∗ y (t − tb ) = [ x(t ) ∗ u0 (t − ta )] ∗ [ y (t ) ∗ u0 (t − tb )]
= [ x(t ) ∗ y (t )] ∗ [u0 (t − ta ) ∗ u0 (t − tb )]
= [ x(t ) ∗ y (t )] ∗ u0 [t − (ta + tb )]
STABILITÀ
Def.:Un filtro si dice stabile se il segnale di uscita risulta limitato
ovunque quando in ingresso è applicato un segnale limitato ovunque.
∫ −∞
h ( τ ) dτ < ∞
∞ ∞
| y ( τ ) |=
∫ x ( τ ) h ( τ − τ ) dτ ≤
−∞ ∫
−∞
x ( τ ) h ( τ − τ ) dτ
∞ ∞
≤
∫ −∞
x ( τ ) h ( τ − τ ) dτ ≤ M
∫−∞
h ( τ − τ ) dτ < ∞
∞ ∞
y (0) =
∫ −∞
− sign {h [ − ( 0 − τ )]}h ( τ ) dτ =
∫ | h ( τ ) | dτ < N .
−∞
CONVOLUZIONE: INTERPRETAZIONE GRAFICA
1 τ
h( )
τ
x( )
0.5
0 τ
-6 -4 -2 0 2 4 6
1
τ
h (- )
τ
0.5
x( )
ribalta h(τ)
0 τ
-6 -4 -2 0 2 4 6
τ
1 h (t - ) trasla
τ l'origine in t
x( )
0.5
τ τ
x ( )h (t - )
0 τ
t
-6 -4 -2 0 2 4 6
PRODOTTO SCALARE
Def.:Un'applicazione da X°X su S é un prodotto scalare e si indica
con <x,y> se verifica le seguenti condizioni:
iii. è hermitiana
i. è strettamente positiva
iii. è subadditiva
|| x + y || = ≤ ||x|| + ||y||
Proprietà:
norma hilbertiana
d(x, y) = || x- y ||
SPAZI DI HILBERT
Uno spazio vettoriale X è uno spazio di Hilbert se
∆T / 2
Ex = lim
∆T →∞
∫−∆T / 2 x ( t ) x * ( t ) dt
∆ ∆
1 per − ≤t≤
rect ∆ (t ) = 2 2 t
0 - ∆/2 ∆/2
altrove
∆T / 2
Ex = lim
∆T → ∞ ∫ A 2 rect ∆ ( t ) dt = A 2 ∆ .
− ∆T / 2
SEGNALI DI ENERGIA
L'insieme dei segnali di energia costituisce uno spazio vettoriale.
A tale scopo è sufficiente verificare che se x(t) e y(t) sono segnali
di energia, la loro somma è un segnale di energia.
∆T / 2 ∆T / 2
lim
∆T → ∞ ∫ x ( t ) + y ( t ) 2 dt ≤ 2 lim
− ∆T / 2 ∆T → ∞ ∫ x ( t ) 2 dt +
− ∆T / 2
∆T / 2
2 lim
∆T → ∞ ∫ y ( t ) 2 dt < ∞
− ∆T / 2
si ricorda che
2 2
0 ≤ ( a − b )2 = a + b − 2 ab
e quindi
2 2
i. 2 ab ≤ a + b
2 2 2
ii. a+b ≤ 2a +2b
SEGNALI DI POTENZA
Def.: Dato un segnale x(t), si definisce potenza totale Px del
segnale la seguente grandezza reale (se esiste)
1 ∆T / 2
Px = lim
∆T →∞ ∆T ∫−∆T / 2 x ( t ) x * ( t ) dt
x(t)=A
∫
2 2
Px = lim 1 A dt = lim 1
A ∆T
∆T → ∞ ∆T − ∆T / 2 ∆T → ∞ ∆T
2
= A .
SEGNALI DI POTENZA
Esercizio: Si calcoli la potenza del segnale
x(t)=Acos(2πf 0 t+ϕ)
0
-2T -T 0 T 2T 3T
-A
∆T / 2
∫ A cos(2πf 0t + ϕ ) dt
2
Px = lim ∆
1
∆T → ∞ T
− ∆T / 2
∆T / 2 ∆T / 2
∫ ∫
2 2
A A
= lim ∆
1
dt + lim ∆1T cos(4πf 0t + 2ϕ )dt
∆T → ∞ T 2 ∆T → ∞ 2
− ∆T / 2 − ∆T / 2
2
A
=
2
SEGNALI DI POTENZA
L'insieme dei segnali di potenza costituisce uno spazio vettoriale.
A tale scopo è sufficiente verificare che se x(t) e y(t) sono segnali
di potenza, la loro somma è un segnale di potenza.
∆T / 2 ∆T / 2
∫ ∫
1 2 1
lim x(t ) + y(t ) dt ≤ 2 lim x ( t ) 2 dt +
∆T → ∞ ∆T − ∆T / 2 ∆T → ∞ ∆T − ∆T / 2
∆T / 2
∫
1
2 lim y ( t ) 2 dt < ∞
∆T → ∞ ∆T − ∆T / 2
si ricorda che
2 2
0 ≤ ( a − b )2 = a + b − 2 ab
e quindi
2 2
iii. 2 ab ≤ a + b
2 2 2
iv. a+b ≤ 2a +2b
PRODOTTO SCALARE PER SEGNALI DI
ENERGIA
∆T / 2
< x ( t ), y ( t ) > = lim
∆T → ∞ ∫ x ( t ) y * ( t ) dt
− ∆T / 2
∆T / 2 ∆T / 2
∫ ∫
1
lim x ( t ) y * ( t ) dt ≤ lim x ( t ) 2 dt +
∆T → ∞ − ∆T / 2 ∆T → ∞ 2 − ∆T / 2
∆T / 2
∫
1
lim y ( t ) 2 dt < ∞
∆T → ∞ 2 − ∆T / 2
inoltre
∆T / 2 ∆T / 2
λim
∆T → ∞ ∫ λ x ( t ) y * ( t ) dt =λ
− ∆T / 2
λim
∆T → ∞ ∫ x ( t ) y * ( t ) dt
− ∆T / 2
iii. è hermitiano
*
∆T / 2 ∆T / 2
lim
∆T →∞ ∫
x ( t ) y * ( t ) dt
− ∆T / 2
= = lim
∆T →∞ ∫ [ x ( t ) y * ( t )] * dt
− ∆T / 2
∆T / 2
= lim
∆T →∞ ∫ y ( t ) x * ( t ) dt
− ∆T / 2
∆T / 2 2
lim
∆T → ∞ ∫ x ( t ) y * ( t ) dt
− ∆T / 2
≤ Ex Ey
PRODOTTO SCALARE PER SEGNALI DI
POTENZA
∆T / 2
∫
1
< x ( t ), y ( t ) > = lim x ( t ) y * ( t ) dt
∆T →∞ ∆T − ∆T / 2
∆T / 2 ∆T / 2
∫ ∫
1 1 1
lim x ( t ) y * ( t ) dt ≤ lim x ( t ) 2 dt +
∆T → ∞ ∆T − ∆T / 2 ∆T → ∞ 2 ∆T − ∆T / 2
∆T / 2
∫
1 1
lim y ( t ) 2 dt < ∞
∆T → ∞ 2 ∆T − ∆T / 2
inoltre
∫
1
< x ( t ) + z ( t ), y ( t ) > = lim x ( t ) y * ( t ) dt +
∆T →∞ ∆T − ∆T / 2
∆T / 2
∫
1
lim z ( t ) y * ( t ) dt
∆T →∞ ∆T − ∆T / 2
PRODOTTO SCALARE PER SEGNALI DI
POTENZA (CONT.)
∆T / 2 ∆T / 2
∫ ∫
1 1
λim λ x ( t ) y * ( t ) dt =λ λim x ( t ) y * ( t ) dt
∆T →∞ ∆T − ∆T / 2
∆T →∞ ∆T − ∆T / 2
vii. è hermitiano
∆T / 2 * ∆T / 2
1
∫ ∫
1
lim x ( t ) y * ( t ) dt = = lim [ x ( t ) y * ( t )] * dt
∆T →∞ ∆T ∆T →∞ ∆T
− ∆T / 2 − ∆T / 2
∆T / 2
∫
1
= lim y ( t ) x * ( t ) dt
∆T →∞ ∆T − ∆T / 2
∆T / 2 2
∫
1
lim x ( t ) y * ( t ) dt ≤ Px P y
∆T →∞ ∆T
− ∆T / 2
ORTOGONALITÀ
Def.: due elementi di uno spazio vettoriale si dicono ortogonali se
il loro prodotto scalare è nullo:
<x, y> = 0
1 h = k
< e h , e k >= δ h , k =
0 h ≠ k
< x, ek >
ck = .
< ek , ek >
Dim.: Si osservi che moltiplicando scalarmente x per ek , per
l'ortogonalità si ha:
Def.1: dati due segnali x(t) e y(t), di cui almeno uno impulsivo,
prende il nome di integrale di intercorrelazione tra essi la
seguente espressione:
∆T / 2
e xy ( τ ) = lim
∆T → ∞ ∫ x * ( τ ) y ( τ + τ ) dτ
− ∆T / 2
e xy ( t ) = x * ( − t ) * y ( t ) .
∆T / 2
∫
1
p xy ( τ ) = lim x * ( τ ) y ( τ + τ ) dτ
∆T → ∞ ∆T − ∆T / 2
CORRELAZIONE
∫
1
p x (τ ) = lim x * ( τ ) x ( τ + τ ) dτ
∆T → ∞ ∆T − ∆T / 2
PROPRIETÀ DELLA CORRELAZIONE
Valgono le seguenti proprietà
∆T / 2 ∆T / 2
∫ ∫
1
e xy ( τ ) = lim x * ( τ ) y ( τ + τ ) dτ p xy ( τ ) = lim x * ( τ ) y ( τ + τ ) dτ
∆T − ∆T / 2
∆T → ∞ ∆T → ∞
− ∆T / 2
e xx ( 0 ) = Ex p xx ( 0 ) = P x
| e xy ( t ) | 2 ≤ Ex Ey | p xy ( t ) | 2 ≤ P x P y
| e xx ( t ) |≤ Ex | p xx ( t ) |≤ P x
TRASFORMAZIONI LINEARI ED INTERCORRELAZIONE
x1 ( t ) y1 ( t )
h1 ( t )
x2 (t ) y2 (t )
h2 ( t )
Teorema: Dati due filtri stabili con risposte impulsive h 1 (t) e h 2 (t) a
cui vengano applicati in ingresso due segnali di energia x1 (t) e x 2 (t),
sussiste la seguente relazione tra le funzioni di correlazione:
e y1 y 2 ( t ) = e x1 x 2 ( t ) ∗ e h1 h2 ( t )
Corollario: Dati due filtri stabili con risposte impulsive h1 (t) e h 2 (t)
a cui vengano applicati in ingresso due segnali di energia x 1 (t) e
x 2 (t), sussistono le seguenti relazioni tra le funzioni di correlazione:
e y1 y1 ( t ) = e x1 x1 ( t ) ∗ e h1 h1 ( t )
e y 2 y 2 ( t ) = e x 2 x 2 ( t ) ∗ e h2 h2 ( t )
e x 1 y 1 ( t ) = e x 1 x 1 ( t ) ∗ h1 ( t ) e x1 y 2 ( t ) = e x1 x 2 ( t ) ∗ h 2 ( t )
e x2 y2 ( t ) = e x2 x2 ( t ) ∗ h2 ( t ) e x 2 y 1 ( t ) = e x 1 x 2 ( t ) ∗ h1 ( t )
TRASFORMAZIONI LINEARI ED INTERCORRELAZIONE
Prova: Poiché y1 (t) e y 2 (t) sono due segnali di energia, per la loro
funzione di intercorrelazione si ha
e y1 y 2 ( t ) = y 1∗ ( − t ) ∗ y 2 ( t )
e quindi considerando che y 1 (t) e y 2 (t) sono dati dalle convoluzioni tra
x 1 (t) e x 2 (t) e le rispettive risposte impulsive, si ottiene
[ ]
e y1 y 2 ( t ) = x 1∗ ( − t ) ∗ h1∗ ( − t ) ∗ [ x 2 ( t ) ∗ h 2 ( t ) ]
= [x 1∗ ( − t ) ∗ x 2 ( t ) ]∗ [h1∗ ( − t ) ∗ h 2 ( t ) ]
= e x1 x 2 ( t ) ∗ e h1 h2 ( t )
c.d.d.
e x1 y 2 ( t ) = x 1∗ ( − t ) ∗ y 2 ( t )
= x 1∗ ( − t ) ∗ [ x 2 ( t ) ∗ h 2 ( t ) ]
[ ]
= x 1∗ ( − t ) ∗ x 2 ( t ) ∗ h 2 ( t )
= e x1 x 2 ( t ) ∗ h 2 ( t )
x1 ( t ) y1 ( t )
h1 ( t )
x2 (t ) y2 (t )
h2 ( t )
Teorema: Dati due filtri stabili con risposte impulsive h 1 (t) e h 2 (t) a
cui vengano applicati in ingresso due segnali di potenza x1 (t) e
x 2 (t), sussiste la seguente relazione tra le funzioni di correlazione:
p y1 y 2 ( t ) = p x1 x 2 ( t ) ∗ e h1 h2 ( t )
Corollario: Dati due filtri stabili con risposte impulsive h1 (t) e h 2 (t)
a cui vengano applicati in ingresso due segnali di potenza x1 (t) e
x 2 (t), sussistono le seguenti relazioni tra le funzioni di correlazione:
p y1 y1 ( t ) = p x1 x1 ( t ) ∗ e h1 h1 ( t )
p y 2 y 2 ( t ) = p x 2 x 2 ( t ) ∗ e h2 h2 ( t )
p x 1 y 1 ( t ) = p x 1 x 1 ( t ) ∗ h1 ( t ) p x 1 y 2 ( t ) = p x1 x 2 ( t ) ∗ h 2 ( t )
p x2 y2 ( t ) = p x2 x2 ( t ) ∗ h2 ( t ) p x 2 y1 ( t ) = p x1 x 2 ( t ) ∗ h1 ( t )
TRASFORMAZIONI LINEARI ED INTERCORRELAZIONE
∆T / 2
∫
1
p y1 y 2 ( τ ) = lim y 1∗ ( τ ) y 2 ( τ + τ ) dτ
∆T → ∞ ∆T − ∆T / 2
∆T / 2 ∞ ∗
∫ ∫
1
= λim x 1 ( τ − λ )h1 ( λ ) dλ
∆T → ∞ ∆T − ∆T / 2 − ∞
∞
∫
x 2 ( τ + τ − θ )h 2 ( θ ) dθ dτ
− ∞
∞ +∞
p x1 y2 (τ ) = ∫ ∫ h1∗ (λ )h2 (θ )
−∞ −∞
1 ∆T / 2 ∗
∆Tλim
→∞ ∆T ∫−∆T / 2 1
x (τ − λ ) x 2 (τ + τ − θ ) d τ dλdθ
∞ ∞
p x1 y 2 ( t ) =
∫ ∫
−∞ −∞
h1∗ ( λ ) h 2 ( θ ) p x1 x 2 [ t − ( θ − λ )] dλ dθ
µ=θ ϑ=µ
,
ν = θ − λ λ = µ + ν
∂θ ∂λ
∂µ ∂µ 1 1
= =1
∂θ ∂λ 0 1
∂ν ∂ν
∞ ∞
p y1 y 2 ( t ) =
∫ ∫ h1∗ ( µ + ν ) h 2 ( µ ) dµ p x x ( t − ν ) dν
− ∞ − ∞ 1 2
∞
=
∫
−∞
e h1 h2 ( ν ) p x1 x 2 ( t − ν ) dν =
= p x1 x 2 ( t ) ∗ e h1 h2 ( t )
c.d.d.
TRASFORMAZIONI LINEARI ED INTERCORRELAZIONE
y1′ ( t )
h1′ ( t )
x1 ( t ) y1 ( t )
h1 ( t )
y2 (t )
x2 (t )
h2 ( t )
y 1′ ( t ) = x 1 ( t ) ,
e h1′ h 2 ( t ) = u 0∗ ( − t ) ∗ h 2 ( t ) = u 0 ( t ) ∗ h 2 ( t ) = h 2 ( t )
p x1 y 2 ( t ) ≡ p y 1′ y 2 ( t ) = p x1 x 2 ( t ) ∗ e h1′ h 2 ( t )
= p x1 x 2 ( t ) ∗ h 2 ( t )
c.d.d.
SEGNALI PERIODICI
Def.: Dato un segnale x(t), esso si dice periodico di periodo T
se, per ogni istante t risulta
x(t + T ) = x(t )
x (t )
-T -T/2 0 0 T/2 T t
-2,0
SVILUPPO IN SERIE DI FOURIER PER
SEGNALI PERIODICI
Teorema di Fourier.: Dato un segnale x(t) periodico di periodo
T che risulti
i. generalmente continuo in [− T / 2, T / 2 )
ii. assolutamente integrabile in [− T / 2, T / 2 ),
∫
T /2
x ( τ ) dτ < +∞
−T / 2
esso può essere rappresentato come segue
+∞
x(t ) =
∑
n = −∞
x n e j 2 πf n t
con
n
fn = nF =
T
e dove i valori
∫
T /2
1
xn = x ( t )e − j 2 πf n t dt < +∞
T −T / 2
+∞
x(t ) =
∑
n = −∞
x n e j 2 πf n t
s n ( t ) = e j πf n t n = 0 , ±1, ± ,
1 m=n
< sm (t ), sn (t ) >=
0 m≠n
∫
1
< x ( t ), y ( t ) >= lim x ( t ) y * ( t ) dt =
∆t → ∞ ∆t − ∆t / 2
NT / 2
1 T /2
∫ ∫
1
= lim *
x ( t ) y ( t ) dt = lim N x ( t ) y ( t ) dt
*
N → ∞ NT − NT / 2 N → ∞ NT
−T / 2
T /2
∫
1
= x ( t ) y * ( t ) dt
T −T / 2
SVILUPPO IN SERIE DI FOURIER PER
SEGNALI PERIODICI (CONT.)
Pertanto, per due elementi e j 2 πf n t , e j 2 πf m t della base si ha
∫
T /2
j 2 πf n t j 2 πf m t 1 j 2 πf n t − j 2 πf m t
<e ,e >= e e dt
T −T / 2
2π
∫
T /2 j ( n −m ) t
1
= e T dt
T −T / 2
1 T /2
T −T / 2
∫
dt = 1 n=m
2π T /2
= j ( n −m ) t
e T sin ( n − m ) π
j 2 π( n − m ) = =0 n≠m
(n − m)π
−T / 2
C.D.D.
SERIE DI FOURIER PER SEGNALI PERIODICI
Proprietà fondamentali:
i. linearità
Ax ( t ) + B y ( t ) ⇔ A X n + BY n
ii. traslazione nel tempo
x(τ − τ) ⇔ X n e − j 2 π Fn τ
iii. traslazione in frequenza
x ( t )e j 2 π Fk t ⇔ X n −k
iv. differenziazione
d
x(t ) ⇔ j 2 πF n X n
dt
v. integrazione
dato un segnale periodico x(t) è a valor medio nullo, ovvero tale
che
T /2
∫
1
x ( t ) dt = 0
T −T / 2
si ha:
t
∫
1
x ( t ) dt ⇔ X n.
j 2 πF n
−∞
SERIE DI FOURIER PER SEGNALI PERIODICI
Proprietà fondamentali (segue):
i. Intercorrelazione
∆t / 2
∫
1
p xy ( t ) = lim x * ( t ) y ( t + t ) dt ⇔ P xy = X n* Y n
∆t → ∞ ∆t n
− ∆t / 2
+ ∆τ / 2
∫
1
π xy ( τ ) = lim x * ( τ ) y ( τ + τ ) dτ
∆τ → ∞ ∆τ
− ∆τ / 2
+ ∆τ / 2
+∞ + ∞
∫ ∑ ∑
1 * − j 2 π Fn τ j 2 π Fm ( τ + τ )
= lim X n e Y m e dτ
∆τ → ∞ ∆τ
− ∆τ / 2 n = −∞ m = −∞
+∞ +∞ + ∆τ / 2
=
∑∑
n = −∞ m = −∞
X n* Y m e j 2 πmF τ lim
∆τ → ∞ ∆τ
1
∫ e j 2 π F ( m − n ) τ dτ
− ∆τ / 2
+∞
=
∑
n = −∞
X n* Y n e j 2 πnF τ
c.d.d.
TEOREMA DI PARSEVAL PER SEGNALI
PERIODICI.
+∞
Px =
∑
n = −∞
Xn 2
+∞ +∞
P x = π xx ( 0 ) =
∑
n = −∞
X n 2 e j 2 π nF 0 =
∑
n = −∞
Xn 2
SVILUPPO IN SERIE DI FOURIER PER
SEGNALI PERIODICI (CONT.)
Esempio 1
n n
∫ ∫
T /2 T /2
1 − j2π t 1 − j2π t
xn = x(t )e T dt = Ae T dt
T T
−T / 2 −T / 2
T /2
j2πnt
e e − jπn − e + jπn
= A sin ( πn )
T
= = A −
n j 2 πn πn
j2π
T −T / 2
A n = 0
=
0 n ≠ 0
0
-2T -T 0 T 2T 3T
-A
Serie di Fourier del segnale x(t)=A cos(2πf 0 t+j)
n n
1 − j 2π t 1 − j 2π t
Acos(2πf 0 t + j )
T /2 T /2
T ∫−T / 2 ∫
xn = x(t )e T dt = e T dt
T −T / 2
2π 2π
− j t − j 2π t
n
1 T / 2 A jj T t
+ e − jj e T e
j
= ∫ e e T dt
T −T / 2 2
2π n
A jj 1 T / 2 j t − j 2π t
=
2
e
T ∫−T / 2
e T e T dt
2π n
A − jj 1 T /2 −j t − j 2π t
+
2
e
T ∫−T / 2
e T e T dt
Per l’ortonormalità della famiglia di funzioni, il primo integrale
risulta diverso da zero (e pari a 1) solo per n=1, e il secondo
integrale è diverso da zero solo per n= -1. Di conseguenza si ha
A ϕϕ
2e n =1
A − ϕϕ
xn = e n = −1
2
0 n ≠ 1, −1
SVILUPPO IN SERIE DI FOURIER PER
SEGNALI PERIODICI (CONT.)
Esempio 3
n +∞ n
− j2π t − j2π t
∑
1 T /2 1 T /2
Xn =
∫
T −T / 2
x(t )e T dt =
∫
T −T / 2
k = −∞
u 0 ( t − kT )e T dt
n
T / 2 − j 2 π t
∫
1 1
= u 0 ( t )e T dt =
T −T / 2 T
da cui segue:
n
Xn sin π ∆
∆ T
Xn =
T n
n π ∆
1/∆ T
n/T
SVILUPPO IN SERIE DI FOURIER PER
SEGNALI PERIODICI (CONT.)
Esempio 5 (cont.)
I Approssimazione:
x 1 (t )
x (t )
II Approssimazione:
x 2 (t )
x (t )
t
SVILUPPO IN SERIE DI FOURIER PER
SEGNALI PERIODICI (CONT.)
Esempio 5 (cont.)
III Approssimazione:
x 3 (t )
x (t )
IV Approssimazione:
x 4 (t )
x (t )
t
SVILUPPO IN SERIE DI FOURIER PER
SEGNALI PERIODICI (CONT.)
Esempio 4
2 1
Pxx n = X n =
T2
+∞ 2 j 2π k τ +∞
∑ T
∑
1 1
π xx (τ ) = e T = u0 (τ − kT )
T
k = −∞ k = −∞
SVILUPPO IN SERIE DI FOURIER PER
SEGNALI PERIODICI
L’autocorrelazione di un segnale periodico y(t) di periodo T
risulta dalla sovrapposizione di infinite repliche, distanziate di
intervalli multipli del periodo T e scalate di un fattore 1/T, della
funzione di autocorrelazione della funzione generatrice g(t)
definita come
y (t ) T T
− ≤t≤
g (t ) = 2 2
0 altrove
c.d.d.
SEGNALI IMPULSIVI
Def.: Dato un segnale x(t), esso si dice impulsivo se è
assolutamente sommabile in − ∞,+∞ cioè
∞
∫−∞ x(τ ) dτ < +∞
Un segnale impulsivo ha durata finita o tende a zero con un
ordine superiore a 1. Un segnale di energia tende a zero con un
ordine superiore a 1/2. Pertanto, un segnale impulsivo, limitato
ovunque, è certamente di energia, mentre non è vero il
contrario.
TRASFORMATA DI FOURIER PER SEGNALI
IMPULSIVI
Dato un segnale impulsivo x(t), esso ammette la seguente
rappresentazione
∞
x(t ) =
∫ X ( f )e j 2πft dt
−∞
dove la funzione
∞
X(f )=
∫ x(t )e − j 2πft df
−∞
∞
x(t ) =
∫ X ( f )e j 2π ft df
−∞
1
lim x(t ) + lim x(t )
2 t →t 0− t →t 0+
TRASFORMATA DI FOURIER PER SEGNALI
IMPULSIVI
Commento: la famiglia di funzioni parametrizzate dalla
frequenza f
s (t ; f ) = e j 2πft
s (t ; f 0 ) = e j 2πf 0t .
TRASFORMATA DI FOURIER PER SEGNALI
IMPULSIVI
Esempio
rect∆(t)
-∆/2 ∆/2 t
+∞
X ( f ) = F {x(t ) } =
∫ rect∆ (t )e − j 2π f t dt
−∞
+∆ / 2 +∆ / 2
e − j 2π f t sin(π ∆ f )
∫
− j 2π f t
= e dt = =∆
− j 2π f π∆ f
−∆ / 2 −∆ / 2
= ∆ Ca (π ∆ f )
∆
∆ ∆
-1/ 1/
f
TRASFORMATA DI FOURIER PER SEGNALI
IMPULSIVI
Esempio
X ( f ) = F {A } = F lim A rect ∆ (t ) = A lim F { rect ∆ (t ) } =
∆ → ∞ ∆ →∞
= A lim ∆ Ca (π ∆ f ) = A u0 ( f )
∆ →∞
A u0(f)
f
TRASFORMATA DI FOURIER PER SEGNALI
IMPULSIVI
Esempio
Trasformata del segnale x(t)=A uo (t)
A u0(t)
+∞
X ( f ) = F {A u 0 (t )} = A
∫ u 0 (t )e − j 2π f 0 t dt = A
−∞
x(τ − τ ) ⇔ X ( f )e − j 2π fτ
Prova:
+∞ +∞
x(t − t )e − j 2π f ( t −t )e − j 2π ft dt
F {x(t − t )} =
∫ x(t − t )e − j 2π f t dt =
∫
−∞ −∞
+∞
= e − j 2π ft
∫ x(x )e − j 2π fx dx = e − j 2π ft X ( f )
−∞
x(t )e j 2π f 0t ⇔ X ( f − f0 )
Prova:
+∞ +∞
{ } ∫ x(t )e j2π f t e − j2π f t dt = ∫ x(t )e − j2π ( f − f )t dt
F x(t ) e j 2π f 0 t = 0 0
−∞ −∞
= X ( f − f0 )
x(t) y(t)
cos(2π f0 t)
e − j 2π f 0 t + e j 2π f 0 t
Y ( f ) = F {x(t ) cos( 2π f 0 t )} = F x(t ) =
2
1 1
= X ( f − f0 ) + X ( f + f0 )
2 2
TRASFORMATA DI FOURIER PER SEGNALI
IMPULSIVI
Esempio: Modulazione e Demodulazione
X( f )
1 1
Y( f ) = X ( f − f0 ) + X ( f + f0 )
2 2
1/2 Y( f ) 1/2
f
-f 0 f0
1 1 1
Z( f ) = X ( f ) + X ( f − 2 f0 ) + X ( f + 2 f0 )
2 4 4
Z( f )
1/2
1/4 1/4
f
-2 f 0 2 f0
TRASFORMATA DI FOURIER PER SEGNALI
IMPULSIVI
Esempio: Demodulazione coerente
y(t) z(t)
cos(2π f0 t)
1 1 1
Z ( f ) = F {y (t ) cos( 2π f 0 t )} = X ( f ) + X ( f − 2 f0 ) + X ( f + 2 f0 )
2 4 4
TRASFORMATA DI FOURIER PER SEGNALI
IMPULSIVI
Trasformata di Fourier di un segnale periodico è un treno di
impulsi alle frequenze f n , di ampiezza pari ai coefficienti della
serie di Fourier del segnale.
Prova:
+∞
x(t ) = ∑ x n e j 2πf nt
n = −∞
+∞ +∞
X ( f ) = F {x(t )} = ∑ { xn F e j 2π f n t =} ∑ xn u 0 ( f − f n )
n = −∞ n = −∞
∫ x(t )e − j 2π f n t dt =
∫ g (t )e − j 2π f n t dt
1 1
Xn =
T T
−T / 2 −T / 2
+∞
∫ g (t )e − j 2π f n t dt = G ( f n )
1 1
=
T T
−∞
La trasformata di Fourier della funzione generatrice sottende lo
spettro di Fourier di ogni segnale periodico che la ammette
come generatrice.
I valori dei coefficienti, e il loro fattore di scala, dipendono dal
periodo T.
TRASFORMATA DI FOURIER PER SEGNALI
IMPULSIVI
Proprietà fondamentali (segue):
v. Differenziazione
Dato un segnale x(t) trasformabile secondo Fourier, supposto
derivabile rispetto al tempo, con derivata ancora trasformabile
secondo Fourier, vale la seguente relazione:
d
x(t ) ⇔ j 2π f X ( f )
dt
Prova: Sia
∞
x(t ) =
∫ X ( f )e j 2π ft df
−∞
Derivando il primo e il secondo membro dell’equazione rispetto al
tempo si ha
∞ ∞
∫ ∫
d j 2π ft
f X ( f )]e j 2π ft df
d
x(t ) = X(f ) e df = [ j 2π
dt dt
−∞ −∞
Inoltre, essendo il segnale derivata Fourier trasformabile si ha
∞
d
∫ F x(t )e j 2π ft df
d
x(t ) =
dt dt
−∞
Dal confronto fra le ultime due relazioni segue la tesi. c.d.d.
TRASFORMATA DI FOURIER PER SEGNALI
IMPULSIVI
Proprietà fondamentali (segue):
vi. Integrazione (prima versione)
Sia x(t) un segnale integrabile trasformabile secondo Fourier, con
integrale ancora trasformabile secondo Fourier. Allora:
t
∫
1
x(t )dt ⇔ X(f )
j 2π f
−∞
Prova: Sia
t +∞ t +∞ t − j 2π f t
e
∫ ∫ ∫ ∫ ∫
− j 2π f t
F x(t )dt = x(t )dt e dt = x(t )dt d =
− j 2π f
− ∞ −∞ −∞ −∞ −∞
+∞
t − j 2π f t +∞ t − j 2π f t
e d e
∫
= x(t )dt
− j 2π f
−
dt ∫x(t )dt
∫− j 2π f
dt =
−∞ −∞ − ∞ − ∞
+∞
e − j 2π f t
∫
1
= x(t ) dt = X(f )
j 2π f j 2π f
−∞
dove si è sfruttata la seguente relazione
t t
− j 2π f t − j 2π f t
t →−∞ ∫
lim x(t )dt e
t →∞ ∫
= lim x(t )dt e =0
−∞ −∞
TRASFORMATA DI FOURIER PER SEGNALI
IMPULSIVI
Proprietà fondamentali (segue):
1 t>0
u−1(t ) = 1 / 2 t = 0
0 t<0
α − 2π f
X ( f ) = lim Xα ( f ) = lim + j lim
α →0 α →0 α 2 + (2π f )2 α →0 α 2 + (2π f )2
∫ X ( f )Y ( f ) e j 2π ft df
*
=
−∞
TEOREMA DI PARSEVAL PER SEGNALI
IMPULSIVI.
+∞
Ex =
∫ X ( f ) 2 df
−∞
+∞ +∞
E x = e xx (0 ) =
∫ X ( f ) X * ( f ) e j 2π f 0 df =
∫
2
X ( f ) df
−∞ −∞
c.d.d.
TRASFORMATA DI FOURIER PER SEGNALI
IMPULSIVI
Proprietà fondamentali (segue):
ix. Cambiamento di scala
1 f
F {x(α t )} = X
α α
Prova:
+∞ +∞ f
− j 2π (α t )
F {ξ(α t )} =
∫ ξ(α t ) e − j 2π f t dt =
∫ ξ(α t ) e α dt
−∞ −∞
+∞ f
− j 2π ξ
α 1 dξ = 1 X f
=
∫ ξ(ξ ) e
α α α
−∞
x(t) y(t)
y (t ) = h(t ) ∗ x(t )
H( f )
Y ( f ) = H ( f )X ( f )
x(t) y(t)
H( f ) Y ( f ) = H ( f )X ( f )
(
Y ( f ) = H ( f ) ⋅ A / 2 e + jψ u 0 ( f − f 0 ) + e − jψ u 0 ( f + f 0 ) )
= H ( f 0 ) A / 2 e + j ψ u 0 ( f − f 0 ) + H ( − f 0 ) A / 2 e − j ψ u0 ( f + f 0 )
TRASFORMATA DI FOURIER PER SEGNALI
IMPULSIVI
Esempio:
H( f )
DTE MODEM MODEM DTE
=
X( f ) Y( f )
-f0 f0 -f0 f0
H(f )
TRASFORMATA DI FOURIER PER SEGNALI
IMPULSIVI
Proprietà fondamentali (segue):
xi. Prodotto
+∞
ξ(t ) y (t ) ⇔ X ( f ) ∗Y ( f )=
∫ X (ξ − f ) Y (ξ ) dξ
−∞
Prova: Dati due segnali impulsivi x(t) e y(t), il loro prodotto è
ancora un segnale impulsivo la cui trasformata di Fourier è
+∞
F {ξ(t ) y (t )} =
∫ ξ(t ) y (t ) e − j 2π f t δt =
−∞
+∞ +∞ +∞
=
∫∫ ∫
X (ζ )Y (ξ ) e + j 2π (ξ +ζ − f )t δt δζ δξ
−∞ −∞ −∞
+∞ +∞
=
∫ ∫ X (ζ )Y (ξ ) δ (ξ + ζ − f )δζ δξ
−∞ −∞
+∞
=
∫ X (ζ )Y ( f − ζ )δζ
−∞
TRASFORMATA DI FOURIER PER SEGNALI
IMPULSIVI
Esempio: Relazione ingresso-uscita di un filtro
x(t) y(t)
y (t ) = h(t ) ∗ x(t )
H( f )
Y ( f ) = H ( f )X ( f )
x(t) y(t) H( f )
H( f ) 1
f1 f2 f
Pxx ( f ) = F {p xx (τ )}
+∞
Px =
∫ Pxx ( f )
−∞
TEOREMA DI WIENER
Teorema di Wiener per segnali di potenza (segue)
x(t) y(t) H( f )
H( f ) 1
f1 f2 f
la potenza del segnale x(t) contenuta fra f 1 e f 2 è pari
all’autocorrelazione del segnale y(t) calcolata nell’origine, ovvero
all’integrale della relativa trasformata di Fourier.
Dalle regole del transito, segue:
+∞ +∞
c.d.d.
TEOREMA DI WIENER
Teorema di Wiener per segnali di energia: Dato un segnale di
energia x(t), lo spettro di densità di energia di x(t) è uguale alla
trasformata di Fourier della funzione di autocorrelazione,
ovvero al modulo quadrato della trasformata di Fourier di x(t).
E xx ( f ) = F {ε xx (τ )} = X ( f ) 2
+∞
Ex =
∫ Exx ( f )
−∞
TEOREMA DI WIENER
Teorema di Wiener per segnali di energia (segue)
x(t) y(t) H( f )
H( f ) 1
f1 f2 f
l’energia del segnale x(t) contenuta fra f1 e f2 è pari
all’autocorrelazione del segnale y(t) calcolata nell’origine, ovvero
all’integrale della relativa trasformata di Fourier.
Dalle regole del transito, segue:
+∞ +∞
{ } { }
F {ε xx (τ )} = F x* (− τ ) * x(τ ) = F x* (− τ ) F {x(τ )} = X * ( f ) X ( f ) = X ( f )
2
c.d.d.
TRASFORMATA DI HILBERT
Def. Dato un segnale x(t) si dice Trasformata di Hilbert di x(t)
il segnale xˆ (t ) = H {x(t )} ottenuto dal transito attraverso
il filtro con funzione di trasferimento:
j f <0
HH ( f ) = 0 f =0
− j f >0
Proprietà:
1. H {c } = 0
2. due segnali che differiscono per una costante hanno la stessa
trasformata di Hilbert.
< xˆ ( t ), x ( t ) >= 0
∞ 1
=
∫− ∞ e xx ( τ )
π(0 − τ)
dτ ,
a) segnali di potenza
∞ 1
=
∫− ∞ π xx ( τ ) π ( 0 − τ ) dτ .
Essendo il segnale reale la sua funzione di autocorrelazione è un
segnale pari, e quindi l'integrando è una funzione dispari. Di
conseguenza, il prodotto scalare è nullo, c.d.d.
TRASFORMATA DI HILBERT
Esempio. Trasformata di Hilbert di un segnale cosinusoidale
x(t)=cos(2 π f 0 t)
X(f)
A /2 A /2
-f0 f0 f
^
jA /2 X(f)
-f0 f0 f
-jA /2
H{x(t)}=sin(2 π f0 t)
SEGNALE ANALITICO
Def. Dato un segnale reale x(t), si dice Segnale analitico ad esso
associato il segnale x+(t) ottenuto dal transito attraverso un filtro
con funzione di trasferimento:
1 f >0
H a ( f ) = 1 / 2 f =0
0 f <0
1 1
Poichè H a ( f ) = + jH H ( f ),
2 2
x + (t ) =
1 1
x(t ) + jxˆ (t ) . (1)
2 2
{ }
x(t ) = 2Re x + (t ) . (2)
Dim. Dalla (1) segue che se x(t) è reale, anche xˆ ( t ) è reale, e quindi
il segnale analitico x+(t) è un segnale complesso la cui parte reale è
proporzionale a x(t), che pertanto può essere ricostruito tramite la
(2). Tale proprietà non sussite se x(t) è complesso.
SEGNALE ANALITICO
Oss. Il filtro analitico rimuove metà dello spettro del segnale, il
−
cotenuto per frequenze negative X ( f ).
X- (f ) X+(f )
- +
X(-f)= X*(f),
ovvero
− + ∗
X ( f ) = X (− f ) , f <0
−
Di conseguenza il cotenuto per frequenze negative X ( f ) può
essere ricostruito a partire dalla conoscenza del contenuto per
+
frequenze positive X (f)
INVILUPPO COMPLESSO
Def. Dato un segnale reale x(t), si dice inviluppo complesso ad
esso associato rispetto alla frequenza f 0 il segnale x(t ) definito
da:
x(t ) = 2 x + (t )e − j 2πf 0t
ovvero
+
X ( f )= 2 X ( f + f0 )
Posto
x(t ) = xc (t ) + jxs (t )
-f o fo
f
X + (f )
fo
f
X (f )
-
f
INVILUPPO COMPLESSO (SEGUE)
Teorema. Dato un segnale x(t) reale, esso è legato alle sue
componenti analogiche di bassa frequenza dalla relazione
ovvero
x(t)=cos(2 π f 1 t)
x ( t ) = cos ( 2 π f 1 t ) = cos ( 2 π( f 1 − f 0 ) t + 2 π f 0 t ) =
= cos ( 2 π( f 1 − f 0 ) t ) cos ( 2 π f 0 t ) − sin ( 2 π( f 1 − f 0 ) t ) sen ( 2 π f 0 t )
da cui
x c ( t ) = cos ( 2 π( f 1 − f 0 ) t )
x s ( t ) = sin ( 2 π( f 1 − f 0 ) t )
Commento:
Tc ≤ Tmax = 1 /( 2( f 0 + w)) .
T 'c ≤ T 'max = 1 /( 2 w) .
( f 0 + w) /( 2 × w) .
TRANSITO IN UN SISTEMA LINEARE
Sia x(t) un segnale reale a valor medio nullo che transita in un
filtro lineare idealmente realizzabile (h(t) reale).
x(t) y(t)
H( f )
a) y + (t ) = x + (t ) ∗ h + (t )
1
b) y (t ) = x(t ) ∗ h(t )
2
Dim. propr. a) In relazione al segnale analitico si ha:
y + (t ) = y (t ) ∗ ha (t ) = x(t ) ∗ h(t ) ∗ ha (t ) ∗ ha (t )
= x(t ) ∗ ha (t ) ∗ h(t ) ∗ ha (t ) = x + (t ) ∗ h + (t )
c.d.d.
MODULAZIONE D’AMPIEZZA A PORTANTE
SINUSOIDALE
Modulazione a Banda Laterale Doppia (Double Side Band-DSB)
Sia m(t) un segnale reale, a valor medio nullo, limitato nella banda
[–w,+w] che rappresenta il messaggio da trasmettere, il segnale
trasmesso x(t) (segnale modulato) è sintetizzato in modo tale che
x c (t ) sia proporzionale al messaggio da trasmette (segnale
modulante).
x c (t ) = a p + k a m (t )
x s (t ) = 0
ovvero
[ ] (
x ( t ) = a p + k a m ( t ) cos 2 p f p t )
xc (t )
x (t )
t
MODULAZIONE D’AMPIEZZA BLD
Poiché
X ( f )=
1
2
(a p u 0 ( f − f p ) + k a M ( f − f p ))
2
+
1
( ( )
a p u0 f + f p + k a M f + f p ( ))
il segnale modulato occupa una banda di ampiezza 2w centrata
intorno a fp (e a –f p ).
M (f )
-w w f
X( f )
a p/2 a p/2
- +
-f p BLI f p BLS f
[f p , f p +w]: Banda Laterale Superiore
a p + k a m (t ) > 0 ∀t
a p < k a Max [| m ( t ) |]
t
ap =0
M+ ( f )
m + (t ) = m(t ) + j mˆ (t )
1 1
2 2
w f
ovvero
x c (t ) = 1 k a m (t )
2
x s ( t ) = 2 k a mˆ ( t )
1
x (t ) =
1
2
{k a m ( t ) cos (2 p f p t ) − k a mˆ ( t ) sen (2 p f p t )}
MODULAZIONE D’AMPIEZZA BLU (O SSB)
Poichè
X ( f ) = [k a M + ( f − f p ) + k a M − ( f + f p )]
1
2
Il segnale modulato occupa la sola Banda Laterale Superiore
[f p , f p +w]
X( f )
-f p f p BLS f
La modulazione è detta a Banda Laterale Unica.
MODULAZIONE D’AMPIEZZA BLU (O SSB)
Analogamente può essere trasmesso il contenuto a frequenze
negative di m(t),
−( 1 1 M -( f )
m t ) = m(t ) − jmˆ (t ) .
2 2
-w f
1 1
x c ( t ) = k a m ( t ), x s ( t ) = − k a mˆ ( t )
2 2
x (t ) =
1
2
{k a m ( t ) cos (2 p f p t ) + k a mˆ ( t ) sen (2 p f p t )}
X ( f ) = [k a M ( f − f p ) + k a M ( f + f p )]
1 − +
X( f )
-f p BLI f p f
DEMODULAZIONE SINCRONA (O COERENTE,
O OMODINA)
In tutti i casi considerati la demodulazione consiste nella estrazione
della componente analogica in fase x c(t) del segnale trasmesso x(t).
cos(2π f π t)
Estrattore
di πortante
DEMODULAZIONE ETERODINA
La Demodulazione eterodina è effettuata in due passi.
( ) (
poichè x ( t ) = x c ( t ) cos 2 pf p t − x s ( t ) sen 2 pf p t )
x(t) xx(t)
M(t)
cos(2π fe t)
[ ( ) (
2 x M ( t ) = x c ( t ) cos 2 p ( f p − f e ) t + cos 2 p ( f p + f e ) t)]
[ ( ) (
+ x s ( t ) sen 2 p ( f p − f e ) t − sen 2 p ( f p + f e ) t )]
Il segnale x M (t) risulta dalla sovrapposizione di due segnali
modulati, uno a frequenza f p+f e , che è rimosso mediante un
filtraggio passa-banda, e uno a frequenza f m =fp -f e , detta media
frequenza.
-f p - f - fI fI fp
e fe
- fM fM
Detti segnali vanno perciò rimossi mediante filtraggio passabanda
prima del mixer eterodina.
DEMODULATORE D'INVILUPPO (O INCOERENTE)
Il ricevitore ad inviluppo estrae il modulo dell’inviluppo
complesso di x(t).
x (t ) x- (t )
t
INVILUPPO COMPLESSO
Dato l'inviluppo complesso di un segnale reale x(t),
x(t ) = xc (t ) + jxs (t )
a ( t ) = | x ( t ) |=
2 2
x c (t ) + x s (t )
a(t): fase istantanea
−1 x s ( t )
α ( t ) = tg
x (t )
c
Per il segnale x(t) si ha quindi la seguente rappresentazione
= a ( t ) cos [2 πf 0 t + a ( t ) ]
Si definiscono inoltre
1 dα ( t )
deviazione di frequenza: f d ( t ) =
2π dt
frequenza istantanea:
1 d 1 dα ( t )
f i (t ) = [ 2 πf 0 t + α ( t ) ] = f0 + = f 0 + f d (t )
2 π dt 2π dt
MODULAZIONE ANGOLARE
Le componenti analogiche di bassa frequenza sono scelte in modo
tale che o la fase istantanea α (t ) , o la deviazione di frequenza
f d (t ) siano proporzionali al messaggio.
m (t )
x (t )
MODULAZIONE DI FASE
α( t ) = k α m ( t )
MODULAZIONE DI FREQUENZA
f d (t ) = k f m(t )
t
α( t ) = 2 π
∫0 k f m ( t ) dt
DEMODULATORE A DISCRIMINATORE
H( f ) 1 d demodulatore
( ) di
2 πk f dt inviluppo
fp
limitatore
ideale
Il limitatore ideale ed successivo filtro passa banda centrato
intorno ad f p hanno il compito di eliminare ogni eventuale
modulazione di ampiezza residua presente su x(t). Ovvero se il
segnale ricevuto vale
[
r ( t ) = α ( t ) cos 2 πf π t + α ( t ) , ] ( α (t ) > 0)
[
z ( t ) = cos 2 pf p t + α ( t ) ]
quindi l'uscita del derivatore è un segnale modulato in ampiezza di
tipo BLD-PI:
1 dz ( t ) 1 [
d cos 2 pf p t + α ( t ) ]
w( t ) = =
2 pk f dt 2 pk f dt
2 pf p + 2 pf d ( t )
=−
2 pk f
[
sin 2 pf p t + α ( t ) ]
fp
=− [
+ m ( t ) sin 2 pf p t + α ( t ) ]
k f
DEMODULATORE A DISCRIMINATORE
l'uscita del limitatore ideale vale
[
y ( t ) = sign {r ( t ) } = sign {a ( t ) cos 2 pf p t + a ( t ) ]}
[
= sign {α ( t ) }sign {cos 2 pf p t + α ( t ) }= ]
[
= sign {cos 2 pf p t + α ( t ) ]}
essa è quindi del tipo
g ( ϕ ) = sign {cos [ϕ ]}
= −1 + ∑k 2 rect π ( ϕ − k 2 π )
g (ϕ) = ∑n Gn e
ϕnϕ
con
0 n=0
πn
Gn =
n≠0
2
Ca
quindi
∞
p
y(t ) = ∑ [
2 Ca n cos 2 pnf p t + na ( t ) ]
n =1 2
MODULAZIONE DI FREQUENZA
sia m ( t ) = cos( 2 πwt + ϕ )
1. f d ( t ) = k f cos( 2 πwt + ϕ )
t
2. a ( t ) = 2 πk f
∫0 cos( 2 πwt + ϕ ) dt
kf t
=
∫
w 0
d sin( 2 πwt + ϕ )
kf
= sin( 2 πwt + ϕ )
w
kf
3. x (t ) = cos 2πf π t + sen(2πwt + ϕ )
w
ϕ 2 πf π t +
kf
sin( 2 πwt + ϕ )
− ϕ 2 πf π t +
kf
sin( 2 πwt + ϕ )
1 w w
= e +e
2
è del tipo
jb sin( θ )
f ( θ) = e
MODULAZIONE DI FREQUENZA
jb sin( θ )
Poiché f ( θ ) = e è periodica con periodo 2π essa può essere
sviluppata in serie di Fourier come segue:
+∞
f ( θ) = ∑ Cn e
jnθ
n = −∞
essendo
1 π j [b sin( θ ) − nθ ]
2 π ∫− π
Cn = e dθ = J n ( b )
1
J0(x)
J1(x)
J2(x)
0.5 J3(x) J4(x)
J5(x)
-0.5
0 2 4 6 8 10
quindi
+∞
k f ϕ [ 2 πnwt +ϕ ]
s(t ) = ∑
Jn
w
e
n = −∞
MODULAZIONE DI FREQUENZA
X ( f ) = S ( f − f p ) + S * (− f − f p )
con
+∞
k f
e j [ nj ] u o f − f p − nw
( )
S( f − f p ) = ∑ Jn
w
n = −∞
kf /w=1 kf /w=2
kf /w=3 kf /w=4
ovvero
x(t) x•(t) 1
hW(t) x(t)
t
-1/2W 1/2W
Π1/2W(t)
TEOREMA DI SHANNON: DIMOSTRAZIONE
Sia X • ( f ) la funzione periodica che ammette X ( f ) come funzione
generatrice.
1 −1 1 n
xn = F {X ( f )} 1 = x −
2W t = −n × 2W 2W
2W
Moltiplicando ambedue i membri dello sviluppo per rect 2W(f)
− π
n
∑n 2W
1 j 2 f
X • ( f ) ⋅ rect 2W ( f ) = X ( f ) =
n
x ⋅ rect 2W ( f )
e 2W
2W
e antitrasformando
1
∑ n n
x(t ) = x u0 t − ∗ 2W Ca (π 2W t )
2W n 2W 2W
segue la tesi
∑ n n
x(t ) = x Ca π 2W t −
n 2W 2W
= ∑n x(nTc ) Ca(π 2W (t − nTc ))
cdd.
TEOREMA DI SHANNON
Commento: Il teorema afferma che un segnale x(t) limitato in banda
è ricostruibile a partire da un’infinità numerabile di campioni,
estratti con una frequenza di campionamento sufficientemente
grande.
n
Ca π 2W t − .
2W
Prova:
n m
< Ca π 2W t − , Ca π 2W t − >
2W 2W
n m
1 − j 2π f 1 − j 2π f
=< rect2W ( f ) e 2W , rect2W ( f ) e 2W >
2W 2W
2 +W − j 2π 1 (n − m ) f m=n
1 1 /( 2W )
=
2W
e
∫ 2W df =
0 m≠n
−W
TEOREMA DI SHANNON: CAMPIONAMENTO
x(t) x•(t) =Σ nx(n/2W)u0(t-n/2W)
Π1/2W(t)=Σnu0(t-n/2W)
Dominio del Tempo:
x(t)
x•(t)
x(2Tc)
x(Tc)
Tc 2Tc 3Tc t
TEOREMA DI SHANNON: CAMPIONAMENTO
x(t) x•(t) =Σ nx(n/2W)u0(t-n/2W)
Π1/2W(t)=Σnu0(t-n/2W)
Dominio della Frequenza:
X (f )
f
-W W
X (f )
f
-2W 2W
TEOREMA DI SHANNON:
SOTTOCAMPIONAMENTO
Commento: Il teorema indica la frequenza di campionamento
minima
1
f c min = = 2W
Tc max
X (f )
f
-1/T c 1/T c
TEOREMA DI SHANNON:
SOVRACAMPIONAMENTO
X (f )
H LP (f )
f
-W W
TEOREMA DI SHANNON:
SOVRACAMPIONAMENTO
1 0 ≤ f ≤ (1 − γ ) f 0
π f − f0
H LP ( f ) = 1 − sen( ) (1 − γ ) f0 ≤ f ≤ (1 + γ ) f0
2 γ f0
0 (1 + γ ) f0 ≤ f
dove il parametro γ è detto roll-off del filtro.
γ 0
H LP (f )
f
-f 0 f0
TEOREMA DI SHANNON:
TRANSITO IN UN FILTRO
x(t) y(t)
H( f )
∫ k∑
k k n
= x Ca π 2W x − h − x dx
2W 2W 2W
−∞ = −∞
+∞ +∞
= ∑ k
x
2W
∫
Ca π 2W x −
k n
h
2W 2W
− x dx
k = −∞ −∞
+∞ +∞
= ∑ k
x
2W ∫
n−k
Ca[π 2W (t )]h
2W
− t dt
k = −∞ −∞
+∞
= ∑ k
x (h(t ) ∗ Ca[π 2W (t )]) t = n − k
2W 2W
k = −∞
+∞
= ∑ k
x
2W
n−k
h2W
2W
k = −∞
c.d.d.
TEOREMA DI SHANNON: APPLICAZIONI
Il teorema di Shannon trova applicazione in tutte le aree in cui si
richieda la rappresentazione di un segnale analogico in formato
digitale e viceversa ai fini di:
Memorizzazione
Assetto satellitare
Guasti di un sistema
.....
TEORIA DELLA PROBABILITÀ
Impostazione dello studio di fenomeni aleatori:
rapporto:
NA
P (A ) =
N
dove N A è il numero di risultati favorevoli all’evento A e N è il
n A
P ( A ) = lim
n →∞ n
Approccio Assiomatico ( Kolmogoroff, 1933):
A = {ω ω ∈ Ω, ω ∉A}
quando non si verifica A
P:F→[0,1]
Su una σ-algebra F, è possibile definire una funzione di insieme,
reale, non-negativa, completamente additiva, che goda delle seguenti
proprietà (assiomi):
1) P( E ) ≥ 0 ∀E ∈ F
2) P( E1 ∪ E 2 ) = P( E1 ) + P( E 2 ) ∀E1,E 2 ∈ F , E1∩E 2= ∅
∞ ∞
3) P E n = ∑ P( E n ) ∀E1, 2E n 2∈ F , Ei ∩ E j = ∅
n=1 n=1
4) P(Ω ) = 1
La funzione prende il nome di Misura di probabilità.
TEORIA ASSIOMATICA DELLA PROBABILITÀ
Nella Teoria assiomatica della Probabilità, un fenomeno aleatorio è
descritto per mezzo dei seguenti concetti:
Pr{non-E} = 1-Pr{E}
la E ∪ E = Ω , si ha
P (E ∪ E ) = P( E ) + P (E ) = P(Ω ) = 1
da cui segue la tesi.
Corollario
P( A)= P ( A ∩ B )+ P( A ∩ B )
P( B )=P (B ∩ A)+ P( A ∩ B )
ovvero
P ( A ∩ B )= P( A) − P( A ∩ B ),
P (B ∩ A) = P( B ) − P( A ∩ B )
Sostituendo le precedenti espressioni in P ( A ∪ B ) segue la tesi.
EVENTO CONDIZIONATO
Fenomeno aleatorio condizionato
PF| Γ (E)=Pr{E∩C}
è scelta proporzionale a P F (E):
k=1/PF(C)
Si procede perciò alla seguente definizione formale
Pr{E e Γ}
Pr{E Γ} =
Pr{Γ}
ovvero in termini di insiemi
PF ( E ∩ C )
PF Γ ( E ) =
PF (C )
PROBABILITÀ CONDIZIONATA
Secondo l’approccio frequentistico la probabilità dell’evento “E e Γ”
è pari al rapporto fra il numero di volte in cui occorre l’evento N E e Γ e
il numero di prove totali rispetto al fenomeno aleatorio condizionato,
cioè N Γ :
NE e Γ / NΓ
(NE e Γ / N)/(N Γ / N)
Pr{E Γ} ≠ Pr{E}
Se la conoscenza che si sia verificato Γ non porta alcuna conoscenza
riguardo ad E, i due eventi si dicono statisticamente indipendenti.
Def.1 Un evento E si dice statisticamente indipendente dall’evento
Γ se e solo se
Pr{E Γ} = Pr{E}
Poichè se l’evento E è statisticamente indipendente dall’evento Γ
risulta
Pr{E e Γ} = Pr{Γ} Pr{E}
l’ indipendenza statistica è una proprietà reciproca:
Pr{E e Γ}
Pr{Γ E} = = Pr{Γ}
Pr{E}
Def.2 Due eventi E e Γ si dicono statisticamente indipendenti se e
solo se
Esempio
p 0 =Pr{a k =0},
p 1 =Pr{a k =1}=1- p0
∪j.Cj con .Ci ∩.Cj =∅, i≠j), corrispondenti rispettivamente alla serie
completa di eventi mutuamente escludentesi {E1 ,...E n,}, e alla serie
Pr (Ei | Γh ) Pr (Γh )
Pr (Γh | Ei ) = m
∑ Pr (Ei | Γ j )Pr (Γ j )
j =1
TEOREMA DI BAYES
Teorema di Bayes (segue)
Ei = mj=1 (Ei ∩ C j )
(
P( Ei ) = P mj=1 (Ei ∩ C j ) )
m m m
= ∑ P (Ei ∩ C j ) = ∑ P (Ei ∩ C j ) =∑ Pr (Ei e Γ j )
j =1 j =1 j =1
m
= ∑ Pr (Ei | Γ j )Pr (Γ j )
j =1
Teorema di Bayes
Pr (E | Γh ) Pr (Γh )
Pr (Γh | E ) = m
∑ Pr (E | Γ j )Pr (Γ j )
j =1
VARIABILI ALEATORIE
Obiettivo: Esprimere le Probabilità di Eventi non solo tramite
funzioni di insieme ma anche tramite funzioni di punto.
X : Ω→ Rn
che soddisfa alcune particolari condizioni, sotto cui è possibile
individuare una funzione di punto
DX(x) : Rn→[0,1]
che consenta di calcolare la probabilità di ogni evento ammissibile del
fenomeno aleatorio di partenza. In particolare, le condizioni imposte
alla X sono tali che sia possibile associare ad ogni punto di Rn un
insieme di Ω che rappresenti un evento ammissibile.
VARIABILI ALEATORIE
Esempio:
∆
∆X (ξ ) = P(− ∞ < X ≤ ξ )
• Poiché ogni elemento E di FB è ottenibile come
complementazione, intersezione, unione finita o infinito-
numerabile di intervalli di tale tipo, la misura di probabilità di
E è ottenibile a partire da DX (ξ) mediante l’integrale di
Lebesgue Stieltjes
P( E ) = ∫ dDX (ξ )
E
VARIABILI ALEATORIE
Esempio:
− ∞ < X i ≤ ξ i, i = 1, n
La misura di probabilità di intervalli di tale tipo è funzione del solo
estremo superiore ξ:
D
DX (ξ1,ξ 2 ,ξ n ) = P(− ∞ < X i ≤ ξi , i = 1, n )
Per ogni elemento E di F B la misura di probabilità di E è ottenibile a
partire da D X (ξ) mediante l’integrale di Lebesgue Stieltjes
P( E ) = ∫ dDX (ξ1,ξ n )
E
VARIABILI ALEATORIE
Uno spazio di probabilità (Rn, F B , D X ), tale cioè che lo spazio dei
risultati Ω sia lo spazio euclideo n-dimensionale Rn e la σ-algebra F
sia il Campo di Borel FB, consente di rappresentare la Probabilità di
un Evento mediante una funzione di punto D X .
X : Ω→ Rn
tale che per ogni punto ξ di Rn l’insieme A corrispondente in Ω:
A = {ω ∈ Ω, ω | − ∞ < X i (ω ) ≤ ξ i , i = 1, n}
appartenga ad F, ovvero rappresenti un evento ammissibile. In altre
parole la funzione sia F-misurabile.
e risulta: ∑ P(ω | X (ω ) = xi ) = 1.
x i ∈S
D
D X ( x1 ,..x n ) = Pr{X i ≤ xi , i = 1,..n}
La funzione di distribuzione D X (x) è
Non-negativa
D X ( x1 ,..x n ) ≥ 0
Non decrescente
D X ( x1 ,.xi + Dxi ,.x n ) ≥ D X ( x1 ,.xi ,.x n )
Dxi > 0, i = 1,..n
Continua da destra
lim D X ( x1 ,.xi + Dxi ,.x n ) = D X ( x1 ,.xi ,.x n )
Dxi →0
Dxi > 0, i = 1,..n
Tende a 0 al tendere a -∞ di almeno una delle componenti
Pr (E ) = ∫ dDX ( x1, xn )
E
Si è interessati a stabilire le condizioni sotto cui il precedente
integrale può essere sostituito da un integrale di Lebesgue.
Px (S ) = 1
Def. Data una misura di probabilità P x definita sul Campo di Borel
F B , essa è detta assolutamente continua (rispetto alla misura di
Lebesgue) se per ogni insieme S∈Rn tale che la sua misura di
Lebesgue sia nulla risulti
Px (S ) = 0
FUNZIONE DI DENSITÀ DI PROBABILITÀ
E’ possibile dimostrare che se la misura di probabilità Px è
assolutamente continua rispetto alla misura di Lebesgue, allora
esiste ed è unica una funzione non negativa p X ( x1 , x n ) tale
che
Pr (E ) = Px ( E )
= ∫ dD X ( x1 , x n )
E
= ∫ p X ( x1 , x n )dx1dx 2 dx n
E
dove il secondo integrale è un integrale di Lebesgue.
densità di probabilità.
FUNZIONE DI DENSITÀ DI PROBABILITÀ
Commento:
{
Tn = X ∈ R n | xi < X i ≤ xi + ∆xi , i = 1, n }
esiste (Teorema della media) un punto interno x'∈ Tn tale che
Px (Tn ) = ∫ p X ( x1 , x n )dx1dx 2 dx n
Tn
= p X ( x1 ' , x n ')∆x1∆x 2 ∆x n
Al tendere a zero della misura di Lesbegue dell’intervallo risulta
probabilità.
x1 xn
D X ( x1 , x n ) = ∫ ∫ p X (x1 , x n )dx1 dx n
−∞ −∞
ovvero
∂ n D X ( x1 , x n )
p X ( x1 , x n ) =
∂x1 ∂x n
laddove la derivata a secondo membro esista.
p X ( x1 , x n ) ≥ 0
componenti, si ha ancora
+∞ +∞
∫ ∫ p X (ξ1 , ξ n )dξ1 dξ n = 1
−∞ −∞
FUNZIONE DI DENSITÀ DI PROBABILITÀ
Se la misura di probabilità P x è singolare rispetto alla misura di
Lebesgue, ovvero esistono insiemi dell’asse reale di misura di
Lebesgue nulla cui compete misura di probabilità non nulla, allora,
ricorrendo all’impulso matematico, si può ancora definire una
funzione p X ( x1 , x n ) tale che valga la relazione integrale
x1 xn
D X ( x1 , x n ) = ∫ ∫ p X (x1 , x n )dx1 dx n
−∞ −∞
In generale vale la seguente Decomposizione di Lebesgue:
Px ( E ) = α Px(1) ( E ) + (1 − α ) Px( 2) ( E ) ∀E ∈ FB
dove P x(1)(E) è una misura di probabilità assolutamente continua e
P x(1)(E) è una misura di probabilità singolare (0≤ α ≤1).
VARIABILI ALEATORIE MARGINALI (R2)
Si consideri un fenomeno aleatorio F, cui sia associata la v.a.
bidimensionale X=(X 1, X 2 ), caratterizzata da funzione di
distribuzione D X1 X 2 ( x1 , x 2 ), ovvero da funzione di densità di
∫ ∫ p X X n ( x1, xm ,x
1 m +1x n ) dx m +1 dx n
−∞ −∞
(ovvero dalla funzione di probabilità )
pi1im = ∑ pi i 1 m j m +1 j n
j m +1 j n
VARIABILI ALEATORIE CONDIZIONATE
AD UN EVENTO (R)
Si consideri un fenomeno aleatorio rappresentato dallo spazio di
probabilità (Ω, F, P), cui sia associata la v.a. unidimensionale X,
p X (x) x∈C
p X |C ( x ) = ∫ p X (x )dx
C 0
altrove
Si ha infatti
Pr{E | Γ} =
Pr{E " e" Γ}
=
∫E ∩C p X (γ )dγ
Pr{Γ}
∫C p X (ξ )dξ
VARIABILI ALEATORIE CONDIZIONATE
2
AD UN EVENTO (R )
Si consideri un fenomeno aleatorio rappresentato dallo spazio di
probabilità (Ω, F, P), cui sia associata la v.a. bidimensionale X=(X 1 ,
p X ( x1 , x 2 ) ( x1 , x2 ) ∈ C
p X |C ( x1 , x 2 ) = ∫ p X (x 1 , x 2 )dx1dx 2
C
0 altrove
Infatti:
Pr{E | Γ} =
Pr{E " e" Γ}
=
∫E ∩C p X (γ1 , γ 2 )dγ1dγ 2
Pr{Γ}
∫C p X (ξ1 ,ξ 2 )dξ1dξ 2
VARIABILI ALEATORIE CONDIZIONATE
n
AD UN EVENTO (R )
Si consideri un fenomeno aleatorio rappresentato dallo spazio di
probabilità (Ω, F, P), cui sia associata la v.a. n-dimensionale
X=(X 1,... X n ), caratterizzata da funzione di distribuzione
D X1X n ( x1 , x n ), ovvero da funzione di densità di
{ k k
}
E x1 1 ⋅ x 2 2 ⋅ x nk n | y1 , y q =
∫ 1 2 n p X |Y (x1 , x n | y1 , y q )dx1 dx n
k k
x 1
⋅ x 2
⋅ x kn
D y ( y ) = 1 − D x ( g ( y ))
dg ( y )
p y ( y ) = p x ( g ( y )) −
dy
per f ' ( x ) < 0 ovvero
dg ( y )
p y ( y ) = p x ( g ( y ))
dy
FUNZIONI MISURABILI DI V. A.:
CAMBIAMENTO DI VARIABILE
Sia y = f (x) con f ' (x) = 0 in un insieme di punti finito.
D y ( y ) = D x ( g1 ( y )) + D x ( g 3 ( y )) − D x ( g 2 ( y ))
+ D x ( g 5 ( y )) − D x ( g 4 ( y )) + 1 − D x ( g 6 ( y ))
ovvero
n
dg k ( y )
p y ( y ) = ∑ p x ( g k ( y ))
k =1 dy
FUNZIONI MISURABILI DI V. A.:
CAMBIAMENTO DI VARIABILE
Sia X una variabile aleatoria n-dimensionale continua, e sia
f:Rn→Rm una funzione m-dimensionale misurabile della variabile
aleatoria n-dimensionale X.
y1 = f1 ( x1 , x n )
y = f ( x1 , x n )
y m = f m ( x1 , x n )
tale che
• l’immagine inversa di ogni intervallo illimitato inferiormente è
misurabile secondo la misura di probabilità D X (x))
• la misura di probabilità dell’immagine inversa di un intervallo
illimitato inferiormente tende a 0 al tendere di almeno uno
degli estremi a -∞
• la misura di probabilità dell’immagine inversa di un intervallo
illimitato inferiormente tende a 1 al tendere di tutti gli estremi
a +∞
allora
Y=f(X) costituisce una variabile aleatoria m-dimensionale definita
sullo stesso spazio base della variabile X
FUNZIONI MISURABILI DI V. A.:
CAMBIAMENTO DI VARIABILE
Sia m=n, e sia f invertibile, ovvero:
x1 = g1 ( y1 , y n )
x = g ( y1 , y n )
x m = g m ( y1 , y n )
Allora sussiste la relazione
pY ( y1 , y n ) = p X ( g1 ( y1 ), g ( y n )) J ( y1 , y n )
dove
∂g1 ∂g n
∂y1 ∂y1
J ( y1 , yn ) = det
∂g1 ∂g n
∂yn ∂yn
è il determinante dello Jacobiano della trasformazione inversa g.
Se m<n, è possibile aggiungere alla trasformazione (n-m) funzioni
in modo da rendere la f risultante invertibile.
Se m>n, la misura di probabilità è concentrata in un sottoinsieme di
Rn di misura di Lebesgue nulla.
FUNZIONE CARATTERISTICA
Def. Data una variabile aleatoria unidimensionale X, si definisce
funzione caratteristica della v.a. X il valore atteso
+∞
PX (x ) = E X {e − j 2p x x } = ∫ X
p ( x )e − j 2p x x
dx
−∞
ovvero la funzione caratteristica è la Trasformata di Fourier della
funzione densità di probabilità, che è assolutamente sommabile.
1 d n PX (ξ )
m (Xn ) =
(− j 2π )n dξ n ξ =0
Infatti per la proprieta' della derivazione della trasformata di Fourier
dn
F {ξ π X ( ξ)} =
1
n
PX (ξ )
(− j 2π ) dξ
n n
1 dn
PX (x ) = ∫− ∞ x p X ( x)dx .
+∞ n
(− j 2p ) dx
n n
x =0
GAUSSIANA N-DIMENSIONALE
Def.- Una variabile aleatoria X N-dimensionale si dice a
distribuzione Gaussiana, o normale, e si indica con
x ~ N (m x , K x )
se la sua funzione di densità di probabilità congiunta e' del tipo:
1
1 − ( x − m x )T K x−1 ( x − m x )
p X ( x) = e 2
(2p ) det[K x ]
N 2
Y0 ~ N(0, I )
la funzione densita' di probabilita' pY 0 ( y 0 ) è:
1 y 02i
pY 0 ( y 0 ) =
1 − y 0T y 0 N 1 −
e 2
=∏ e 2
(2p ) N 2
i =1 2π
Poiché le v.a. marginali y 0i sono mutuamente statisticamente
m y0 = Ey0 {y 0 } = 0
{
K y 0 = EY0 ( y 0 − m y 0 )( y 0 − m y 0 ) = I
T
}
GAUSSIANA N-DIMENSIONALE
(Valore atteso e matrice di covarianza, segue)
Y 0 = B(x − m0 )
dove B è determinata dalla decomposizione di Cholesky della K x −1 :
−1
K x = BT B
Per le proprietà della trasformazione lineare si ha infatti:
Ky = B Kx B = B Kx
0
T
( )
−1 −1
BT =
= B (B B ) B T =
T −1
−1
= BB B B T = T −1
=I
PROPRIETÀ
La trasformazione lineare inversa è
x = B −1 y 0 + m x
Ricordando le proprietà delle trasformazioni lineari, si ha:
Ex {x} = EY 0 {B-1 y 0 }+ m x = m x ,
{ T
}
E x ( x − m x )( x − m x ) = B EY 0 y 0 y 0 −1
{ T
}(B )
−1 T
=
= B I (B
-1
) = (B ) (B )
-1 T -1 -1 T
=
= (B B) = (K ) = K
T −1 −1 −1
x x
c.v.d.
PROPRIETÀ
Una trasformazione lineare invertibile
y = Ax
di una v.a. gaussiana e' ancora gaussiana con
m y = A mx
K y = AK x A T
1 − (
1 −1
A y −m x )T
(
K x−1 A −1 y − m x )
= e 2 =
(2p )
N 2
det[K x ](det[ A]) 2
1 −
1
( )
( y − Am x )T A −1 T
K x−1 A −1 ( y − Am x )
= e 2
(2p )
N 2
det[K x ](det[ A]) 2
PROPRIETÀ
(Trasformazione lineare invertibile, segue)
Si ponga
m y = Am x ,
K y = AK x AT .
Risulta:
Ky
−1
(
= AK x AT )−1
( )
= A−1 K x 1 A−1
T −
[ ]
det K y = det[K x ] ⋅ det[ A]2 ( )
da cui
1 −
1
( y − m y )T K y−1 ( y − m y )
p y ( y) = 2
det[K y ]
e
(2p ) N 2
c.v.d.
DECOMPOSIZIONE DI CHOLESKY
Teorema:
Data una matrice A definita non negativa, esiste ed e' unica una
matrice B triangolare in basso con elementi positivi o nulli sulla
diagonale principale tale che:
A = BT B
Commento: questa trasformazione ha la proprietà di trasformare
una variabile aleatoria gaussiana X con valore atteso m x e matrice
di covarianza K x in una variabile aleatoria gaussiana con
componenti centrate, normalizzate ed incorrelate.
σ x21 0 1 / σ x21 0
Kx = , K x−1 =
0 σ x2N 0 1 / σ x2N
( xi −mxi )2
−
N 1
pX (x) = ∏
2σ xi
e
i =1 2p σ xi
c.v.d.
IPERELLISSOIDE DI CONCENTRAZIONE
Il luogo dei punti dello spazio per cui la densita' di probabilita'
risulta costante
1
1 − ( x − m x )T K x−1 ( x − m x )
p X ( x) = e 2
(2p ) det[K x ]
N 2
e' costituito dai punti per i quali risulta costante l'esponente della
p.d.f. :
( x − m x )T K x−1 ( x − m x ) = c′ > 0
valori σ i = K ij
GAUSSIANA BIDIMENSIONALE
Sia Z = ( X ,Y ) una variabile aleatoria bidimensionale a
distribuzione Gaussiana, o normale.
La sua funzione di densità di probabilità è
1
1 − ( z − m z )T K z−1 ( z − m z )
pZ ( z ) = e 2
2p det[K z ]
con
mx
mz =
m y
σ x2 ρ xyσ xσ y
Kz =
ρ xyσ xσ y σ y2
dove
mx = E{x}, σ x2 = E {( x − mx )2 }
m y = E{y}, σ y2 = E {( y − m y )2 }
E{( x − mx ) ( y − m y )}
ρ xy =
σ xσ yx
GAUSSIANA BIDIMENSIONALE
La funzione di densità di probabilità può scriversi più esplicitamente
1 1
p XY ( x, y ) = ⋅ exp −
2p σ xσ y (1 − ρ xy )2
2 (1 − ρ xy )
2
( x − mx )2 ( x − mx )( y − m y ) ( y − m y )
2
− 2 ρ xy +
σ 2
y σ σ
x y σ 2
x
La funzione caratteristica è
( x − mx )2 ( x − mx )( y − m y ) (y − m ) 2
− 2 ρ xy + y
= c'
σ 2
y σ xσ y σ 2
x
Proprietà
( x − mx )2 − 2 ρ xy ( x − mx )( y − m y ) + ( y − m y )2 = c'
PROPRIETÀ ASINTOTICHE DI
SEQUENZE DI VARIABILI ALEATORIE
Sia X 1 , X 2 , ..., Xn una sequenza di variabili aleatorie n-dimensionali
definite su uno spazio base Ω.
Per una determinata sequenza di risultati ω1 , ω2 ,...,ωn ∈Ω, ovvero
per un fissato risultato ζ∈Ωn, la sequenza X 1 (ζ), X 2 (ζ), …, X n (ζ)
può eventualmente “convergere” ad una costante c secondo uno dei
criteri seguenti.
Convergenza ovunque (il limite è verificato per tutte le sequenze X n ):
lim X n (ζ ) = c ∀ζ ∈ Ω n
n →∞
Convergenza quasi ovunque (o con probabilità 1) (il limite è
verificato per tutte le sequenze Xn a meno di un insieme di Pr. nulla):
lim X n (ζ ) = c con Pr .1
n →∞
ovvero {
Pr ζ ∈ Ω n | lim X n (ζ ) = c = 1
n →∞
}
Convergenza in probabilità (il limite opera sulla probabilità, nulla
può dirsi sul comportamento asintotico della singola sequenza Xn : per
ogni n>n 0 , con n0 suff. grande, solo una piccola percentuale delle
sequenze X n si discosta da c per più di γ):
lim Pr { X n (ζ ) − c < γ } = 1
n →∞
PROPRIETÀ ASINTOTICHE DI
SEQUENZE DI VARIABILI ALEATORIE
Sia
X 1 ,X 2 ,..X n
una sequenza di variabili aleatorie n-dimensionali definite su uno
spazio base Ω.
Per una determinata sequenza di risultati ω1, ω2, .. ωn ∈Ω, ovvero
per un fissato risultato ζ∈Ωn, la sequenza
X 1 (ζ),X 2 (ζ),..X n(ζ)
può o meno “convergere” ad una variabile aleatoria X.
In particolare si definisce
Convergenza in distribuzione:
lim D X n ( x n ) = D X ( x )
n →∞
TEOREMA DEL LIMITE CENTRALE
La somma di n variabili aleatorie indipendenti, identicamente
distribuite di valore medio mx , e varianza σx 2 è asintoticamente
normale, ovvero la variabile aleatoria:
n
∑ ( xi − mx )
y= i =1
nσ x / σ y
converge in distribuzione ad una variabile aleatoria gaussiana di
valor medio nullo e varianza σ y2.
dove PX
(k )
( 0 ) = ( − j 2 π )k m (Xk ) ,
con
(1)
m X = 0,
= σ x / n σ x / σ y = σ y / n .
(2) 2 2 2 2
mX
Risulta quindi
2 2
n
−1 σ
2 y ξ + o ξ2
pY ( y ) = F − ( p )
lim 1 2
n → ∞ n 2
2
ξ
−
−1
2 2 2 2
−2 p σ y ξ 1 2σ y
= F e =
2 pσ
e
PROPRIETÀ ASINTOTICHE DI
SEQUENZE DI VARIABILI ALEATORIE
L’approccio assiomatico della teoria della probabilità pone il
problema della misura sperimentale della probabilità di un evento
aleatorio. In particolare, la probabilità di un evento calcolata in base
alla teoria assiomatica deve trovare riscontro nella probabilità di un
evento definita nell’approccio frequentistico.
1 n
∑
1
fE = x i = bn
n n
i =1
essendo B n una v.a. di Bernoulli con parametri n e PE . Pertanto
n
n k k
∑
p FE [ f E ] = PE (1 − PE )
k
n − k u0 f E −
n
k =0
Inoltre
• m FE = m B / n = ( nPE ) / n = PE
2 2 2 2
• σ = σ B / n = [ nPE (1 − PE )] / n = PE (1 − PE ) / n
FE
quindi
2
lim σ =0
n →∞ F E
k x (τ ) = ∫ ∫ ( x1 − mx )( x2 − mx ) px1x2 ( x1 , x2 ;τ )dx1dx2
x1 x2
PROCESSI STAZIONARI - PROCESSO ARMONICO
Per illustrare i concetti precedenti consideriamo il processo
armonico:
x(t ) = a cos(2πf 0t + ϕ 0 )
dove a e' una costante nota, e ϕ0 una determinazione di una
variabile aleatoria.
x1
f0 = −2πf 0t1 ± ar cos mod. 2π
a
Applicando la regola per le funzioni di v.a. e osservando che per
ambedue le funzioni inverse si ha :
dϕ 0 1
= ∀x1 ∈ [− a, a ] segue che:
dx1 a 2 − x12
1 x1
πx1 ( x1 ; t1 ) = π − 2πφ 0t1 + ar cos
2 φ0 +
a − x1
2
a mod .2π
x1
+ πφ0 − 2πφ 0t1 − ar cos x1 ∈ [− a, a ]
a mod 2π
PROCESSI STAZIONARI
0 x1 < − a o x1 > a
px1 ( x1 ) = 1
− a ≤ x1 ≤ a
p a2 − x12
(condizione necessaria)
PROCESSI STAZIONARI
Per dimostrare la sufficienza occorre considerare le gerarchie di
ordine n, con n qualsiasi. Si osservi che
Per n=2
p x1x2 ( x1 , x2 ; t1 , t 2 ) = p x2 |x1 ( x2 / x1 ;t ) p x1 ( x1 )
dipende solo da τ .
Commento:
E{ f ( x1 , x ,, xn )} =
+∞ +∞
∫ ∫ f ( x1 , x ,, xn ) p X , X
1 ,, X n
( x1 , x ,, xn )dx1dx dxn
−∞ −∞
1 + ∆t / 2
lim ∫ f ( x(t1 ), x(t1 + t 1 ) x(t1 + t n −1 ))dt 1 dt n
∆t → ∞ ∆t
− ∆t / 2
x(t ) = a cos(2πf 0t + ϕ 0 )
Sia a una costante nota, e ϕ 0 una determinazione di una variabile
c
c−b
∫ pΦ 0 (ϕ0 )dϕ = 2p
b
( ) [(
πΦ ' ϕ 0' = πΦ 0 ϕ '0 − 2π∆t
0
)mod .2π ] che è diversa da
zero in [b+2π∆t,c+2π∆t). Conseguentemente il processo e' ergodico.
PROCESSI ERGODICI
Sia a la determinazione di una variabile aleatoria A , e ϕ0 una
a2
∫a dDA (a )
1
Px ( f ) = F {m (τ )}
(1,1)
x
1 + ∆t / 2
px (t ) = lim ∫ x(t )x(t + t )dt
∆t → ∞ ∆t
− ∆t / 2
c.v.d.
PROCESSI ERGODICI
Ogni processo stazionario o è ergodico, o è riducibile, ovvero
l’insieme delle realizzazioni del processo può essere suddiviso in un
numero λ di sottoinsiemi (con λ finito, infinito numerabile o infinito
non numerabile), ciascuno dei quali, pur presentando caratteristiche
statistiche diverse, è ergodico.
1
exp ( x − m x ) K X ( x − m x )
T −1
p X ( x1, xn ; t1,tn ) = 2
(2p )n / 2 det[K X ]1/ 2
{( )(
K x (ti , t j ) = E x(ti ) − mxi x(t j ) − mx j )}
che nel caso stazionario diviene
C.N.E.S di Ergodicità:
Condizione necessaria e sufficiente affinché un processo Gaussiano
stazionario sia ergodico è che la funzione di covarianza sia
assolutamente sommabile:
+∞
∫ K X (τ ) dτ < +∞
−∞
PROCESSI GAUSSIANI
X(t) Y(t)
H( f )
1 f0 − w ≤ f ≤ f0 + w
H( f ) =
0 altrove
m Commento:
I processi X (t ) , Xˆ (t ) avendo la stessa funzione di covarianza,
hanno le stesse gerarchie di ordine n.
m Commento:
Le variabili aleatorie x(t ) , xˆ (t ) (estratte nello stesso istante t) sono
ortogonali:
+∞
1
πξξˆ (0 ) = πξξ (τ ) ∗ hH (τ ) τ = 0 = ∫ πξξ (ξ ) dξ = 0
−∞ πξ
poiché pxx (τ ) è una funzione pari e hH (τ ) una funzione dispari di
τ . Essendo Gaussiane, esse sono anche statisticamente indipendenti.
PROCESSI GAUSSIANI
Processi Gaussiani ergodici limitati in banda con banda non
contigua all’origine (segue).
La singola realizzazione del processo può essere rappresentata in
termini delle sue componenti analogiche di bassa frequenza come
mx c mx 0
m = A =
xs mx̂ 0
s x2c s xc x s s x2 0 T s x2 0
2
= A⋅ 2
⋅A = 2
s s
xc x s x s 0 s x 0 s x
PROCESSI GAUSSIANI
Processi Gaussiani ergodici limitati in banda con banda non
contigua all’origine (segue).
K X c X c (τ ) = K X S X S (τ ) = K XX
(C )
(τ )
K X c X S (τ ) = − K X S X C (τ ) = K XX
(S )
(τ )
dove
(C )
K XX (τ ) e K XX
(S )
(τ ) sono le componenti analogiche di bassa
frequenza della funzione di covarianza K XX (τ ):
K XX (τ ) = K XX
(C )
(τ )cos(2πf0τ ) − K XX
(S )
(τ )sen(2πf0τ )
Commento: si noti che la funzione di autocorrelazione di un
processo ergodico limitato in banda è limitata in banda (infatti la
sua Trasformata di Fourier, che costituisce lo spettro di densità di
potenza di una realizzazione tipica, non è alterata da un filtro
passabanda).
PROCESSI GAUSSIANI: INVILUPPO E FASE
Processi Gaussiani ergodici limitati in banda con banda non
contigua all’origine (segue).
−
v2
v e 2σ 2 v ≥ 0
pV (v ) = 2
σ v<0
0
e dalla densità di probabilità uniforme
1
πΦ (ϕ ) =
2π
PROCESSI GAUSSIANI: INVILUPPO E FASE
Dim. Le variabili v1, ϕ1 sono legate alle xc1, xs1 dalla
trasformazione
v1 = xc21 + xs21
−1 xs1
ϕ1 = tg
xc1
la cui inversa
xc1 = v1 cos(ϕ1 )
xs1 = v1 sen (ϕ1 )
ha per Jacobiano
∂xc1 / ∂v1 ∂xs1 / ∂v1
J (v1, ϕ1 ) =
∂xc1 / ∂ϕ1 ∂xs1 / ∂ϕ1
cos(ϕ1 ) sen (ϕ1 )
=
1
v sen (ϕ 1 ) v1 cos (ϕ )
1
con determinante
J (v1,ϕ1 ) = v1
PROCESSI GAUSSIANI: INVILUPPO E FASE
Dim (segue):
1 xc2 + xs2
p X c X S ( xc , xs ) = exp− 2
(2p )s x 2s x
2
v1 v12
= exπ− 2 v1 > 0,ϕ1 ∈ [0,2π )
(2π )σ x 2σ x
2
2p v2 v2
v − v −
pV (v ) = ∫ 2p σ x2 e 2σ dϕ = 2σ 2
2
e v>0
0
σ x2
+∞ v2
v −
pΦ (ϕ ) = ∫ 2p σ x2 e 2σ 2 dv
0
∞
1 v 2
= − exp− v>0
2p σ 2
2 0
Si ha inoltre
π
mv = σ x , mv( 2) = 2σ x2
2
ONDA PAM
Onda PAM: processo la cui generica realizzazione è del tipo
+∞
x(t ) = ∑ ak g (t − kT − ϑ )
k = −∞
mA + ∞
mx = x(t ) = ⋅ ∫ g (t )dt
t
T −∞
−∞
y (t ) = a(t ) ΠT (t − ϑ ) = ma ΠT (t − ϑ )
t t t t
∆t → ∞ ∆t
∫
− ∆t / 2
1 +T / 2 1
= ∫ Π T (t − ϑ )dt =
T −T / 2 T
c.v.d.
ONDA PAM
Funzione di autocorrelazione:
1 +∞
p xx (t ) = x(t )x(t + t ) = ∑ p aa (kT )Egg (t − kT )
t
T k =−∞
Dim: Per le regole del transito in un filtro lineare
1 +∞
p xx (τ ) = ∑ K aa (kT )Egg (τ − kT )
T k =−∞
ma2 +∞
+ ∑
T k =−∞
Egg (τ − kT )
))))))(