Sei sulla pagina 1di 7

1

Basi matematiche

< f, g >=

b f(x)g (x)dx −→ prodotto scalare

a

b

< f, f >=

a

f(x)f (x)dx =

b |f(x)| 2 dx = E(x) = x 2

a

x 2 = x =

a

s i (t) B

s i {s i 1 , s i 2 ,

b |f(x)| 2 dx , s i n }

Da qui ho ottenuto una RAPPRESENTAZIONE VETTORIALE del segnale !

RELAZIONE DI PARSEVAL

E(s i ) = |s i (t)| 2 dt =< s i , s i >= s i 2 −→

GRAM SCHMIDT x

ψ 1 =

1

x 1

x 2,1 = x 1 ψ

ϕ 2 = x 2 x 2,1 ϕ

ψ 2 =

1

dt

2

ϕ 2

x 3,1 = x 3 ψ

x 3,2 = x 3 ψ

1

2

dt

dt

ϕ 3 = x 3 x 3,1 x 3,2

ψ 3 =

ϕ 3

ϕ 3

SERIE DI FOURIER

B = {

1 T e j2πk

t

T }

k=−∞

ψ k =

1 T e j2πk

t

T

−→ base normale

C k =< x(t), ψ k >=

T 1 2 √ T − T 2
T
1
2
T
− T
2

x(x) =

E(x) =

k=−∞ C k

1 T e j2πk

k=−∞

|C k | 2

t

T

t

x(t)e j2πk T dt

energia del segnale [J]

SERIE DI FOURIER PROPRIAMENTE DETTA

t

B = {e j2πk T }

k=−∞

ψ k = e j2πk

t

T −→ base non normale

µ k = C k

1

T =

T

T

2

1

T

2

t

x(t)e j2πk T dt

x(x) =

E(x) = T

k=−∞ µ k e j2πk

k=−∞ |µ k | 2

t

T

1

TRIGONOMETRIA

2 cos(α) cos(β) = cos(α + β) + cos(α β)

cos(α) cos(β) = 2 cos(α + β) + cos(α β)

2 sin(α) sin(β) = cos(α β) cos(α + β)

1

1

sin(α) sin(β) = 2 cos(α β) cos(α + β)

CONVOLUZIONE

Operazione tra funzioni definita come:

x(t) y(t) := x(θ)y(t θ)

Passaggi:

RIBALTAMENTO

TRASLAZIONE

MOLTIPLICAZIONE

INTEGRAZIONE

DELTA DI DIRAC

x(t)δ(t)dt = x(0) · 1

x(t)δ(t t 0 )dt = x(t 0 ) · 1

x(t)δ(t) = x(0)δ(t)

x(t)δ(t t 0 ) = x(t 0 )δ(t t 0 )

F{δ(t)} = 1

F 1 {1} = δ(t)

x(t) δ(t) = x(t)

x(t) δ(t t 0 ) = x(t t 0 )

TRASFORMATA DI FOURIER

linearita´ ax(t) + by(t) = aX(f ) + bY (f )

anticipo o ritardo x(t ± θ) = X(f )e ±j2πfθ

traslazioone in f x(t)e ±j2πf 0 t = X(f f 0 )

scalamento in t x(kt) =

k

|k| X( f

1

)

scalamento in f

1

|k| x(

t

k ) = X(kf)

modulazione x(t)cos(2πf 0 t) =

2 1 [X(f f 0 ) + X(f + f 0 )]

convoluzione

+

−∞

x(τ )y(t τ )= X(f )Y (f )

prodotto x(t)y(t) =

+

−∞

X(a)Y (f a)da

derivazione x˙ (t) = j2πfX(f )

t

integrazione x(r)dr =

2 1 X(0)δ(f ) + X(f )/j2πf

TRASFORMATE NOTEVOLI

e at u(t) =

1

a + j2πf

e

a|t| =

2a

a 2 + 4π 2 f 2

e

t 2 = πe π 2 f 2

9t 2 =

e

δ(t) = 1

1 = δ(f)

δ (n) (t) = (j2πf) n

π

9

e π 2 f 2

9

T (t) = sin(πfT )

P

πf

T

ri T = T sin 2 (πfT ) (πfT ) 2

u(t) =

tu(t) =

j2πf + δ(f)

1

2

(j2πf) 2 + (f)

1

4π

t

= (f)

2π

cos(2πf 0 t) =

sin(2πf 0 t) = 2j [δ(f f 0 ) δ(f + f 0 )]

2 1 [δ(f f 0 ) + δ(f + f 0 )]

1

ate at u(t) =

a

a + j2πf

SISTEMI LINEARI TEMPO INVARIANTI LTI Per poter definire un sitema LTI devo dimostrare la linearita´ e la tempo invarianza

´

LINEARIT A

αy(t) = Ω{αx(t)}

TEMPO INVARIANZA

y(t D) = Ω{x(t D)}

SEGNALI ENERGIA FINITA

x(t) = segnale con energia finita

S x (f)

= |X(f) 2 | −→ spettro di energia

R

x (τ)

=

F 1 {S x (f )} −→ autocorrelazione

R

x (0)

= E(x)

S y (f)

=

|H(f) 2 |S x (f)

R y (τ) = F 1 {|H(f ) 2 |S x (f)}

3

SEGNALI PERIODICI

x(t) = x T (t nT ) −→ X(f ) = f 0 X T (nf 0 )δ(f nf 0 )

x(t) = q(t nT ) −→ X(f ) = f 0 Q(nf 0 )δ(f nf 0 )

x(t) =

µ n e j2πf 0 t −→ X(f) = µ n δ(f nf 0 )

1 T P(x) = 2 |x(t)| 2 dt T − T 2 µ n =
1
T
P(x) =
2
|x(t)| 2 dt
T
− T
2
µ n = µ n se
X(f ) = µ n δ(f − nf 0 )
µ
=
f 0 X T (nf 0 ) se X(f ) = f 0 X T (nf 0 )δ(f − nf 0 )
n

µ n = f 0 Q(nf 0 )

se X(f ) = f 0 Q(nf 0 )δ(f nf 0 )

G x (f) = |µ n | 2 δ(f nf 0 ) −→ spettro di potenza

Φ x (τ)

= F 1 {G x (f)} = |µ n | 2 e j2πnf 0 τ −→ autocorrelazione

Φ x (τ) =

T

T

2

1

T

2

x (t)x(t + τ )dt −→ autocorrelazione

In LTI:

Y

(f) =

H(f)

µ n δ(f nf 0 )

Y

(f) = µ n H(nf 0 )δ(f nf 0 )

G

y (f) = |µ n | 2 |H(nf 0 )| 2 δ(f nf 0 ) = |H(f)| 2 G x (f)

PROCESSI CASUALI

x(t) PROCESSO CASUALE

genera −→ come? −→ REALIZZAZIONE PROCESSO

ξ(s) VARIABILE CASUALE

caratterizzo ξ(s) −→ voglio sapere come si comporta

´

DISTRIBUZIONE DI PROBABILIT A

´ ´

DENSIT A DI PROBABILIT A

´

DISTRIBUZIONE DI PROBABILIT A

F ξ (x) := P {ξ x}

F ξ (−∞) = 0

F ξ (+) = 1

´

´

DENSIT A DI PROBABILIT A

:= dF ξ (x)

dx

f ξ (x)dx = 1

f ξ (x)

f ξ (x) 0

+

−∞

MEDIA STATISTICA

µ x = E{g(ξ)} =

+

−∞

MOMENTO

g(x)f ξ (x)dx

4

µ n = E{ξ n } = u n f ξ (u)du

MOMENTO CENTRALE

m n = E{(ξ µ ξ ) n } = (u µ ξ ) n f ξ (u)du

´

DISTRIBUZIONE CUMULATA DI PROBABILIT A CONGIUNTA

F ξ 1 ,ξ 2 (u 1 , u 2 ) = P(ξ 1 u 1 , ξ 2 u 2 )

0 F ξ 1 ,ξ 2 (u 1 , u 2 ) 1 F ξ 1 ,ξ 2 (u 1 , ) = P(ξ 1 u 1 ) = F ξ 1 (u 1 )

´ ´

DENSIT A DI PROBABILIT A CONGIUNTA

f ξ 1 ,ξ 2 (u 1 , u 2 ) =

2

∂u 1

u 2 F ξ 1 ,ξ 2 (u 1 , u 2 )

f ξ 1 ,ξ 2 (u 1 , u 2 ) 0 f ξ 1 ,ξ 2 (u 1 , u 2 )du 1 du 2 = 1

f ξ 1 ,ξ 2 (u 1 ,

u 2 )du 2 = f ξ 1 (u 1 )

INDIPENDENZA STATISTICA

ξ 1 e ξ 2

sono statisticamente indipendenti se

F ξ 1 ,ξ 2 (u 1 , u 2 ) = P(ξ 1 u 1 )P(ξ 2 u 2 ) = F ξ 1 (u 1 )F ξ 2 (u 2 )

quindi questo comporta che

f ξ 1 ,ξ 2 (u 1 , u 2 ) = f ξ 1 (u 1 )f ξ 2 (u 2 )

MOMENTI CONGIUNTI

E{ξ

E{ξ 1 ξ 2 } −→ correlazione ξ 1 ξ 2

COEFFICENTE DI CORRELAZIONE

n

1

ξ

k

2

} = u n u

1

k

2

f ξ 1 ,ξ 2 (u 1 , u 2 )du 1 du 2

ρ ξ 1 ξ 2 = E{(ξ 1 µ 1 )(ξ 2 µ 2 )}

σ ξ 1 σ ξ 2

VARIANZA

σ x = E{(ξ µ) 2 } = E{ξ 2 } − µ 2

σ x −→ deviazione standard

2

FUNZIONE AUTOCORRELAZIONE

R x (t 1 , t 2 ) = E{x(t 1 )x (t 2 )}

FUNZIONE AUTOCOVARIANZA

K x (t 1 , t 2 ) = E{[x(t 1 ) µ x (t 1 )][x(t 2 ) µ x (t 2 )] }

5

´

STAZIONARIET A

´

STAZIONARIET A 1

f x (x 1 , t 1 ) = f x (x 2 , t 2 )x, t

P(x(t 1 ) u 1 ) = P(x(t 1 + ∆ t ) u 1 )

´

STAZIONARIET A 2

f x (x 1 x 2 , t 1 t 2 ) = f x (x 3 x 4 , t 3 t 4 )x, t

P(x(t 1 ) u 1 , x(t 2 ) u 2 ) = P(x(t 1 + ∆ t ) u 1 , x(t 2 + ∆ t ) u 2 )

WSS

´

STAZIONARIET A N (SSS)

P(x(t 1 ) u 1 ,

in questo caso si dice che il processo e´ stazionario in senso stretto o SSS

, x(t N ) u N ) = P(x(t 1 + ∆ t ) u 1 ,

, x(t N + ∆ t ) u N )

STAZIONARIO IN SENSO LATO (WSS) se

E{x(t, s)} = µ x la media non dipende dal tempo

R x (t 1 , t 2 ) = R x (t 1 + ∆ t , t 2 +

t ) l’AUTOCORRELAZIONE dipende solo da τ = t 2 t 1

R x (τ) = E{x(t + τ)x (t)}

R x (0) = E{|x(t)| 2 }

|R x (τ)| ≤ R x (0)

R x (τ) = R x (τ)

S x (f) = F{R x (τ)} = R x (τ)e j2πfτ

LTI E PROCESSI WSS Se un processo casuale WSS x(t) viene usato come input in un sistema LTI allora:

R y (τ) = R x (τ) R h (τ)

R h (τ) =

R x (τ)

R y (τ) = E{y (t)y(t + τ )} −→ y(t) processo casuale

h (t)h(t + τ )dt −→ h(t) e´ determinato

= E{x (t)x(t + τ )} −→ x(t) processo casuale

µ y = µ x H(0)

S y (f) = S x (f)|H(f)| 2

S y (f) = F{R y (τ)} = R y (τ)e j2πfτ

R y (τ) = F 1 {S y (f)} = S y (f)e j2πfτ df

LTI E PROCESSI GAUSSIANI O MEDIA NULLA

2

σ y = R y (0)

R y (0) = F 1 {S y (f)} τ =0 =

= S y (f)e j2πfτ | τ =0 df =

= S y (f)e j2πf0 df =

= S y (f )1df =

= S x (f)|H(f)| 2 df

6

MEDIA TEMPORALE

f [x(t, s 0 )] := lim T

´

ERGODICIT A

T

T

2

1

T

2

f

[x(t, s 0 )]dt

Al fine di misurare R x (τ) o S x (f ) sarebbero necessarie tutte le possibili realizzazioni ed e´ una cosa impossi- bile. Nella vita reale si hanno solo un numero finito di realizzazioni. Possiamo stimare R x (τ) o S x (f ) solo da una realizzazione se il processo e´ ERGODICO.

´

CONDIZIONE DI ERGODICIT A

E s {f (x(t, s))} = lim T

T

T

2

1

T

2

f

(x(t, s 0 ))dt

7