Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
O processamento de sinais mudou! N ao estamos mais na era na
qual a informac
ao na forma de sinais eletricos e processada por
meio de tradicionais dispositivos analogicos. N os estamos
solidamente, e, para o futuro previsvel, irrevogavelmente, no
amago do processamento de sinais digitais (amostrados ou
discretos no tempo) aleatorios.
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Conteudo do curso
1 Revis
ao de modelos probabilsticos
2 Analise de momentos de segunda ordem
3 Teoria da estimac
ao
4 Filtragem
otima
5 Predic
ao de sinais estacion
arios
6 Teoria da deteccao
7 Metodos recursivos no tempo
8 Filtragem adaptativa
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Parte VII
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Introducao
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Introducao - cont.
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Filtragem Adaptativa Filtro Otimo
Filtragem
otima (Wiener)
1 Aquisicao dos dados: obtenc
ao de Rx e pxd
2 otimo: wopt = R1
Determinacao dos filtro x pxd
3 Complexidade computacional M 3
Filtragem adaptativa
Adquirir os dados e otimizar o sistema adaptativo ao mesmo
tempo (complexidade computacional menor!)
Id
eia geral
d(n)
y(n)
x(n) w(n) e(n)
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Metodos de busca
Crit
erio: atualizar w(n) de forma a minimizar E e2 (n) .
Para o caso de w(n) com dois coeficientes w(n) = [ w0 w1 ]T ,
temos
25
20
1600
15
1400
10
1200
e2 (n)
5
1000
w0
800 0
600
5
E
400
10
200
15
0
40
20 30 20
20
0 10
0
20 10
w1 40 30
20
w0
25
25 20 15 10 5
w1
0 5 10 15 20 25
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Metodos de busca - cont.
Otimizac
ao interativa: a partir de uma condic
ao inicial w(0)
chegar a wopt para 0 < n N iteracoes
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Metodos de busca - cont.
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Metodos de busca - cont.
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Metodos de busca - cont.
J
1a ordem: wT w(n)
w(n + 1)
Algoritmo steepest descent (descida mais ngreme)
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Metodos de busca - cont.
2a ordem: M
etodo de Newton
Temos que
2J
H(w) =
wwT (211)
= 2Rx
e a matriz Hessiana de J(w).
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Metodos de busca - cont.
J(w)
w(n + 1) = w(n) + H1 (w)
w
= w(n) 2H1 (w) [Rx w(n) pxd ]
(212)
w(n + 1) = w(n) w(n) R1 p
| x{z xd}
wopt
Algoritmo de Newton
w(n + 1) = w(n) w(n) R1
x pxd (213)
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Metodos de busca - cont.
w(1) = R1
x pxd
Soluc
ao
otima em uma iterac
ao!
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Caractersticas do Steepest descent
J
J1
J2 wi+1 = w J(w)
w0
w1
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Caractersticas do Steepest descent - cont.
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Caractersticas do algoritmo de Newton
w J(w) + H(w)w = 0
w = H1 (w) w J(w)
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Caractersticas do algoritmo de Newton - cont.
1
wi+1 = wi R1 w J(w)
2 x
wi+1 = wi + R1
x pxd wi
wi+1 = R1
x pxd
que e a pr
opria solucao
otima.
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Steepest descent Algoritmo de Newton
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Steepest decent Newton - cont.
10
2
w0
10
10 8 6 4 2 0 2 4 6 8 10
w1
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Problemas
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Aproximacao estocastica
Origem
H. Robbins and S. Monro, A Stochastic Approximation Method,
The Annals of Mathematical Statistics, vol. 22, no. 3, pp.
400-407, 1951
em que
x(n) = dados observados no tempo
(n) = seq uencia decrescente
f () = funcao dos dados e parametros
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Aproximacao estocastica - cont.
Exemplo
Sejam
(0) = 0
1
= n
f [(n 1), x(n)] = (n 1) x(n)
da decorre que
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Aproximacao estocastica - cont.
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Aproximacao estocastica - cont.
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Aproximacao estocastica - cont.
Comparac
ao
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Algoritmos estocasticos
Diferentes aproximac
oes podem ser realizadas
Meta e reduzir a complexidade dos algoritmos provendo uma
convergencia para o ponto
otimo
Algumas tecnicas s
ao discutidas a seguir
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Algoritmos estocasticos - cont.
Algoritmo LMS
Propriedades
Simplicidade computacional
Prova de convergencia em ambiente estacion
ario
Convergencia nao-polarizada, em media, para a solucao otima
(Wiener)
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Algoritmos estocasticos - cont.
Algoritmo LMS - cont.
Rx = E
x(n)xT (n)
R b x (n) = x(n)xT (n)
pxd = E {x(n)d(n)}
(218)
b xd (n) = x(n)d(n)
p
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Algoritmos estocasticos - cont.
Algoritmo LMS - cont.
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Algoritmos estocasticos - cont.
Algoritmo LMS - cont.
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Algoritmos estocasticos - cont.
Algoritmo LMS - cont.
E {LMS } = E
2 x(n)xT (n)w(n) x(n)d(n)
=2
E
x(n)xT (n) w(n) {x(n)d(n)}
E (222)
= 2 [Rx w(n) pxd ] = det
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Algoritmos estocasticos - cont.
Algoritmo LMS - cont.
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Algoritmos estocasticos - cont.
Algoritmo LMS - cont.
Sabendo que eopt (n) = d(n) x(n)T wopt = b(n) temos entao, o
valor esperado de
E{w(n + 1)} =
E
I 2x(n)x(n)T w(n)
E
+ 2 {eopt (n)x(n)}
(225)
E
{w(n + 1)} = I 2
E
x(n)x(n)T
{w(n)} E
= (I 2Rx ) {w(n)} E (226)
E T
Q w(n + 1) = (I 2QT Rx Q)
T
Q w(n)
E (228)
Rx = QQT
QT Rx = QT QQT
= QT
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Algoritmos estocasticos - cont.
Algoritmo LMS - cont.
Condic
ao de estabilidade:
|1 2k | < 1 1 < 1 2k < 1
1
0 < 2k < 2 0 < <
k (232)
1
Estabilidade: 0 < <
max
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Algoritmos estocasticos - cont.
Algoritmo LMS - cont.
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Algoritmos estocasticos - cont.
Algoritmo LMS - cont.
3
10
25
20
2
10
15
10
1
e2 (n)
10
5
w1
0
0
10
5
10
1
10
15
20
2
10
0 100 200 300 400
n
500 600 700 800 900 1000 25
25 20 15 10 5
w0
0 5 10 15 20 25
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Algoritmos estocasticos - cont.
Algoritmo LMS - cont.
Resumo:
Algoritmo com baixa complexidade
Converge, em media, para o filtro
otimo
Fator de passo influencia na velocidade de convergencia
Compromisso com o erro de desajuste
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Algoritmos estocasticos - cont.
Algoritmo LMS normalizado
Motivac
ao
O algoritmo LMS apresenta o fator de passo dependente das
caractersticas da correlac
ao
Para aumentar a velocidade de convergencia, aumenta-se o
fator de passo, mas o mesmo fornece um erro residual maior
Ideia: colocar os dados para servirem de regulacao ao
desajuste
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Algoritmos estocasticos - cont.
Algoritmo LMS normalizado - cont.
Sabendo que
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Algoritmos estocasticos - cont.
Algoritmo LMS normalizado - cont.
Entao, definindo
e2 (n) = ee2 (n) e2 (n)
e T (n)x(n)e(n) + w
= 2w e T (n)x(n)xT (n)w(n)
e
(237)
Substituindo w(n)
e = 2e(n)x(n) na Eq. (237) tem-se
e2 (n) = 4e2 (n)xT (n)x(n) + 42 e2 (n)[xT (n)x(n)]2 (238)
e2 (n)
Valor de e dado por = 0, de onde tem-se
1
= (239)
2xT (n)x(n)
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Algoritmos estocasticos - cont.
Algoritmo LMS normalizado - cont.
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Algoritmos estocasticos - cont.
Algoritmo LMS normalizado - cont.
3
10
2
10
1
10
e2 (n)
0
10
1
10
2
10
0 100 200 300 400 500 600 700 800 900 1000
n
Algoritmos LMS (azul) e LMS-Normalizado (vermelho) com mesmo fator
de passo LMS = LMS-Norm = 0.5, comparados com Jmin (preto)
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais
Algoritmos estocasticos - cont.
Algoritmo LMS normalizado - cont.
25
20
15
10
5
w1
10
15
20
25
25 20 15 10 5
w00 5 10 15 20 25
Trajet
orias dos algoritmos LMS (azul) e LMS-Normalizado (vermelho)
para o ponto
otimo
c C. C. Cavalcante
Introduca
o ao Processamento Estatstico de Sinais