Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
2
21 a22
s2
Prof. M.Sc. Nielsen Castelo Damasceno www.ncdd.com.br E-mail: nielsen.tekla@gmail.com UFRN
x1 a11
x= =
x2 a 21
a12 s1
a 22 s2
(1)
x = As
(2)
representam a atenuao ou
0.02
0.01
0
-0.01
-0.02
10
12
Tempo (ms)
14
16
18
20
10
12
Tempo (ms)
14
16
18
20
0.02
-0.02
-0.04
-3
Mistura 1 (Amplitude)
-5
-10
Mistura 2 (Amplitude)
x 10
10
12
Tempo (ms)
14
16
18
20
10
12
Tempo (ms)
14
16
18
20
0.01
-0.01
-0.02
poderamos resolver o
Uma abordagem para resolver este problema seria usar alguma informao
estatstica sobre as propriedades dos sinais
e talvez surpreendentemente, verifica-se que ela seja suficiente para presumir que
e
so estatisticamente independentes. A
tcnica recentemente desenvolvida conhecida como ICA pode ser usado para
estimar os valores de
sistema misturador. Este problema dito cego em razo da falta de informao que
2
1
0
-1
-2
10
12
Tempo (ms)
14
16
18
20
10
12
Tempo (ms)
14
16
18
20
-2
-4
(3)
(4)
de x e y devem fatorar no
. Equivalente independncia,
esta pode ser definida pela substituio das funes de densidade de probabilidade
na Equao 4 pelas respectivas funes de distribuio cumulativa, que tambm
deve ser fatorveis.
Duas variveis, x e y, so no-correlacionadas se a sua covarincia for zero:
cov( x, y ) = E{xy} E{x}E{ y} = 0
(5)
(6)
(7)
(8)
(9)
x i = Fu a ij s j ,
j =1
onde, i = 1, L , n e j = 1, L , n .
(10)
(11)
5 RESTRIES AO MODELO
Para estimar a matriz de mistura A preciso admitir algumas restries:
1. As variveis latentes, s, tm que ser mutuamente independentes.
2. As componentes independentes tem que ser distribuies no-gaussianas.
Isto deve-se ao fato do ICA permitir estimar ICs com ordem de estatstica
elevada. Para sinais gaussianos, a ordem de estatstica elevada igual a
zero. Portanto, ICA no requer que seja conhecida a distribuio das
variveis, basta que elas no sejam gaussianas. Pode-se notar (Figura 6)
que no possvel estimar a matriz de mistura, A, porque a distribuio de
probabilidades no possui informao sobre as direes das colunas desta
matriz. Assim, se a mistura possuir sinais originais no-gaussianos e sinais
originais gaussianos, ento as componentes gaussianas no so separadas
pelo ICA e surgem misturadas.
(12)
(13)
10
1 0 0
P = 0 0 1
0 1 0
7 PR-PROCESSAMENTO
A correlao considerada uma medida fraca. Todavia, pode-se verificar
que este procedimento permite a determinao de uma transformao linear sobre a
mistura. luz deste paradigma, conclui-se que a PCA considera apenas estatstica
de segunda ordem, diferentemente de ICA, que considera estatstica de ordem
superior, discutido anteriormente. Assim, utiliza-se a PCA como um prprocessamento ao ICA que chamamos de branqueamento (POBLADOR; MORENO
et. al., 2004). Este mtodo ser detalhado na prxima seo.
Para ilustrar a tentativa de recuperar as fontes usando branqueamento,
representamos duas fontes independentes,
, uniformemente distribudas em
um quadrado (Figura 7). Usou-se uma matriz quadrada 2x2 para gerar as misturas
dadas pela Equao 2. O resultado desta mistura apresentado na Figura 8 e por
fim suas estimativas obtidas pelo processo de branqueamento so ilustradas na
Figura 9.
Considerando o efeito do sistema misturador linear, verifica-se a dificuldade
da recuperao das fontes (Figura 9) usando estatstica de segunda ordem.
Claramente, o mtodo consegue recuperar as escalas das fontes, mas incapaz de
recuperar a rotao, pois existe uma indeterminao referente a uma matriz
ortogonal cujo efeito a rotao dos dados (HYVRINEN; OJA, 1999).
Intuitivamente, percebe-se que a utilizao dessa ideia para um prprocessamento no algoritmo ICA dito anteriormente obrigatrio na utilizao do
branqueamento para a separao das fontes, visto que em distribuies gaussianas
conhecemos apenas duas caractersticas, a mdia e varincia. Percebe-se com
este resultado a ineficcia da estatstica de segunda ordem, no que tange a
impossibilidade de recuperar fontes gaussianas e este resultado foi provado por
Comon (1994).
11
12
(14)
(15)
{ }
E zz t = I
(16)
(17)
13
onde,
(18)
, de
"
(21)
"
"
"I"
(22)
(23)
14
15
& &. Suponha que s tem mdia zero e que as componentes independentes tm
diferentes kurtosis. Ento, a matriz ortogonal " que dado pela componente
principal de
" .
W = E{ x (W t x ) 3 } 3 || W || 2 W
16
(24)
+, -
./
O mximo da funo )
* quando encontramos certo valor timo de
em razo ao
10
34
7 8)
0,
17
1 )
16 )
) ./ ,
/
1 ;
16 ;
log ?@ A
C
Para recuperar vrias fontes a partir da regra de atualizao (ou regra de ajuste),
se faz necessrio execut-la para vrios vetores ) . Frequentemente, se tem um
problema em que o algoritmo sempre encontra a mesma fonte, ou seja, converge
para o mesmo timo. Neste caso, o problema contornado da seguinte maneira:
Considere um problema de separao de trs fontes distintas feita a extrao da
primeira fonte. A extrao da segunda fonte feita aplicando a regra de ajuste.
Entretanto, a cada iterao se retira do vetor em processo de estimao a
contribuio do vetor referente primeira fonte, de modo que esses dois vetores
sejam ortogonais. Podemos usar esta mesma estratgia para extrair a terceira fonte.
Deve-se, em cada iterao, retirar a contribuio dos dois vetores estimados e
assim por diante. Finalmente, a regra de aprendizagem do FastICA descrito:
1. Centralizar e branquear as misturas;
2. Definir aleatoriamente valores iniciais para ) (colunas de W) e ortogonalizar
W de acordo com passo 5;
3. Para todo D faa )
1 )
16 )
);
';
18
q
k l
2
kl
. Como a matriz W
ortogonal, ao ser multiplicada por outra matriz, no altera a soma total dos
quadrados dos elementos dessa matriz, ento minimizar a soma dos quadrados dos
elementos fora da diagonal equivalente a maximizar a soma dos quadrados dos
elementos da diagonal.
Ento, este algoritmo tem como objetivo maximizar a seguinte equao:
Jade (W ) = | diag (WF ( M i )W t ) | 2
i
19
9 APLICAOES ICA
20
21
[E, D] = eig(cov(x'));
v = E*D^(-0.5)*E' * x;
z = repmat(sqrt(sum(v.^2)),n,1).*v;
[EE, DD] = eig(cov(z'));
y = EE'*v;
w = EE';
end
22
figure;
subplot(3,1,1);
plot(t,s1);xlabel('Tempo (s)'); ylabel('s_1(t)');
subplot(3,1,2);
plot(t,s2);xlabel('Tempo (s)'); ylabel('s_2(t)');
subplot(3,1,3);
plot(t,s3);xlabel('Tempo (s)'); ylabel('s_3(t)');
figure;
subplot(3,1,1);
plot(t,x(1,:));xlabel('Tempo (s)'); ylabel('x_1(t)');
subplot(3,1,2);
plot(t,x(2,:));xlabel('Tempo (s)'); ylabel('x_2(t)');
subplot(3,1,3);
plot(t,x(3,:));xlabel('Tempo (s)'); ylabel('x_3(t)');
figure;
subplot(3,1,1);
plot(t,y(1,:));xlabel('Tempo (s)'); ylabel('y_1(t)');
subplot(3,1,2);
plot(t,y(2,:));xlabel('Tempo (s)'); ylabel('y_2(t)');
subplot(3,1,3);
plot(t,y(3,:));xlabel('Tempo (s)'); ylabel('y_3(t)');
s 1(t)
1
0
-1
100
200
300
400
500
600
Tempo (s)
700
800
900
1000
100
200
300
400
500
600
Tempo (s)
700
800
900
1000
100
200
300
400
500
600
Tempo (s)
700
800
900
1000
s 2(t)
2
0
-2
s 3(t)
2
0
-2
23
x 1(t)
5
0
-5
100
200
300
400
500
600
Tempo (s)
700
800
900
1000
100
200
300
400
500
600
Tempo (s)
700
800
900
1000
100
200
300
400
500
600
Tempo (s)
700
800
900
1000
x 2(t)
5
0
-5
x 3(t)
5
0
-5
y 1(t)
2
0
-2
100
200
300
400
500
600
Tempo (s)
700
800
900
1000
100
200
300
400
500
600
Tempo (s)
700
800
900
1000
100
200
300
400
500
600
Tempo (s)
700
800
900
1000
y 2(t)
5
0
-5
y 3(t)
5
0
-5
24
REFERNCIAS
CARDOSO J., Blind signal separation: statistical principles, Proc. IEEE 86
(10) 1998.
CARDOSO J., High-order contrasts for independent component analysis,
Neural Computation, pag. 157-192, 1999.
CICHOCKI A., AMARI S., Adaptive Blind Signal and Image Processing:
Learning Algorithms and Applications, John Wiley, New York, USA, 2002.
COMON P., Independent component analysis, a new concept?, Signal
Process,1994.
HAYKIN S., Redes Neurais: Princpios e prtica. 2 ed. Porto Alegre: Bookman,
2001a.
HE R., J. REED. A robust co-channel interference rejection technique for
current mobile phone system. In Proc. IEEE VTC, pag. 11951199 vol.2, Atlanta,
GA, 1996.
HYVRINEN A., E.OJA. Independent component analysis: A tutorial. Technical
report, 1999.
HYVRINEN A., Survey on independent component analysis, Neural
Computer Surveys 2, 1999a.
HYVRINEN A., Fast and robust Fixed-point algorithms for independent
component analysis, IEEE Trans. Neural Networks 10, 1999c.
HYVRINEN A., E. OJA. Independent Component Analisys: Algorithms and
applications. Neural Networks, 2000.
JAHN O., A. CICHOCKI, A. IOANNIDES, S. AMARI. Identification and elimination
of artifacts from MEG signals using efficient independent components
analysis, In Proc. of th 11th Int. Conference on Biomagentism BIOMAG-98, pag.
224227, Sendai, Japan, 1999.
KUN Z, Lai-WAN CHAN, "ICA by PCA Approach: Relating Higher-Order
Statistics to Second-Order Moments", 2006.
PAPOULIS, A. Probability, Random Variables, and Stochastic Processes,
McGraw-Hill, 3rd edition, 1991.
POBLADOR S., V., MONTE-MORENO, E. & SOL-CASAL, J. ICA as a
Preprocessing Technique for Classification, In Proceedings of the Fifth
International Workshop on Independent Component Analysis and Blind Signal
Separation, ICA 2004, pag. 1165-1172, Granada, Espanha, 2004.
Prof. M.Sc. Nielsen Castelo Damasceno www.ncdd.com.br E-mail: nielsen.tekla@gmail.com UFRN