Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
T
opicos de Algebra Linear. I
Conte
udo
9.1 Propriedades B asicas de Determinantes e Inversas de Matrizes . . . . . . . . . . . . . . . 340
9.2 No c
oes B asicas sobre o Espectro de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . 350
9.2.1 Autovalores e Polin omios Caractersticos de Matrizes . . . . . . . . . . . . . . . . . . . . . . . 351
9.2.2 Autovetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354
9.2.3 O Traco de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356
9.2.3.1 Algumas Relac oes entre Determinantes e Tracos de Matrizes . . . . . . . . . . . . . . . 358
9.3 Polin omios de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359
9.3.1 O Teorema de Hamilton-Cayley . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
9.3.1.1 O Teorema da Aplicac ao Espectral para Matrizes . . . . . . . . . . . . . . . . . . . . . 365
9.4 Matrizes Diagonaliz aveis e o Teorema Espectral . . . . . . . . . . . . . . . . . . . . . . . . 366
9.4.1 Diagonalizac ao Simult anea de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378
9.5 Matrizes Auto-Adjuntas, Normais e Unit arias . . . . . . . . . . . . . . . . . . . . . . . . . 381
9.5.1 Matrizes Positivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 387
9.5.2 O Teorema de Inercia de Sylvester. Superfcies Quadr aticas . . . . . . . . . . . . . . . . . . . 389
9.6 Matrizes Triangulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393
9.7 O Teorema de Decomposi c
ao de Jordan e a Forma Can onica de Matrizes . . . . . . . . . 395
9.7.1 Resultados Preparat orios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397
9.7.2 O Teorema da Decomposic ao de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400
9.7.3 Matrizes Nilpotentes e sua Representac ao Can onica . . . . . . . . . . . . . . . . . . . . . . . . 403
9.7.4 A Forma Can onica de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407
9.7.5 Mais Alguns Resultados Sobre Matrizes Nipotentes . . . . . . . . . . . . . . . . . . . . . . . . 409
9.8 Algumas Representa c
oes Especiais de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . 411
9.8.1 A Decomposic ao Polar de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 411
9.8.2 A Decomposic ao em Valores Singulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413
9.8.3 O Teorema da Triangularizac ao de Schur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413
9.8.4 A Decomposic ao QR e a Decomposic ao de Iwasawa (KAN) . . . . . . . . . . . . . . . . . . 416
9.9 A Pseudo-Inversa de Moore-Penrose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 418
9.9.1 Outras Propriedades da Pseudo-Inversa de Moore-Penrose . . . . . . . . . . . . . . . . . . . . 420
9.9.1.1 A Regularizac ao de Tikhonov. Existencia . . . . . . . . . . . . . . . . . . . . . . . . . . 423
9.9.1.2 A Pseudo-Inversa de Moore-Penrose e o Teorema Espectral . . . . . . . . . . . . . . . . 425
9.9.2 A Pseudo-Inversa de Moore-Penrose e Problemas de Optimizac ao Linear . . . . . . . . . . . . 426
9.9.3 Existencia e Decomposic ao em Valores Singulares . . . . . . . . . . . . . . . . . . . . . . . . . 427
9.10 Produtos Tensoriais de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429
9.11 Propriedades Especiais de Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431
9.11.1 Expans ao do Polinomio Caracterstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431
9.11.2 A Desigualdade de Hadamard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431
9.12 Exerccios Adicionais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434
O principal objetivo deste captulo e apresentar a demonstracao do Teorema Espectral para matrizes diagona-
lizaveis, em particular, para matrizes auto-adjuntas (resultado de grande relevancia para a Mecanica Qu
e a demonstracao do Teorema de Decomposicao de Jordan. Sempre trabalharemos no contexto de espacos
vetoriais de dimensao finita Cn sobre o corpo dos complexos. A leitura deste captulo pressupoe que alguns
conceitos b
asicos de Algebra Linear, tais como o conceito de matriz, de produto de matrizes, de determinante de uma
matriz, suas propriedades e metodos de c
antica)
alculo, sejam familiares ao leitor, mas uma breve revisao e apresentada na Secao
339
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 340/2103
9.1 Propriedades B
asicas de Determinantes e Inversas de Ma-
trizes
A presente secao desenvolve a teoria b
asica de inversas e determinantes de matrizes. Sua leitura pode, provavelmente,
ser dispensada por aqueles que julgam dispor desses conhecimentos b asicos, mas a notacao que aqui introduzimos sera
empregada alhures. Propriedades mais avancadas de determinantes serao estudadas na Secao 9.11, pagina 431.
Mat (C, m, n) e um espaco vetorial complexo, com a operacao de soma definida por
A1 , A2 Mat (C, m, n), i {1, . . . , m}, j {1, . . . , n}, e a operacao de multiplicacao por escalares (complexos)
definida por
(A)ij := Aij
C, A Mat (C, m, n) e i {1, . . . , m}, j {1, . . . , n}.
Sejam m, n, p N e sejam A Mat (C, m, n) e B Mat (C, n, p). Denotamos por AB a matriz de Mat (C, m, p)
cujos elementos sao dados por
Xn
AB ij := Aik Bkj (9.1)
k=1
facil
para todos i {1, . . . , m}, j {1, . . . , p}. A expressao (9.1) e denominada regra de produto de matrizes. E
constatar (faca-o!) que valem as propriedades distributivas
(1 A1 + 2 A2 )B = 1 A1 B + 2 A2 B ,
Para cada n N, e com a operacao de produto definida acima, Mat (C, n) e uma algebra associativa, n
ao-comutativa
(exceto se n = 1) e unital, com a unidade sendo dada pela matriz identidade, que denotaremos por 1 neste texto:
1 0
. . ..
1 :=
.
. .. . . (9.2)
0 1
que (AT )T = A. Para todos m, n, p N vale, pela regra de produto de matrizes, a relacao (AB)T = B T AT para
quaisquer A Mat (C, m, n) e B Mat (C, n, p).
Dado um conjunto de n n umeros complexos 1 , . . . , n , denotaremos por diag (1 , . . . , n ) a matriz A Mat (C, n)
cujos elementos Aij sao definidos da seguinte forma:
, se i = j
i
Aij = .
0, se i 6= j
Uma tal matriz e dita ser diagonal pois apenas os elementos de sua diagonal principal sao eventualmente n
ao-nulos. Na
representacao usual
1 0
. .. ..
A = .
. . .
.
0 n
A mais popular dentre as matrizes diagonais e a matriz identidade (9.2): 1 = diag (1, . . . , 1).
Denotaremos por 0a, b Mat (C, m, n) a matriz a b cujos elementos de matriz sao todos nulos. Denotaremos
por 1l Mat (C, l) a matriz identidade l l. Por vezes, quando n ao houver perigo de confusao, poderemos omitir os
sub-ndices e escrever 0a, b simplesmente como 0 e 1l simplesmente como 1.
Vamos tambem empregar as seguintes definicoes. Para m, n N, sejam Im, m+n Mat (C, m, m + n) e Jm+n, n
Mat (C, m + n, n) dadas por
1n
Im, m+n := 1m 0m, n e Jm+n, n :=
,
(9.3)
0m, n
As seguintes identidades u
teis serao usadas mais adiante e sua demonstracao (f
acil) e deixada como exerccio ao leitor:
Para cada A Mat (C, m, n) podemos associar uma matriz quadrada A Mat (C, m + n) dada por
A 0m, m
A := Jm+n, m AIn, m+n =
.
(9.7)
0n, n 0n, m
A notacao acima e u
til por permitir a seguinte observacao. Seja B uma matriz qualquer. Ent
ao,
hh ii hh ii
B x1 , . . . , xn = Bx1 , . . . , Bxn . (9.12)
hh ii
Essa relacao e provada observando-se a regra de multiplicacao de matrizes: a a-esima coluna de B x1 , . . . , xn e
que vem a ser as componentes de Bxa , representado como vetor-coluna na base canonica.
u
E til observar que se A e uma matriz n n temos a regra
n
X
Aei = Aji ej , (9.14)
j=1
Seja V um espaco vetorial dotado de um produto escalar h, i. Dizemos que dois vetores u e v sao perpendiculares
(em relacao ao produto escalar h, i) se hu, vi = 0.
Se v1 , . . . , vk sao vetores em um espaco vetorial V , denotamos por [v1 , . . . , vk ] o subespaco gerado pelos vetores
v1 , . . . , vk , ou seja, a colecao de todos os vetores que sao combinacoes lineares dos vetores v1 , . . . , vk :
n o
[v1 , . . . , vk ] = 1 v1 + + k vk , 1 , . . . , k C .
Denotamos por [v1 , . . . , vk ] o subespaco de todos os vetores perpendiculares a todos os vetores de [v1 , . . . , vk ]:
n
o
[v1 , . . . , vk ] = w V w, (1 v1 + + k vk ) = 0 para todos 1 , . . . , k C .
Matrizes bijetoras e a no
c
ao de inversa de uma matriz
Uma matriz A Mat (C, n) define uma aplicacao linear de Cn sobre si mesmo.
Se essa aplicacao for bijetora, ent
ao
existe uma aplicacao inversa, denotada por A1 : Cn Cn , tal que A1 Ax = x para todo x Cn . A proposicao
seguinte reune fatos elementares sobre a aplicacao inversa A1 :
Proposi ao A1 e igualmente uma aplicac
ao 9.1 Se A Mat (C, n) e bijetora, ent
c ao linear de Cn sobre si mesmo,
1 T
ou seja, A1 Mat (C, n). Fora isso, A1 e u
nica e AT = A1 . Por fim, vale afirmar que A e inversvel se e
T
somente se A o for. 2
Prova. E facil constatar que A1 e tambem uma aplicacao linear e, portanto, e tambem um elemento de Mat (C, n).
De fato, sejam v1 , v2 elementos arbitrarios de Cn e 1 , 2 C, igualmente arbitrarios. Como A e bijetora, existem
u 1 , u 2 Cn , unicos, tais que Au1 = v1 e Au2 = v2 , ou seja, tais que u1 = A1 (v1 ) e u2 = A1 (v2 ). Assim, usando a
linearidade de A, tem-se
A1 1 v1 + 2 v2 = A1 1 Au1 + 2 Au2 = A1 A 1 u1 + 2 u2 = 1 u1 + 2 u2 = 1 A1 (v1 ) + 2 A1 (v2 ) ,
o que prova que A1 e tambem linear e, portanto A1 Mat (C, n). Com isso, podemos afirmar que A1 Ax = x
para todo x Cn e, portanto, AA1 Ax = Ax. Como A e sobrejetora, isso diz-nos que AA1 y = y para todo y Cn .
Assim, estabelecemos que A1 A = AA1 = 1. A unicidade e facilmente estabelecida, pois se B Mat (C, n) e tal
que BA = AB = 1, ent ao multiplicando-se AB = 1 `a esquerda por A1 obtem-se B = A1 . Por fim, observemos
que do fato que (M N ) = N T M T para quaisquer matrizes M, N Mat (C, n), segue de A1 A = AA1 = 1 que
T
T T 1 T
AT A1 = A1 AT = 1, o que implica AT = A1 . A u ltima relacao implica que se A e inversvel, ent
ao
AT tambem o e. Como (AT )T = A, vale tambem a recproca.
Mais adiante indicaremos como a matriz A1 pode ser calculada a partir de A. Vide para tal a expressao (9.18)
(regra de Laplace) do Teorema 9.1, p
agina 345, e tambem as expressoes (9.43), p
agina 364, e (9.164), p
agina 431.
Em parte do que segue estaremos implicitamente usando a seguinte proposicao:
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 344/2103
Proposicao 9.2 Uma matriz A Mat (C, n) e bijetora (ou seja, e inversvel) se e somente se Av = 0 valer apenas
para v = 0. 2
Um corol
ario evidente e o seguinte:
Corolario 9.1 Uma matriz A Mat (C, n) e n
ao-bijetora (ou seja, n
ao possui inversa) se e somente se existir um
vetor n
ao-nulo v tal que Av = 0. 2
O seguinte corolario indica uma maneira pratica, necessaria e suficiente de se constarar se uma matriz A Mat (C, n)
tem inversa.
hh ii
Corol ario 9.2 Seja A Mat (C, n) da forma A = a1 , . . . , an para o conjunto de vetores a1 , . . . , an que representam
suas colunas. Ent
ao, A e inversvel se e somente se os vetores a1 , . . . , an forem linearmente independentes. Vale tambem
a afirmac
ao que A e inversvel se e somente se suas linhas forem linearmente independentes. 2
v1
!
Prova. Se v Cn e o vetor coluna v = .. , ent
ao e facil constatar (pela regra de produto de matrizes. Faca-o!) que
.
vn
Av = v1 a1 + . . . + vn an . Com isso, vemos que a afirmacao que existe v n
ao-nulo tal que Av = 0 equivale `a afirmacao que
os vetores-coluna a1 , . . . , an sao linearmente dependentes.
Como A e inversvel se e somente se AT o for (Proposicao 9.1, p
agina 343), vale afirmar que A e inversvel se e somente
se suas linhas forem linearmente independentes.
onde det e a forma alternante maximal em n dimensoes, normalizada de sorte que det (e1 , . . . , en ) = 1. Com isso,
vale det(1) = 1. Assim, se Sn denota o conjunto de todas as bijecoes de {1, . . . , n} em si mesmo (o chamado grupo
de permutacoes de n elementos), tem-se det (ej(1) , . . . , ej(n) ) = sinal(j) para todo j Sn e, portanto, vale a expressao
(3.8): X
det(A) = A1j(1) Anj(n) sinal(j) , (9.17)
jSn
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 345/2103
onde Cof(A) Mat (C, n), denominada matriz dos cofatores de A, e a matriz cujos elementos s ao
hh ii
Cof(A)jk = det (a1 , . . . , ak1 , ej , ak+1 , . . . , an ) = det a1 , . . . , ak1 , ej , ak+1 , . . . , an . (9.19)
Em palavras, Cof(A)jk e o determinante da matriz obtida substituindo a k-esima coluna de A pelo vetor ej . No
pr
oximo item veremos outra caracterizac
ao da matriz dos cofatores Cof(A).
Conjuntamente com o item 5, conclumos que A tem inversa se e somente se det(A) 6= 0.
7. Os elementos de matriz de Cof(A) s
ao dados por
onde Men(A), chamada de matriz dos menores de A, e a matriz de Mat (C, n) definida de sorte que cada elemento
Men(A)ij seja o determinante da matriz (n 1) (n 1) obtida eliminando-se a i-esima linha e a j-esima coluna
de A. Se n = 1, convenciona-se definir Men(A) = 1. Assim, para det(A) 6= 0, a regra de Laplace escreve-se
1 (1)i+j
A1 ij
= Cof(A)ji = Men(A)ji . (9.20)
det(A) det(A)
e a expans
ao em colunas do determinante
n
X n
X
det(A) = Ajk Cof(A)jk = (1)j+k Ajk Men(A)jk . (9.22)
j=1 j=1
Em (9.164), p
agina 431, apresentaremos outra formula explcita para o c
omputo da inversa de matrizes baseada no
Teorema de Hamilton-Cayley (Teorema 9.3, pagina 361).
Prova de 2. Observemos a f ormula de Leibniz (9.17). Usando o fato elementar que um produto de n umeros complexos
ao depende da ordem dos fatores, podemos escrever A1j(1) Anj(n) = Al(1)j(l(1)) Al(n)j(l(n)) para qualquer l Sn .
n
Em particular, escolhendo l = j 1 obtemos A1j(1) Anj(n) = Aj 1 (1)1 Aj 1 (n)n . Assim, pela formula de Leibniz
(9.17), e usando o fato que sinal(j) = sinal(j 1 ) para todo j Sn (justifique!), vale
X X
det(A) = Aj 1 (1)1 Aj 1 (n)n sinal(j 1 ) = Aj 1 (1)1 Aj 1 (n)n sinal(j 1 )
jSn j 1 S n
X
= Aj(1)1 Aj(n)n sinal(j) = det(AT ) .
jSn
hh ii hh ii hh ii
Prova de 3. Sejam A = a1 , . . . , an e B = b1 , . . . , bn . Temos que AB = Ab1 , . . . , Abn (vide (9.12)). Agora,
n
X n
X n
X
(Abj )i = Aik (bj )k = (ak )i (bj )k , ou seja, Abj = (bj )k ak .
k=1 k=1 k=1
Assim,
det(AB) = det (Ab1 , . . . , Abn )
n n
!
X X
= det (b1 )k1 ak1 , . . . , (bn )kn akn
k1 =1 kn =1
n
X n
X
multi-linearidade
= (b1 )k1 (bn )kn det (ak1 , . . . , akn )
k1 =1 kn =1
X
= (b1 )k(1) (bn )k(n) det ak(1) , . . . , ak(n)
kSn
X
= (b1 )k(1) (bn )k(n) sinal(k) det (a1 , . . . , an )
kSn
!
X
= (b1 )k(1) (bn )k(n) sinal(k) det(A)
kSn
= det(B) det(A) .
Acima, na passagem da terceira para a quarta linha usamos o fato que det (ak1 , . . . , akn ) anula-se a menos que a
k1 , . . . , kn sejam distintos, o que somente ocorre se forem da forma k(1), . . . , k(n), respectivamente, para algum
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 347/2103
k Sn . Na passagem da quarta para a quinta linha usamos que det ak(1) , . . . , ak(n) = sinal(k) det (a1 , . . . , an ), pois
det e uma forma alternante.
Estabelecemos, portanto, que det(AB) = det(A) det(B) = det(BA).
Prova de 4. Do item 3 segue que, para quaisquer A, S Mat (C, n), com S inversvel, vale det(A) = det((AS 1 )S) =
det(SAS 1 ).
Prova de 5. Se det(A) = 0 ent ao pode ter inversa, pois se existisse A1 teramos 1 = det(1) = det(AA1 ) =
ao A n
det(A) det(A1 ) = 0, absurdo.
bastante claro que podemos escrever
Prova de 6. E
n
X
ak = Ajk ej . (9.23)
j=1
n
X
onde a matriz Cof(A) foi definida em (9.19). Mostremos agora que para l 6= k a expressao Ajl Cof(A)jk e nula. De
j=1
fato,
n
X n
X
Ajl Cof(A)jk = Ajl det (a1 , . . . , ak1 , ej , ak+1 , . . . , an )
j=1 j=1
(9.23)
= det (a1 , . . . , ak1 , al , ak+1 , . . . , an ) = 0 ,
pois em det (a1 , . . . , ak1 , al , ak+1 , . . . , an ) o vetor al aparece na l-esima e na k-esima posicao o que faz det anular-se,
por ser uma forma alternante. Provamos, assim, que
n
X
Ajl Cof(A)jk = kl det(A) . (9.25)
j=1
Vamos supor que det(A) 6= 0. Defina-se a matriz G = det(A)1 Cof(A)T , cujos elementos de matriz sao Gkj =
det(A)1 Cof(A)jk . Ent
ao, (9.25) diz-nos que
n
X
Gkj Ajl = kl , ou seja, GA = 1 .
j=1
devido `a linearidade e ao fato que det (ej , . . . , ak1 , ej , ak+1 , . . . , an ) = 0, pelo fato de det ser alternante. Agora,
a j-esima linha do vetor-coluna a1 Aj1 ej e nula. Repetindo esse argumento podemos anular j-esima linha de todas
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 348/2103
hh ii
as colunas da matriz a1 , . . . , ak1 , ej , ak+1 , . . . , an , exceto a k-esima coluna, sem alterar seu determinante. Um
pouco de meditacao nos convence que a matriz resultante e obtida da matriz A anulando-se a k-esima coluna e a j-esima
linha, exceto no cruzamento das duas, onde o elemento de matriz vale 1 (elemento jk). O determinante dessa matriz e
Cof(A)jk .
Pelo item 2 e pela propriedade de alternancia, sabemos que o determinante de uma matriz troca de sinal quando
permutamos a posicao de duas colunas ou duas linhas quaisquer. Com esse tipo de operacao podemos transportar o 1
do elemento jk ate a posicao nn da matriz, ao preco de realizar n k transposicoes de colunas vizinhas e n j de linhas
vizinhas, as quais alteram o determinante por fatores (1)nk e (1)nj , respectivamente. Temos com isso que
0
..
A[jk] .
Cof(A)jk = (1)k+j det A[jk] A[jk]
com := det ,
0
0 0 1
onde A[jk] e a matriz de Mat (C, n 1) obtida eliminando a j-esima linha e a k-esima coluna da matriz A. Pela formula
de Leibniz (9.17), X
det A[jk] = A[jk] A[jk] sinal(l) .
1l(1) nl(n)
lSn
Como A[jk] nl(n)
= l(n), n (justifique!), segue que
X
det A[jk] = A[jk] A[jk] sinal(l )
1l (1) (n1)l (n1)
l S n1
X
= A[jk] A[jk] sinal(l )
1l (1) (n1)l (n1)
l S n1
= det A[jk] = Men(A)jk .
(Justifique por que a soma no lado direito da primeira linha acima e sobre Sn1 e n
ao mais sobre Sn ). Provamos,
portanto, que
Cof(A)jk = (1)k+j Men(A)jk .
A relacao (9.20) e imediata por (9.18).
Prova de 8. Eq. (9.22) e imediata por (9.24) e pelo item 7. Eq. (9.21) segue facilmente de (9.22) usando o item 2.
Cof(A) = Men(A)1
Para uma matriz M Mat (C, n), a transformacao de similaridade M 7 M 1 e denominada chessboard
transformation, pois com ela os sinais sao trocados em M como alternam-se as cores das casas em um tabuleiro de
xadrez.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 349/2103
E. 9.3 Exerccio. Usando a regra de Laplace (9.18), mostre que para toda matriz A Mat (C, n) valem as relacoes
Men A1 = Men(A)1 , Cof A1 = Cof(A)1 ,
Cof(A) = Men A1 , Men(A) = Cof A1 .
6
1
Se A Mat (C, n) e inversvel, segue da regra de Laplace (9.18) que det A1 = det(A)n det Cof(A) e, portanto,
det Cof(A) = det(A)n1 . (9.26)
E. 9.4 Exerccio. Mostre que para toda matriz A Mat (C, n), n 2, vale
n2
Cof Cof(A) = det(A) A.
Um resultado u
til
Mais abaixo, usaremos o seguinte fato:
Proposiao 9.3 Seja M Mat (C, n) uma matriz da seguinte forma
c
A 0k, nk
M =
,
B C
onde A e uma matriz k k (com k < n), B e uma matriz (n k) k e C e uma matriz (n k) (n k). Ent
ao,
Cada uma das igualdades acima pode ser provada usando-se a expansao em linhas (9.21) para o determinante. Essa
1k 0k, nk
regra nos diz, por exemplo, que o u ltimo determinante em (9.1), o da matriz B 1 , e igual ao determinante da
1k1 0k1, nk nk
matriz obtida eliminando-se a primeira linha e a primeira coluna: B1 1nk
, com B1 sendo a matriz obtida de B
eliminando-se sua primeira columa. Mas essa e uma matriz do mesmo tipo da anterior e podemos continuar eliminando a
primeira linha e a primeira coluna. Apos k repeticoes desse procedimento, resta apenas a matriz 1nk , cujo determinante
vale 1. Para o segundo determinante em (9.21) procede-se analogamente. Para o primeiro, comeca-se eliminando a u ltima
linha e a u
ltima coluna. Isso completa a prova.
9.2 No
coes B
asicas sobre o Espectro de uma Matriz
Defini
cao. O espectro de A Mat (C, n), denotado por (A), e definido como sendo o conjunto de todos os C
para os quais a matriz 1 A n
ao tem inversa. Assim, um numero complexo e dito ser um elemento do espectro de
A Mat (C, n) se a matriz 1 A n
ao possuir uma inversa.
Defini ao. O conjunto resolvente de A Mat (C, n), denotado por (A), e definido como sendo o conjunto de todos os
c
C para os quais a matriz 1 A tem inversa. Assim, um n umero complexo e dito ser um elemento do conjunto
resolvente de A Mat (C, n) se a matriz 1 A possuir uma inversa.
evidente que (A) e (A) sao conjuntos complementares, ou seja, (A) (A) = mas (A) (A) = C.
E
Um fato importante e que 1 A e n
ao-inversvel se e somente se det(1 A) = 0 (vide Teorema 9.1, p
agina 345).
umero complexo e um elemento do espectro de uma matriz A se e somente se for tal que det(1 A) = 0.
Assim, um n
Essa observacao conduz-nos ao importante conceito de polinomio caracterstico de uma matriz.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 351/2103
O polin
omio caracterstico de uma matriz
Seja A Mat (C, n) uma matriz cujos elementos de matriz sao Aij . Para z C a expressao
z A11 A12 A1n
A z A22 A2n
21
pA (z) := det(z 1 A) = det (9.29)
.. .. .. ..
. . . .
An1 An2 z Ann
define, um polinomio de grau n na variavel z, com coeficientes complexos, os quais dependem dos elementos de matriz
Aij de A. Isso se constata facilmente pelos metodos usuais de calculo de determinantes (por exemplo, as expansoes em
linha ou coluna de (9.21) e (9.22)),
Esse polinomio e denominado polinomio caracterstico de A e desempenha um papel muito importante no estudo de
propriedades de matrizes. O leitor poder a encontrar na Secao 9.11.1, p
agina 431, uma expressao mais explcita para
o polinomio caracterstico em termos dos elementos de matriz Aij de A (vide (9.163), p agina 431), mas por ora n ao
precisaremos de maiores detalhes sobre esse polinomio.
Como todo polinomio complexo de grau n, pA possui n razes, n ao necessariamente distintas no plano complexo
(Teorema Fundamental da Algebra). As razes do polinomio caracterstico pA sao denominadas autovalores da matriz A.
Assim, o espectro de uma matriz A coincide com o conjunto de seus autovalores. O estudo de autovalores de matrizes e
de grande import
ancia na Algebra Linear e em suas aplicacoes `a Teoria das Equacoes Diferenciais, `a Geometria, `a Teoria
dos Sistemas Dinamicos e `
a Fsica, especialmente ` a Fsica Qu
antica.
Seja A Mat (C, n) uma matriz e sejam 1 , . . . , r , 1 r n, seus autovalores distintos, cada qual com
multiplicidade a1 , . . . , ar , respectivamente, ou seja, cada i e uma raiz de ordem ai N do polinomio caracterstico de
A:
Yr
pA (z) = det(z 1 A) = (z i )ai .
i=1
A quantidade ai e um n
umero inteiro positivo e e denominado multiplicidade algebrica do autovalor i .
Note-se que como o n umero de razes de pA (contando as multiplicidades) e exatamente igual a seu grau, segue
facilmente que a seguinte relacao e valida:
Xr
ai = n , (9.30)
i=1
ou seja, a soma das multiplicidades algebricas dos autovalores de uma matriz A Mat (C, n) e n. Uma conseq
uencia
elementar disso e a seguinte proposicao u
til:
Proposi
cao 9.4 Seja A Mat (C, n) uma matriz e sejam 1 , . . . , r , 1 r n, seus autovalores distintos, cada qual
com multiplicidade algebrica a1 , . . . , ar , respectivamente. Ent
ao,
r
Y
det(A) = (k )ak . (9.31)
k=1
Qr
caracterstico de A e pA (z) = det(z 1 A) = k=1 (z k )ak . Tomando z = 0 e usando
Prova. Por definicao, o polinomio Q
r
(9.30), teremos det(A) = (1)n k=1 (k )ak . Porem, det(A) = (1)n det(A) e a proposicao est a demonstrada.
P Mat (C, n) tal que P 1 AP = B. Para uma matriz inversvel P Mat (C, n) fixa, a transformacao que leva cada
a matriz P 1 AP e denominada transformac
matriz A Mat (C, n) ` ao de similaridade.
Sabemos que o determinante e invariante por transformacoes de similaridade, pois para toda matriz A vale det(A) =
det(P 1 AP ), mas n ao e o u
nico objeto associado a uma matriz que e invariante por tais transformacoes. O polinomio
caracterstico e, portanto, o conjunto de seus autovalores (incluindo as multiplicidades algebricas), tambem o e. Isso e o
conte
udo da seguinte afirmacao.
Proposiao 9.5 Sejam A e B Mat (C, n) duas matrizes similares, ou seja, tais que existe P Mat (C, n), inversvel,
c
com B = P 1 AP . Ent
ao, os polin
omios caractersticos de A e de B coincidem: pA = pB .
uentemente, se A e B Mat (C, n) s
Conseq ao similares, seus autovalores s
ao iguais (e, portanto, seus espectros:
(A) = (B)), incluindo suas multiplicidades algebricas. 2
para todo z C. Acima usamos o fato que para P inversvel e para qualquer matriz M vale det(P 1 M P ) =
det(P 1 ) det(M ) det(P ) = det(P 1 P ) det(M ) = det(1) det(M ) = det(M ).
Coment
arios sobre matrizes inversveis e sobre matrizes n
ao-inversveis
Proposi ao 9.6 Seja A Mat (C, n) uma matriz arbitr
c aria e B Mat (C, n) uma matriz inversvel. Ent
ao, existem
constantes M1 e M2 (dependentes de A e de B) com 0 < M1 M2 tais que a matriz A + B e inversvel para todo
C com 0 < || < M1 e para todo C com || > M2 . 2
Prova. Como B tem inversa, podemos escrever A + B = 1 + AB 1 B. Assim, A + B sera inversvel se e somente
se 1 + AB 1 o for.
Seja C AB 1 e sejam {1 , . . . , n } C as n razes (nao necessariamente distintas) do polinomio caracterstico
pC da matriz C. Se todos as razes forem nulas, tomemos M1 = M2 > 0, arbitrarios. De outra forma, definamos M1
ao-nulas de pC : M1 := min{|k |, k 6= 0} e definimos M2 como sendo
como sendo o menor valor de |k | dentre as razes n
o maior valor de |k | para todos os ks: M2 := max{|k |, k = 1, . . . , n}. Ent
ao, o conjunto { C| 0 < || < M1 } e o
conjunto { C| || > M2 } n ao contem razes do polinomio caracterstico de C e, portanto, para nesses conjuntos a
matriz 1 C = 1 + AB 1 e inversvel.
Uma conseq
uencia evidente da Proposicao 9.6 e a seguinte afirmacao:
Corolario 9.3 Seja B Mat (C, n) uma matriz inversvel e A Mat (C, n) uma matriz arbitr
aria. Ent
ao, existem
constantes 0 < N1 N2 (dependentes de A e de B) tais que para toda C com || < N1 ou com || > N2 a matriz
B + A e tambem inversvel. 2
O interesse pelo Corolario 9.3 e devido ao fato de este afirmar que se B Mat (C, n) uma matriz inversvel ent ao
toda matriz proxima o suficiente da mesma e tambem inversvel. O estudante mais avancado h a de reconhecer que essa
afirmacao ensina-nos que o conjunto da matrizes inversveis em Mat (C, n) e um conjunto aberto (em uma topologia
metrica adequada). Essa afirmacao sera generalizada (a saber, para algebras de Banach com unidade) no Corolario 38.6,
p
agina 1903.
A Proposicao 9.6 afirma tambem que e sempre possvel encontrar uma matriz inversvel proxima a uma matriz
ao-inversvel. De fato, se A Mat (C, n) n
n ao tem inversa a Proposicao 9.6 garante que a matriz A + 1, por exemplo,
sera inversvel para todo C com || pequeno o suficiente, mas n
ao-nulo.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 353/2103
Uma forma geometrica de compreender as afirmacoes de acima e lembrar que conjunto Mat (C, n) e um espaco
vetorial n2 -dimensional complexo e as matrizes inversveis sao um subconjunto (n2 1)-dimensional do mesmo, pois sao
caracterizados pela condicao de terem determinante nulo, uma condicao polinomial sobre os n2 coeficientes das matrizes
que define, portanto, uma uni ao finita de superfcies algebricas (n2 1)-dimensionais fechadas em Mat (C, n). Desse
ponto de vista geometrico, fica claro que o conjunto das matrizes inversveis e aberto (por ser o complementar das
superfcies fechadas mencionadas acima) e fica claro que e sempre possvel encontrar uma matriz inversvel proxima a
uma matriz n ao-inversvel, pois estas u
ltimas residem em superfcies algebricas de dimensao menor que a dimensao de
Mat (C, n).
E. 9.6 Exerccio. Sejam A Mat (C, m, n) e B Mat (C, n, m), de sorte que AB Mat (C, m) e BA Mat (C, n).
Mostre que xn pAB (x) = xm pBA (x). Sugestao: Considere as matrizes (m + n) (m + n) definidas por
A 0m, m B 0n, n
A :=
e B :=
.
0n, n 0n, m 0m, m 0m, n
Em seguida, prove que pA B (x) = xn pAB (x) e que pB A (x) = xm pBA (x). Pela Proposicao 9.7, tem-se pA B (x) = pB A (x),
de onde segue que xn pAB (x) = xm pBA (x).
Segue disso que o conjunto de autovalores nao-nulos de AB coincide com o conjunto de autovalores nao-nulos de BA:
(AB) \ {0} = (BA) \ {0} e, portanto, (AB) e (BA) podem nao ter em comum apenas o elemento 0. 6
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 354/2103
9.2.2 Autovetores
Autovetores
umero 0 C e um autovalor de uma matriz A se e somente se 0 1 A n
Pela definicao, um n ao tem inversa e,
portanto (pelo Corolario 9.1, p ao-nulo v tal que (0 1 A)v = 0,
agina 344) se e somente se existir um menos um vetor n
ou seja, tal que Av = 0 v. Chegamos a mais uma importante definicao:
Defini
c ao-nulo v e dito ser um autovetor de uma matriz A se houver 0 C tal que
ao. Um vetor n
Av = 0 v .
A conclusao e que, para cada autovalor i de uma matriz A, a colecao formada pelo vetor nulo e todos os autovetores
de A com autovalor i e um subespaco vetorial. Vamos denotar esse subespaco por E(i ) ou simplesmente Ei .
Se i e j sao autovalores distintos de A entao os subespacos de autovetores E(i ) e E(j ) tem em comum apenas
o vetor nulo, ou seja, E(i ) E(j ) = {0}. Isso e facil de provar, pois se w e tal que Aw = i w e Aw = j w ent
ao,
subtraindo-se uma relacao da outra teramos 0 = (i j )w, que implica w = 0, ja que i 6= j .
Essas consideracoes nos levam a mais um conceito importante: o de multiplicidade geometrica de um autovalor.
A multiplicidade geom
etrica de um autovalor
Alem do conceito de multiplicidade algebrica de um autovalor, h
a tambem o conceito de multiplicidade geometrica
de um autovalor, do qual trataremos agora.
Como antes seja A Mat (C, n) uma matriz e sejam 1 , . . . , r , 1 r n, seus autovalores distintos, cada qual
com multiplicidade algebrica a1 , . . . , ar , respectivamente.
Acima introduzimos os subespacos Ei = E(i ), definidos como sendo os subespacos gerados por todos os autovetores
que tem i como autovalor. A multiplicidade geometrica de um autovalor i e definida como sendo a dimensao do
subespaco Ei , ou seja, como sendo o n
umero maximo de autovetores linearmente independentes com autovalor i .
E importante advertir de imediato o leitor do fato que a multiplicidade algebrica e multiplicidade geometrica de
autovalores nem sempre coincidem. Isso e bem ilustrado no seguinte exemplo simples. Seja
0 1
A =
.
0 0
Assim, seu (
unico) autovalor e 0 com multiplicidade algebrica
2. Quais os seus autovetores?
S
aoaqueles
vetores
que
a 0 1 a b
, a relacao Av = 0 significa
satisfazem Av = 0. Denotando v como um vetor coluna v = = = 0.
b 0 0 b 0
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 355/2103
a
, a C. E evidente que o subespaco gerado pelos autovetores
Logo, b = 0 e todos os autovetores sao da forma v =
0
com autovalor zero tem dimensao 1. Assim, a multiplicidade algebrica do autovalor zero e 2 mas a sua multiplicidade
geometrica e 1.
A multiplicidade alg
ebrica e a multiplicidade geom
etrica
Apesar de a multiplicidade algebrica e a multiplicidade geometrica de um autovalor nem sempre coincidirem, h a uma
relacao de ordem entre eles. A saber, e possvel mostrar que a multiplicidade geometrica de um autovalor e sempre menor
ou igual `a sua multiplicidade algebrica.
Isso segue das seguintes consideracoes. Seja 0 um autovalor de A Mat (C, n) e E(0 ) o subespaco gerado pelos
autovetores com autovalor 0 , e cuja dimensao denotaremos por d. Vamos escolher uma base v1 , . . . , vd , vd+1 , . . . , vn
onde os primeiros d vetores sao elementos de E(0 ). Nessa base a matriz A tem a forma
D 0d, nd
,
A3 A4
det(1 A) = ( 0 )d det(1 A4 ) .
Isso mostra que a multiplicidade algebrica de 0 e pelo menos igual a d, sua multiplicidade geometrica.
Matrizes simples
O que foi exposto acima leva-nos naturalmente ao conceito de matriz simples que, como veremos mais adiante, est
a
intimamente ligado ao problema da diagonalizabilidade de matrizes.
Defini ao. Uma matriz A Mat (C, n) e dita ser uma matriz simples se cada autovalor de A tiver uma multiplicidade
c
algebrica igual `a sua multiplicidade geometrica.
Deixamos para o leitor provar o seguinte fato: toda matriz diagonal e simples.
Prova. Ja vimos na Proposicao 9.5, p agina 352, que A e P 1 AP tem o mesmo polinomio caracterstico e, portanto, os
mesmos autovalores, incluindo suas multiplicidades algebricas. Seja 0 um desses autovalores com multiplicidade algebrica
d e sejam v1 , . . . , vd um conjunto de d autovetores linearmente independentes de A. Os vetores P 1 v1 , . . . , P 1 vd
sao autovetores de P 1 AP com autovalor 0 . De fato, P 1 AP P 1 vi = P 1 Avi = 0 P 1 vi . Fora isso os d vetores
P 1 v1 , . . . , P 1 vd sao tambem linearmente independentes. Para ver isso, suponha houvesse constantes c1 , . . . , cd tais
que
c1 P 1 v1 + + cd P 1 vd = 0 .
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 356/2103
9.2.3 O Tra
co de uma Matriz
O tra
co de uma matriz
Seja A Mat (C, n), cujos elementos de matriz sao Aij , i, j = 1, . . . n. Sejam 1 , . . . , n seus n autovalores (nao
necessariamente distintos e repetidos conforme sua multiplicidade).
Definimos o traco de A como sendo a soma de seus n autovalores:
n
X
Tr(A) := a .
a=1
Uma conclusao que se tira dessa definicao e que se duas matrizes sao similares, ent
ao ambas tem o mesmo traco, ou
seja, para qualquer matriz inversvel P e qualquer matriz A vale
Tr P 1 AP = Tr(A) . (9.33)
A raz
ao reside na observacao feita acima que duas matrizes similares tem o mesmo conjunto de autovalores e, portanto,
o mesmo traco.
Temos a seguinte e importante proposicao:
Proposiao 9.10 O traco de uma matriz A Mat (C, n) e igual a soma dos elementos de sua diagonal principal, ou
c
seja,
Xn X n
Tr(A) := a = Aaa . (9.34)
a=1 a=1
2
E. 9.9 Exerccio. Convenca-se da veracidade da afirmativa acima para o caso de n arbitrario. Sugestao: use a expansao
em cofatores (9.21)(9.22) ou leia a Secao 9.11.1, pagina 431. 6
Por outro lado, os autovalores de A, 1 , . . . , n , sao por definicao as razes do polinomio caracterstico. Logo,
p() = ( 1 )( 2 ) ( n ) .
(1 + + n ) = Tr(A) .
Essa proposicao leva a duas outras propriedades igualmente importantes: a linearidade do traco e a chamada propri-
edade cclica do traco.
Proposi
c co) Sejam A, B Mat (C, n) e , C. Ent
ao 9.11 (A Linearidade do Tra ao,
curioso notar que a linearidade do traco vista acima e evidente por (9.34), mas n
E ao e nem um pouco evidente pela
definicao do traco de uma matriz como soma de seus autovalores, pois os autovalores individuais de A + B n ao sao
em geral combinacoes lineares dos autovalores de A e de B, especialmente no caso em que A e B n ao comutam.
Proposi
c co) Sejam A, B Mat (C, n). Ent
ao 9.12 (A Propriedade Cclica do Tra ao,
Tr(AB) = Tr(BA) .
Na segunda e quarta igualdades usamos a regra de produto de matrizes. Na terceira igualdade apenas trocamos a ordem
das somas.
A propriedade cclica expressa na Proposicao 9.12 pode ser provada diretamente da definicao do traco de uma matriz
como soma de seus autovalores (incluindo multiplicidades algebricas) se recordarmos a Proposicao 9.7, p agina 353, que
afirma que AB e BA tem os mesmos auto-valores com as mesmas multiplicidades algebricas.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 358/2103
Se A() for invertvel para todos os valores de no domnio considerado, vale tambem
1 d 1 d
det A() = Tr A() A() . (9.36)
det A() d d
n
X
= det Bk () ,
k=1
onde Bk () e a matriz obtida substituindo a k-esima linha da matrix A() pela linha d
d .
d Ak1 () d Akn ()
Usando a expansao em linha do determinante, expressao (9.21), temos
n
X d
det Bk () = Akj () Cof A() kj .
j=1
d
Logo,
n X
n
d X d T d
det A() = Akj () Cof A() kj = Tr Cof A() A() ,
d d d
k=1 j=1
A expressao (9.36) e u
til ate mesmo no contexto da Geometria Riemanniana. Para uma aplicacao naquele contexto,
vide expressao (34.108), pagina 1607. Uma das consequencias de (9.36) e o seguinte resultado, tambem muito u
til:
Proposiao 9.14 Seja A Mat (C, n). Ent
c ao, vale que
det eA = eTr(A) . (9.37)
d A
1 d A
Prova da Proposicao 9.14. Tome-se A() := eA . Ent
ao, d e = AeA = eA A (por (10.20)) e, portanto, eA d e =
d
A
A. Dessa forma, (9.36) fica d ln det A() = Tr(A). Integrando-se em entre 0 e 1 e lembrando que A(1) = e e que
A(0) = 1, teremos ln det eA = Tr(A), que e o que queramos provar.
9.3 Polin
omios de Matrizes
Polin
omios de matrizes
Seja p um polinomio de grau m: p(x) = am xm + + a1 x + a0 com x C, aj C e am 6= 0. Para uma matriz
A Mat (C, n) definimos o polin
omio matricial p(A) por
p(A) = am Am + + a1 A + a0 1 .
f
para todo x C. E acil provar, ent
ao, que
r
Y
p(A) = am (A j 1)mj .
j=1
E. 9.13 Exerccio. Suponha que A = P 1 DP , onde D = diag (d1 , . . . , dn ). Se q e um polinomio mostre que
q(A) = P 1 q(D)P = P 1 diag q(d1 ), . . . , q(dn ) P .
O polin
omio mnimo
Vamos mostrar que para cada matriz A Mat (C, n) sempre existe pelo menos um polinomio p com a propriedade
que p(A) = 0. Para tal notemos primeiramente que Mat (C, n) e um espaco vetorial complexo de dimensao n2 . De fato
toda a matriz A Mat (C, n), cujos elementos de matriz sao Aij C pode ser trivialmente escrita na forma
n X
X n
A = Aab E ab
a=1 b=1
onde E ab Mat (C, n) sao matrizes cujos elementos de matriz sao (E ab )ij = i,a j,b , ou seja, todos os elementos de
matriz de E ab sao nulos, exceto o elemento a, b, que vale 1.
Assim, vemos que as matrizes {E ab , a = 1, . . . , n, b = 1, . . . , n} formam uma base em Mat (C, n), mostrando que
Mat (C, n) e um espaco vetorial de dimensao n2 . Isto posto, temos que concluir que qualquer conjunto de mais de n2
matrizes n
ao-nulas em Mat (C, n) e linearmente dependente.
Se uma das matrizes Ak , k = 1, . . . , n2 , for nula, digamos Aq = 0, ent
ao o polinomio p(x) = xq tem a propriedade
que p(A) = 0, que e o que desejamos provar. Se, por outro lado, as matrizes Ak , k = 1, . . . , n2 , sao todas n
ao-nulas,
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 360/2103
Defini
c
ao Polin onico.. Um polinomio p : R C de grau n e dito ser um polin
omio M omio m
onico se for da forma
Definic
ao Polin omio Mnimo de uma Matriz.. Dada uma matriz A Mat (C, n), o polin omio mnimo de A e o
polinomio monico de menor grau que e anulado em A, ou seja, e o polinomio n
ao-nulo de menor grau da forma
M (x) = xm + am1 xm1 + + a1 x + a0
para o qual M (A) = 0.
As consideracoes acima mostram que um tal polinomio sempre existe e que tem grau no maximo igual a n2 . Essa
e, no entanto, uma estimativa exagerada para o grau do polinomio mnimo de uma matriz A Mat (C, n) pois, como
veremos abaixo, o polinomio mnimo de uma matriz A Mat (C, n) tem, na verdade, grau menor ou igual a n. Isso e
um corolario de um teorema conhecido como Teorema de Hamilton-Cayley , que demonstraremos abaixo (Teorema 9.3,
p
agina 361).
Finalizamos com um teorema b asico que garante a unicidade do polinomio mnimo e estabelece sua relacao com
outros polinomios que anulam A.
Teorema 9.2 O polin omio mnimo M de uma matriz A Mat (C, n) e u
nico. Fora isso se P e um polin omio n ao-
identicamente nulo que tambem se anula em A, ou seja, P (A) = 0, ent
ao P e divisvel por M , ou seja, existe um
omio F tal que P (x) = F (x)M (x) para todo x C.
polin 2
Demonstracao. Dada uma matriz A Mat (C, n), o polinomio mnimo de A e o polinomio de menor grau da forma
M (x) = xm + am1 xm1 + + a1 x + a0
para o qual M (A) = 0. Vamos supor que haja outro polinomio N da forma
N (x) = xm + bm1 xm1 + + b1 x + b0
para o qual N (A) = 0. Subtraindo um do outro teramos o polinomio
(M N )(x) = (am1 bm1 )xm1 + + (a1 b1 )x + (a0 b0 ) ,
que tem grau menor ou igual a m 1 e para o qual vale (M N )(A) = M (A) N (A) = 0 0 = 0. Como, por hipotese,
n
ao ha polinomios n
ao-nulos com grau menor que o de M que anulam A, isso e uma contradicao, a menos que M = N .
Isso prova a unicidade.
Seja P um polinomio n ao identicamente nulo para o qual valha P (A) = 0. Se p e o grau de P , deve-se ter p m,
onde m e o grau do polinomio mnimo de A. Logo, pelos bem conhecidos fatos sobre divisao de polinomios, podemos
encontrar dois polinomios F e R, cujos graus sao, respectivamente p m e r com 0 r < m, tais que
P (x) = F (x)M (x) + R(x) ,
para todo x C. Ora, isso diz que
P (A) = F (A)M (A) + R(A) .
Como P (A) = 0 e M (A) = 0, isso implica R(A) = 0. Como, porem, o grau de R e menor que m, tem-se que R deve ser
identicamente nulo. Isso completa a prova.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 361/2103
Coment ario. No caso particular de matrizes diagonalizaveis o Teorema 9.3 pode ser provado elementarmente usando o Teorema Espectral,
como indicado no Exerccio E. 9.21, p
agina 371.
Prova do Teorema 9.3. Desejamos mostrar que para todo vetor y Cn vale pA (A)y = 0. Se y = 0 isso e trivial. Se y 6= 0
mas com Ay = 0 entao
pA (A)y = (1)n 1 n y ,
onde 1 , , n sao os autovalores de A. Mas a propria relacao Ay = 0 indica que um dos autovalores e igual a zero.
Logo pA (A)y = 0. Mais genericamente, se y 6= 0 e {y, Ay} n ao for um conjunto de vetores linearmente independentes,
ent
ao Ay e y sao proporcionais, ou seja, existe um autovalor, digamos, n tal que Ay = n y. Nesse caso tambem tem-se
n1
!
Y
pA (A)y = (A i 1) (A n 1)y = 0 ,
i=1
pois (A n 1)y = Ay n y = 0.
Seja ent ao-nulo e tal que {y, Ay} e um conjunto de dois vetores n
ao y daqui por diante um vetor fixado, n ao-nulos e
linearmente independentes.
Como o espaco Cn tem dimensao n, nem todos os conjuntos de vetores da forma
{y, Ay, A2 y, . . . , Aj y}
para constantes h1 , . . . , hk .
Vamos denominar z1 = Ak1 y, z2 = Ak2 y, . . . , zk = y, ou seja, zj = Akj y, j = 1, . . . , k, todos n ao-nulos por
otese. Caso k < n, escolhamos ainda vetores zk+1 , . . . , zn de modo que o conjunto {z1 , . . . , zn } forme uma base em
hip
Cn .
Coloquemo-nos agora a seguinte quest ao: qual e a forma da matriz A nessa base? No subespaco gerado pelos vetores
{z1 , . . . , zk } tem-se o seguinte: para i = 2, . . . , k vale Azi = zi1 . Alem disso, por (9.38), Az1 = h1 z1 + h2 z2 + + hk zk .
3 SirWilliam Rowan Hamilton (18051865).
4 Arthur Cayley (18211895).
5 Ferdinand Georg Frobenius (18491917)
6 James Joseph Sylvester (18141897).
7 Muitos certamente se surpreender
ao muitssimo em saber que, apesar de suas diversas e importantes contribuico
es `
a Matem
atica, Cayley
e Sylvester eram originalmente advogados.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 362/2103
Isso mostra que o subespaco gerado pelos vetores {z1 , . . . , zk } e invariante pela acao de A e o operador linear A, no
mesmo subespaco, tem a forma
h1 1 0 ... 0 0
..
h
2 0 1 . 0 0
. .. .. .. .. ..
.. . . . . .
. (9.39)
..
h
k2 0 0 . 1 0
h 0 0 ... 0 1
k1
hk 0 0 ... 0 0
Se designarmos por P o operador que realiza essa mudanca de base, o operador linear A na base {z1 , . . . , zn } tem,
portanto, a forma A = P 1 AP , onde
A1 0k, nk
A =
,
A2 A3
O estudante deve recordar-se que as matrizes A e A , por serem similares, tem o mesmo polinomio caracterstico (Pro-
posicao 9.5, p
agina 352).
Vamos denominar qk (x) = det(x1 A1 ) e rk (x) = det(x1 A3 ). Claramente, pA (x) = qk (x)rk (x). N ao sera necessario,
no que segue, calcular rk , mas precisaremos calcular qk . Como esse pequeno resultado tem interesse independente, vamos
formula-lo como um lema, para futura referencia.
Lema 9.1 Para h1 , . . . , hk C, tem-se
x h1 1 0 ... 0 0
..
h
2 x 1 . 0 0
. .. .. .. ..
.. . . . .
qk (x) := det = xk (h1 xk1 + + hk1 x + hk ) . (9.40)
..
h
k2 0 0 . 1 0
h 0 0 ... x 1
k1
hk 0 0 ... 0 x
2
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 363/2103
1 0 . . . 0 0
x 1 . . . 0
0
k1+1
. . . . . . ..
= xqk1 (x) + (1) (hk ) det
. . . .
..
0
0 . 1 0
0 0 . . . x 1
(k2)(k2)
Retomando, temos que pA (A)y = qk (A)rk (A)y = rk (A)qk (A)y. Sucede, porem, que qk (A)y = 0. De fato, pelo
c
omputo acima,
qk (A)y = Ak y h1 Ak1 y hk2 A2 y hk1 Ay hk y ,
que e igual a zero por (9.38). Logo pA (A)y = 0. Como y foi escolhido arbitrario, segue que pA (A) = 0, demonstrando o
Teorema de Hamilton-Cayley, Teorema 9.3.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 364/2103
Em muitos casos a formula (9.43) e bastante eficiente para calcular A1 , pois a mesma envolve poucas operacoes
algebricas em comparacao com outros metodos, o que e uma vantagem para valores grandes de n. Compare, por
exemplo, com a regra de Laplace, expressao (9.20), p alculo de A1 , que envolve o c
agina 345, para o c omputo de n2 + 1
determinantes de sub-matrizes de ordem n 1 de A.
E. 9.17 Exerccio. Use esse metodo para calcular a inversa das suas matrizes nao-singulares favoritas. 6
De volta ao polin
omio mnimo
O Teorema 9.2, p agina 360, e o Teorema de Hamilton-Cayley, juntos, permitem-nos precisar algo a respeito da forma
geral do polinomio mnimo de uma matriz.
Se A Mat (C, n) tem r autovalores distintos 1 , . . . , r , cada qual com multiplicidade algebrica a1 , . . . , ar ,
respectivamente, ent
ao seu polinomio caracterstico pA e da forma
r
Y
pA (x) = (x k )ak .
k=1
Pelo Teorema de Hamilton-Cayley, pA (A) = 0 e, portanto, pelo Teorema 9.2, M , o polinomio mnimo de A, divide q.
Logo, M deve ser da forma
Ys
M (x) = (x kl )bl , (9.44)
l=1
onde s r, {k1 , . . . , ks } {1 , . . . , r } e onde 0 < bl akl para todo 1 l s. Seja agora, porem, vm 6= 0 um
autovetor de A com autovalor m Segue do fato que M (A) = 0 que
s
Y s
Y
0 = M (A)vm = (A kl 1)bl vm = (m kl )bl vm .
l=1 l=1
Qs bl
Logo, l=1 (m kl ) = 0 e isso implica que m {k1 , . . . , ks }. Como isso vale para todo 1 m r, segue que
{1 , . . . , r } {k1 , . . . , ks } e, portanto, {1 , . . . , r } = {k1 , . . . , ks }. Nossa conclusao e resumida no seguinte:
Proposi ao 9.15 Seja A Mat (C, n) com r autovalores distintos 1 , . . . , r C, cada qual com multiplicidade
c
algebrica a1 , , . . . , ar , sendo 1 r n. Ent
ao, M , o polin
omio mnimo de A, e da forma
r
Y
M (x) = (x k )bk , (9.45)
k=1
x C, onde 0 < bl al para todo 1 l r. Em particular, se A Mat (C, n) tiver exatamente n autovalores
distintos, teremos que bl = al = 1 para todo 1 l n, e
n
Y
M (x) = pA (x) = (x k ) ,
k=1
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 365/2103
x C. 2
E. 9.18 Exerccio. Usando o Teorema de Hamilton-Cayley, mostre que toda matriz 2 2 complexa A Mat (C, 2)
satisfaz
A2 Tr(A)A + det(A)1 = 0 . (9.46)
omio caracterstico e pA (x) = x2 Tr(A)x + det(A).
Sugestao: se A = ac db , mostre que seu polin
Se A Mat (C, 2) for inversvel, mostre com uso de (9.46) que vale a simples relacao
1
A1 = Tr(A)1 A . (9.47)
det(A)
1
a+d 0
1 d b
Assim, se A = ac db tem inversa (ou seja, se ad bc 6= 0), entao A1 = adbc 0 a+d a b
c d = adbc c a ,
resultado esse bem conhecido e que pode ser obtido por diversos outros metodos.
A identidade (9.46) tem emprego importante na Mecanica Quantica de sistemas desordenados unidimensionais e na
Mecanica Estatstica. 6
o que significa que A 1 tem inversa, sendo (A 1)1 = q(A)W , uma contradicao com a hipotese que (A).
Logo, p(A) n ao pode ter inversa.
Teorema 9.4 (Teorema da Aplicaao Espectral (para matrizes)) Seja A Mat (C, m). Ent
c ao,
n o
p(A) = p (A) := p(), (A) (9.48)
Prova. Vamos supor que p(z) = a0 + a1 z + + an z n seja de grau n 1, pois no caso de um polinomio constante a
afirmativa e trivial. Naturalmente, an 6= 0.
Tomemos p(A) , que e n ao-vazio, como sabemos, e sejam 1 , . . . , n as n razes do polinomio p(z) em C.
Entao, p(z) = an (z1 ) (zn ), o que implica p(A)1 = an (A1 1) (An 1). Se nenhum dos i pertencesse
a (A), entao cada
fator (A j 1) seria inversvel, assim como o produto an (A 1 1) (A n 1), contrariando o fato
de p(A) . Logo, algum dos i pertence a (A). Como p(i ) = , isso diz que p(A) {p(), (A)}.
ao-vazio. Para (A) tem-se evidentemente que o polinomio
Provemos agora a recproca. Ja sabemos que (A) e n
p(z) p() tem como raiz. Logo, p(z) p() = (z )q(z), onde q e um polinomio de grau n 1. Portanto,
p(A) p()1 = (A 1)q(A) e como (A 1) n ao e inversvel, p(A) p()1 tambem n
ao pode s
e-lo (pelo Lema 9.2,
agina 365), o que diz-nos que p() (p(A)). Isso significa que {p(), (A)} p(A) , estabelecendo que
p
p(A) = {p(), (A)}.
Matrizes diagonaliz
aveis
Vamos agora apresentar uma nocao intimamente ligada `a de matriz simples introduzida acima (pagina 355), mas de
import
ancia maior.
Definiao. Uma matriz A Mat (C, n) e dita ser uma matriz diagonaliz
c avel se existir uma matriz inversvel P
Mat (C, n) tal que P 1 AP e uma matriz diagonal, ou seja,
d1 0
. .. ..
P 1 AP = D = diag (d1 , . . . , dn ) =
.
. . . .
0 dn
o que mostra que os di sao as razes do polinomio caracterstico de A e, portanto, seus autovalores.
Diagonaliza
c
ao de matrizes
O proximo teorema e fundamental no estudo de matrizes diagonaliz
aveis.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 367/2103
Teorema 9.5 Uma matriz A Mat (C, n) e diagonaliz avel se e somente se possuir um conjunto de n autovetores
linearmente independentes, ou seja, se e somente se o subespaco gerado pela colec
ao de todos os autovetores de A possuir
dimensao n. 2
Prova. Vamos primeiro provar que se A Mat (C, n) possui um conjunto de n autovetores linearmente independentes
ent
ao A e diagonaliz
avel. Para tal vamos construir a matriz P que diagonaliza A.
Seja {v 1 , . . . , v n } um conjunto de n autovetores linearmente independentes de A, cujos autovalores sao {d1 , . . . , dn },
respectivamente. Vamos denotar as componentes de v i na base canonica por vji , j = 1, . . . , n. Seja a matriz P definida
hh ii
por P = v 1 , . . . , v n , ou seja,
v11 v1n
. .. ..
P = .
. . . .
vn1 vnn
Como se ve pela construcao, a a-esima coluna de P e formada pelas componentes do vetor v a . Por (9.12), segue que
hh ii hh ii
AP = Av 1 , . . . , Av n = d1 v 1 , . . . , dn v n .
Portanto, AP = P D. Como, por hip otese, as colunas de P sao formadas por vetores linearmente independentes,
tem-se que det(P ) 6= 0 (por que?). Logo, P e inversvel e, portanto, P 1 AP = D, como queramos demonstrar.
Vamos provar agora a afirmacao recproca que se A e diagonaliz
avel, ent
ao possui n autovetores linearmente inde-
pendentes. Suponha que exista P tal que
d1 0
1
. .. ..
P AP = D = .
. . . .
0 dn
Av a = AP ea = P Dea = P (da ea ) = da P ea = da v a .
Para provar que os vetores v a sao linearmente independentes, suponha que existam n umeros complexos 1 , . . . , n tais
que 1 v 1 + + n v n = 0. Multiplicando-se `
a esquerda por P 1 teramos 1 e1 + + n en = 0. Como os ea sao
obviamente linearmente independentes, segue que 1 = = n = 0.
Matrizes diagonaliz
aveis e matrizes simples
Vamos agora discutir a relacao entre os conceitos de matriz diagonaliz
avel e o de matriz simples, conceito esse
introduzido `a p
agina 355. Tem-se a saber o seguinte fato:
Proposi cao 9.16 Uma matriz A Mat (C, n) e diagonaliz avel se e somente se for simples, ou seja, se e somente se a
multiplicidade algebrica de cada um dos seus autovalores coincidir com sua multiplicidade geometrica. 2
avel existe P tal que P 1 AP = D, diagonal. Como toda matriz diagonal, D e simples.
Prova. Se A e diagonaliz
Escrevamos D na forma
D = diag 1 , . . . , 1 , . . . , r , . . . , r , .
| {z } | {z }
a1 vezes ar vezes
Projetores
Uma matriz E Mat (C, n) e dita ser um projetor se satisfizer
E2 = E .
ao r n. Para ver isso, basta tomar o traco de ambos os lados dessa expressao:
ent
r
X
Tr(1) = Tr(Ea ) . (9.49)
a=1
O lado esquerdo vale n enquanto que o lado direito e uma soma de r inteiros positivos. Obviamente isso so e possvel se
r n.
til e a seguinte: se E e E sao dois projetores satisfazendo EE = E E = 0, ent
Uma outra observacao u ao E + E e
igualmente um projetor, como facilmente se constata.
O Teorema Espectral
O chamado Teorema Espectral e um dos mais importantes teoremas de toda a Algebra Linear e, em verdade, de
toda Analise Funcional, ja que o mesmo possui generalizacoes para operadores limitados e n ao-limitados (auto-adjuntos)
agindo em espacos de Hilbert. Dessas generalizacoes trataremos na Secao 38.8.2, p
agina 1990, para o caso dos chamados
operadores compactos e na Secao 38.9, pagina 1996, para o caso geral de operadores limitados auto-adjuntos. Nessa versao
mais geral o teorema espectral e de importancia fundamental para a interpretacao probabilstica da Fsica Qu
antica. Vide
discuss
ao da Secao 38.9.5, p
agina 2012.
Teorema 9.6 (Teorema Espectral para Matrizes) Uma matriz A Mat (C, n) e diagonaliz avel se e somente se
existirem r N, 1 r n, escalares distintos 1 , . . . , r e projetores n
ao-nulos distintos E1 , . . . , Er Mat (C, n)
tais que
Xr
A = a Ea , (9.50)
a=1
r
X
1 = Ea (9.51)
a=1
e
Ei Ej = i, j Ej .
Adiante demonstraremos uma versao um pouco mais detalhada desse importante teorema (Teorema 9.8, abaixo). Os
projetores Ea que surgem em (9.50) sao denominados projetores espectrais de A. A decomposicao (9.50) e freq
uentemente
denominada decomposic ao espectral de A. Na Proposicao 9.18, p
agina 371 mostraremos como os projetores espectrais
Ea de A podem ser expressos em termos de polinomios em A. Na Proposicao 9.19, p agina 372, provaremos a unicidade
da decomposicao espectral de uma matriz diagonaliz
avel.
avel existe P Mat (C, n) tal que P 1 AP = D = diag (1 , . . . , n ),
Prova do Teorema 9.6. Se A Mat (C, n) e diagonaliz
onde 1 , . . . , n sao os autovalores de A. Como pode haver autovalores repetidos, vamos denotar por {1 , . . . , r },
1 r n, o conjunto de autovalores distintos de A.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 370/2103
onde as matrizes Ka sao todas matrizes diagonais, cujos elementos diagonais sao ou 0 ou 1 e tais que
r
X
Ka = 1 . (9.52)
a=1
As matrizes Ka sao simplesmente definidas de modo a terem elementos de matriz iguais a 1 nas posicoes da diagonal
ocupadas pelo autovalor a em D e zero nos demais. Formalmente,
1, se i = j e (D)ii = a
(Ka )ij = 0, se i = j e (D)ii 6= a .
0, se i 6= j
Por exemplo, se
2 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0
0 3 0 0 0 0 0 0 0 1 0 0 0 0 0 0
D =
teremos D = 2
+3
+4
.
0 0 2 0 0 0 1 0 0 0 0 0 0 0 0 0
0 0 0 4 0 0 0 0 0 0 0 0 0 0 0 1
f
E acil constatar que as matrizes Ka tem a seguinte propriedade:
Ka Kb = a, b Ka . (9.53)
De fato, e evidente que (Ka )2 = Ka para todo a, pois Ka e diagonal com zeros ou uns na diagonal. Analogamente, se
a 6= b Ka Kb = 0, pois os zeros ou uns aparecem em lugares distintos das diagonais das duas matrizes.
Como A = P DP 1 , tem-se que
r
X
A = a Ea ,
a=1
r
X
onde Ea := P Ka P 1 . E acil agora provar que 1 =
f Ea e que Ei Ej = i, j Ej . De fato, por (9.52),
a=1
r r r
!
X X X
Ea = P Ka P 1
= P Ka P 1 = P 1P 1 = 1 .
a=1 a=1 a=1
Ea Eb = P Ka P 1 P Kb P 1 = P Ka Kb P 1 = a, b P Ka P 1 = a, b Ea .
Vamos agora provar a recproca. Vamos supor que A possua a representacao (9.50), onde os Ea s satisfazem as
propriedades enunciadas.
Notemos primeiramente que para x Cn , e para k {1, . . . , r}, tem-se por (9.50)
r
X
AEk x = j Ej Ek x = k Ek x .
j=1
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 371/2103
e este fato revela que Cn = S A e, portanto, que A = Cn . Assim, pelo Teorema 9.5, p
agina 367, A e diagonaliz
avel.
Isso completa a demonstracao.
No Teorema 9.8, pagina 374, apresentaremos uma segunda demonstracao do Teorema Espectral para Matrizes, a qual
lanca luz sobre outras condicoes de diagonalizabilidade de matrizes. Antes, exploremos algumas das conseq
uencias do
Teorema Espectral.
O C
alculo Funcional para matrizes diagonaliz
aveis
O Teorema Espectral tem o seguinte corol
ario, muitas vezes conhecido como c
alculo funcional.
alculo Funcional) Seja A Mat (C, n) uma matriz diagonaliz
Teorema 9.7 (C avel e seja
r
X
A = a Ea
a=1
sua decomposic
ao espectral, de acordo com o Teorema Espectral, o Teorema 9.6. Ent
ao, para qualquer polin
omio p vale
r
X
p(A) = p(a )Ea . (9.54)
a=1
2
r
X r
X r
X
Prova. Tem-se, pelas propriedades dos Ea s, A2 = a b Ea Eb = a b a, b Ea = (a )2 Ea . Analogamente,
a, b=1 a, b=1 a=1
r
X
mostra-se que Am = (a )m Ea , para qualquer m N. O resto da prova e trivial.
a=1
E. 9.21 Exerccio. Usando (9.54) demonstre novamente o Teorema de Hamilton-Cayley (Teorema 9.3, pagina 361), agora
apenas para o caso particular de matrizes diagonalizaveis. 6
Por simples constatacao verifica-se tambem facilmente a validade do seguinte resultado, que usaremos diversas vezes:
r
X
Proposiao 9.17 Seja A Mat (C, n) uma matriz diagonaliz
c avel e inversvel e seja A = a Ea sua decomposic
ao
a=1
r
X 1
ao, A1 =
espectral, de acordo com o Teorema Espectral, o Teorema 9.6. Ent Ea . 2
a=1 a
Ent
ao,
r r
Y 1 Y
Ej = pj (A) = A l 1 (9.56)
k=1
j k l=1
k6=j l6=j
para todo j = 1, . . . , r. 2
Prova. Pela definicao dos polinomios pj , e evidente que pj (k ) = j, k . Logo, pelo Calculo Funcional para matrizes,
r
X
pj (A) = pj (k )Ek = Ej .
k=1
r
X
Demonstracao. Seja A Mat (C, n) diagonaliz
avel e seja A = k Ek a representacao espectral de A descrita no
k=1
r
X
Teorema 9.6, onde k , k = 1, . . . , r, com 1 r n sao os autovalores distintos de A, Seja A = k Ek uma segunda
k=1
representacao espectral para A, onde os k s sao distintos e onde os Ek s sao n
ao-nulos e satisfazem Ej El = j, l El e
Xr
Pr
1= Ek . Por essa u
ltima propriedade segue que para um dado vetor x 6= 0 vale x = k=1 Ek x, de modo que nem todos
k=1
Pr
ao-nulos. Tem-se que AEk 0 x = k=1 k Ek Ek 0 x = k0 Ek 0 x. Isso
os vetores Ek x sao nulos. Seja Ek 0 x um desses vetores n
mostra que k0 e um dos autovalores de A e, portanto, {1 , . . . , r } {1 , . . . , r }. Isso, em particular ensina-nos
que r r. Podemos sem perda de generalidade considerar que os dois conjuntos sejam ordenados de modo que k = k
para todo 1 k r . Assim,
Xr r
X
A = k Ek = k Ek . (9.57)
k=1 k=1
P
(A igualdade pj (A) = rk=1 pj (k )Ek segue do fato que os Ek s satisfazem as mesmas relacoes algebricas que os Ek s
e, portanto, para a representacao espectral de A em termos dos Ek s vale tambem o Calculo Funcional). Como 1 =
Xr Xr Xr
Ek = Ek e como Ej = Ej para 1 j r , tem-se Ek = 0. Multiplicando isso por El com r + 1 l r,
k=1 k=1 k=r +1
segue que El = 0 para todo r + 1 l r. Isso so e possvel se r = r , pois os E ks sao n
ao-nulos. Isso completa a
demonstracao.
e
r r
(1)r1 Y Y
r2 Qr A l 1 = l 1 .
A1 1 (9.60)
k j=1 j l=1 l=1
l6=k l6=k
Prova da Proposicao 9.20. Pelo Teorema Espectral e por (9.56) podemos escrever A em sua representacao espectral:
r r r
X Y 1 Y
A = k A l 1 . (9.61)
k j l=1
j=1 k=1
j6=k l6=k
Por outro lado, se A e invertvel, A1 e diagonaliz avel (justifique!), e seus autovalores distintos sao {1 1
1 , . . . , r }
1
(justifique!). Logo, a representacao espectral de A e
r r r
X Y 1 Y
A1 = k1 A 1
1
l 1 ,
k=1 j=1
1
k j
1
l=1
j6=k l6=k
Qr Qr
l 1 s
A1 1
1
onde as matrizes j=1
1 1 l=1 ao os projetores espectrais de A1 . Aplicando novamente a
j6=k k j l6=k
Comparando (9.61) a (9.62) e evocando a unicidade da representacao espectral de A, conclumos pela validade de (9.58)
para cada k {1, . . . , r}.
E. 9.22 Exerccio. Seja A Mat (C, n) uma matriz diagonalizavel e invertvel com apenas dois autovalores distintos, 1
e 2 . Usando (9.58) ou (9.60) mostre que
1
A1 = 1 + 2 1 A . (9.63)
1 2
Essa rela
c1a1o nao e geralmente valida para matrizes nao-diagonalizaveis e invertveis com apenas dois autovalores distintos. A
0
matriz 0 1 0 tem autovalores +1 e 1, e invertvel, nao e diagonalizavel e nao satizfaz (9.63). Verifique! Prove (9.63)
0 0 1
diretamente do Teorema Espectral. 6
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 374/2103
1. A possui n autovetores linearmente independentes, ou seja, o subespaco gerado pelos autovetores de A tem dimens
ao
n.
2. A e diagonaliz avel, ou seja, existe uma matriz P Mat (C, n) inversvel tal que P 1 AP e uma matriz diagonal
diag (d1 , . . . , dn ), onde os di s s
ao autovalores de A.
3. Para todo vetor x Cn e todo escalar C tais que (A 1)2 x = 0, vale que (A 1)x = 0.
4. Se x e um vetor nao-nulo tal que (A 1)x = 0 para algum C ent
ao n
ao existe nenhum vetor y com a
propriedade que (A 1)y = x.
5. Todas as razes do polin
omio mnimo de A tem multiplicidade 1.
6. Existem r N, escalares distintos 1 , . . . , r e projetores distintos E1 , . . . , Er Mat (C, n), denominados
projetores espectrais de A, tais que
X r
A = a Ea .
a=1
Alem disso, as matrizes Ea satisfazem
r
X
1 = Ea (9.64)
a=1
e
Ei Ej = i, j Ej . (9.65)
Usando-se y = P 1 x e multiplicando-se `
a direita por P , conclumos que
(A 1)2 y = (A 1)x = 0 .
Pelo item 3 isso implica (A 1)y = 0. Mas isso diz que x = 0, uma contradicao.
4 5. Seja M o polinomio mnimo de A, ou seja, o polinomio monico8 de menor grau tal que M (A) = 0. Vamos
mostrar que todas as razes de M tem multiplicidade 1. Vamos, por contradicao, supor que haja uma raiz, 0 , com
multiplicidade maior ou igual a 2. Teramos, para x C,
M (x) = p(x)(x 0 )2 .
Assim, M (A) = p(A)(A 0 1)2 = 0. Como M e, por definicao, o polinomio de menor grau que zera em A, segue
que
p(A)(A 0 1) 6= 0 .
Assim, existe pelo menos um vetor z tal que p(A)(A0 1)z =
6 0. Vamos definir um vetor x por x := p(A)(A0 1)z.
Ent
ao,
(A 0 1)x = (A 0 1)p(A)(A 0 1)z = p(A)(A 0 1)2 z = M (A)z = 0 ,
pois M (A) = 0. Agora, pela definicao,
x = (A 0 1)y ,
onde y = p(A)z. Pelo item 4, porem, isso e impossvel.
5 6. Pela hipotese que as razes de M sao simples segue da expressao (9.45) da Proposicao 9.15, p
agina 364, que para
x C,
Yr
M (x) = (x j ) ,
j=1
onde j sao as razes de M e que coincidem com os r autovalores distintos de A. Para k = 1, . . . , r defina-se os
polinomios mk por
M (x) =: (x k )mk (x) ,
ou seja,
r
Y
mk (x) := (x j ) .
j=1
j6=k
Como os polinomios mk tem grau r 1, o polinomio g tem grau menor ou igual a r 1. Porem, observe-se que,
para todos os j , j = 1, . . . , r, vale
r
X 1 mj (j )
g(j ) = 1 mk (j ) = 1 = 0.
mk (k ) mj (j )
k=1
8A definica
o de polin
omio m
onico est
a`a p
agina 360.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 376/2103
Assim, g tem pelo menos r razes distintas! O u nico polinomio de grau menor ou igual a r 1 que tem r razes
distintas e o polinomio nulo. Logo, conclumos que
r
X 1
g(x) = 1 mk (x) 0
mk (k )
k=1
para todo x C. Isso significa que todos os coeficientes de g sao nulos. Assim, para qualquer matriz B tem-se
g(B) = 0. Para a matriz A isso diz que
r
X 1
1 = mk (A) .
mk (k )
k=1
Definindo-se
1
Ek := mk (A) , (9.67)
mk (k )
conclumos que
r
X
1 = Ek . (9.68)
k=1
Para todo k vale 0 = M (A) = (A k 1)mk (A), ou seja, Amk (A) = k mk (A). Pela definicao de Ek isso significa
AEk = k Ek .
r
" r #
1 Y Y
(A k 1) (A l 1)
=
mi (i )mj (j ) k=1 l=1
k6=i, k6=j
r
1 Y
(A k 1) M (A)
=
mi (i )mj (j ) k=1
k6=i, k6=j
= 0,
pois M (A) = 0. Resta-nos provar que Ej2 = Ej para todo j. Multiplicando-se ambos os lados de (9.68) por Ej
teremos
Xr
Ej = Ej Ek = Ej Ej ,
k=1
6 1. Notemos primeiramente que para todo vetor x, os vetores Ek x ou sao nulos ou sao autovetores de A. De fato, por
6,
Xr
AEk x = j Ej Ek x = k Ek x .
j=1
Assim, todo vetor x pode ser escrito como uma combinacao linear de autovetores de A, o que significa que o espaco
gerado pelos autovetores tem dimensao exatamente igual a n.
Destacamos ao leitor o fato de que a expressao (9.66) permite representar os projetores espectrais diretamente em
termos da matriz diagonaliz
avel A.
Diagonalizabilidade de projetores
A proposicao abaixo e uma aplicacao simples do Teorema 9.8 a projetores. A mesma sera usada abaixo quando
falarmos de diagonalizacao simult
anea de matrizes.
Proposiao 9.21 Seja E Mat (C, n) um projetor, ou seja, tal que E 2 = E. Ent
c ao, E e diagonaliz
avel. 2
Uma condi
c
ao suficiente para diagonalizabilidade
Ate agora estudamos condicoes necessarias e suficientes para que uma matriz seja diagonaliz avel. Vimos que uma
matriz A Mat (C, n) e diagonaliz avel se e somente se for simples ou se e somente se tiver n autovetores linearmente
independentes ou se e somente se puder ser representada na forma espectral, como em (9.50). Nem sempre, porem, e
imediato verificar essas hip
oteses, de modo que e util saber de condicoes mais facilmente verific
aveis e que sejam pelo
menos suficientes para garantir diagonalizabilidade. Veremos abaixo que e, por exemplo, suficiente que uma matriz seja
auto-adjunta ou normal para garantir que ela seja diagonaliz avel.
Uma outra condicao u
til e aquela contida na seguinte proposicao.
Proposiao 9.22 Se A Mat (C, n) tem n autovalores distintos, ent
c ao A e diagonaliz
avel. 2
Observac
ao. A condicao mencionada na u
ltima proposica
o
e apenas suficiente, pois h
a obviamente matrizes diagonaliz
aveis que n
ao t
em
autovalores todos distintos.
Outra forma de provar a Proposicao 9.22 e a seguinte. Seja {1 , . . . , n } o conjunto dos n autovalores de A,
todos distintos. O polinomio caracterstico de A e q(x) = (x 1 ) (x n ). Como as razes de q tem, nesse caso,
multiplicidade 1, segue pela Proposicao 9.15, p
agina 364, que o polinomio mnimo de A, M , coincide com o polinomio
caracterstico de A: q(x) = M (x), x C. Logo, o polinomio mnimo M de A tem tambem razes com multiplicidade
1. Assim, pelo item 5 do Teorema 9.8, p agina 374, A e diagonaliz
avel.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 378/2103
E. 9.23 Exerccio. Demonstre a seguinte afirmacao: se os autovalores de uma matriz A sao todos iguais, entao A e
ultiplo de 1. Sugestao: use o Teorema Espectral ou a forma geral do polinomio
diagonalizavel se e somente se for um m
mnimo (9.45). 6
Segue da afirmativa desse exerccio que matrizes triangulares superiores com diagonal principal constante, ou seja,
da forma
A12 . . . A1(n1) A1n
0 . . . A2(n1) A2n
. .. ..
A = . . ,
. .
0 0 ... A(n1)n
0 0 ... 0
aveis se todos os elementos acima da diagonal principal forem nulos, ou seja, se Aij = 0, j > i.
so sao diagonaliz
Naturalmente, a mesma afirmativa e valida para matrizes da forma AT , triangulares inferiores com diagonal principal
constante.
9.4.1 Diagonalizac
ao Simult
anea de Matrizes
Uma matriz A Mat (C, n) e dita ser diagonalizada por uma matriz P Mat (C, n) se P 1 AP for uma matriz diagonal.
Uma quest
ao muito importante e saber quando duas matrizes diagonaliz
aveis podem ser diagonalizadas por uma
mesma matriz P . A resposta e fornecida no proximo teorema.
Teorema 9.9 (Diagonaliza c
ao Simult aveis A e B Mat (C, n) podem
anea de Matrizes) Duas matrizes diagonaliz
ser diagonalizadas pela mesma matriz P Mat (C, n) se e somente se AB = BA, ou seja, se e somente se comutarem
entre si. 2
Prova. A parte facil da demonstracao e provar que se A e B podem ser diagonalizadas pela mesma matriz P ent
ao A e
B comutam entre si. De fato P 1 (AB BA)P = (P 1 AP )(P 1 BP ) (P 1 BP )(P 1 AP ) = 0, pois P 1 AP e P 1 BP
sao ambas diagonais e matrizes diagonais sempre comutam entre si (por que?). Assim, P 1 (AB BA)P = 0 e, portanto,
AB = BA.
Vamos agora passar a mostrar que se AB = BA ent ao ambas sao diagonalizaveis por uma mesma matriz P . Sejam
1 , . . . , r os r autovalores distintos de A e 1 , . . . , s os s autovalores distintos de B. Evocando o teorema espectral,
A e B podem ser escritos de acordo com suas decomposicoes espectrais como
r
X s
X
A = i EiA e B = j EjB ,
i=1 j=1
e 1
Ys
Ys
EjB (B k 1) ,
= (j k ) j = 1, . . . , s . (9.70)
k=1
k=1
k6=j k6=j
Como A e B comutam entre si e como EiA e EjB , dados em (9.69)(9.70), sao polinomios em A e B, respectivamente,
segue que EiA e EjB tambem comutam entre si para todo i e todo j.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 379/2103
Q2i, j = (EiA EjB )(EiA EjB ) = (EiA )2 (EjB )2 = EiA EjB = Qi, j .
pois
r X
s r X
s r
! s
X X X X
Qi, j = EiA EjB = EiA EjB = 11 = 1 .
i=1 j=1 i=1 j=1 i=1 j=1
r X
s r X
s r
! s
X X X X
i,A j Qi, j = i EiA EjB = i EiA EjB = A1 = A .
i=1 j=1 i=1 j=1 i=1 j=1
Qk Ql = k, l Qk .
onde as constantes A B
ao relacionadas de modo obvio com i,A j e i,B j , respectivamente.
k e k est
Em (9.76) e (9.77) vemos que A e B, por serem diagonaliz
aveis e por comutarem entre si, tem decomposicoes espectrais
com os mesmos projetores espectrais. Note-se tambem que, pela observacao feita no topico Projetores, `a p agina 368
(vide equacao (9.49)), tem-se 1 t n.
Vamos agora completar a demonstracao que A e B podem ser diagonalizados por uma mesma matriz inversvel P .
Seja Ek o subespaco dos autovetores de Qk com autovalor 1. Subespacos Ek s diferentes tem em comum apenas o
vetor nulo. De fato, se k 6= l e w e um vetor tal que Qk w = w e Ql w = w ent
ao, como Qk Ql = 0 segue que
0 = (Qk Ql )w = Qk (Ql w) = Qk w = w .
Seja dk a dimensao do subespaco Ek e seja u1k , . . . , udkk um conjunto de dk vetores linearmente independentes em
Ek . Notemos que dk coincide com a multiplicidade algebrica do autovalor 1 de Qk , pois, conforme P diz a Proposicao
avel e, portanto, e uma matriz simples (Proposicao 9.16). Como 1 = k=1 Qk , tem-se,
t
9.21, o projetor Qk e diagonaliz
Pt
tomando-se o traco, que n = k=1 dk . Pelas definicoes, temos que
pois Qk uak = uak e, portanto, Ql uak = Ql (Qk uak ) = (Ql Qk )uak = 0 para k 6= l.
Afirmamos que o conjunto de vetores
e formado por n vetores linearmente independentes. De fato, suponha que existam constantes ck, j tais que
dk
t X
X
ck, j ujk = 0 .
k=i j=1
Pdl
Aplicando-se `a direita Ql teramos j=1 cl, j ujl = 0, o que so e possvel se cl, j = 0 para todo j pois u1l , . . . , udl l , foram
escolhidos linearmente independentes. Como l e arbitrario, conclumos que cl, j = 0 para todo l e todo j, o que mostra
que o conjunto de vetores em (9.79) e linearmente independente.
ao a matriz P Mat (C, n) definida por
Seja ent
hh ii
P = u11 , . . . , ud11 , u12 , . . . , ud22 , . . . u1t , . . . , udt t .
P e inversvel pois o conjunto (9.79) e linearmente independente (e, portanto, det(P ) 6= 0).
Tem-se, hh ii
AP = Au11 , . . . , Aud11 , Au12 , . . . , Aud22 , . . . , Au1t , . . . , Audt t .
Pt
Escrevendo A = l=1 A
l Ql (9.76) e usando (9.78), temos
t
X
Auak = A a A a
l Ql u k = k u k .
l=1
Assim, hh ii
A d1 A d1 A dt
AP = A 1 A 1 A 1
1 u 1 , . . . , 1 u 1 , 2 u 1 , . . . , 2 u 1 , . . . , t u t , . . . , t u t = P DA ,
onde
DA = diag A , . . . , A A A A A
1 , 2 , . . . , 2 , . . . , t , . . . , t .
| 1 {z } | {z } | {z }
d1 vezes d2 vezes dt vezes
Portanto, P 1 AP = DA . Analogamente,
hh ii
BP = Bu11 , . . . , Bud11 , Bu12 , . . . , Bud22 , . . . Bu1t , . . . , Budt t .
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 381/2103
t
X
Escrevendo B = B
l Ql (9.77) temos,
l=1
hh ii
B d1 B d2 B dt
BP = B u
1 1
1
, . . . , u
1 1 , B 1
u
2 2 , . . . , u
2 2 , . . . , B 1
u
t t , . . . , u
t t = P DB ,
onde
DB = diag B , . . . , B B B B B
1 , 2 , . . . , 2 , . . . , t , . . . , t .
| 1 {z } | {z } | {z }
d1 vezes d2 vezes dt vezes
Um operador linear A e representado (na base canonica) por uma matriz cujos elementos de matriz sao Aij , com
i, j {1, . . . , n}.
um exerccio simples (faca!) verificar que o operador adjunto A de A e representado (na base canonica) por uma
E
matriz cujos elementos de matriz sao (A )ij = Aji , com i, j {1, . . . , n}. Ou seja, a matriz adjunta de A e obtida (na
base canonica!) transpondo-se A e tomando-se o complexo conjugado de seus elementos.
Os seguintes fatos sao importantes:
Proposi
c ao dois operadores lineares agindo em Cn ent
ao 9.23 Se A e B s ao
(A + B) = A + B
Os espectro e a opera
c
ao de adjun
c
ao
Seja A Mat (C, n). Como j a vimos, o espectro de A, (A), e o conjunto de razes de seu polinomio caracterstico,
definido por pA (z) = det(z 1 A), z C. Como para toda B Mat (C, n) vale det(B ) = det(B) (por que?), segue que
pA (z) = det(z 1 A) = det(z 1 A ) = pA (z), ou seja, pA (z) = pA (z). Com isso, provamos a seguinte afirmacao:
Proposi ao 9.24 Seja A Mat (C, n). Ent
c ao, (A) se e somente se (A ), ou seja, e um autovalor de A
se e somente se e um um autovalor de A .
Defini ao. Um operador linear em Cn e dito ser simetrico, Hermitiano ou auto-adjunto se A = A , ou seja, se para
c
todos u, v V satisfizer
hu, Avi = hAu, vi .
Advertencia. Em espacos vetoriais de dimensao finita as nocoes de operador simetrico, Hermitiano ou auto-adjunto sao
sin
onimas. Em espacos vetoriais de dimensao infinita, porem, ha uma distincao entre essas nocoes relativa a problemas
com o domnio de definicao de operadores.
Defini
cao. Um operador linear em Cn e dito ser normal se AA = A A. Ou seja, A e normal se comuta com seu
adjunto.
Definic ario se A A = AA = 1. E
ao. Um operador linear em Cn e dito ser unit claro que todo operador unitario e
ario em Cn se e somente se A = A1 . Note que se A e unit
normal e que um operador e unit ario ent
ao, para todos
u, v V , tem-se
hAu, Avi = hu, vi .
1
Re (A) = (A + A )
2
e a parte imagin
aria de A por
1
Im (A) = (A A ).
2i
claro que essas definicoes foram inspiradas nas relacoes analogas para n
E umeros complexos. Note tambem que
importante notar que para qualquer operador linear A em Cn sua parte real e imaginaria sao ambas operadores
E
Hermitianos: (Re (A)) = Re (A) e (Im (A)) = Im (A).
Prova. Seja A unit aria, um autovalor de A e v 6= 0 um autovetor de A com autovalor . Como A e unit
aria tem-se
hAv, Avi = hv, vi. Como v e um autovetor, o lado esquerdo vale hv, vi. Assim, (||2 1)hv, vi = 0. Como v 6= 0
isso implica || = 1.
Operadores sim
etricos e unit
arios. Ortogonalidade de autovetores
Teorema 9.12 Os autovetores associados a autovalores distintos de uma matriz simetrica s
ao ortogonais entre si. 2
Prova. Seja A simetrica e 1 , 2 dois de seus autovalores, que suporemos distintos. Seja v1 autovetor de A com autovalor
1 e v2 autovetor de A com autovalor 2 . Temos, por A ser simetrico, hv1 , Av2 i = hAv1 , v2 i. O lado esquerdo vale
2 hv1 , v2 i e o lado direito 1 hv1 , v2 i (lembre-se que 1 e real). Assim (2 1 )hv1 , v2 i = 0. Como 2 6= 1 , segue que
hv1 , v2 i = 0, que e o que se queria provar.
aria e sejam 1 , 2 dois de seus autovalores, sendo que suporemos 1 6= 2 . Seja v1 autovetor de U com
Prova. Seja U unit
autovalor 1 e v2 autovetor de U com autovalor 2 . Temos, por U ser unit ario, hU v1 , U v2 i = hv1 , U U v2 i = hv1 , v2 i.
2
O lado esquerdo vale 2 1 hv1 , v2 i = 1 hv1 , v2 i (lembre-se que 1 e um n
umero complexo de modulo 1 e, portanto
1
1 = 1 ). Assim
2
1 hv1 , v2 i = 0 .
1
Como 2 6= 1 , segue que hv1 , v2 i = 0, que e o que se queria provar.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 384/2103
Projetores ortogonais
Um operador linear E agindo em Cn e dito ser um projetor ortogonal se E 2 = E e se E = E.
Projetores ortogonais sao importantes na decomposicao espectral de matrizes auto-adjuntas, como veremos.
1 0
Note-se que nem todo projetor e ortogonal. Por exemplo E = e um projetor (E 2 = E) mas n
ao e ortogonal
1 0
1 0
(E 6= E). O mesmo vale para E =
.
2 0
E. 9.27 Exerccio. Mostre que uma matriz complexa 2 2 e um projetor
ortogonal se e somente se ou for a matriz
identidade 1 ou se for da forma 21 1 + ~a ~ , com ~a (a1 , a2 , a3 ) R3 e
~a
= 1. Aqui, ~a ~ := a1 1 + a2 2 + a3 3 , com
k sendo as matrizes de Pauli, cuja definicao e cujas propriedades basicas encontram-se no Exerccio E. 10.26, pagina 476. 6
o que mostra que Pv2 = Pv . Por outro lado, para quaisquer vetores a e b, usando as propriedades de linearidade,
anti-linearidade e conjugacao complexa do produto escalar, tem-se
D E
ha, Pv bi = a, hv, bi v = hv, bi ha, vi = ha, vi v, b = hv, ai v, b = hPv a, bi ,
A1 v1 = Av1 1 Pv1 v1 = 1 v1 1 v1 = 0 .
Como 2 tambem e real A2 e igualmente auto-adjunto. Fora isso afirmamos que A2 anula os vetores do subespaco [v1 , v2 ]
e mantem [v1 , v2 ] invariante. De fato,
A2 v2 = A1 v2 2 Pv2 v2 = 2 v2 2 v2 = 0 .
An := A 1 Pv1 n Pvn
anula-se no subespaco [v1 , . . . , vn ]. Ora, como estamos em um espaco de dimensao n e os vetores vk sao mutuamente
ortogonais, segue que [v1 , . . . , vn ] deve ser o espaco todo, ou seja, An = 0. Provamos ent
ao que
Vamos provar agora que essa e a representacao espectral de A. Como os vk s sao mutuamente ortogonais, e evidente
que Pvk Pvl = k, l Pvk . Resta-nos provar que Pv1 + + Pvn = 1. Como v1 , . . . , vn formam uma base, todo vetor x
pode ser escrito como uma combinacao linear
x = 1 v1 + + n vn . (9.83)
Tomando-se o produto escalar com va , e usando o fato que os vk s sao mutuamente ortogonais, tem-se a = hva , xi.
Como isso vale para todo vetor x, segue que Pv1 + + Pvn = 1. Assim, A possui uma representacao espectral como
(9.50). Pelo Teorema Espectral 9.6, A e diagonaliz
avel.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 386/2103
Por (9.82), vemos que Ava = a va (verifique!). Logo os a s sao autovalores de A e os va s seus autovetores. Assim,
se A e auto-adjunto, podemos encontrar n autovetores de A mutuamente ortogonais, mesmo que sejam autovetores com
o mesmo autovalor. Isso generaliza o Teorema 9.12.
hh ii
facil verificar, porem,
Pelo que ja vimos A e diagonalizada por P 1 AP , onde podemos escolher P = v 1 , . . . , v n . E
que P e unit
aria. De fato, e um exerccio simples (faca!) mostrar que
hv1 , v1 i hv1 , vn i
.. .. ..
P P =
. . . .
hvn , v1 i hvn , vn i
Como hva , vb i = a, b , a matriz do lado direito e igual a 1, mostrando que P P = P P = 1 e que, portanto, P e unit
aria.
Prova. Ja vimos que toda matriz A pode ser escrita na forma A = Re (A) + iIm (A) onde Re (A) e Im (A) sao auto-
adjuntas. Vimos tambem que se A e normal Re (A) e Im (A) comutam entre si (Proposicao 9.25). Pelo Teorema 9.9,
Re (A) e Im (A) podem ser simultaneamente diagonalizados.
Observacao. Como no caso auto-adjunto, o operador que faz a diagonalizacao pode ser escolhido unitario. De fato, vale uma afirmativa
ainda mais forte.
Teorema 9.16 Uma matriz A Mat (C, n) e normal se e somente se for diagonaliz
avel por um operador unit
ario. 2
A A AA = P D P P DP P DP P D P = P (D D DD )P = 0 ,
a que D e D comutam por serem diagonais (duas matrizes diagonais quaisquer sempre comutam. Por que?). Isso
j
completa a prova que A e normal.
Uma outra demonstracao (eventualmente mais simples) dessa afirmacao pode ser encontrada na Secao 9.8.3, p
agina
413. Vide Teorema 9.29, p
agina 415.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 387/2103
Prova. A expressao (u, v) := hu, Avi, u, v Cn , define uma forma sesquilinear que, por hipotese, e positiva, ou seja,
satisfaz (u, u) 0 para todo u Cn . Pelo Teorema 3.1, p agina 193, e Hermitiana, ou seja, (u, v) = (v, u) ,
para todos os vetores u e v. Mas isso significa que hu, Avi = hv, Aui, ou seja, hu, Avi = hAu, vi para todos os
vetores u e v e assim provou-se que A = A . Uma outra forma de demonstrar isso usa a identidade de polarizacao. Se
ao, para quaisquer vetores u, v Cn vale h(u + in v), A(u + in v)i 0 para todo n Z e, portanto,
A e positiva ent
h(u + i v), A(u + in v)i e um n
n
umero real. Usando a identidade de polarizacao, eqs. (3.34)(3.35), p
agina 203, vale, para
quaisquer vetores u, v Cn ,
3 3
(3.34) 1 X n 1X n
hAv, ui = hu, Avi = n n
i h(u + i v), A(u + i v)i = i h(u + in v), A(u + in v)i
4 n=0 4 n=0
3
1 X n n n
= i i i h(u + in v), A(u + in v)i
4 n=0
3
1 X n n
i hi (u + in v), Ain (u + in v)i
sesquilin.
=
4 n=0
3
1 X n
= i h(v + in u), A((1)n v + in u)i
4 n=0
3
1X
= (1)n in h(v + in u), A(v + in u)i
4 n=0
3
1X n (3.35)
= i h(v + in u), A(v + in u)i = hv, Aui .
4 n=0
Assim, hAv, ui = hv, Aui para todos u, v Cn , o que significa que A e Hermitiana. Portanto, por (9.81), podemos
escrever A = 1 Pv1 + + n Pvn , onde v1 , . . . , vn sao autovetores mutuamente ortonormais de A com autovalores
1 , . . . , n , respectivamente. Disso segue que hvj , Avj i = j para todo j = 1, . . . , n. Como o lado esquerdo e 0, por
hipotese, segue que j 0 para todo j = 1, . . . , n.
Se, reciprocamente, A for auto-adjunta com autovalores n ao-negativos, segue de (9.81) e da definicao de Pvj em (9.80)
n
X
que hw, Awi = j |hw, vj i|2 0, para todo w Cn , provando que A e positiva.
j=1
O seguinte corol
ario e imediato.
ario 9.4 Uma matriz A Mat (C, n) e positiva se somente se existe uma matriz positiva B (unvoca!) tal que
Corol
A = B 2 . As matrizes A e B comutam: AB = BA. 2
10 V
arios dos resultados que seguem podem ser generalizados para operadores lineares positivos agindo em espacos de Hilbert. Vide Teorema
38.30, p
agina 1968.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 388/2103
Como, pela ortonormalidade dos vj s, vale Pvj Pvk = j, k Pvj , e facil ver que B 2 = 1 Pv1 + + n Pvn = A. A unicidade
de B segue da unicidade da decomposicao espectral, Proposicao 9.19, p agina 372. A igualdade (B 2 )B = B(B)2 significa
AB = BA, provando que A e B comutam.
Defini
c unica!) matriz positiva B satisfazendo B 2 = A e freq
ao. Se A e uma matriz positiva, a ( uentemente denotada
por A e denominada raiz quadrada da matriz A. Como vimos, A A = AA.
Lema 9.3 Se A Mat (C, n) e uma matriz positiva e C Mat (C, n) satisfaz CA = AC ent ao C A = AC. 2
Prova. Se C comuta com A, ent ao C comuta com qualquer polinomio em A. Vimos na Proposicao 9.18, p
agina 371, que
os projetores espectraisde A podem ser escritos como polinomios em A. Assim, C comuta com os projetores espectrais
de A e, portanto, com A, devido a (9.84).
Uma conseq
uencia interessante das consideracoes acima e a seguinte proposicao:
Proposi
cao 9.28 Toda matriz Hermitiana pode ser escrita como combinac ao linear de ate duas matrizes unit
arias.
Toda matriz pode ser escrita como combinac
ao linear de ate quatro matrizes unit
arias. 2
Demonstracao. Seja A Mat (C, n). Se A e Hermitiana (vamos supor que A 6= 0, pois de outra forma n ao ha o que se
ao, para todo w Cn , o produto escalar hw A2 wi e um n
provar), ent umero real e, pela desigualdade de Cauchy-Schwarz,
|hw A2 wi| kA2 k kwk2Cn . Assim, kA2 k kwk2Cn hw, A2 wi kA2 k kwk2Cn Logo, a matriz 1 p A2 /kA2 k e positiva, pois
hw, (1 A /kA k)wi = kwkCn hw, A wi/kA k kwkCn kwkCn = 0. Conseq
2 2 2 2 2 2 2
uentemente, 1 A2 /kA2 k existe e e
positiva e Hermitiana. Trivialmente, podemos escrever
p s ! p s !
kA2 k A A2 kA2 k A A2
A = p +i 1 + p i 1 . (9.85)
2 kA2 k kA2 k 2 kA2 k kA2 k
q
Agora, as matrizes A 2 i 1 A2
kA2 k sao unit
arias. Para ver isso, notemos que
kA k
s ! s !
A A2 A A2
p +i 1 2 = p i 1 2
kA2 k kA k kA2 k kA k
e que s ! s !
A A2 A A2
p +i 1 2 p i 1 2 = 1.
kA2 k kA k kA2 k kA k
q
Para provar a u
ltima igualdade basta expandir o produto e notar que, pelo Lema 9.3, A e 1 A2
kA2 k comutam, ja que
A e 1 A2
kA2 k comutam.
Assim, vemos de (9.85) que uma matriz Hermitiana A e combinacao linear de ate duas unit
arias, provando a primeira
parte da Proposicao 9.28. Para provar a segunda parte, basta notar que se M Mat (C, n) e uma matriz qualquer,
podemos escrever
M + M M M
M = +i .
2 2i
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 389/2103
Ambas as matrizes entre parenteses sao Hermitianas e, portanto, podem cada uma ser escritas como combinacao linear
de ate duas unit
arias, totalizando ate quatro unit
arias para M .
9.5.2 O Teorema de In
ercia de Sylvester. Superfcies Quadr
aticas
Transforma
co
es de congru
encia em Mat (C, n)
Seja M Mat (C, n). Se P Mat (C, n) e inversvel, a transformacao M 7 P M P e dita ser uma transformac
ao
de congruencia. Uma transformacao de congruencia representa a transformacao de uma matriz por uma mudanca de
base (justifique essa afirmacao!).
Se M for auto-adjunta, P M P e tambem auto-adjunta e, portanto, ambas tem auto-valores reais. Em geral, o
conjunto dos auto-valores de M e distinto do conjunto dos auto-valores de P M P (exceto, por exemplo, se P for
unit
aria). Porem, um teorema devido a Sylvester, frequentemente denominado Lei de Inercia de Sylvester, afirma que
uma propriedade do conjunto dos auto-valores e preservada em uma transformacao de congruencia, a saber, o n
umero de
autovalores, positivos, de autovalores negativos e de autovalores nulos (contando-se as multiplicidades). Enunciaremos e
demonstraremos esse teorema logo adiante.
Dada uma matriz auto-adjunta M Mat (C, n), a tripla de n umeros (m, m , m0 ), onde m e o n umero de autovalores
positivos de M , m e o n
umero de autovalores negativos de M , m0 e o n umero de autovalores nulos de M , (em todos os
casos contando-se as multiplicidades) e denominada (por raz
oes historicas obscuras) a inercia da matriz M . Naturalmente,
vale m + m + m0 = n. A Lei de Inercia de Sylvester afirma, portanto, que a inercia de uma matriz e preservada por
transformacoes de congruencia.
Dizemos que duas matrizes A e B Mat (C, n) sao congruentes se existir P Mat (C, n) inversvel tal que
muito f
A = P BP . E acil provar que a relacao de congruencia e uma relacao de equivalencia.
Dessa forma, a Lei de Inercia de Sylvester afirma que a inercia de matrizes e constante nas classes de equivalencia
(pela relacao de congruencia). Assim, e legtimo perguntar se as classes de equivalencia sao univocamente determinadas
pela inercia de seus elementos. A resposta e negativa (exceto no caso trivial n = 1), como mostra a argumentacao do
par
agrafo que segue.
Se A Mat (C, n), com n > 1, e uma matriz positiva, A e da forma P P (Corol ario 9.4, p
agina 387). Assim,
det A = | det P |2 e conclumos que A e inversvel se e somente se P o for. Conclu-se disso que a classe de equivalencia
(por relacoes de congruencia) que contem a matriz identidade contem todas as matrizes positivas e inversveis. Pela
Proposicao 9.27, p
agina 387, esse conjunto coincide com o conjunto de todas as matrizes auto-adjuntas com autovalores
positivos, ou seja, que possuem inercia (n, 0, 0). Entretanto, existem tambem matrizes n ao-auto-adjuntas com inercia
(n, 0, 0) (por exemplo, matrizes triangulares superiores11 com elementos positivos na diagonal e alguns elementos n ao-
nulos acima da diagonal). Como tais matrizes n ao podem ser equivalentes `a identidade (toda matriz da forma P 1P e
auto-adjunta), conclumos que as classes de equivalencia n ao sao determinadas univocamente pela inercia das matrizes
que as compoe.
A Lei de In
ercia de Sylvester
A Lei de Inercia de Sylvester e importante para a classificacao de formas quadr
aticas e sua relevancia estende-se ate
a classificacao de equacoes diferenciais parciais de segunda ordem. Tratemos de seu enunciado e demonstracao.
`
Teorema 9.17 (Lei de In ercia de Sylvester) Sejam A e B Mat (C, n) duas matrizes auto-adjuntas. Denotemos
por A+ , A , A0 os subespacos gerados, respectivamente, pelos auto-vetores com autovalores positivos, negativos e nulos
de A (e analogamente para B).
Suponhamos que exista P Mat (C, n), inversvel, tal que A = P BP . Ent
ao, dim A+ = dim B+ , dim A = dim B
ao de um subespaco C Cn . Assim, conclumos tambem que A e B tem
e dim A0 = dim B0 , onde dim C denota a dimens
11 Para a definica
o, vide p
agina 393
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 390/2103
Prova. Sejam 1 , . . . , a os auto-valores positivos (nao necessariamente distintos) e a+1 , . . . , a+a os auto-valores
negativos (nao necessariamente distintos) de A. Analogamente, sejam 1 , . . . , b os auto-valores positivos (nao neces-
sariamente distintos) e b+1 , . . . , b+b os auto-valores negativos (nao necessariamente distintos) de B. Naturalmente,
valem 0 a + a n e 0 b + b n.
Se A e B forem nulos nao h
a o que demonstrar, de modo que podemos supor que ambos tem pelo menos um auto-valor
n
ao-nulo. Nesse caso, podemos sempre, sem perder em generalidade, supor que A tem pelo menos um autovalor positivo,
ao for verdade para A sera verdadeiro para A.
pois se tal n
O Teorema Espectral, Teorema 9.6, p
agina 369, permite-nos escrever
a
X a+a
X
A = k Ak |l |Al
k=1 l=a+1
e
b
X b+b
X
B = k Bk |l |Bl , (9.86)
k=1 l=b+1
e, analogamente,
b
X b+b
X
B+ := Bk , B := Bl e B0 := 1 B+ B .
k=1 l=b+1
A+ , A e A0 sao, respectivamente, o projetor sobre o subespaco de autovetores com auto-valores positivos, negativos e
nulos de A. Analogamente para B. Esses subespacos sao
A = A Cn , A0 = A0 Cn , B = B Cn , B0 = B0 Cn .
Vamos agora supor que B+ < dim A+ (ou seja, que b < a). Afirmamos que podemos encontrar ao menos um x+ A+ ,
n
ao-nulo, tal que Bk P x+ = 0 para todo k = 1, . . . , b. Se assim n ao existiria x A+ n
ao fosse, n ao-nulo satisfazendo
B+ P x = 0, ou seja, valeria B+ P x 6= 0 para todo x A+ com x 6= 0. Logo, (P A+ ) (B+ ) = {0}, o que implica que
P A+ B+ . Isso, por sua vez, significa que dimensao do subespaco P A+ e menor ou igual `a dimensao de B+ e, como P
e inversvel, isso implica, dim A+ dim B+ , uma contradicao.
Assim, para um tal x+ teramos
b+b
X
2
hx+ , Ax+ iC = |k |
Bk P x+
0 ,
l=b+1
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 391/2103
contradizendo (9.87). Conclumos disso que dim B+ dim A+ . Como B = (P )1 AP 1 , um raciocnio analogo trocando
A e B e trocando P P 1 implica que dim A+ dim B+ . Assim, dim B+ = dim A+ .
Tambem de forma totalmente analoga prova-se que dim B = dim A (isso tambem pode ser visto imediatamente
trocando A 7 A e B 7 B). Isso implica ainda que dim B0 = dim A0 , completando a demonstracao.
Transforma
co
es de congru
encia em Mat (R, n)
Para matrizes reais agindo no espaco Rn valem afirmacoes analogas `as obtidas acima. Seja M Mat (R, n). Se
P Mat (R, n) e inversvel, a transformacao M 7 P T M P e dita ser uma transformac ao de congruencia real, ou
simplesmente transformac ao de congruencia. Uma transformacao de congruencia representa a transformacao de uma
matriz por uma mudanca de base (justifique essa afirmacao!). Para transformacoes de congruencia reais vale tambem a Lei
de Inercia de Sylvester: se A Mat (R, n) e simetrica (ou seja, se A = AT ) sua inercia e preservada por transformacoes
de congruencia A 7 P T AP com P Mat (R, n) inversvel. Como essa afirmacao e um mero caso particular do anterior,
omitimos a demonstracao e convidamos o estudante a complet a-la.
Classifica
c etricas em Rn
ao de matrizes sim
Matrizes simetricas em Rn podem ser classificadas de acordo com o tipo de inercia que possuem, classificacao essa
invariante por transformacoes de congruencia. Uma matriz simetrica A Mat (R, n), n > 1, e dita ser
olica, se ao menos um dos seus autovalores for nulo, ou seja, se sua inercia for da forma (a, a , a0 ) com
1. Parab
a0 1;
2. Elptica, se todos os seus autovalores forem positivos ou se todos forem negativos, ou seja, se sua inercia for da
forma (a, a , 0) com a 1 e a = 0 ou com a 1 e a = 0;
3. Hiperbolica, se um de seus autovalores for positivo e os demais negativos, ou o oposto: se um de seus autovalores
for negativo e os demais positivos, ou seja, se sua inercia for da forma (1, a , 0) com a 1 (a, 1, 0) com a 1;
4. Ultra-Hiperb
olica, se ao menos dois de seus autovalores forem positivos e ao menos dois forem negativos, nenhum
sendo nulo, ou seja, se sua inercia for da forma (a, a , 0) com a 2 e a 2. Esse caso so se d
a se n 4.
aticas Rn
Superfcies quadr
Sejam x1 , . . . , xn sao n variaveis reais. A forma mais geral de um polinomio real de segundo grau nessas variaveis e
n X
X n n
X
p(x) = Aij xi xj + ck xk + d ,
i=1 j=1 k=1
onde Aij R, ck R e d R. A expressao acima para p pode ! ser escrita como p(x) = hx, AxiR + hc, xiR + d, onde,
!
c1 x1
naturalmente, A e a matriz cujos elementos sao Aij , c = .. ex= .. . A matriz A pode ser sempre, sem perda
. .
cn xn
de generalidade, escolhida como simetrica. Para ver isso, notemos que, A pode sempre ser escrita como soma de uma
matriz simetrica e uma anti-simetrica: A = 21 (A + AT ) + 12 (A AT ). Contudo,
n X
X n
T
hx, (A A )xiR = (Aij Aji ) xi xj = 0
i=1 j=1
onde = ( d)/kck e yOc e a projecao de y na direcao do vetor Oc. Se a dimensao do subespaco dos autovalores
nulos A0 for maior que 1 a equacao (9.89) descrevera cilindros de diversos tipos, dependendo do n umero de
autovalores positivos e negativos e de Oc ter uma projecao ou n ao em A0 . N
ao descreveremos os todos os detalhes
aqui, mas um exemplo de interesse se d a em R3 , se A0 tiver dimensao 2 e Oc for um vetor nao-nulo de A0 . Nesse
caso equacao (9.89) descreve um cilindro parabolico. Vide Figura 9.3, pagina 394.
Para o caso em que A0 tem dimensao 1 e Oc e um elemento n ao-nulo desse subespaco, a equacao (9.89) descreve
oides (n 1)-dimensionais. Temos os seguintes casos:
diversos tipos de parabol
12 Oscar Niemeyer Soares Filho (1907).
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 393/2103
(a) a equacao (9.89) descreve um paraboloide elptico (n 1)-dimensional caso todos os autovalores n
ao-nulos de
A forem positivos ou se todos os autovalores n ao-nulos de A forem negativos. Vide Figura 9.2, pagina 9.2.
(b) A equacao (9.89) descreve um parabol
oide hiperb olico (n1)-dimensional caso um autovalor de A seja negativo
e os demais autovalores n ao-nulos de A sejam positivos (ou o contrario: caso um autovalor de A seja positivo
e os demais autovalores n ao-nulos de A sejam negativos). Vide Figura 9.2, p agina 9.2.
(c) A equacao (9.89) descreve um parabol oide ultra-hiperb olico (n 1)-dimensional caso pelo menos dois dos
autovalores n ao-nulos de A sejam positivos e pelo menos dois dos autovalores n ao-nulos de A sejam negativos.
Esse caso so pode ocorrer se n 5.
Para c 6= 0 diversas situacoes acima podem tambem descrever cilindros, por exemplo, se Oc encontra-se no
subespaco dos autovetores com autovalores n ao-nulos.
Se c = 0 e dim A0 1, equacao p(x) = fica
m
X m+m
X
k yk2 |l | yl2 = , (9.90)
k=1 l=m+1
Uma matriz I Mat (C, n) e dita ser uma matriz triangular inferior se forem nulos os elementos acima da diagonal
principal, ou seja, se Iij = 0 sempre que i < j. Note que esses n
ao precisam ser necessariamente os u nicos elementos
nulos de I.
Proposi
c
ao 9.29 Matrizes triangulares superiores possuem as seguintes propriedades:
As afirmac
oes acima permanecem verdadeiras trocando matriz triangular superior por matriz triangular inferior. 2
Prova. Os tres primeiros itens sao elementares. Para provar o item 4, usa-se a regra de Laplace, expressao (9.20), p
agina
345. Como e facil de se ver, Cof(S)ji = 0 se i > j. Logo, S 1 e triangular superior, se existir.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 395/2103
As propriedades acima atestam que o conjunto das matrizes n n triangulares superiores inversveis forma um grupo,
denominado por alguns autores Grupo de Borel13 de ordem n e denotado por GBn (C).
O seguinte resultado sobre matrizes triangulares superiores sera usado diversas vezes adiante.
Lema 9.4 Uma matriz triangular superior S Mat (C, n) e normal (ou seja, satisfaz SS = S S) se e somente se for
diagonal. 2
Prova. Se S e diagonal, S e obviamente normal pois S e tambem diagonal e matrizes diagonais sempre comutam entre
si. Provaremos a recproca, o que sera feito por inducao. Para n = 1 n
ao ha o que provar. Se n = 2, S e da forma
S = ( a0 cb ), com a, b, c C. A condicao SS = S S significa
|a|2 + |b|2 bc |a|2 ba
= ,
cb |c|2 ab |b|2 + |c|2
o que implica b = 0, provando que S e diagonal. Procedemos agora por inducao, supondo n > 2 e que o lema seja valido
para matrizes (n 1) (n 1) triangulares superiores normais. Se S Mat (C, n) e triangular superior, S e da forma
b1 0
T
a b . .
, sendo a C , b = . , 0 = . ,
S= . .
0 C
bn1 0
ambas b e 0 com n 1 linhas, sendo C uma matriz (n 1) (n 1) triangular superior. A condicao SS = S S significa
|a|2 + bT b bT C |a|2 abT
= ,
Cb CC ab B + CC
sendo B a matriz cujos elementos sao Bij = bi bj . Disso extramos que bT b = 0, ou seja, |b1 |2 + + |bn1 |2 = 0 e,
portanto, b = 0. Com isso, ficamos com CC = C C, ou seja, C e normal. Como C e triangular superior ent ao, pela
hip
otese indutiva, C e diagonal. Isso, mais o fato provado que b e nulo, implica que S e diagonal, provando o lema.
mais adiante), mostraremos que existe uma matriz P tal que P 1 AP tem a seguinte forma:
1 1 0 0 0 0
0 2 2 0 0 0
0 0 3 3 0 0
..
. , (9.91)
0 0 0 4 0 0
. .. .. .. .. .. ..
.. . . . . . .
0 0 0 0 n1 n1
0 0 0 0 0 n
onde 1 , . . . , n sao os autovalores de A e onde os i valem 1 ou 0, mas que forma que a matriz diagonal
1 0 0 0 0 0
0 2 0 0 0 0
0 0 3 0 0 0
..
. , (9.92)
0 0 0 4 0 0
. .. .. .. .. .. ..
.. . . . . . .
0 0 0 0 n1 0
0 0 0 0 0 n
e a matriz supra-diagonal
0 1 0 0 0 0
0 0 2 0 0 0
0 0 0 3 0 0
..
. , (9.93)
0 0 0 0 0 0
. .. .. .. .. .. ..
.. . . . . . .
0 0 0 0 0 n1
0 0 0 0 0 0
comutam entre si.
O resultado central que provaremos, e do qual as afirmativas feitas acima seguirao, diz que toda matriz A pode ser
levada por uma transformacao do tipo P 1 AP a uma matriz da forma D + N , onde D e diagonal e N e nilpotente (ou
seja, tal que N q = 0 para algum q) e tais que D e N comutam: DN = N D. Essa e a afirmativa principal do celebre
Teorema da Decomposicao de Jordan, que demonstraremos nas p aginas que seguem.
Esse Teorema da Decomposicao de Jordan generaliza os teoremas sobre diagonalizabilidade de matrizes: para matrizes
diagonaliz
aveis tem-se simplesmente N = 0 para um P conveniente.
Antes de nos dedicarmos `
a demonstracao desses fatos precisaremos de alguma preparacao.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 397/2103
Subespa
cos invariantes
Um subespaco E de Cn e dito ser invariante pela ac
ao de uma matriz A, se Av E para todo v E.
Se V = V1 V2 e tanto V1 quanto V2 sao invariantes pela acao de A, escrevemos A = A1 A2 onde Ai e A restrita
a Vi . Se escolhermos uma base em V da forma {v1 , . . . , vm , vm+1 , . . . , vn }, onde {v1 , . . . , vm } e uma base em V1 e
{vm+1 , . . . , vn } e uma base em V2 , ent
ao nessa base A ter
a a forma
A1 0m, nm
A =
.
(9.94)
0nm, m A2
Operadores nilpotentes
Seja V um espaco vetorial e N : V V um operador linear agindo em V . O operador N e dito ser um operador
nilpotente se existir um inteiro positivo q tal que N q = 0. O menor q N para o qual N q = 0 e dito ser o ndice de N .
Vamos a alguns exemplos.
0 1 0 0 1 0
E. 9.31 Exerccio. Verifique que 001 e 1 0 1 sao matrizes nilpotentes de ndice 3. 6
000 0 1 0
0 a c
E. 9.32 Exerccio. Verifique que 0 0 b com a 6= 0 e b 6= 0 e uma matriz nilpotente de ndice 3. 6
0 0 0
0 0 0 0 1 0
E. 9.33 Exerccio. Verifique que 001 eN= 000 sao matrizes nilpotentes de ndice 2. 6
000 000
No Corolario 9.5, p
agina 403, demonstraremos que uma matriz e nilpotente se e somente se seus autovalores forem
todos nulos.
Prova da Proposicao 9.30. Se N = 0 o ndice e q = 1 e tudo e trivial. Seja N 6= 0 com ndice q > 1. Seja v 6= 0 um
autovetor de N com autovalor : N v = v. Isso diz que 0 = N q v = q v. Logo q = 0 e, obviamente, = 0. E claro
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 398/2103
entao que qN (x) = xn . Que o polinomio mnimo e mN (x) = xq segue do fato que mN (x) deve ser um divisor de qn (x)
(isso segue do Teorema 9.2 junto com o Teorema de Hamilton-Cayley, Teorema 9.3), p agina 361). Logo mN (x) e da
forma xk para algum k n. Mas o menor k tal que mN (N ) = N k = 0 e, por definicao, igual a q. Isso completa a prova.
Mais sobre matrizes nilpotentes sera estudado na Secao 9.7.3 onde, em particular, discutiremos a chamada forma
can
onica de matrizes nilpotentes.
O n
ucleo e a imagem de um operador linear
Seja V um espaco vetorial e A : V V um operador linear agindo em V .
O n
ucleo de A e definido como o conjunto de todos os vetores que sao anulados por A:
N(A) := {x V | Ax = 0} .
Afirmamos que N(A) e R(A) sao dois subespacos de V . Note-se primeiramente que 0 N(A) e 0 R(A) (por que?).
Fora isso, se x e y N(A) ent
ao, para quaisquer escalares e ,
A(x + y) = Ax + Ay = 0 ,
provando que combinacoes lineares x + x tambem pertencem a N(A). Analogamente se x e x R(A) ent
ao existem
y e y V com x = Ay, x = Ay . Logo
x + x = A(y + y ) ,
provando que combinacoes lineares x + y tambem pertencem a R(A).
Para um operador A fixado, e k N, vamos definir
Nk = N(Ak ) e Rk = R(Ak ) .
Ax Rk .
Afirmamos que
Nk Nk+1 (9.95)
e que
Rk Rk+1 .
ao Ak x = 0. Isso obviamente implica Ak+1 x = 0.
As demonstracoes dessas afirmativas sao quase banais. Se x Nk ent
Logo x Nk+1 e, portanto, Nk Nk+1 . Analogamente, se x Rk+1 ent ao existe y tal que x = Ak+1 y. Logo x = Ak (Ay),
o que diz que x Rk . Portanto Rk+1 Rk .
Isso diz que os conjuntos Nk formam uma cadeia crescente de conjuntos:
{0} N1 N2 Nk V , (9.96)
V R1 R2 Rk {0} . (9.97)
Consideremos a cadeia crescente (9.96). Como os conjuntos Nk sao subespacos de V , e claro que a cadeia n
ao pode
ser estritamente crescente se V for um espaco de dimensao finita, ou seja, deve haver um inteiro positivo p tal que
Np = Np+1 . Seja p o menor numero inteiro para o qual isso acontece. Afirmamos que para todo k 1 vale Np = Np+k .
Vamos provar isso. Se x Np+k ent ao Ap+k x = 0, ou seja, Ap+1 (Ak1 x) = 0. Logo, Ak1 x Np+1 . Dado que
k1
Np = Np+1 , isso diz que A x Np , ou seja, Ap (Ak1 x) = 0. Isso, por sua vez, afirma que x Np+k1 . O que fizemos
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 399/2103
ao foi partir de x Np+k e concluir que x Np+k1 . Se repetirmos a argumentacao k vezes concluiremos que x Np .
ent
Logo, Np+k Np . Por (9.95) tem-se, porem, que Np Np+k e, assim, Np+k = Np .
Assim, a cadeia (9.96) tem, no caso de V ter dimensao finita, a forma
Como dissemos, p sera daqui por diante o menor inteiro para o qual Np = Np+1 . O lema e o teorema que seguem
tem grande import
ancia na demonstracao do Teorema de Decomposicao de Jordan.
oes acima, Np Rp = {0}, ou seja, os subespacos Np e Rp tem em comum apenas o vetor
Lema 9.5 Com as definic
nulo. 2
Demonstracao. Seja x tal que x Np e x Rp . Isso significa que Ap x = 0 e que existe y tal que x = Ap y. Logo,
A2p y = Ap x = 0, ou seja, y N2p . Pela definicao de p tem-se que N2p = Np . Assim, y Np . Logo Ap y = 0. Mas, pela
propria definicao de y valia que Ap y = x. Logo x = 0.
Demonstracao. Seja m a dimensao de Np e seja {u1 , . . . , um } uma base em Np . Vamos estender essa base, in-
cluindo vetores {vm+1 , . . . , vn } de modo que {u1 , . . . , um , vm+1 , . . . , vn } seja uma base em V . Afirmamos que
{Ap vm+1 , . . . , Ap vn } e uma base em Rp . Seja x Rp e seja y V tal que x = Ap y. Como todo vetor de V , y pode ser
escrito como combinacao linear de elementos da base {u1 , . . . , um , vm+1 , . . . , vn }:
m
X n
X
y = i ui + i vi .
i=1 i=m+1
Logo,
m
X n
X n
X
x = i Ap ui + i Ap vi = i Ap vi . (9.99)
i=1 i=m+1 i=m+1
Os vetores {Ap vm+1 , . . . , Ap vn } sao linearmente independentes. Isso se mostra com! o seguinte argumento. Se existirem
Xn n
X n
X
escalares m+1 , . . . , n tais que i Ap vi = 0, ent
ao teramos Ap i vi = 0, ou seja, i vi Np . Isso
i=m+1 i=m+1 i=m+1
n
X m
X
implica que existem constantes 1 , . . . , m tais que i vi = i ui , pois os vetores {u1 , . . . , um } sao uma base
i=m+1 i=1
em Np . Ora, como {u1 , . . . , um , vm+1 , . . . , vn } sao linearmente independentes, segue que os i s e os j s sao todos
nulos. Isso prova que {Ap vm+1 , . . . , Ap vn } sao linearmente independentes e, portanto, por (9.99), formam uma base
em Rp .
Isso incidentalmente provou que a dimensao de Rp e n m. Temos, portanto, que dim (Np ) + dim (Rp ) = dim (V ).
Para i = m + 1, . . . , n defina-se ui = Ap vi . Afirmamos que o conjunto de vetores
e tambem linearmente independente e, portanto, forma uma base em V . Suponhamos que haja constantes escalares
1 , . . . , n tais que !
Xn Xm Xn
p
0 = i ui = i ui + A i vi .
i=1 i=1 i=m+1
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 400/2103
O lado esquerdo dessa igualdade e um elemento de Np (pois u1 , . . . , um sao uma base em Np ), enquanto que o lado
esquerdo e obviamente um elemento da imagem de Ap , ou seja, de Rp . Contudo, ja vimos (Lema 9.5) que o u
nico vetor
que Np e Rp tem em comum e o vetor nulo. Logo,
m
X
i ui = 0 (9.100)
i=1
e
n
X
i Ap vi = 0 . (9.101)
i=m+1
A relacao (9.100) implica 1 = = m = 0, pois {u1 , . . . , um } e uma base em Np . A relacao (9.101) implica
m+1 = = n = 0, pois {Ap v1 , . . . , Ap vm } e uma base em Rp . Assim, todos os i s sao nulos, provando que
{u1 , . . . , um , um+1 , . . . , un } = {u1 , . . . , um , Ap vm+1 , . . . , Ap vn } e um conjunto de n vetores linearmente
independentes.
uentemente, todo x V pode ser escrito na forma
Conseq
n m n
!
X X X
p
x = i ui = i ui + A i vi .
i=1 i=1 i=m+1
| {z } | {z }
xn Np xr Rp
Provar a unicidade dessa decomposicao fica como exerccio. Isso completa a demonstracao.
Uma das coisas que o teorema que acabamos de demonstrar diz e que, dado um operador A, o espaco V pode ser
decomposto em uma soma direta de dois subespacos, invariantes por A: um onde A e nilpotente, Np , e outro onde A e
inversvel, Rp . A e nilpotente em Np pois Ap x = 0 para todo elemento x de Np . A e inversvel em Rp pois se x Rp e
tal que Ax = 0 isso implica x N1 Np . Mas x so pode pertencer a Np e a Rp se for nulo. Logo, em Rp , Ax = 0 se
e somente se x = 0, provando que A e inversvel15. Para referencia futura formulemos essa afirmativa na forma de um
teorema:
Teorema 9.19 Se A e um operador linear n ao-nulo agindo em um espaco vetorial V = Cn ent ao e possvel decompor
V em dois subespacos invariantes por A, V = S T, de forma que A restrito a S e nilpotente, enquanto que A restrito a
T e inversvel. 2
Enunciado e demonstra
c
ao do Teorema da Decomposi
c
ao de Jordan
15 Lembre-se
que esse argumento s
o funciona em espacos vetoriais V que tenham dimens ao finita, o que estamos supondo aqui.
16 Marie EnnemondCamille Jordan (18381922). A forma can onica de matrizes (que ser
a discutida mais adiante) foi originalmente descoberta
por Weierstrass (Karl Theodor Wilhelm Weierstrass (18151897)) e redescoberta por Jordan em 1870.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 401/2103
Teorema 9.20 (Teorema da Decomposi ao de Jordan) Seja A um operador linear agindo no espaco V = Cn e
c
seja {1 , . . . , r } o conjunto de seus autovalores distintos. Ent ao, existem r subespacos S1 , . . . , Sr tais que V =
S1 . . . Sr e tais que cada Si e invariante por A. Ou seja, A = A1 . . . Ar , onde Ai e A restrita a Si . Fora isso,
cada Ai , e da forma Ai = i 1i + Ni , onde 1i e a matriz identidade em Si e onde Ni e nilpotente. Por fim, a dimens ao
si de cada subespaco Si e igual `
a multiplicidade algebrica do autovalor i . 2
onde 1S1 e a matriz identidade em S1 etc. Vamos mostrar que a dimensao de S1 e igual `a multiplicidade algebrica de 1 .
Por (9.102) o polinomio caracterstico de A e
onde, na ultima igualdade, usamos a Proposicao 9.30, p agina 397, sobre a forma do polinomio caracterstico de uma
matriz nilpotente. Da, segue que qA () = ( 1 )s1 qM1 ( 1 ), sendo qM1 o polinomio caracterstico de M1 . Como
M1 e inversvel, M1 n ao tem o zero como autovalor. Logo, qM1 (0) 6= 0. Portanto s1 e igual `a multiplicidade de 1 como
raiz de qA , ou seja, e igual a n1 , a multiplicidade algebrica de 1 .
A ideia agora e prosseguir decompondo agora o operador 1 1T1 + M1 que aparece em (9.102) da mesma maneira
como fizermos acima com A.
Seja A = 1 1T1 + M1 e que age em T1 , que e um espaco de dimensao n n1 . Definimos A2 = A 2 1T1 .
Evocando novamente o Teorema 9.19, p agina 400, T1 pode ser escrito como T1 = S2 T2 , onde S2 e T2 sao invariantes
por A2 , sendo A2 nilpotente em S2 e inversvel em T2 . Assim, V = S1 S2 T2 . Agindo em T1 = S2 T2 , A2 e da forma
A2 = N2 M2 com N2 nilpotente e M2 inversvel. Logo
A = (1 1S1 + N1 ) (r 1Sr + Nr ) ,
Um corol
ario importante do Teorema de Decomposicao de Jordan e o seguinte:
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 402/2103
Teorema 9.21 Para toda matriz A Mat (C, n) existe uma matriz inversvel P Mat (C, n) tal que P 1 AP = D + N ,
onde D e uma matriz diagonal formada pelos autovalores de A e N e uma matriz nilpotente e de tal forma que D e N
comutam: DN = N D.
uentemente, toda matriz A Mat (C, n) pode ser escrita na forma A = Ad + An com Ad An = An Ad , sendo
Conseq
avel e An nilpotente, a saber, Ad = P DP 1 e An = P N P 1 , com D e N dados acima.
Ad diagonaliz 2
ario 9.5 Uma matriz M Mat (C, n) e nilpotente se e somente se todos os seus autovalores forem nulos.
Corol 2
v, N v, N 2 v, ..., N q1 v , (9.106)
Prova. Se q = 1, ent ao N = 0 e n ao ha nada a provar, pois a afirmacao e trivialmente verdadeira para qualquer v 6= 0.
Seja entao q > 1 (em cujo caso N 6= 0, trivialmente). Sabemos, por hipotese, que a matriz N q1 e n ao-nula. Isso
significa que existe pelo menos um vetor v 6= 0 tal que N q1 v 6= 0. Fixemos um tal vetor. E imediato que os vetores
N v, N 2 v, . . . , N q1 v sao todos n
ao-nulos pois, se tivessemos N j v = 0 para algum 1 j < q 1, ent ao, aplicando-se
q1j q1
N `a esquerda, teramos N v = 0, uma contradicao.
Sejam agora 1 , . . . , q escalares tais que
1 v + 2 N v + 3 N 2 v + + q N q1 v = 0 . (9.107)
Prova.17 A prova e feita por inducao em q. Note-se que se q = 1, ent ao N = 0 e a afirmativa e trivial, pois podemos
tomar como v qualquer vetor n ao-nulo, Jv, q seria o subespaco gerado por esse v e K o subespaco complementar a v, que
e trivialmente invariante por N , pois N = 0.
Vamos supor entao que a afirmacao seja valida para matrizes nilpotentes de ndice q 1 e provar que a mesma e valida
para matrizes nilpotentes de ndice q. O que desejamos e construir um subespaco K com as propriedades desejadas, ou
seja, tal que V = Jv, q K, sendo K invariante por N .
Seja V0 = R(N ) o conjunto imagem de N . Sabemos que V0 e um subespaco de V e que e invariante por N . Fora isso,
N e nilpotente de ndice q 1 agindo em V0 (por que?)
claro que N q2 v0 = N q1 v 6= 0. Assim, pelo Lema 9.6, o subespaco (q 1)-dimensional
Seja v0 = N v V0 . E
Jv0 , q1 = hv0 , N v0 , . . . , N q2 v0 i = hN v, N 2 v, . . . , N q1 vi = JN v, q1 ,
que e um subespaco de V0 , e invariante por N e, da hipotese indutiva, conclumos que existe um subespaco K0 de V0 que
e invariante por N tal que JN v, q1 K0 = {0} e tal que V0 = JN v, q1 K0 .
Seja agora K1 := {x V | N x K0 }. Vamos provar a seguinte afirmacao:
Note que a afirmacao feita em I n ao significa que V = Jv, q K1 , pois os subespacos Jv, q e K1 podem ter uma
interseccao n
ao-trivial. Tem-se, porem, o seguinte:
A afirmacao III implica que K1 = (Jv, q K1 ) K0 K0 para algum subespaco K0 de K1 (nao necessariamente
nico). Seja agora K := K0 K0 . Note que K1 = (Jv, q K1 ) K e, portanto,
u
Provaremos que esse K possui as propriedades desejadas, ou seja, que V = Jv, q K, sendo K invariante por N . Isso e
feito em tres passos.
17 Extra
da, com modificaco
es, de [95].
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 405/2103
1. Jv, q e K sao subespacos disjuntos, ou seja, Jv, q K = {0}, pois, como K K1 , segue que K = K K1 e, portanto,
(9.109)
Jv, q K = Jv, q (K K1 ) = (Jv, q K1 ) K = {0} .
2. Jv, q K contem os vetores de Jv, q e de (Jv, q K1 ) K = K1 . Por I, isso implica que Jv, q K = V .
3. K e invariante por N , pois o fato que K K1 , implica, pela definicao de K1 , que N K N K1 K0 K.
A principal conseq
uencia do Teorema 9.22 e a seguinte.
Proposiao 9.31 Seja N Mat (C, n) uma matriz nilpotente de ndice q. Ent
c ao, existem
tais que
V = Jv1 , q1 Jvr , qr .
2
Prova. Se q = 1 ent
ao N = 0. Basta tomar r = n e escolher v1 , . . . , vn uma base qualquer em V . Os qj s sao todos
iguais a 1.
Consideremos ent ao q > 1 com N 6= 0. Tomemos q1 = q. Pelo Teorema 9.22, existem um vetor v1 6= 0 e um subespaco
K 1 , invariante por N tais que
V = Jv1 , q1 K 1 .
Como K 1 e invariante por N , podemos tambem dizer que a matriz N e nilpotente quando restrita a K 1 (j
a que e
claro que q2 q = q1 .
nilpotente em todo V ). Denotemos por q2 o ndice de N quando restrita a K 1 . E
Assim, podemos aplicar o Teorema 9.22 para a matriz N restrita a K 1 e concluir que existe v2 6= 0 em K 1 e um
subespaco K 2 de K 1 , invariante por N , tais que K 1 = Jv2 , q2 K 2 . Note que N q2 v2 = 0, pois v2 K 1 .
Com isso, temos
V = Jv1 , q1 Jv2 , q2 K 2 .
Novamente K 2 e invariante por N e, como K 2 e um subespaco de K 1 . O ndice de N em K 2 sera q3 q2 q1 .
O espaco V tem dimensao finita. Assim, a prova se conclu repetindo o procedimento acima um n
umero finito r de
vezes. Note que N qj vj = 0, pois N q1 v1 = 0, e vj K j1 para todo j = 2, . . . , r.
v1 , N v1 , . . . , N q1 1 v1 , v2 , N v2 , . . . , N q2 1 v2 , . . . , vr , N vr , . . . , N qr 1 vr
sao linearmente independentes e formam uma base em V . Vamos denota-los (na ordem em que aparecem acima) por
b1 , . . . , bn .
Note agora que, pela construcao, N bj = bj+1 , para j em cada um dos conjuntos
E. 9.34 Exerccio importante para compreender o que segue. Justifique as ultimas afirmacoes. 6
Isso significa que na base b1 , . . . , bn os elementos de matriz de N sao todos nulos exceto aqueles na forma Nj, j+1
com j em algum dos conjuntos listados em (9.110), em cujo caso Nj, j+1 = 1. Pictoriamente, isso diz-nos que na base
b1 , . . . , bn a matriz N assume uma forma genericamente ilustrada na Figura 9.4. Essa e a denominada forma can onica
0 1 (q 1) vezes
1
}
1
0
1
(q 1) vezes
2
0
}
1
0
N =
0
1
1
0
0 (q r 1) vezes
1
0
}
1
0
vemos que P 1 (P01 AP0 )P = (P0 P )1 A(P0 P ), sendo que, por (9.111),
1
P1 (1 1n1 + N1 ) P1 0 0
0 P21 (2 1n2 + N2 ) P1 0
P 1 (P01 AP0 )P =
.. .. .. ..
. . . .
0 0 Pr1 (r 1nr + Nr ) Pr
1 1n1 + N1c 0 0
0 2 1n2 + N2c 0
=
.
(9.113)
.. .. .. ..
. . . .
0 0 r 1nr + Nrc
A matriz final de (9.113) e denominada forma can onica da matriz A, ou forma can onica de Jordan da matriz A.
Como dissemos, toda matriz A assume essa forma numa certa base. Devido ao fato de todos as sub-matrizes nilpotentes
Njc terem a forma can onica, os u
nicos elementos n
ao-nulos da forma canonica da matriz A podem estar ou na diagonal
principal (sendo estes os autovalores de A, cada um aparecendo em uma fileira de nj elementos), ou na primeira supra-
diagonal, sendo que estes valem apenas 0 ou 1 e seguem as regras descritas acima. Isso e ilustrado na Figura 9.5,
A Figura 9.5, mostra a forma can onica de uma matriz que possui 4 autovalores distintos 1 , 2 , 3 e 4 . A primeira
supra-diagonal e formada pela seq
uencia de n
umeros
11 , . . . , 1a , 0, 11 , . . . , 1b , 0, 11 , . . . , 1c , 0, 11 , . . . , 1d , (9.114)
sendo que os ij assumem apenas os valores 0 ou 1, de acordo com as regras explicadas acima quando discutimos a forma
canonica de matrizes nilpotentes. Todos os elementos fora da diagonal principal e da primeira supradiagonal sao nulos.
O primeiro bloco e de dimensao (a + 1) (a + 1), o segundo bloco e de dimensao (b + 1) (b + 1) etc., sendo a + 1 a
multiplicidade algebrica de 1 , b + 1 a multiplicidade algebrica de 2 etc.
interessante notar que na primeira supra-diagonal, sempre ocorrem zeros nos pontos localizados fora dos blocos, ou
E
seja, nos pontos onde ocorrem transicoes entre dois autovalores distintos (indicados por setas na Figura 9.5). Esses sao
os zeros que ocorrem explicitamente na lista (9.114).
Por fim, comentamos que a forma can onica n
ao e exatamente u
nica, pois e possvel ainda fazer transformacoes de
similaridade que permutem os blocos de Jordan da matriz. Alem disso, dentro de cada subespaco invariante (onde cada
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 409/2103
bloco age) e possvel fazer certas permutacoes dos elementos da base, de modo a preservar a diagonal e permutar os i s
da primeira supradiagonal.
A condicao de N1 ter ndice q1 implica que e suficiente considerar os valores de p com m p < q1 , ou seja, p > m q1 .
A condicao de N2 ter ndice q2 implica que e suficiente considerar os valores de p com p < q2 . Assim, so podem ser
eventualmente n ao-nulos os termos da soma com m q1 < p < q2 . Se tivermos m q1 q2 (ou seja, m q1 + q2 ), essa
condicao e impossvel e todos os termos da soma do lado direito sao nulos, implicando que 1 N1 + 2 N2 e nilpotente de
ndice menor ou igual a m. Assim, o ndice de 1 N1 + 2 N2 e menor ou igual a q1 + q2 .
Prova. Seja A Mat (C, n). Para o caso k = 0,P lembremo-nos da convencao que A0 = 1. Assim, Tr(A0 ) = Tr(1) = n.
r
Mas no caso k = 0 o lado direito de (9.115) fica l=1 ml = n. Isso estabeleceu (9.115) para k = 0. Tomemos doravante
k > 0.
Seja P Mat (C, n) uma matriz inversvel que leva A `a sua forma de Jordan, ou seja, tal que P AP 1 = D + N com
D diagonal, N nilpotente e com DN = N D. Seja q ndice de N . E claro que para cada k N tem-se
k k
k k X k X k
P Ak P 1 = P AP 1 = D+N = Dkp N p = Dk + Dkp N p . (9.116)
p=0
p p=1
p
Afirmamos que cada termo da ultima somatoria (ou seja, aqueles termos com 1 p k) e uma matriz nilpotente. De
fato, para cada l N tem-se
l
Dkp N p = D(kp)l N pl
e se escolhermos l de sorte que pl q (e isso e sempre possvel para cada p 1, o fator N pl sera nulo, provando que
Dkp N p e nilpotente.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 410/2103
r
X
Tr Ak = Tr Dk = ml kl ,
l=1
completendo a prova.
Prova. Se A e nilpotente,
ent
ao todos os seus autovalores, sao nulos, assim como todos os autovalores de todas as suas
potencias. Logo, Tr Ak = 0 para todo k N.
Vamos agora supor que Tr Ak = 0 para todo k = 1, . . . , n. Sejam 1 , . . . , r os autovalores distintos de
A (naturalmente, com 1 r n) e sejam m1 , . . . , mr suas multiplicidades algebricas respectivas (naturalmente,
m1 + + mr = n).
Vamos agora, por contradicao, supor que A n
ao seja nilpotente. Pelo Corolario 9.5, p
agina 403, isso equivale a dizer
que ao menos um dos autovalores de A e n ao nulo. Digamos que este seja o autovalor r . Temos, assim que r 6= 0 e
que mr 1.
Note-se que se r = 1, ent
ao todos os autovalores de A seriam iguais (a , digamos) e teramos mr = n. Porem nesse
caso teramos Tr(A) = n, o que e imcompatvel com a hipotese que Tr(A) = 0, pois isso implicaria que = 0, ou
seja, que todos os autovalores de A sao nulos, o que implicaria, pelo Pelo Corolario 9.5, p
agina 403, que A e nilpotente.
Podemos, portanto, supor r > 1.
Pn k
Seja p(x) = k=1 k x um polinomio de grau menor ou igual a n e cujo termo constante e nulo. Teremos, pela
k
hip
otese que Tr A = 0 para todo k = 1, . . . , n, que
n n r
! r n
! r
X (9.115) X X X X X
0 = k Tr Ak = k ml kl = ml k kl = ml p(l ) . (9.117)
k=1 k=1 l=1 l=1 k=1 l=1
o
Vamos agora escolher p(x) = x(x 1 ) (x r1 ). Teremos, evidentemente, que: 1 o polinomio p e um polinomio de
grau r n cujo termo constante e nulo. 2o p(l ) = 0 para cada l = 1, . . . r1. 3o p(r ) = r (r 1 ) (r r1) 6= 0,
pois nenhum dos fatores do lado direito e nulo (j a que r 6= 0 e ja que os j s sao distintos). Para esse polinomio a
relacao (9.117) fica 0 = mr p(r ). Como p(r ) 6= 0, conclumos que mr = 0, uma contradicao com o fato que mr 1 que
por sua vez decorria da hip otese de A n
ao ser nilpotente.
k
Logo, a hipotese que Tr A = 0 para todo k = 1, . . . , n, implica que A e nilpotente, completando a prova.
Uma conseq uencia evidente
da Proposicao 9.32, acima, e que se para A Mat (C, n) valer que Tr Ak = 0 para cada
k = 1, . . . , n, entao Tr Ak = 0 para todo k 1. O proximo exerccio apresenta mais um color ario da Proposicao 9.32.
P k
Sugestao: prove que Tr ezA = n + k=1 zk! Tr Ak e analtica em z e use esse fato. Para a demonstrar a analiticidade,
k
prove (usando (9.115)) que Tr Ak n max |1 |, . . . , |r |
e use esse fato. 6
9.8.1 A Decomposi
cao Polar de Matrizes
bem conhecido o fato de que todo n
E umero complexo z pode ser escrito na forma polar z = |z|ei , onde |z| 0 e
[, ). Tem-se que |z| = zz e ei = z|z|1 . H a uma afirmacao analoga valida para matrizes A Mat (C, n),
a qual e muito u
til, e da qual trataremos nesta secao. Antes de enunciarmos esse resultado de forma mais precisa (o
Teorema da Decomposicao Polar, Teorema 9.23, abaixo), facamos algumas observacoes preliminares.
Seja A Mat (C, n) e seja a matriz A A. Notemos primeiramente que (A A) = A A = A A, ou seja, A A
e auto-adjunta. Pelo Teorema 9.14, p agina 384, e possvel encontrar um conjunto ortonormal {vk , k = 1, . . . , n} de
autovetores de A A, com autovalores dk , k = 1, . . . , n, respectivamente, sendo que a matriz
hh ii
P := v1 , . . . , vn (9.118)
(para a notacao, vide (9.9)) e unit aria e diagonaliza A A, ou seja, P (A A)P = D, sendo D a matriz diagonal D :=
diag (d1 , . . . , dn ), cujos elementos da diagonal sao os autovalores de A A. Os autovalores dk sao todos maiores ou iguais
a zero. De fato, se vk 6= 0 e um autovetor de A A com autovalor dk , teremos dk kvk k2 = dk hvk , vk iC = hvk , Bvk iC =
hvk , A Avk iC = hAvk , Avk iC = kAvk k2 . Logo, dk = kAvk k2 /kvk k2 0.
Com esses fatos `a mao, vamos definir uma matriz diagonal, que denotaremos sugestivamente por D1/2 , por D1/2 :=
2
diag ( d1 , . . . , dn ). Tem-se que D1/2 = D, uma propriedade obvia18 . Note-se tambem que D1/2 = D1/2 , pois
cada dk e real. Os n umeros n
ao-negativos d1 , . . . , dn sao freq
uentemente denominados valores singulares de A.
Definamos agora a matriz A A, por
A A := P D1/2 P . (9.119)
2
Essa matriz A A e auto-adjunta, pois A A = P D1/2 P = P D1/2 P = A A. Observemos que A A =
P (D1/2 )2 P = P DP = A A. Disso segue que
2
2
det A A = det A A = det(A A) = det(A ) det(A) = det(A) det(A) = | det(A)|2 .
Provamos assim que det A A = | det(A)| e, portanto, A A e inversvel se e somente se A o for.
Alguns autores denotam a matriz A A por |A|, por analogia com o modulo de um n umero complexo. Podemos
agora formular e demonstrar o resultado que procuramos:
Teorema 9.23 (Teorema da Decomposiao Polar) Seja A Mat (C, n). Ent
c aria U
ao, existe uma matriz unit
Mat (C, n) tal que
A = U A A . (9.120)
Se A e inversvel, ent
ao U e univocamente determinada. A representac
ao (9.120) e denominada representacao polar de
A. 2
18 Essa
n
ao nica matriz com essa propriedades, pois qualquer matriz do tipo diag ( d1 , . . . , dn ), com os sinais escolhidos
e a u
independentemente uns dos outros, tamb
em tem como quadrado a matriz D.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 412/2103
(para a notacao, vide (9.9)). Como {vk , k = 1, . . . , n} e {wk , k = 1, . . . , n} sao dois conjuntos ortonormais, segue que
P e Q sao matrizes unit arias (por que?) e, portanto, U tambem e unitaria.
E facil 1/2
ver que AP= QD , onde D 1/2
(9.121)
hh ii
= Av1 , . . . , Avr 0, . . . , 0
(9.122)
hhp p ii
= d1 w1 , . . . , dr wr 0, . . . , 0
(9.15)
hh ii
= w1 , . . . , wn D1/2 = QD1/2 .
(9.119)
Agora, de AP = QD1/2 , segue que A = QD1/2 P = U P D1/2 P = U A A, que e o que queramos provar.
Para mostrar que U e univocamentedeterminado se A for inversvel, suponhamos que exista U tal que A = U A A =
U A A. Como
comentamos acima, A A e inversvel se e somente se A o for. Logo, se A e inversvel, a igualdade
U A A = U A A implica U = U , estabelecendo a unicidade. Caso A n ao seja inversvel a arbitrariedade de U reside
na escolha dos vetores ortogonais {wk , k = r + 1, . . . , n}.
O seguinte corol
ario e elementar:
Teorema 9.24 Seja A Mat (C, n). Ent aria V Mat (C, n) tal que
ao, existe uma matriz unit
A = AA V . (9.123)
Se A e inversvel, ent
ao V e univocamente determinada. 2
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 413/2103
p
Prova.
Para a matriz A , (9.120) diz-nos
que A = U0 (A ) A = U
0 AA para alguma matriz unit
aria U0 . Como
AA e auto-adjunta, segue que A = AA U0 . Identificando V = U0 , obtemos o que desejamos.
O Teorema da Decomposicao Polar pode ser generalizado para abranger operadores limitados agindo em espacos
de Hilbert (vide Teorema 38.31, p
agina 1971) e mesmo para abranger operadores n
ao-limitados agindo em espacos de
Hilbert (vide [200]).
9.8.2 A Decomposi
cao em Valores Singulares
O Teorema da Decomposicao Polar, Teorema 9.23, p
agina 411, tem um corol
ario de particular interesse.
Teorema 9.25 (Teorema da Decomposi cao em Valores Singulares) Seja A Mat (C, n). Ent
ao, existem ma-
arias V e W Mat (C, n) tais que
trizes unit
A = V SW , (9.124)
onde S Mat (C, n) e uma matriz diagonal cujos elementos diagonais s
ao os valores singulares de A, ou seja, os
autovalores de A A. 2
O Teorema 9.25 pode ser generalizado para matrizes retangulares. No que segue, m, n N e usaremos as definicoes
(9.3), (9.7) e a relacao (9.8) (vide p
agina 341) que permitem mapear injetivamente matrizes retangulares em certas
matrizes quadradas.
Teorema 9.26 (Teorema da Decomposi cao em Valores Singulares. Geral) Seja A Mat (C, m, n). Ent
ao,
arias V e W Mat (C, m + n) tais que
existem matrizes unit
Prova. A matriz A Mat (C, m + n) e uma matriz quadrada e, pelo Teorema 9.25, possui uma decomposicao em valores
singulares A = V SW com V e W Mat (C, m + n), unit arias, e S Mat (C, m + n) sendo uma matriz diagonal cujos
elementos diagonais sao os valores singulares de A . Com isso, (9.125) segue de (9.8).
Na Secao 9.9, p
agina 418, estudaremos uma aplicacao do Teorema da Decomposicao em Valores Singulares, a saber,
ao estudo da chamada Pseudo-Inversa de Moore-Penrose e suas aplicacoes em problemas de optimizacao linear.
A decomposicao em valores singulares apresentada acima admite uma generalizacao para operadores compactos agindo
em espacos de Hilbert. Vide Teorema 38.39, p agina 1995.
Teorema 9.27 (Teorema da Decomposi ao de Schur) Seja A Mat (C, n). Ent
c ao, existe U Mat (C, n),
aria, e S Mat (C, n), triangular superior, tais que A = U SU . Os elementos da diagonal de S s
unit ao os auto-
valores de A. 2
Prova do Corolario 9.7. Pelo Teorema 9.27, a matriz A pode ser escrita da forma A = V SV , com V unit
aria e S
triangular superior. Logo, A = V S V . Porem, S I e triangular inferior.
Tambem pelo Teorema 9.27, os autovalores de A sao os elementos diagonais de S, que sao o complexo conjugado
dos elementos diagonais de S I. Mas os autovalores de A sao o complexo conjugado dos autovalores de A (pela
Proposicao 9.24, p
agina 382) e, portanto, sao os elementos diagonais de I.
Prova do Teorema 9.27. Comecemos observando que se A = U SU com U unit ario, ent
ao A e S tem o mesmo polinomio
caracterstico e, portanto, os mesmos autovalores, incluindo a multiplicidade
Qn (vide a discuss
ao em torno de (9.32), p
agina
352). Mas o polinomio caracterstico de S e pS (x) = det(x1 S) = k=1 (x Skk ), pois S e triangular superior e,
portanto, os autovalores de S sao os elementos de sua diagonal. Passemos `a demonstracao da afirmativa principal, ou
seja, que A = U SU com U unit ario e S triangular superior.
(1)
hh Seja n 2 eii v1 um autovetor de A com autovalor 1 e kv1 k = 1. Seja U aria da forma U (1) =
uma matriz unit
(1) (1) (1)
u1 , . . . , un com u1 = v1 , ou seja, cuja primeira coluna e o vetor v1 . Ent
ao,
(1) (1)
1 b1 bn1
0 (1) (1)
(9.12)
hh
(1)
ii hh
(1) (1)
ii a11 a1(n1)
AU (1) = Au1 , . . . , Au(1)
n = u
1 1 , Au 2 , . . . , Au (1)
n = U (1)
.
,
.. .. .. ..
. . .
(1) (1)
0 a(n1)1 a(n1)(n1)
(1) (1)
para certos bk e akl , k, l = 1, . . . , n 1, onde
n1
X
(1) (1) (1) (1) (1)
Auk = bk u 1 + alk ul+1 , k = 2, . . . , n . (9.126)
l=1
sendo o lado direito uma matriz triangular superior. Para n > 2 procedemos por inducao. Supondo a afirmacao valida
(1) (1)
para matrizes (n 1) (n 1), ent ao existe uma matriz unitaria V Mat (C, n 1) tal que
V A T V = S , sendo
aria U (2) Mat (C, n) por U (2) := 0 1 0n1
S (1) triangular superior. Assim, definindo a matriz unit V
, teremos por
n1
(9.127),
U (1) U (2) AU (1) U (2) = U (2) U (1) AU (1) U (2)
(1) T
1 0Tn1 1 b 1 0Tn1
=
0n1 V
0n1 A (1)
0n1 V
T (1) T
1 V b
=
0n1 V A(1) V
T (1) T
1 V b
=
,
0n1 S (1)
Coment
ario. Toda matriz triangular superior S pode ser escrita na forma D + N , sendo D a matriz diagonal formada pela diagonal de
S (ou seja, Dii = Sii para todo i = 1, . . . , n) e N
e nilpotente (pois
e triangular superior, mas com diagonal nula). Assim, o Teorema 9.27
afirma que toda matriz A pode ser levada ` a forma D + N por uma transformaca o de similaridade unit
aria. Por
em, o Teorema 9.27 n
ao garante
(nem e verdade, em geral) que D e N comutem. Assim, o Teorema 9.27 e distinto do Teorema de Jordan, Teorema 9.21, pagina 402.
O Teorema 9.27 tem por corol ario o seguinte teorema, ja provado anteriormente por outros meios (Teorema 9.14,
p
agina 384, e Proposicao 9.26, p
agina 386).
Teorema 9.28 Uma matriz A Mat (C, n) e auto-adjunta, se e somente se for diagonaliz
avel por uma transformac
ao
de similaridade unit
aria e se seus autovalores forem reais. 2
Prova. Pelo Teorema 9.27, existe uma matriz unit aria U tal que U AU = S, sendo S triangular superior cujos elementos
diagonais sao os autovalores de A. Assim, se A = A , segue que S = (U AU ) = U A U = U AU = S. Mas para uma
matriz triangular superior S, a igualdade S = S implica que S e diagonal e os elementos da diagonal sao reais.
Reciprocamente, se A Mat (C, n) e diagonalizavel por uma transformacao de similaridade unit
aria e seus autovalores
aria e D diagonal real com U AU = D, ent
sao reais, ou seja, existe U unit ao A = U DU e A = U D U . Como D e
diagonal e real, vale D = D e, portanto, A = U DU = A, provando que A e auto-adjunta.
Pelo Teorema 9.27, se A Mat (C, n) e uma matriz normal e U AU = S, com U unit aria e S triangular superior,
ent
ao S e normal (justifique!). Assim, junto com o Lema 9.4, p
agina 395, provamos o seguinte:
Teorema 9.29 Uma matriz A Mat (C, n) e normal se e somente se for diagonaliz
avel por uma transformac
ao de
similaridade unit
aria. 2
9.8.4 A Decomposi
cao QR e a Decomposi
cao de Iwasawa (KAN)
O prop osito desta secao e apresentar a chamada decomposicao de Iwasawa20 , ou decomposicao KAN 21 , de matrizes
inversveis, Teorema 9.31. Esse teorema tem relacao com a teoria dos grupos de Lie, como discutiremos brevemente
ao final. Os dois primeiros resultados preparat orios abaixo, Proposicao 9.33 e Teorema 9.30 (Decomposicao QR), tem
interesse por si so.
Proposi ao 9.33 Seja R Mat (C, n) uma matriz triangular superior cujos elementos diagonais s
c ao n
ao-nulos (i.e.,
ao, podemos escrever R = AN , onde A Mat (C, n) e a matriz diagonal formada com a diagonal de
R e inversvel). Ent
R: A = diag (R11 , . . . , Rnn ), e N Mat (C, n) e uma matriz triangular superior cujos elementos diagonais s
ao iguais
a 1. 2
O estudante deve comparar as afirmacoes do teorema a seguir com o Teorema da Decomposicao Polar, Teorema 9.23,
p
agina 411, e com o Teorema da Decomposicao de Schur, Teorema 9.27, p agina 414.
Teorema 9.30 (Teorema da Decomposi ao QR) Seja M Mat (C, n) uma matriz inversvel. Ent
c ao, M pode ser
escrita na forma M = QR, onde Q Mat (C, n) e unit aria e R Mat (C, n) e triangular superior, sendo que os
elementos diagonais de R s
ao estritamente positivos.
Prova do Teorema 9.30. Seja M = m1 , . . . , mn . Como M e inversvel, os vetores mk , k = 1, . . . , n, sao linearmente
independentes, ou seja, formam uma base em Cn . Podemos, portanto, usar o procedimento de ortogonalizacao de Gram-
Schmidt (vide Secao 3.3, p agina 205) e construir uma nova base ortonormal de vetores qj , j = 1, . . . , n, a partir dos
vetores ml , l = 1, . . . , n. Tais vetores sao definidos por
j1
X
mj hql , mj iC ql
m1 l=1
q1 = , qj =
, j = 2, . . . , n .
km1 k
j1
X
mj hql , mj iC ql
l=1
Como e facil verificar, tem-se hqi , qj iC = i j para todos i, j = 1, . . . , n. As relacoes acima implicam trivialmente
j1
j1
X
X
m1 = q1 km1 k , mj = qj
mj hql , mj iC ql
+ ql hql , mj iC , j = 2, . . . , n ,
l=1 l=1
20 Kenkichi Iwasawa (19171998).
21 Infelizmente n
ao h
a uniformidade na literatura quanto `
a denominaca
o dessa decomposica
o. Vamos cham a-la de decomposica
o de Iwasawa
pois a mesma e um caso particular (para o grupo GL(C, n) das matrizes complexas n n inversveis) de um teorema mais geral da teoria dos
grupos de Lie, denominado Teorema da Decomposica o de Iwasawa, que afirma que todo elemento g de um grupo de Lie semi-simples pode
ser escrito como produto de um elemento k de um subgrupo compacto maximal, por um elemento a de um subgrupo Abeliano (real) e por
um elemento n de um subgrupo nilpotente (ou seja, cuja algebra de Lie
e nilpotente): g = kan. Em Alem ao, as palavras compacto, Abeliano
e nilpotente s
ao Kompakt, Abelsch e Nilpotent, da a denominaca o decomposicao KAN para essa decomposicao, denominacao essa
encontrada em alguns textos.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 417/2103
com
j1
X
R11 = km1 k , Rjj =
mj hql , mj iC ql
, j = 2, . . . , n .
l=1
Prova. A afirmacao que M pode ser escrita na forma M = KAN , com K, A e N com as propriedades acima segue
imediatamente da Proposicao 9.33 e do Teorema 9.30, dispensando demonstracao. O u
nico ponto a se demonstrar e a
unicidade dessa decomposicao.
Vamos entao supor que para algum M Mat (C, n) existam K, K0 Mat (C, n), matrizes unit arias, A, A0
Mat (C, n), matrizes diagonais, tendo elementos diagonais estritamente positivos, e N, N0 Mat (C, n) matrizes
triangulares superiores cujos elementos diagonais sao iguais a 1, tais que M = KAN = K0 A0 N0 .
Segue imediatamente disso que K01 K = A0 N0 N 1 A1 . O lado esquerdo dessa igualdade e uma matriz unit aria
e, portanto, normal. O lado direito e uma matriz triangular superior (pela Proposicao 9.29, p
agina 394). Pelo Lema
agina 395, A0 N0 N 1 A1 deve ser uma matriz diagonal D. Assim, temos que K01 K = D e A0 N0 N 1 A1 = D.
9.4, p
aria. A segunda diz-nos que N0 N 1 = A1
A primeira dessas relacoes diz-nos que D e unit 0 DA, ou seja, N0 = D0 N ,
1
onde D0 := A0 DA e diagonal (por ser o produto de tres matrizes diagonais). Agora, N e N0 sao matrizes triangulares
superiores cujos elementos diagonais sao iguais a 1. Portanto, a relacao N0 = D0 N com D0 diagonal so e possvel se
D0 = 1 (de outra forma haveria elementos na diagonal de N ou de N0 diferentes de 1), estabelecendo que N = N0 .
0 DA = 1, ou seja, D = A0 A
Provamos, assim, que A1 1
. Agora, A e A0 sao diagonais, tendo na diagonal n
umeros
reais positivos. Logo, D tambem e diagonal e tem na diagonal numeros reais positivos e, portanto, D = D . Como
aria (como observado linhas acima), segue que D2 = 1. Logo, os elementos Dkk da diagonal de D satisfazem
D e unit
Dkk = 1, para todo k = 1, . . . , n (os sinais podendo ser distintos para ks distintos). Agora, como A0 = DA e
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 418/2103
1. ABA = A,
2. BAB = B.
a de notar que se A Mat (C, n) e uma matriz quadrada inversvel, sua inversa A1 satisfaz trivialmente as
O leitor h
propriedades definidoras da inversa generalizada. Provaremos mais adiante que toda matriz A Mat (C, m , n) possui
ao menos uma inversa generalizada, a saber, a pseudo-inversa de Moore-Penrose. Com a generalidade da definicao acima,
porem, n
ao se pode garantir a unicidade da inversa generalizada de A.
Com a amplitude da definicao acima, a nocao inversa generalizada n
ao e muito u
til, mas certos tipos mais especficos
de inversas generalizadas sao de interesse em certos tipos de problemas. No que segue discutiremos a chamada pseudo-
inversa de Moore-Penrose e seu emprego em problemas de optimizacao linear.
Defini
c
ao da pseudo-inversa de Moore-Penrose de uma matriz
Sejam m, n N e seja uma matriz (nao necessariamente quadrada) A Mat (C, m , n). Uma matriz A+
Mat (C, n, m) e dita ser uma pseudo-inversa de Moore-Penrose de A se satisfizer as seguintes condicoes:
1. AA+ A = A,
2. A+ AA+ = A+ ,
3. AA+ Mat (C, m) e A+ A Mat (C, n) sao auto-adjuntas.
a de notar que se A Mat (C, n) e uma matriz quadrada inversvel, sua inversa A1 satisfaz trivialmente
O leitor h
as propriedades definidoras da pseudo-inversa de Moore-Penrose.
A nocao de pseudo-inversa descrita acima foi introduzida por E. H. Moore22 em 1920 e redescoberta por R. Penrose23
em 1955. O conceito de pseudo-inversa de Moore-Penrose e u til para a resolucao de problemas de optimizacao lineares,
22 Eliakim Hastings Moore (18621932).
23 Sir Roger Penrose (1931).
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 419/2103
ou seja, `a determinacao da melhor aproximacao em termos de mnimos quadrados `a solucao de sistemas lineares.
Trataremos desses aspectos mais adiante (vide Teorema 9.34, p
agina 427), apos demonstrarmos resultados sobre existencia
e unicidade. Outros desenvolvimentos da teoria das pseudo-inversas de Moore-Penrose e suas aplicacoes, podem ser
encontrados em [24]. Vide tambem as referencias originais: E. H. Moore, On the reciprocal of the general algebraic
matrix. Bulletin of the American Mathematical Society 26, 394395 (1920); R. Penrose, A generalized inverse for
matrices, Proceedings of the Cambridge Philosophical Society 51, 406413 (1955) e R. Penrose, On best approximate
solution of linear matrix equations, Proceedings of the Cambridge Philosophical Society 52, 1719 (1956).
Nas paginas que seguem demonstraremos que toda a matriz A Mat (C, m, n) possui uma pseudo-inversa de Moore-
Penrose, a qual e u
nica. Comecamos com a quest ao da unicidade para em seguida tratarmos de propriedades gerais e,
posteriormente, da quest ao da existencia. As aplicacoes em problemas de optimizacao sao discutidas na Secao 9.9.2,
p
agina 426.
A exist
encia da pseudo-inversa de Moore-Penrose
Apresentaremos no que seguira duas demonstracoes da existencia da pseudo-inversa de Moore-Penrose de matrizes
arbitrarias de Mat (C, m, n). Ambas as demonstracoes permitem produzir algoritmos para a determinacao explcita
da pseudo-inversa de Moore-Penrose. Uma primeira demonstracao sera apresentada na Secao 9.9.1.1, p
agina 423, (vide
o Teorema 9.32, p agina 424, e o Teorema 9.33, p
agina 425) e decorrera de diversos resultados que estabeleceremos a
seguir. Destacamos particularmente as expressoes (9.150) e (9.151), as quais permitem calcular a pseudo-inversa de
Moore-Penrose A+ de uma matriz A Mat (C, m, n) diretamente em termos de A, A e dos autovalores de AA ou de
A A (ou seja, dos valores singulares de A).
Uma segunda demonstracao sera apresentada na Secao 9.9.3, p
agina 427, e para a mesma faremos uso da decomposicao
em valores singulares apresentada no Teorema 9.25, p agina 413. A essa segunda demonstracao da Secao 9.9.3 o leitor
interessado poder
a passar sem perdas neste ponto. Os resultados da Secao 9.9.3, porem, n ao serao usados no que segue.
Essa segunda demonstracao e a mais freq
uentemente apresentada na literatura, mas cremos que as expressoes (9.150) e
(9.151) fornecem um metodo algoritmicamente mais simples para a determinacao da pseudo-inversa de Moore-Penrose
de uma matriz geral.
Observe-se que se z C, podemos considerar z como uma matriz complexa 1 1, ou seja, como elemento de
0, z = 0
+
Mat (C, 1, 1) e, com isso, obtemos do exposto acima (z) = .
1 , z 6= 0
z
E. 9.39 Exerccio. Seja A Mat (C, m, n). Mostre que se (AA )1 existe, entao A+ = A (AA )1 . Mostre que se
(A A)1 existe, entao A+ = (A A)1 A . Sugestao: em ambos os casos, verifique que o lado direito satisfaz as propriedades
definidoras da pseudo-inversa de Moore-Penrose e use a unicidade. 6
Os resultados do Exerccio E. 9.39 podem ser generalizados para situacoes em que AA ou A A n ao sao inversveis
+ +
agina 421 valem sempre as relacoes A+ = A AA = A A A . Tambem
pois, como veremos na Proposicao 9.35, p
o Teorema 9.32, p
agina 424, apresentar a uma generalizacao dos resultados do Exerccio E. 9.39, mostrando uma outra
forma de proceder quando AA ou A A n ao forem inversveis.
Os exerccios que seguem contem aplicacoes dos resultados do Exerccio E. 9.39.
2 0
E. 9.40 Exerccio. Seja A = ( 20 0i 1i ), com A = 0 i . Mostre que AA possui inversa, mas que A A nao possui.
i 1 4 2i
Usando o Exerccio E. 9.39, calcule a pseudo-inversa de Moore-Penrose A+ de A, obtendo A+ = 91 1 5i . Verifique que
i 4
essa A+ satisfaz de fato as propriedades definidoras da pseudo-inversa de Moore-Penrose. 6
1 2
1 0 0
E. 9.41 Exerccio. Seja A = 0 i , com A = . Mostre que AA nao possui inversa, mas que A A possui.
2 i 3
03
1 10 2i 6
Usando o Exerccio E. 9.39, calcule a pseudo-inversa de Moore-Penrose A+ de A, obtendo A+ = 10 0 i 3 . Verifique
que essa A+ satisfaz de fato as propriedades definidoras da pseudo-inversa de Moore-Penrose. 6
1. (A+ )+ = A,
T + +
2. (A+ ) = AT uentemente, (A+ ) = (A )+ ,
, A+ = A e, conseq
3. (zA)+ = z 1 A+ para todo z C n
ao-nulo.
de se observar, porem, que se A Mat (C, m, n) e B Mat (C, n, p), nem sempre (AB)+ e dada por B + A+ ,
E
ao contrario do que ocorre com a inversa usual (para o caso m = n = p). Uma excecao relevante sera encontrada na
Proposicao 9.35, p
agina 421.
A seguinte proposicao lista mais algumas propriedades importantes, algumas das quais usaremos logo adiante:
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 421/2103
Proposi
c
ao 9.34 A pseudo-inversa de Moore-Penrose satisfaz as seguintes relac
oes
A+ = A+ (A+ ) A , (9.129)
A = A A (A+ ) , (9.130)
A = A A A+ , (9.131)
A+ = A (A+ ) A+ , (9.132)
A = (A+ ) A A , (9.133)
A = A+ A A , (9.134)
Das relacoes acima, a mais relevante talvez seja a relacao (9.131), pois faremos uso importante dela na demonstracao
da Proposicao 9.34, p
agina 427, que trata da aplicacao da pseudo-inversa de Moore-Penrose a problemas de optimizacao
linear.
Prova da Proposicao 9.34. Por AA+ ser auto-adjunta, vale AA+ = (AA+ ) = (A+ ) A . Multiplicando-se `a esquerda por
A+ obtemos A+ = A+ (A+ ) A , provando (9.129). Substituindo-se A A+ e usando o fato que A = (A+ )+ , obtem-se
de (9.129) que A = AA (A+ ) , que e a relacao (9.130). Substituindo-se A A e usando o fato que (A )+ = (A+ ) ,
obtem-se de (9.130) que A = A AA+ que e a relacao (9.131).
As relacoes (9.132)(9.134) podem ser obtidas analogamente a partir do fato de A+ A ser tambem auto-adjunta, mas
e mais facil obte-las substituindo-se A A em (9.129)(9.131) e tomando-se o adjunto das expressoes resultantes.
Da Proposicao 9.34 podem ser obtidos varios resultados de interesse, alguns dos quais encontram-se reunidos na
proposicao que segue.
Proposi
c
ao 9.35 Para a pseudo-inversa de Moore-Penrose vale
+ +
AA = A A+ (9.135)
(9.130) (9.134)
AA = A A (A+ ) A = A A (A+ ) A+ A A = (AA )B(AA ) ,
+
onde usamos tambem que A = A+ . Tem-se tambem que
+ (9.129) (9.132)
B = A A+ = (A+ ) A+ A A+ = (A+ ) A+ A A (A+ ) A+ = B A A B .
que tambem e auto-adjunto, por definicao. Os fatos expostos nas linhas acima provaram que B e a pseudo-inversa de
Moore-Penrose de AA , provando (9.135). Substituindo-se A A em (9.135) obtem-se tambem
+ +
A A = A+ A . (9.137)
Observe-se agora que
+ (9.135) + (9.132)
A AA = A A A+ = A+
e que
+ (9.137) + (9.129)
A A A = A+ A A = A+ ,
provando (9.136).
A pseudo-inversa de Moore-Penrose, o n
ucleo e a imagem de uma matriz
Definimos o n ucleo e a imagem (range) de uma matriz A Mat (C, m, n) por Ker (A) := {u Cn | Au = 0} e
Ran (A) := {Au, u Cn }, respectivamente. E evidente que Ker (A) e um subespaco linear de Cn e que Ran (A) e um
m
subespaco linear de C .
A seguinte proposicao sera usada logo adiante, mas e de interesse por si so.
Proposi ao 9.36 Seja A Mat (C, m, n) e sejam definidos P1 := 1n A+ A Mat (C, n) e P2 := 1m AA+
c
Mat (C, n). Ent
ao, valem as seguintes afirmac
oes:
Prova. Que P1 e P2 sao auto-adjuntos segue do fato de AA+ e A+ A o serem. Tem-se tambem que (P1 )2 = 1 2A+ A +
A+ AA+ A = 1 2A+ A + A+ A = 1 A+ A = P1 e analogamente para P2 . Isso provou o item 1.
Seja x Ker (A). Como Ran (P1 ) e um subespaco linear fechado de Cn , o Teorema do Melhor Aproximante e o
Teorema da Decomposicao Ortogonal (que neste texto sao apresentados com toda generalidade no contexto de espacos
de Hilbert, como Cm na forma do Teorema 37.1, p agina 1831, e do Teorema 37.2, p agina 1833, respectivamente)
garantem-nos a existencia de um u nico z0 Ran (P1 ) tal que kx z0 kCm e mnimo. Alem disso, x z0 e ortogonal a
Ran (P1 ). Assim, existe ao menos um y0 Cm tal que x P1 y0 e ortogonal a todo elemento da forma P1 y, ou seja,
hx P1 y0 , P1 yiC = 0 para todo y Cm , o que implica hP1 (x P1 y0 ), yiC = 0 para todo y Cm , o que por sua vez
implica P1 (x P1 y0 ) = 0. Isso, porem, afirma que P1 x = P1 y0 . Como x Ker (A) vale P1 x = x (pela definicao de P1 ).
Provamos portanto que se x Ker (A) ent ao x Ran (P1 ), estabelecendo que Ker (A) Ran (P1 ). Por outro lado, o
fato que AP1 = A(1 A+ A) = A A = 0 implica que Ran (P1 ) Ker (A), provando que Ran (P1 ) = Ker (A).
ao z = A+ Az, provando que z Ran (A+ ). Isso provou que Ker (P1 ) Ran (A+ ). Por outro
Se z Ker (P1 ), ent
ao existe v Cm tal que u = A+ v. Logo, P1 u = (1n A+ A)A+ v = (A+ A+ AA+ )v = 0,
lado, se u Ran (A+ ) ent
provando que u Ker (P1 ) e que Ran (A+ ) Ker (P1 ). Isso estabeleceu que Ker (P1 ) = Ran (A+ ).
P2 e obtida de P1 com a substituicao A A+ (lembrando-se que (A+ )+ = A). Logo, os resultados de acima implicam
que Ran (P2 ) = Ker (A+ ) e que Ker (P2 ) = Ran (A). Isso provou o item 2.
ao hy, M xiC = hM y, xiC para todos x, y Cp . Essa
Se M Mat (C, p) (com p N, arbitrario) e auto-adjunta, ent
relacao torna evidente que Ker (M ) = Ran (M ) (justifique!). Com isso o item 3 segue do item 2 tomando-se M = P1 e
M = P2 . O item 4 e evidente pelo item 3.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 423/2103
E. 9.42 Exerccio. Calcule P1 e P2 para o exemplo do Exerccio E. 9.40, pagina 420, e para o exemplo do Exerccio E.
9.41, pagina 420. 6
9.9.1.1 A Regularizac
ao de Tikhonov. Exist
encia
agina 420, vimos que se (AA )1 existe, ent
No Exerccio E. 9.39, p ao A+ = A (AA )1 e que se (A A)1 existe, ent
ao
+ 1
A = (A A) A . No caso de essas inversas n ao existirem h
a um procedimento alternativo que tambem permite obter
A+ . Sabemos da Proposicao 9.6, p agina 352, que mesmo se (AA )1 n ao existir, a matriz AA + 1 sera invertvel
para todo C n ao-nulo com || pequeno o suficiente. Isso permite conjecturar que as expressoes A (AA + 1)1
e (A A + 1) A , que est
1
ao bem definidas para 6= 0 com || pequeno, convergem a A+ quando tomamos o limite
0. Como veremos no que segue, essa conjectura e correta.
Pelo dito acima, podemos substituir as matrizes AA ou A A, caso sejam singulares, pelas matrizes inversveis AA +
1 ou A A + 1 com 6= 0 com || pequeno. Esse procedimento de regularizacao (que envolve a substituicao provisoria
ao de Tikhonov24 , em honra ao matematico que
de uma expressao singular por outra regular) e denominado regularizac
25
desenvolveu essas ideias no contexto de equacoes integrais .
Nosso primeiro resultado consiste em provar que os limites descritos acima de fato existem e sao iguais, o que sera
feito nos dois lemas que seguem.
Lema 9.9 Seja A Mat (C, m, n) e seja C tal que AA + 1m e A A + 1n sejam inversveis (i.e., 6
ao, A (AA + 1m )1 = (A A + 1n )1 A .
(AA ) (A A), um conjunto finito). Ent 2
Lema 9.10 Para toda A Mat (C, m, n) os limites lim A (AA + 1m )1 e lim (A A + 1n )1 A existem e s
ao iguais
0 0
(pelo Lema 9.9), definindo um elemento de Mat (C, n, m). 2
Prova do Lema 9.10. Notemos primeiramente que A e uma matriz identicamente nula se e somente se AA ou A A o
forem. De fato, se, por exemplo, A A = 0, valera para todo vetor x que 0 = hx, A AxiC = hAx, AxiC = kAxk2 ,
provando que A = 0. Como a afirmacao a ser provada e evidente se A for nula, suporemos no que segue que AA e A A
n
ao sao nulas.
A matriz AA Mat (C, m) e, evidentemente, auto-adjunta. Sejam 1 , . . . , r seus autovalores distintos. Pelo
Teorema Espectral para operadores auto-adjuntos (vide Teorema 9.6, p
agina 369 e Teorema 9.14, p agina 384) podemos
escrever r
X
AA = a Ea , (9.138)
a=1
Pr
onde Ea sao os projetores espectrais de AA e satisfazem Ea Eb = ab Ea , Ea = Ea e a=1 Ea = 1m . Logo,
r
X
AA + 1m = (a + )Ea
a=1
A E1 = 0 (9.140)
agina 423, o limite lim (A A + 1n )1 A tambem existe e coincide com lim A (AA + 1m )1 .
Pelo Lema 9.9, p
0 0
A principal conseq
uencia e o seguinte resultado:
Teorema 9.32 (Regularizaao de Tikhonov) Para toda A Mat (C, m, n) valem
c
1
A+ = lim A AA + 1m (9.142)
0
e 1
A+ = lim A A + 1n A . (9.143)
0
Como a existencia dos limites acima foi estabelecida para matrizes arbitrarias no Lema 9.10, p
agina 423, o Teorema
9.32 contem uma prova geral de existencia da pseudo-inversa de Moore-Penrose.
Prova do Teorema 9.32. As afirmacoes a serem provadas sao evidentes caso A = 0mn pois, como ja vimos (0mn )+ = 0nm .
Assim, assumiremos no que segue que A e n ao nula, o que equivale, pelo exposto no incio da prova do Lema 9.10, a
supor que AA e A A nao sao nulas.
a dois casos a se considerar 1. AA n
Pelos Lemas 9.9 e 9.10 e suficiente demonstrar (9.142). H ao tem auto-valor nulo
e 2. AA tem auto-valor nulo. No caso 1., vimos em (9.139), na prova do Lema 9.10 (e com a notacao la estabelecida),
que
r
1 X 1
lim A AA + 1m = A Ea =: B .
0
a=1 a
Note-se agora que
r r r
! r Xr r
X 1 X 1 X X 1 X
AB = AA Ea = b Eb Ea = b ab Ea = Ea = 1m , (9.144)
a=1 a
a=1 a a=1
a a=1
b=1 b=1
que e tambem auto-adjunta, pois a R para todo a (por serem autovalores de uma matriz auto-adjunta) e pelo fato
de (A Ea A) = A Ea A para todo a, j
a que Ea = Ea .
De (9.144) segue que ABA = A. De (9.145) segue que
r
! r ! r Xr
X 1 X 1
X 1
BAB = A Ea A A Eb = A Ea (AA )Eb .
a=1 a
b a=1
a b
b=1 b=1
Agora, pela decomposicao espectral (9.138) de AA , segue que (AA )Eb = b Eb . Logo,
r X r r
! r
X 1 X 1 X
BAB = A Ea Eb = A Ea Eb = B.
a=1 b=1 a
a=1 a b=1
| {z }
1m
Usando o fato que (AA )Ea = a Ea , o qual segue da decomposicao espectral (9.138) de AA , obtem-se
r r r
X 1 X 1 X
AB = AA Ea = a Ea = Ea = 1m E1 , (9.146)
a=2 a
a=2 a a=2
pois Ea E1 = 0 para a 6= 1. Isso demonstrou que BAB = B. Assim, estabelecemos que A = A+ tambem no caso em que
AA tem autovalor nulo, completando a prova de (9.142).
Ps
Analogamente, seja A A = b=1 b Fb a representac ao espectral de A A, onde {1 , . . . , s } R e o conjunto dos
autovalores distintos de A A e Fb os correspondentes projetores espectrais auto-adjuntos. Ent ao, vale tambem
s
+
X 1
A = Fb A . (9.149)
b=1
b
b 6=0
s s
X 1 Y
A+ A A l 1n A .
= s (9.151)
b=1
Y l=1
b 6=0 b (b l ) l6=b
l=1
l6=b
As expressoes (9.150) e (9.151) fornecem mais um algoritmo geral para o c omputo da pseudo-inversa de Moore-
Penrose, o qual pode ser de implementacao simples, pois requer apenas a determinacao dos autovalores de AA ou de
A A.
Prova do Teorema 9.33. A igualdade (9.148) foi provada durante a demonstracao do Teorema 9.32 (vide (9.139) e (9.141)).
A relacao (9.149) pode ser provada analogamente, mas segue mais facilmente do truque ja mencionado de usar (9.148),
trocando A A e tomando-se o adjunto da expressao obtida. As relacoes (9.150) e (9.151) seguem da Proposicao 9.18,
p
agina 371, particularmente de (9.56).
E. 9.43 Exerccio. Usando (9.150) ou (9.151) reobtenha as matrizes A+ dos Exerccios E. 9.38, E. 9.40 e E. 9.41. 6
k kCm , ou seja, em termos de mnimos quadrados, os melhores aproximantes ao que seria a solucao de (9.152). Um tal
problema e por vezes dito ser um problema de optimizac ao linear. Esse problema pode ser tratado com o uso da nocao
de pseudo-inversa de Moore-Penrose, a qual permite caracterizar precisamente o conjunto dos vetores x que minimizam
kAx ykCm . A isso dedicaremos as linhas que seguem, sendo o principal resultado condensado no seguinte teorema:
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 427/2103
Teorema 9.34 (Optimiza cao Linear) Sejam A Mat (C, m, n) e y Cm dados. Entao, a colec
ao de todos vetores
n
ao Cn x 7 kAx ykCm [0, ) assume um mnimo absoluto coincide com o conjunto
de C para os quais a aplicac
n o
A+ y + Ker (A) = A+ y + 1n A+ A z, z Cn . (9.153)
A Ax0 = A y . (9.154)
(9.131)
Agora, a relacao (9.131) mostra-nos que x0 = A+ y satisfaz (9.154), pois A AA+ y = A y. Assim, conclumos que
o conjunto de todos x Cn que satisfazem a condicao de kAx ykCm ser mnimo e composto por todos os vetores da
forma A+ y + x1 com x1 Ker (A). Pela Proposicao 9.36, p agina 422, x1 e da forma x1 = (1n A+ A)z para algum
n
z C , completando a prova.
E. 9.44 Exerccio. Usando o Exerccio E. 9.40, pagina 420, determine o conjunto dos melhores aproximantes x C3 `a
1
solucao da equacao linear Ax = y com A = ( 20 0i 1i ) e y = 2i . Para tais vetores minimizantes x, calcule kAx ykC . 6
O exerccio que segue envolve uma situacao menos trivial que a do exerccio anterior, pois trata de um sistema linear
sub-determinado e que n ao tem solucao.
9.9.3 Exist
encia e Decomposi
cao em Valores Singulares
Passemos agora a uma segunda demonstracao da existencia da pseudo-inversa de Moore-Penrose de uma matriz A
Mat (C, m, n) geral, fazendo uso aqui do Teorema da Decomposicao em Valores Singulares, Teorema 9.25, p
agina 413.
Trataremos primeiramente de matrizes quadradas para depois passarmos ao caso de matrizes nao-quadradas.
de D e dada pela matriz diagonal D+ Mat (C, n) cujos elementos diagonais sao definidos para todo i = 1, . . . , n por
1 , se Dii 6= 0 ,
+
Dii
D ii =
0 , se Dii = 0 .
elementar verificar que DD+ D = D, D+ DD+ = D+ e que DD+ e D+ D sao auto-adjuntas. Em verdade, vale
E
DD+ = D+ D que e uma matriz diagonal com elementos diagonais iguais a 0 ou a 1:
1 , se Dii 6= 0 ,
+ +
DD ii = D D ii =
0 , se Dii = 0 .
A+ = W S + V .
De fato, AA+ A = V SW W S + V V SW = V SS + SW + = V SW = A e A+ AA
+
= W S + V V SW W S + V =
W S + SS + V = W S + V = A+ . Alem disso, AA+ = V SW W S + V = V SS + V e auto-adjunta,
+
pois SS +e uma
+ +
matriz diagonal com elementos diagonais iguais a 0 ou a 1. Analogamente, A A = W S V V SW = W S S W
e auto-adjunta.
No que segue, demonstraremos que A+ Mat (C, n, m), a pseudo-inversa de Moore-Penrose de A Mat (C, m, n),
e dada, seguindo as definicoes (9.3)(9.4), por
+
A+ := In, m+n A Jm+n, m , (9.155)
ou seja,
+
A+ = In, m+n Jm+n, m AIn, m+n Jm+n, m . (9.156)
+
O ponto de partida e a existencia da pseudo-inversa de A . A relacao A A A = A significa, usando a definicao
(9.7), h i
+
Jm+n, m A In, m+n A Jm+n, m AIn, m+n = Jm+n, m AIn, m+n
e das relacoes (9.5)(9.6) segue, multiplicando-se a` esquerda por Im, m+n e `a direita por Jm+n, n que AA+ A = A, uma
das relacoes que desejamos provar.
+ + +
A relacao A A A = A significa, usando a definicao (9.7),
+ + +
A Jm+n, m AIn, m+n A = A .
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 429/2103
Multiplicando `a esquerda por In, m+n e `a direita por Jm+n, m , isso estabelece a validade de A+ AA+ = A+ .
+
Como A (A )+ e auto-adjunta, segue da definicao a definicao (9.7), que Jm+n, m AIn, m+n A e auto-adjunta, ou
seja,
+ +
Jm+n, m AIn, m+n A = AIn, m+n A Im, m+n .
Logo, multiplicando-se `
a esquerda por Im, m+n e `
a direita por Jm+n, m , segue de (9.5) que
+ + +
AIn, m+n A Jm+n, m = Im, m+n AIn, m+n A = AIn, m+n A Jm+n, m ,
Logo, multiplicando-se `
a esquerda por In, m+n e `
a direita por Jm+n, n , segue de (9.6) que
+
In, m+n A Jm+n, m A = (A )+ Jm+n, m A Jm+n, n = In, m+n (A )+ Jm+n, m A ,
estabelecendo que A+ A e auto-adjunta. Com isso estabelecemos que A+ dada em (9.155) e a pseudo-inversa de Moore-
Penrose de A.
P
Um elemento generico de Cm Cn e uma soma finita N a=1 a a , para algum N N e com a C
m
e a Cn
para todo a = 1, . . . , N . Se A Mat (C, m) e B Mat (C, n), definimos seu produto tensorial, denotado por A B,
PN
como a matriz que age em um vetor generico qualquer de a=1 a a de Cm Cn de acordo com o seguinte:
N
! N
X X
AB a a = Aa Ba . (9.157)
a=1 a=1
onde Aai e Bbj sao os elementos de matriz de A e B nas respectivas bases. Assim, vale
m X
X n
A B ei fj = Aai Bbj ea fb . (9.158)
a=1 b=1
X m X
X n
onde significa . Nessa representacao os pares ordenados (i, j) {1, . . . , m} {1, . . . , n} fazem o papel de
(a, b) a=1 b=1
ndices das matrizes.
Se A, A1 , A2 Mat (C, m) e B, B1 , B2 Mat (C, n) e trivial demonstrar com uso de (9.157) que
A1 B + A2 B = (A1 + A2 ) B , A B1 + A B2 = A (B1 + B2 ) (9.159)
e que (verifique!)
A1 B1 A2 B2 = A1 A2 B1 B2 . (9.160)
A relacao (9.162) diz-nos, entre outras coisas, que A B e uma matriz inversvel se e somente se A e B o forem. Em
qualquer desses casos, valera (9.161).
Como cada vetor-coluna ejl contem 1 na jl -esima linha, as demais linhas sendo nulas, as bem-conhecidas regras de
alculo de determinantes ensinam-nos que, para todo m = 1, . . . , n 1,
c
hh ii
det a1 , . . . , ej1 . . . , ejm . . . , an = det Aj1 , ..., jm ,
Aj1 , ..., jm sendo a matriz de Mat (C, n m) (ou seja (n m) (n m)) obtida a partir de A eliminando-lhe as jl -esimas
linhas e colunas para todo l = 1, . . . , m. Assim, obtemos
n1
X X
pA () = n + (1)nm m det Aj1 , ..., jm + (1)n det(A) , (9.163)
m=1 1j1 <<jm n
Teorema 9.35 (Teorema do Determinante de Hadamard) Seja A Mat (C, n). Ent
ao,
n X
Y n
| det(A)|2 |Aij |2 , (9.165)
j=1 i=1
sendo Aij o elemento ij da matriz A. Segue disso que para toda matriz A Mat (C, n) vale
n
n/2
| det(A)| n max |Aij | . (9.166)
ij
O importante na estimativa (9.166) e o tipo de dependencia em n que se tem do lado direito. Ela sera usada, por
exemplo, em estimativas de convergencia da serie de determinantes de Fredholm na Secao 18.2, p
agina 845.
Prova do Teorema 9.35. A prova de (9.166) e elementar, por (9.165). Passemos `a prova de (9.165).
Seja A Mat (C, n). Se A n
ao tem inversa, ent
ao det(A) = 0 e a desigualdade (9.165) e trivialmente satisfeita, n
ao
havendo o que se provar. Vamos ent
ao supor que A tenha inversa.
Seja A o conjunto de todas as matrizes M de Mat (C, n) com a propriedade que
n
X n
X
|Mij |2 = |Aij |2
i=1 i=1
ent
ao T n ao pode maximizar o modulo de determinante entre as matrizes de A. De fato, considere a matriz T que e
igual a` matriz T , exceto sua i-esima linha, que e dada por
n
X 1/2
2
|Aij |
j=1
Tij :=
Xn
Cof(T )ij ,
2
|Cof(T )ij |
j=1
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 433/2103
claro que
j = 1, . . . , n. E
n
X n
X
|Tij |2 = |Aij |2 ,
j=1 j=1
o que mostra que T A (para as demais linhas T coincide com T e n a o que provar, pois T A). Fora isso,
ao h
n
X
det(T ) = Tij Cof(T )ij , pois Cof(T )ij = Cof(T )ij , ja que T e T so diferem na i-esima linha. Assim,
j=1
n
X 1/2
|Aij |2
1/2 1/2
n
X n
X Xn
j=1
det(T ) = n
|Cof(T )ij |2 = |Aij |2 |Cof(T )ij |2
X
|Cof(T )ij |2
j=1 j=1 j=1
j=1
e conclumos por (9.168) que teramos | det(T )| < det(T ), contrariando a hipotese que | det(T )| e maximo. Assim,
devemos ter a igualdade em (9.167) e, pelos coment arios de acima, isso implica que existe i C tal que Tij = i Cof(T )ij
para todo j, ou seja, a i-esima linha de T e proporcional `a i-esima linha de Cof(T ). Como i e arbitrario, isso vale para
todo i.
Agora, como as linhas de T sao proporcionais a`s de Cof(T ), segue que
n n n
X 1 X 1 X
det(T ) = Tij Cof(T )ij = |Tij |2 , = |Aij |2
j=1
i j=1 i j=1
Como a relacao (9.26) vale para qualquer matriz inversvel, tem-se det(Cof(T )) = det(T )n1 e, portanto, | det(T )|2 =
n X
Y n
|Aij |2 . Por construcao, T maximiza | det(T )| em A. Como A A, segue que
i=1 j=1
n X
Y n
| det(A)|2 |Aij |2 . (9.169)
i=1 j=1
onde pa > 0 para a = 1, . . . , n. Seja uma matriz A, com elementos de matriz Aij . Mostre que, com o produto escalar h, ip
o elemento de matriz (Ap )ij da adjunta Ap da matriz A e dado por
pj
(Ap )ij = Aji . (9.170)
pi
(Lembre-se que Ap e definida de sorte que hu, Avip = hAp u, vip para todos u, v Cn ).
Para a matriz adjunta definida em (9.170), verifique a validade das regras (Ap )p = A e (AB)p = B p Ap , para
quaisquer matrizes A, B Mat (C, n). Calcule 1p .
P
Mostre que para quaisquer u, v Cn vale hu, vip = hu, P viC , onde hu, viC = na=1 ua va e o produto escalar usual em
Cn e P = diag (p1 , . . . , pn ). Conclua disso que Ap = P 1 A P , onde A e a adjunta usual de A em relacao ao produto
escalar h, iC : (A )ij = Aji . 6
4 i/2
E. 9.51 Exerccio. Determine os autovalores da matriz A =
. Essa matriz nao e auto-adjunta em relacao ao
2i 5
produto escalar usual em C2 , mas possui autovalores reais. Justifique esse fato mostrando, pelos exerccios anteriores, que A
e auto-adjunta em relacao ao produto escalar hu, vip = 2u1 v1 + u2 v2 /2. Mostre a adjunta Ap em relacao a esse produto
4 i/2
escalar e Ap =
= A e constate explicitamente que hu, Avi = hAu, vi para todos u, v C2 . Determine os
p p
2i 5
autovetores de A e constate que os mesmos sao ortogonais em relacao ao produto escalar h, ip . 6
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 435/2103
E. 9.52 Exerccio. Seja um produto escalar em Cn . Pela Proposicao 3.5, pagina 211, existe uma unica matriz M
Mat (C, n) auto-adjunta e de autovalores positivos (e, portanto, inversvel) tal que (x, y) = hx, M yiC para todos
x, y Cn .
Seja A Mat (C, n) e seja A Mat (C, n) sua adjunta em relacao ao produto escalar : (x, Ay) = (A x, y)
para todos x, y Cn . Mostre que A = M1 A M , onde A e a adjunta usual de A em relacao ao produto escalar h, iC .
Mostre que para quaisquer matrizes A, B Mat (C, n) valem (A ) = A e (AB) = B A . Calcule 1 . 6
E. 9.53 Exerccio. [N umeros de Fibonacci]. A sequencia de numeros conhecida como sequencia de Fibonacci29 foi
introduzida `a pagina 259 e foi la estudada usando-se funcoes geratrizes. Neste exerccio vamos estuda-la fazendo uso de
matrizes e do Teorema Espectral.
A sequencia de Fibonacci an , n N0 , e a seq
uencia definida recursivamente pela relacao
Comummente adota-se a0 = 1 e a1 = 1, mas vamos deixar essa escolha de condicoes iniciais provisoriamente em aberto.
A relacao (9.171) pode ser expressa de forma elegante com o uso de matrizes e vetores, da seguinte forma. Tem-se,
trivialmente que
x x + y 1 1
T
=
,
onde T :=
.
y x 1 0
Isso mostra que vale a seguinte relacao para os elementos da sequencia de Fibonacci:
an+1 an
= T
,
n N ,
an an1
n n1 n 1 n n+1
para todo n 0. Para isso, mostre que + = 1 + = 1 = .
A expressao (9.174) coincide com o resultado apresentado em (6.2), pagina 260, e la obtido por outros meios. 6
E. 9.54 Exerccio. [N
umeros de Fibonacci Generalizados]. Este exerccio generaliza o Exerccio E. 9.53.
Considere a sequencia de Fibonacci generalizada:
an+2 = an+1 + an , n0, (9.175)
onde e sao constantes (reais ou complexas). A matriz de transferencia T associada a essa sequencia e
T :=
.
1 0
p
1
Mostre que os seus autovalores sao = 2 2 + 4 .
Considere primeiramente o caso em que 2 + 4 6= 0. Nessa situacao, os autovalores + e sao distintos e, portanto,
T e diagonalizavel (pela Proposicao 9.22, pagina 377) e aplicam-se novamente o Teorema Espectral e o Calculo Funcional.
Repita o procedimento do Exerccio E. 9.53 para obter a expressao geral (em termos de n, a0 e a1 ) dos elementos an da
seq
uencia de Fibonacci generalizada. O resultado e que
n+1 n+1 n n
1 + +
Tn = p
,
2
+ 4 n n n1 n1
+ +
Constate que N 2 = 0 e conclua que a representacao T = 2 1 + N e a forma de Jordan de T . Pelo binomio de Newton,
teremos, para n 1,
n n np 1 np n n1
X n 2
p N =0
X n
n
T = 1+N = N = Np = 1+n N.
2 p=0
p 2 p=0
p 2 2 2
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 437/2103
Portanto,
n
n+1
(1 + n) 2 n 2
Tn =
,
n1
n
n 2 (1 n) 2
e, portanto,
n n1
an = (1 n) a0 + n a1 . (9.177)
2 2
Esta e a expressao geral (em termos de n, a0 , a1 e ) da sequencia de Fibonacci generalizada para o caso = 2 /4.
Note-se que no caso = 2 (e = 1), obtem-se disso an = a0 + n(a1 a0 ), que exibe um comportamento dominante
linear em relacao a n, e nao exponencial, como em todos os casos anteriores. Em particular, se a0 = a1 , a sequencia e
constante. 6
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 438/2103
1
1 1
0
a
1
0 1 0
1
2 2
0
0
b
0
2
2 0
1
3
3
0
c
3
0
0 3 0
4
1
4
0
d
4
0
4
Figura 9.5: Forma can onica de uma matriz com 4 autovalores distintos 1 , 2 , 3 e 4 . Os s assumem apenas os
valores 0 ou 1, de acordo com as regras explicadas acima. Todos os elementos fora da diagonal principal e da primeira
supradiagonal sao nulos. As setas indicam zeros que ocorrem na primeira supradiagonal nos pontos onde ocorre transicao
entre os blocos, conseq
uencia do fato de esses elementos estarem fora dos blocos.