Sei sulla pagina 1di 100

Captulo 9

T
opicos de Algebra Linear. I
Conte
udo
9.1 Propriedades B asicas de Determinantes e Inversas de Matrizes . . . . . . . . . . . . . . . 340
9.2 No c
oes B asicas sobre o Espectro de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . 350
9.2.1 Autovalores e Polin omios Caractersticos de Matrizes . . . . . . . . . . . . . . . . . . . . . . . 351
9.2.2 Autovetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354
9.2.3 O Traco de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356
9.2.3.1 Algumas Relac oes entre Determinantes e Tracos de Matrizes . . . . . . . . . . . . . . . 358
9.3 Polin omios de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359
9.3.1 O Teorema de Hamilton-Cayley . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
9.3.1.1 O Teorema da Aplicac ao Espectral para Matrizes . . . . . . . . . . . . . . . . . . . . . 365
9.4 Matrizes Diagonaliz aveis e o Teorema Espectral . . . . . . . . . . . . . . . . . . . . . . . . 366
9.4.1 Diagonalizac ao Simult anea de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378
9.5 Matrizes Auto-Adjuntas, Normais e Unit arias . . . . . . . . . . . . . . . . . . . . . . . . . 381
9.5.1 Matrizes Positivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 387
9.5.2 O Teorema de Inercia de Sylvester. Superfcies Quadr aticas . . . . . . . . . . . . . . . . . . . 389
9.6 Matrizes Triangulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393
9.7 O Teorema de Decomposi c
ao de Jordan e a Forma Can onica de Matrizes . . . . . . . . . 395
9.7.1 Resultados Preparat orios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397
9.7.2 O Teorema da Decomposic ao de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400
9.7.3 Matrizes Nilpotentes e sua Representac ao Can onica . . . . . . . . . . . . . . . . . . . . . . . . 403
9.7.4 A Forma Can onica de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407
9.7.5 Mais Alguns Resultados Sobre Matrizes Nipotentes . . . . . . . . . . . . . . . . . . . . . . . . 409
9.8 Algumas Representa c
oes Especiais de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . 411
9.8.1 A Decomposic ao Polar de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 411
9.8.2 A Decomposic ao em Valores Singulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413
9.8.3 O Teorema da Triangularizac ao de Schur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413
9.8.4 A Decomposic ao QR e a Decomposic ao de Iwasawa (KAN) . . . . . . . . . . . . . . . . . . 416
9.9 A Pseudo-Inversa de Moore-Penrose . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 418
9.9.1 Outras Propriedades da Pseudo-Inversa de Moore-Penrose . . . . . . . . . . . . . . . . . . . . 420
9.9.1.1 A Regularizac ao de Tikhonov. Existencia . . . . . . . . . . . . . . . . . . . . . . . . . . 423
9.9.1.2 A Pseudo-Inversa de Moore-Penrose e o Teorema Espectral . . . . . . . . . . . . . . . . 425
9.9.2 A Pseudo-Inversa de Moore-Penrose e Problemas de Optimizac ao Linear . . . . . . . . . . . . 426
9.9.3 Existencia e Decomposic ao em Valores Singulares . . . . . . . . . . . . . . . . . . . . . . . . . 427
9.10 Produtos Tensoriais de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429
9.11 Propriedades Especiais de Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431
9.11.1 Expans ao do Polinomio Caracterstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431
9.11.2 A Desigualdade de Hadamard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431
9.12 Exerccios Adicionais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 434

O principal objetivo deste captulo e apresentar a demonstracao do Teorema Espectral para matrizes diagona-
lizaveis, em particular, para matrizes auto-adjuntas (resultado de grande relevancia para a Mecanica Qu
e a demonstracao do Teorema de Decomposicao de Jordan. Sempre trabalharemos no contexto de espacos
vetoriais de dimensao finita Cn sobre o corpo dos complexos. A leitura deste captulo pressupoe que alguns
conceitos b
asicos de Algebra Linear, tais como o conceito de matriz, de produto de matrizes, de determinante de uma
matriz, suas propriedades e metodos de c
antica)

alculo, sejam familiares ao leitor, mas uma breve revisao e apresentada na Secao

339
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 340/2103

9.1. Na Secao 9.2, p


agina 350, apresentamos a nocao de espectro e a de polinomio caracterstico de uma matriz. Na Secao
9.5, p
agina 381, introduzimos as nocoes de matrizes auto-adjuntas, normais e unit arias, de importancia, por exemplo,
na Mecanica Qu antica. Na Secao 9.8, p
agina 411, apresentamos algumas representacoes de matrizes de interesse em
diversos contextos (por exemplo, na teoria de grupos). Na Secao 9.9, p agina 418, estudamos a chamada pseudo-inversa
de Moore-Penrose, de interesse, por exemplo, em problemas de optimizacao linear.
Este captulo sera continuado no Captulo 10, p
agina 439, onde outros aspectos de algebras de matrizes serao explo-
rados.

9.1 Propriedades B
asicas de Determinantes e Inversas de Ma-
trizes
A presente secao desenvolve a teoria b
asica de inversas e determinantes de matrizes. Sua leitura pode, provavelmente,
ser dispensada por aqueles que julgam dispor desses conhecimentos b asicos, mas a notacao que aqui introduzimos sera
empregada alhures. Propriedades mais avancadas de determinantes serao estudadas na Secao 9.11, pagina 431.

Fatos elementares sobre matrizes e alguma nota


c
ao
O conjunto de todas as matrizes mn (m linhas e n colunas) com entradas complexas sera denotado por Mat (C, m, n).
O conjunto de todas as matrizes quadradas n n com entradas complexas sera denotado simplesmente por Mat (C, n).
Uma matriz A Mat (C, m, n) e freq
uentemente representada na forma de um arranjo como

A11 ... A1n

. ..
A = . . .
.


Am1 . . . Amn

Mat (C, m, n) e um espaco vetorial complexo, com a operacao de soma definida por

(A1 + A2 )ij := (A1 )ij + (A2 )ij ,

A1 , A2 Mat (C, m, n), i {1, . . . , m}, j {1, . . . , n}, e a operacao de multiplicacao por escalares (complexos)
definida por
(A)ij := Aij
C, A Mat (C, m, n) e i {1, . . . , m}, j {1, . . . , n}.
Sejam m, n, p N e sejam A Mat (C, m, n) e B Mat (C, n, p). Denotamos por AB a matriz de Mat (C, m, p)
cujos elementos sao dados por
Xn

AB ij := Aik Bkj (9.1)
k=1

facil
para todos i {1, . . . , m}, j {1, . . . , p}. A expressao (9.1) e denominada regra de produto de matrizes. E
constatar (faca-o!) que valem as propriedades distributivas

(1 A1 + 2 A2 )B = 1 A1 B + 2 A2 B ,

A(1 B1 + 2 B2 ) = 1 AB1 + 2 AB2 ,

para todos 1 , 2 , 1 , 2 C, todas A, A1 , A2 Mat (C, m, n) e todas B, B1 , B2 Mat (C, n, p).


tambem facil constatar (faca-o!) que se m, n, p, q N valem para todas A Mat (C, m, n), B Mat (C, n, p)
E
e C Mat (C, p, q) a relacao
(AB)C = A(BC) .
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 341/2103

Para cada n N, e com a operacao de produto definida acima, Mat (C, n) e uma algebra associativa, n
ao-comutativa
(exceto se n = 1) e unital, com a unidade sendo dada pela matriz identidade, que denotaremos por 1 neste texto:

1 0

. . ..
1 :=
.
. .. . . (9.2)


0 1

Note-se que 1ij = ij , i, j {1, . . . , n}.


Dada uma matriz A Mat (C, m, n) denotamos por AT a matriz de Mat (C, n, m) cujos elementos sao dados por
evidente
(A )ij = Aji para todos i {1, . . . , n}, j {1, . . . , m}. A matriz AT e dita ser a matriz transposta de A. E
T

que (AT )T = A. Para todos m, n, p N vale, pela regra de produto de matrizes, a relacao (AB)T = B T AT para
quaisquer A Mat (C, m, n) e B Mat (C, n, p).
Dado um conjunto de n n umeros complexos 1 , . . . , n , denotaremos por diag (1 , . . . , n ) a matriz A Mat (C, n)
cujos elementos Aij sao definidos da seguinte forma:


, se i = j
i
Aij = .


0, se i 6= j

Uma tal matriz e dita ser diagonal pois apenas os elementos de sua diagonal principal sao eventualmente n
ao-nulos. Na
representacao usual
1 0

. .. ..
A = .
. . .
.


0 n

A mais popular dentre as matrizes diagonais e a matriz identidade (9.2): 1 = diag (1, . . . , 1).
Denotaremos por 0a, b Mat (C, m, n) a matriz a b cujos elementos de matriz sao todos nulos. Denotaremos
por 1l Mat (C, l) a matriz identidade l l. Por vezes, quando n ao houver perigo de confusao, poderemos omitir os
sub-ndices e escrever 0a, b simplesmente como 0 e 1l simplesmente como 1.
Vamos tambem empregar as seguintes definicoes. Para m, n N, sejam Im, m+n Mat (C, m, m + n) e Jm+n, n
Mat (C, m + n, n) dadas por

1n
 
Im, m+n := 1m 0m, n e Jm+n, n :=
,
(9.3)
0m, n

cujas transpostas sao dadas por



1m
 
(Im, m+n )T :=

= Jm+n, m
e (Jm+n, n )T := 1n 0n, m = In, m+n . (9.4)
0n, m

As seguintes identidades u
teis serao usadas mais adiante e sua demonstracao (f
acil) e deixada como exerccio ao leitor:

Im, m+n (Im, m+n )T = Im, m+n Jm+n, m = 1m , (9.5)

(Jm+n, n )T Jm+n, n = In, m+n Jm+n, n = 1n , (9.6)


JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 342/2103

Para cada A Mat (C, m, n) podemos associar uma matriz quadrada A Mat (C, m + n) dada por

A 0m, m
A := Jm+n, m AIn, m+n =

.
(9.7)
0n, n 0n, m

Obtemos das relacoes (9.5)(9.6) que


A = Im, m+n A Jm+n, n . (9.8)

Sejam x1 , . . . , xn vetores, representados na base canonica por vetores-coluna



xa1

.
xa = .
. .


xan
hh ii
Denotaremos por x1 , . . . , xn a matriz n n construda de forma que sua a-esima coluna seja o vetor-coluna xa , ou
seja
x11 xn1
hh ii
. .. ..
x1 , . . . , xn =
.
. . . . (9.9)


x1n xn n

Considerando os vetores da base can


onica

1 0 0


0 1 0


.
e1 = .
0 , e2 =
0 , ..., en . ,
= (9.10)


. .
.. .. 0



0 0 1

e tambem evidente que hh ii


1 = e1 , . . . , en . (9.11)

A notacao acima e u
til por permitir a seguinte observacao. Seja B uma matriz qualquer. Ent
ao,
hh ii hh ii
B x1 , . . . , xn = Bx1 , . . . , Bxn . (9.12)
hh ii
Essa relacao e provada observando-se a regra de multiplicacao de matrizes: a a-esima coluna de B x1 , . . . , xn e

B11 xa1 + + B1n xan


..
. , (9.13)

Bn1 xa1 + + Bnn xan


JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 343/2103

que vem a ser as componentes de Bxa , representado como vetor-coluna na base canonica.
u
E til observar que se A e uma matriz n n temos a regra
n
X
Aei = Aji ej , (9.14)
j=1

onde Aji sao os elementos de matriz de A respectivas na base canonica. Verifique!


Ainda sobre essa notacao, vale a seguinte identidade u til, cuja demonstracao (elementar) deixamos como exerccio:
se D = diag (d1 , . . . , dn ) e uma matriz diagonal, ent ao
hh ii hh ii
x1 , . . . , xn D = d1 x1 , . . . , dn xn . (9.15)

Seja V um espaco vetorial dotado de um produto escalar h, i. Dizemos que dois vetores u e v sao perpendiculares
(em relacao ao produto escalar h, i) se hu, vi = 0.
Se v1 , . . . , vk sao vetores em um espaco vetorial V , denotamos por [v1 , . . . , vk ] o subespaco gerado pelos vetores
v1 , . . . , vk , ou seja, a colecao de todos os vetores que sao combinacoes lineares dos vetores v1 , . . . , vk :
n o
[v1 , . . . , vk ] = 1 v1 + + k vk , 1 , . . . , k C .

Denotamos por [v1 , . . . , vk ] o subespaco de todos os vetores perpendiculares a todos os vetores de [v1 , . . . , vk ]:
n
o
[v1 , . . . , vk ] = w V w, (1 v1 + + k vk ) = 0 para todos 1 , . . . , k C .

Matrizes bijetoras e a no
c
ao de inversa de uma matriz
Uma matriz A Mat (C, n) define uma aplicacao linear de Cn sobre si mesmo.
 Se essa aplicacao for bijetora, ent
ao
existe uma aplicacao inversa, denotada por A1 : Cn Cn , tal que A1 Ax = x para todo x Cn . A proposicao
seguinte reune fatos elementares sobre a aplicacao inversa A1 :
Proposi ao A1 e igualmente uma aplicac
ao 9.1 Se A Mat (C, n) e bijetora, ent
c ao linear de Cn sobre si mesmo,
1  T
ou seja, A1 Mat (C, n). Fora isso, A1 e u
nica e AT = A1 . Por fim, vale afirmar que A e inversvel se e
T
somente se A o for. 2

Prova. E facil constatar que A1 e tambem uma aplicacao linear e, portanto, e tambem um elemento de Mat (C, n).
De fato, sejam v1 , v2 elementos arbitrarios de Cn e 1 , 2 C, igualmente arbitrarios. Como A e bijetora, existem
u 1 , u 2 Cn , unicos, tais que Au1 = v1 e Au2 = v2 , ou seja, tais que u1 = A1 (v1 ) e u2 = A1 (v2 ). Assim, usando a
linearidade de A, tem-se
   
A1 1 v1 + 2 v2 = A1 1 Au1 + 2 Au2 = A1 A 1 u1 + 2 u2 = 1 u1 + 2 u2 = 1 A1 (v1 ) + 2 A1 (v2 ) ,

o que prova que A1 e tambem linear e, portanto A1 Mat (C, n). Com isso, podemos afirmar que A1 Ax = x
para todo x Cn e, portanto, AA1 Ax = Ax. Como A e sobrejetora, isso diz-nos que AA1 y = y para todo y Cn .
Assim, estabelecemos que A1 A = AA1 = 1. A unicidade e facilmente estabelecida, pois se B Mat (C, n) e tal
que BA = AB = 1, ent ao multiplicando-se AB = 1 `a esquerda por A1 obtem-se B = A1 . Por fim, observemos
que do fato que (M N ) = N T M T para quaisquer matrizes M, N Mat (C, n), segue de A1 A = AA1 = 1 que
T
T T 1 T
AT A1 = A1 AT = 1, o que implica AT = A1 . A u ltima relacao implica que se A e inversvel, ent
ao
AT tambem o e. Como (AT )T = A, vale tambem a recproca.

Mais adiante indicaremos como a matriz A1 pode ser calculada a partir de A. Vide para tal a expressao (9.18)
(regra de Laplace) do Teorema 9.1, p
agina 345, e tambem as expressoes (9.43), p
agina 364, e (9.164), p
agina 431.
Em parte do que segue estaremos implicitamente usando a seguinte proposicao:
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 344/2103

Proposicao 9.2 Uma matriz A Mat (C, n) e bijetora (ou seja, e inversvel) se e somente se Av = 0 valer apenas
para v = 0. 2

ao existe A1 . Logo, aplicando-se A1 `a esquerda na igualdade Av = 0, obtem-se v = 0.


Prova. Se A e bijetora, ent
Vamos agora provar a recproca: vamos supor que Av = 0 vale apenas para v = 0 e provar que A e injetora e sobrejetora
e, portanto, bijetora.
Prova-se que A e injetora por absurdo. Se A n ao, existem vetores x e y com x 6= y mas com Ax = Ay.
ao e injetora, ent
Como A e linear, isso implica A(x y) = 0. Pela hipotese que Av = 0 vale apenas para v = 0, segue que x = y, uma
contradicao.
Para provarmos que A e sobrejetora procedemos da seguinte forma. Seja {b1 , . . . , bn } uma base em Cn . Vamos
primeiramente mostrar que {Ab1 , . . . , Abn } e um conjunto linearmente independente de vetores em Cn (e, portanto,
uma base em Cn ). Suponhamos que assim n ao o seja e que existam n
umeros complexos 1 , . . . , n , n
ao todos nulos, tais
que 1 Ab1 + + n Abn = 0. Pela linearidade de A, segue que A (1 b1 + + n bn ) = 0. Novamente, pela hipotese
que Av = 0 vale apenas para v = 0, segue que 1 b1 + + n bn = 0. Isso, porem, diz que os vetores {b1 , . . . , bn } sao
linearmente dependentes, o que e absurdo.
Logo, {Ab1 , . . . , Abn } e um conjunto de n vetores linearmente independente em Cn e, portanto, e uma base nesse
espaco. Assim, qualquer x Cn pode ser escrito como uma combinacao linear tal como x = 1 Ab1 + + n Abn =
A (1 b1 + + n bn ). Isso mostra que x est
a na imagem de A. Como x e arbitrario, segue que A e sobrejetora.

Um corol
ario evidente e o seguinte:
Corolario 9.1 Uma matriz A Mat (C, n) e n
ao-bijetora (ou seja, n
ao possui inversa) se e somente se existir um
vetor n
ao-nulo v tal que Av = 0. 2

O seguinte corolario indica uma maneira pratica, necessaria e suficiente de se constarar se uma matriz A Mat (C, n)
tem inversa.
hh ii
Corol ario 9.2 Seja A Mat (C, n) da forma A = a1 , . . . , an para o conjunto de vetores a1 , . . . , an que representam
suas colunas. Ent
ao, A e inversvel se e somente se os vetores a1 , . . . , an forem linearmente independentes. Vale tambem
a afirmac
ao que A e inversvel se e somente se suas linhas forem linearmente independentes. 2

v1
!
Prova. Se v Cn e o vetor coluna v = .. , ent
ao e facil constatar (pela regra de produto de matrizes. Faca-o!) que
.
vn
Av = v1 a1 + . . . + vn an . Com isso, vemos que a afirmacao que existe v n
ao-nulo tal que Av = 0 equivale `a afirmacao que
os vetores-coluna a1 , . . . , an sao linearmente dependentes.
Como A e inversvel se e somente se AT o for (Proposicao 9.1, p
agina 343), vale afirmar que A e inversvel se e somente
se suas linhas forem linearmente independentes.

Propriedades basicas de determinantes de matrizes


hh ii
Seja A Mat (C, n) da forma A = a1 , . . . , an para o conjunto de vetores a1 , . . . , an que representam suas
colunas. O determinante de A, det(A), foi definido em (3.7) como

det(A) := det (a1 , . . . , an ) , (9.16)

onde det e a forma alternante maximal em n dimensoes, normalizada de sorte que det (e1 , . . . , en ) = 1. Com isso,
vale det(1) = 1. Assim, se Sn denota o conjunto de todas as bijecoes de {1, . . . , n} em si mesmo (o chamado grupo
de permutacoes de n elementos), tem-se det (ej(1) , . . . , ej(n) ) = sinal(j) para todo j Sn e, portanto, vale a expressao
(3.8): X
det(A) = A1j(1) Anj(n) sinal(j) , (9.17)
jSn
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 345/2103

freq ormula de Leibniz1 para o determinante de uma matriz.


uentemente denominada f
O teorema a seguir re
une todas as propriedades fundamentais do determinante de matrizes.
Teorema 9.1 Para toda matriz A Mat (C, n) valem:

1. det(A) = n det(A) para todo C.



2. det(A) = det AT . Conseq uentemente, o determinante de uma matriz troca de sinal quando da permuta de duas
de suas colunas ou linhas.
3. det(AB) = det(A) det(B) = det(BA) para qualquer B Mat (C, n).
4. det(A) = det(SAS 1 ) para qualquer S Mat (C, n), inversvel.
5. Se det(A) = 0 ent
ao A n
ao tem inversa.
ao A tem inversa e vale a chamada regra de Laplace2 :
6. Se det(A) 6= 0 ent
1
A1 = Cof(A)T , (9.18)
det(A)

onde Cof(A) Mat (C, n), denominada matriz dos cofatores de A, e a matriz cujos elementos s ao
hh ii
Cof(A)jk = det (a1 , . . . , ak1 , ej , ak+1 , . . . , an ) = det a1 , . . . , ak1 , ej , ak+1 , . . . , an . (9.19)

Em palavras, Cof(A)jk e o determinante da matriz obtida substituindo a k-esima coluna de A pelo vetor ej . No
pr
oximo item veremos outra caracterizac
ao da matriz dos cofatores Cof(A).
Conjuntamente com o item 5, conclumos que A tem inversa se e somente se det(A) 6= 0.
7. Os elementos de matriz de Cof(A) s
ao dados por

Cof(A)ij = (1)i+j Men(A)ij ,

onde Men(A), chamada de matriz dos menores de A, e a matriz de Mat (C, n) definida de sorte que cada elemento
Men(A)ij seja o determinante da matriz (n 1) (n 1) obtida eliminando-se a i-esima linha e a j-esima coluna
de A. Se n = 1, convenciona-se definir Men(A) = 1. Assim, para det(A) 6= 0, a regra de Laplace escreve-se

 1 (1)i+j
A1 ij
= Cof(A)ji = Men(A)ji . (9.20)
det(A) det(A)

8. Para qualquer k {1, . . . , n} valem a expans


ao em linhas do determinante
n
X n
X
det(A) = Akj Cof(A)kj = (1)j+k Akj Men(A)kj (9.21)
j=1 j=1

e a expans
ao em colunas do determinante
n
X n
X
det(A) = Ajk Cof(A)jk = (1)j+k Ajk Men(A)jk . (9.22)
j=1 j=1

1 Gottfried Wilhelm von Leibniz (16461716).


2 Pierre-Simon Laplace (17491827).
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 346/2103

Em (9.164), p
agina 431, apresentaremos outra formula explcita para o c
omputo da inversa de matrizes baseada no
Teorema de Hamilton-Cayley (Teorema 9.3, pagina 361).

Demonstracao do Teorema 9.1. Prova de 1. Pela f


ormula de Leibniz (9.17),
X
det(A) = (A1j(1) ) (Anj(n) ) sinal(j) = n det(A) .
jSn

Prova de 2. Observemos a f ormula de Leibniz (9.17). Usando o fato elementar que um produto de n umeros complexos
ao depende da ordem dos fatores, podemos escrever A1j(1) Anj(n) = Al(1)j(l(1)) Al(n)j(l(n)) para qualquer l Sn .
n
Em particular, escolhendo l = j 1 obtemos A1j(1) Anj(n) = Aj 1 (1)1 Aj 1 (n)n . Assim, pela formula de Leibniz
(9.17), e usando o fato que sinal(j) = sinal(j 1 ) para todo j Sn (justifique!), vale

X X
det(A) = Aj 1 (1)1 Aj 1 (n)n sinal(j 1 ) = Aj 1 (1)1 Aj 1 (n)n sinal(j 1 )
jSn j 1 S n

X
= Aj(1)1 Aj(n)n sinal(j) = det(AT ) .
jSn

Quando da permuta de duas linhas


 ou colunas de A seu determinante troca de sinal devido `a alternancia da forma
det . A igualdade det(A) = det AT ensina que isso tambem ocorre quando da permuta de linhas.

E. 9.1 Exerccio. Justifique todas as passagens de acima. 6

hh ii hh ii hh ii
Prova de 3. Sejam A = a1 , . . . , an e B = b1 , . . . , bn . Temos que AB = Ab1 , . . . , Abn (vide (9.12)). Agora,
n
X n
X n
X
(Abj )i = Aik (bj )k = (ak )i (bj )k , ou seja, Abj = (bj )k ak .
k=1 k=1 k=1

Assim,
det(AB) = det (Ab1 , . . . , Abn )

n n
!
X X
= det (b1 )k1 ak1 , . . . , (bn )kn akn
k1 =1 kn =1

n
X n
X
multi-linearidade
= (b1 )k1 (bn )kn det (ak1 , . . . , akn )
k1 =1 kn =1

X 
= (b1 )k(1) (bn )k(n) det ak(1) , . . . , ak(n)
kSn

X
= (b1 )k(1) (bn )k(n) sinal(k) det (a1 , . . . , an )
kSn

!
X
= (b1 )k(1) (bn )k(n) sinal(k) det(A)
kSn

= det(B) det(A) .
Acima, na passagem da terceira para a quarta linha usamos o fato que det (ak1 , . . . , akn ) anula-se a menos que a
k1 , . . . , kn sejam distintos, o que somente ocorre se forem da forma k(1), . . . , k(n), respectivamente, para algum
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 347/2103


k Sn . Na passagem da quarta para a quinta linha usamos que det ak(1) , . . . , ak(n) = sinal(k) det (a1 , . . . , an ), pois
det e uma forma alternante.
Estabelecemos, portanto, que det(AB) = det(A) det(B) = det(BA).

Prova de 4. Do item 3 segue que, para quaisquer A, S Mat (C, n), com S inversvel, vale det(A) = det((AS 1 )S) =
det(SAS 1 ).

Prova de 5. Se det(A) = 0 ent ao pode ter inversa, pois se existisse A1 teramos 1 = det(1) = det(AA1 ) =
ao A n
det(A) det(A1 ) = 0, absurdo.
bastante claro que podemos escrever
Prova de 6. E
n
X
ak = Ajk ej . (9.23)
j=1

Logo, para qualquer k {1, . . . , n} vale


n
X
det(A) = det (a1 , . . . , ak1 , ak , ak+1 , . . . , an ) = Ajk det (a1 , . . . , ak1 , ej , ak+1 , . . . , an ) .
j=1

Note que ej ocorre na k-esima posicao. Provamos assim que


n
X
det(A) = Ajk Cof(A)jk , (9.24)
j=1

n
X
onde a matriz Cof(A) foi definida em (9.19). Mostremos agora que para l 6= k a expressao Ajl Cof(A)jk e nula. De
j=1
fato,

n
X n
X
Ajl Cof(A)jk = Ajl det (a1 , . . . , ak1 , ej , ak+1 , . . . , an )
j=1 j=1

(9.23)
= det (a1 , . . . , ak1 , al , ak+1 , . . . , an ) = 0 ,

pois em det (a1 , . . . , ak1 , al , ak+1 , . . . , an ) o vetor al aparece na l-esima e na k-esima posicao o que faz det anular-se,
por ser uma forma alternante. Provamos, assim, que
n
X
Ajl Cof(A)jk = kl det(A) . (9.25)
j=1

Vamos supor que det(A) 6= 0. Defina-se a matriz G = det(A)1 Cof(A)T , cujos elementos de matriz sao Gkj =
det(A)1 Cof(A)jk . Ent
ao, (9.25) diz-nos que
n
X
Gkj Ajl = kl , ou seja, GA = 1 .
j=1

Isso significa que A e inversvel com A1 = G.

Prova de 7. Observemos primeiramente que, supondo provisoriamente k > 1,

det (a1 , . . . , ak1 , ej , ak+1 , . . . , an ) = det (a1 Aj1 ej , . . . , ak1 , ej , ak+1 , . . . , an )

devido `a linearidade e ao fato que det (ej , . . . , ak1 , ej , ak+1 , . . . , an ) = 0, pelo fato de det ser alternante. Agora,
a j-esima linha do vetor-coluna a1 Aj1 ej e nula. Repetindo esse argumento podemos anular j-esima linha de todas
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 348/2103

hh ii
as colunas da matriz a1 , . . . , ak1 , ej , ak+1 , . . . , an , exceto a k-esima coluna, sem alterar seu determinante. Um
pouco de meditacao nos convence que a matriz resultante e obtida da matriz A anulando-se a k-esima coluna e a j-esima
linha, exceto no cruzamento das duas, onde o elemento de matriz vale 1 (elemento jk). O determinante dessa matriz e
Cof(A)jk .
Pelo item 2 e pela propriedade de alternancia, sabemos que o determinante de uma matriz troca de sinal quando
permutamos a posicao de duas colunas ou duas linhas quaisquer. Com esse tipo de operacao podemos transportar o 1
do elemento jk ate a posicao nn da matriz, ao preco de realizar n k transposicoes de colunas vizinhas e n j de linhas
vizinhas, as quais alteram o determinante por fatores (1)nk e (1)nj , respectivamente. Temos com isso que

0

..

 A[jk] .
Cof(A)jk = (1)k+j det A[jk] A[jk]

com := det ,

0



0 0 1

onde A[jk] e a matriz de Mat (C, n 1) obtida eliminando a j-esima linha e a k-esima coluna da matriz A. Pela formula
de Leibniz (9.17),   X   
det A[jk] = A[jk] A[jk] sinal(l) .
1l(1) nl(n)
lSn

Como A[jk] nl(n)
= l(n), n (justifique!), segue que
  X    
det A[jk] = A[jk] A[jk] sinal(l )
1l (1) (n1)l (n1)
l S n1

X    
= A[jk] A[jk] sinal(l )
1l (1) (n1)l (n1)
l S n1

 
= det A[jk] = Men(A)jk .

(Justifique por que a soma no lado direito da primeira linha acima e sobre Sn1 e n
ao mais sobre Sn ). Provamos,
portanto, que
Cof(A)jk = (1)k+j Men(A)jk .
A relacao (9.20) e imediata por (9.18).

Prova de 8. Eq. (9.22) e imediata por (9.24) e pelo item 7. Eq. (9.21) segue facilmente de (9.22) usando o item 2.

Menores e cofatores de uma matriz. Propriedades adicionais



E. 9.2 Exerccio. Seja Mat (C, n), = diag + 1, 1, +1, . . . , (1)n+1 , a matriz diagonal cujos elementos sao
alternadamente +1 e 1, ou seja, ij = (1)i+1 ij . Mostre que

Cof(A) = Men(A)1

para toda matriz A Mat (C, n). 6

Para uma matriz M Mat (C, n), a transformacao de similaridade M 7 M 1 e denominada chessboard
transformation, pois com ela os sinais sao trocados em M como alternam-se as cores das casas em um tabuleiro de
xadrez.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 349/2103

E. 9.3 Exerccio. Usando a regra de Laplace (9.18), mostre que para toda matriz A Mat (C, n) valem as relacoes
 
Men A1 = Men(A)1 , Cof A1 = Cof(A)1 ,
 
Cof(A) = Men A1 , Men(A) = Cof A1 .
6
 1

Se A Mat (C, n) e inversvel, segue da regra de Laplace (9.18) que det A1 = det(A)n det Cof(A) e, portanto,

det Cof(A) = det(A)n1 . (9.26)

Do Exerccio E. 9.3, conclui-se tambem que



det Men(A) = det(A)n1 . (9.27)

E. 9.4 Exerccio. Mostre que para toda matriz A Mat (C, n), n 2, vale
 n2
Cof Cof(A) = det(A) A.

Do Exerccio E. 9.3, obtem-se tambem  n2


Men Men(A) = det(A) A.
Assim, para toda matriz A Mat (C, n) vale
 
Cof Cof(A) = Men Men(A) .
 
Portanto, se det(A) = 1 e n 2, vale Cof Cof(A) = Men Men(A) = A. 6

Um resultado u
til
Mais abaixo, usaremos o seguinte fato:
Proposiao 9.3 Seja M Mat (C, n) uma matriz da seguinte forma
c

A 0k, nk
M =

,

B C

onde A e uma matriz k k (com k < n), B e uma matriz (n k) k e C e uma matriz (n k) (n k). Ent
ao,

det(M ) = det(A) det(C) .

Prova. O primeiro ingrediente da prova e a constatacao que



A 0k, nk A 0k, nk 1k 0k, nk 1k 0k, nk
= .

B C 0nk, k 1nk B 1nk 0nk, k C

E. 9.5 Exerccio. Verifique! 6


JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 350/2103

Com isso, temos pela regra do determinante de um produto de matrizes que



A 0k, nk 1k 0k, nk 1k 0k, nk
det(M ) = det

det

det

.

0nk, k 1nk B 1nk 0nk, k C

Agora, pelas regras (9.21)(9.22) de c


alculo de determinantes, e facil constatar (faca-o!) que

A 0k, nk 1k 0k, nk 1k 0k, nk
det

= det(A),
det

= det(C)
e det

= 1.
(9.28)
0nk, k 1nk 0nk, k C B 1nk

Cada uma das igualdades acima pode ser provada usando-se a expansao em linhas (9.21) para o determinante. Essa
1k 0k, nk 
regra nos diz, por exemplo, que o u ltimo determinante em (9.1), o da matriz B 1 , e igual ao determinante da
 1k1 0k1, nk  nk
matriz obtida eliminando-se a primeira linha e a primeira coluna: B1 1nk
, com B1 sendo a matriz obtida de B
eliminando-se sua primeira columa. Mas essa e uma matriz do mesmo tipo da anterior e podemos continuar eliminando a
primeira linha e a primeira coluna. Apos k repeticoes desse procedimento, resta apenas a matriz 1nk , cujo determinante
vale 1. Para o segundo determinante em (9.21) procede-se analogamente. Para o primeiro, comeca-se eliminando a u ltima
linha e a u
ltima coluna. Isso completa a prova.

9.2 No
coes B
asicas sobre o Espectro de uma Matriz

O espectro de uma matriz


Seja A Mat (C, n) uma matriz n n com entradas complexas. No estudo das propriedades de A e de grande
importancia saber para quais numeros complexos a matriz 1 A e inversvel e para quais n
ao e. Essa quest
ao conduz
as seguintes importantes definicoes:
`

Defini
cao. O espectro de A Mat (C, n), denotado por (A), e definido como sendo o conjunto de todos os C
para os quais a matriz 1 A n
ao tem inversa. Assim, um numero complexo e dito ser um elemento do espectro de
A Mat (C, n) se a matriz 1 A n
ao possuir uma inversa.

Defini ao. O conjunto resolvente de A Mat (C, n), denotado por (A), e definido como sendo o conjunto de todos os
c
C para os quais a matriz 1 A tem inversa. Assim, um n umero complexo e dito ser um elemento do conjunto
resolvente de A Mat (C, n) se a matriz 1 A possuir uma inversa.
evidente que (A) e (A) sao conjuntos complementares, ou seja, (A) (A) = mas (A) (A) = C.
E
Um fato importante e que 1 A e n
ao-inversvel se e somente se det(1 A) = 0 (vide Teorema 9.1, p
agina 345).
umero complexo e um elemento do espectro de uma matriz A se e somente se for tal que det(1 A) = 0.
Assim, um n
Essa observacao conduz-nos ao importante conceito de polinomio caracterstico de uma matriz.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 351/2103

9.2.1 Autovalores e Polin


omios Caractersticos de Matrizes

O polin
omio caracterstico de uma matriz
Seja A Mat (C, n) uma matriz cujos elementos de matriz sao Aij . Para z C a expressao

z A11 A12 A1n


A z A22 A2n
21
pA (z) := det(z 1 A) = det (9.29)
.. .. .. ..

. . . .



An1 An2 z Ann

define, um polinomio de grau n na variavel z, com coeficientes complexos, os quais dependem dos elementos de matriz
Aij de A. Isso se constata facilmente pelos metodos usuais de calculo de determinantes (por exemplo, as expansoes em
linha ou coluna de (9.21) e (9.22)),
Esse polinomio e denominado polinomio caracterstico de A e desempenha um papel muito importante no estudo de
propriedades de matrizes. O leitor poder a encontrar na Secao 9.11.1, p
agina 431, uma expressao mais explcita para
o polinomio caracterstico em termos dos elementos de matriz Aij de A (vide (9.163), p agina 431), mas por ora n ao
precisaremos de maiores detalhes sobre esse polinomio.
Como todo polinomio complexo de grau n, pA possui n razes, n ao necessariamente distintas no plano complexo

(Teorema Fundamental da Algebra). As razes do polinomio caracterstico pA sao denominadas autovalores da matriz A.
Assim, o espectro de uma matriz A coincide com o conjunto de seus autovalores. O estudo de autovalores de matrizes e
de grande import
ancia na Algebra Linear e em suas aplicacoes `a Teoria das Equacoes Diferenciais, `a Geometria, `a Teoria
dos Sistemas Dinamicos e `
a Fsica, especialmente ` a Fsica Qu
antica.
Seja A Mat (C, n) uma matriz e sejam 1 , . . . , r , 1 r n, seus autovalores distintos, cada qual com
multiplicidade a1 , . . . , ar , respectivamente, ou seja, cada i e uma raiz de ordem ai N do polinomio caracterstico de
A:
Yr
pA (z) = det(z 1 A) = (z i )ai .
i=1
A quantidade ai e um n
umero inteiro positivo e e denominado multiplicidade algebrica do autovalor i .
Note-se que como o n umero de razes de pA (contando as multiplicidades) e exatamente igual a seu grau, segue
facilmente que a seguinte relacao e valida:
Xr
ai = n , (9.30)
i=1
ou seja, a soma das multiplicidades algebricas dos autovalores de uma matriz A Mat (C, n) e n. Uma conseq
uencia
elementar disso e a seguinte proposicao u
til:
Proposi
cao 9.4 Seja A Mat (C, n) uma matriz e sejam 1 , . . . , r , 1 r n, seus autovalores distintos, cada qual
com multiplicidade algebrica a1 , . . . , ar , respectivamente. Ent
ao,
r
Y
det(A) = (k )ak . (9.31)
k=1

Qr
caracterstico de A e pA (z) = det(z 1 A) = k=1 (z k )ak . Tomando z = 0 e usando
Prova. Por definicao, o polinomio Q
r
(9.30), teremos det(A) = (1)n k=1 (k )ak . Porem, det(A) = (1)n det(A) e a proposicao est a demonstrada.

Matrizes similares. Transforma


co
es de similaridade
Duas matrizes A Mat (C, n) e B Mat (C, n) sao ditas matrizes similares se existir uma matriz inversvel
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 352/2103

P Mat (C, n) tal que P 1 AP = B. Para uma matriz inversvel P Mat (C, n) fixa, a transformacao que leva cada
a matriz P 1 AP e denominada transformac
matriz A Mat (C, n) ` ao de similaridade.
Sabemos que o determinante e invariante por transformacoes de similaridade, pois para toda matriz A vale det(A) =
det(P 1 AP ), mas n ao e o u
nico objeto associado a uma matriz que e invariante por tais transformacoes. O polinomio
caracterstico e, portanto, o conjunto de seus autovalores (incluindo as multiplicidades algebricas), tambem o e. Isso e o
conte
udo da seguinte afirmacao.
Proposiao 9.5 Sejam A e B Mat (C, n) duas matrizes similares, ou seja, tais que existe P Mat (C, n), inversvel,
c
com B = P 1 AP . Ent
ao, os polin
omios caractersticos de A e de B coincidem: pA = pB .
uentemente, se A e B Mat (C, n) s
Conseq ao similares, seus autovalores s
ao iguais (e, portanto, seus espectros:
(A) = (B)), incluindo suas multiplicidades algebricas. 2

Prova. O polinomio caracterstico de A e pA (z) = det(z 1 A) e o de B e pB (z) = det(z 1 B). Logo,

pA (z) = det(z 1 A) = det(P 1 (z 1 A)P ) = det(z 1 P 1 AP ) = det(z 1 B) = pB (z) , (9.32)

para todo z C. Acima usamos o fato que para P inversvel e para qualquer matriz M vale det(P 1 M P ) =
det(P 1 ) det(M ) det(P ) = det(P 1 P ) det(M ) = det(1) det(M ) = det(M ).

Coment
arios sobre matrizes inversveis e sobre matrizes n
ao-inversveis
Proposi ao 9.6 Seja A Mat (C, n) uma matriz arbitr
c aria e B Mat (C, n) uma matriz inversvel. Ent
ao, existem
constantes M1 e M2 (dependentes de A e de B) com 0 < M1 M2 tais que a matriz A + B e inversvel para todo
C com 0 < || < M1 e para todo C com || > M2 . 2


Prova. Como B tem inversa, podemos escrever A + B = 1 + AB 1 B. Assim, A + B sera inversvel se e somente
se 1 + AB 1 o for.
Seja C AB 1 e sejam {1 , . . . , n } C as n razes (nao necessariamente distintas) do polinomio caracterstico
pC da matriz C. Se todos as razes forem nulas, tomemos M1 = M2 > 0, arbitrarios. De outra forma, definamos M1
ao-nulas de pC : M1 := min{|k |, k 6= 0} e definimos M2 como sendo
como sendo o menor valor de |k | dentre as razes n
o maior valor de |k | para todos os ks: M2 := max{|k |, k = 1, . . . , n}. Ent
ao, o conjunto { C| 0 < || < M1 } e o
conjunto { C| || > M2 } n ao contem razes do polinomio caracterstico de C e, portanto, para nesses conjuntos a
matriz 1 C = 1 + AB 1 e inversvel.

Uma conseq
uencia evidente da Proposicao 9.6 e a seguinte afirmacao:
Corolario 9.3 Seja B Mat (C, n) uma matriz inversvel e A Mat (C, n) uma matriz arbitr
aria. Ent
ao, existem
constantes 0 < N1 N2 (dependentes de A e de B) tais que para toda C com || < N1 ou com || > N2 a matriz
B + A e tambem inversvel. 2

 = 0 a afirmacao e evidente. Para 6= 0 a afirmacao segue Proposicao 9.6 escrevendo-se B + A =


Prova. Para
A + 1 B e tomando-se = 1/, N1 = 1/M2 e N2 = 1/M1 .

O interesse pelo Corolario 9.3 e devido ao fato de este afirmar que se B Mat (C, n) uma matriz inversvel ent ao
toda matriz proxima o suficiente da mesma e tambem inversvel. O estudante mais avancado h a de reconhecer que essa
afirmacao ensina-nos que o conjunto da matrizes inversveis em Mat (C, n) e um conjunto aberto (em uma topologia
metrica adequada). Essa afirmacao sera generalizada (a saber, para algebras de Banach com unidade) no Corolario 38.6,
p
agina 1903.
A Proposicao 9.6 afirma tambem que e sempre possvel encontrar uma matriz inversvel proxima a uma matriz
ao-inversvel. De fato, se A Mat (C, n) n
n ao tem inversa a Proposicao 9.6 garante que a matriz A + 1, por exemplo,
sera inversvel para todo C com || pequeno o suficiente, mas n
ao-nulo.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 353/2103

Uma forma geometrica de compreender as afirmacoes de acima e lembrar que conjunto Mat (C, n) e um espaco
vetorial n2 -dimensional complexo e as matrizes inversveis sao um subconjunto (n2 1)-dimensional do mesmo, pois sao
caracterizados pela condicao de terem determinante nulo, uma condicao polinomial sobre os n2 coeficientes das matrizes
que define, portanto, uma uni ao finita de superfcies algebricas (n2 1)-dimensionais fechadas em Mat (C, n). Desse
ponto de vista geometrico, fica claro que o conjunto das matrizes inversveis e aberto (por ser o complementar das
superfcies fechadas mencionadas acima) e fica claro que e sempre possvel encontrar uma matriz inversvel proxima a
uma matriz n ao-inversvel, pois estas u
ltimas residem em superfcies algebricas de dimensao menor que a dimensao de
Mat (C, n).

Uma propriedade dos polin


omios caractersticos
A seguinte proposicao, a qual contem uma afirmacao em nada evidente, e uma conseq
uencia da Proposicao 9.5, p
agina
352, e da Proposicao 9.6, p
agina 352:
Proposi ao 9.7 Sejam A, B Mat (C, n). Ent
c ao, o polin
omio caracterstico de AB e igual ao polin
omio caracterstico
de BA, ou seja, pAB = pBA .
uentemente, se A, B Mat (C, n) ent
Conseq ao as matrizes AB e BA tem os mesmos autovalores (e, portanto, os
mesmos espectros: (AB) = (BA)), com as mesmas multiplicidades algebricas. 2

O estudante mais avancado poder a interesar-se em encontrar na Proposicao 38.28, p


agina 1904, uma versao dos
resultados da Proposicao 9.7 para o caso de
algebras de Banach com unidade.
Prova da Proposicao 9.7. Se A ou B sao inversveis (ou ambas), ent
ao AB e BA sao similares, pois no primeiro caso
teremos AB = A(BA)A1 e no segundo teremos AB = B 1 (BA)B. Nesses casos a afirmacao segue da Proposicao 9.5,
p
agina 352. O u nico caso que resta considerar e aquele no qual nem A nem B sao inversveis. Nesse caso, porem, temos
agina 352, que existe M > 0 tal que a matriz A + 1 e inversvel para todo C pertencente
pela Proposicao 9.6, p
ao aberto 0 < || < M . Assim, para tais valores de valera, pelo raciocnio acima p(A+1)B = pB(A+1) . Agora, os
coeficientes de p(A+1)B e de pB(A+1) sao polinomios em e, portanto, sao funcoes contnuas de . Logo, a igualdade
p(A+1)B = pB(A+1) permanece valida no limite 0, fornecendo pAB = pBA , como desejavamos demonstrar.

A Proposicao 9.7 pode ser generalizada para matrizes n


ao-quadradas, como indicado no exerccio que segue:

E. 9.6 Exerccio. Sejam A Mat (C, m, n) e B Mat (C, n, m), de sorte que AB Mat (C, m) e BA Mat (C, n).
Mostre que xn pAB (x) = xm pBA (x). Sugestao: Considere as matrizes (m + n) (m + n) definidas por

A 0m, m B 0n, n
A :=


e B :=

.

0n, n 0n, m 0m, m 0m, n

(Vide (9.7), pagina 342). Mostre que



AB 0m, n BA 0n, m
A B =


e que B A =

.

0n, m 0n, n 0m, n 0m, m

Em seguida, prove que pA B (x) = xn pAB (x) e que pB A (x) = xm pBA (x). Pela Proposicao 9.7, tem-se pA B (x) = pB A (x),
de onde segue que xn pAB (x) = xm pBA (x).
Segue disso que o conjunto de autovalores nao-nulos de AB coincide com o conjunto de autovalores nao-nulos de BA:
(AB) \ {0} = (BA) \ {0} e, portanto, (AB) e (BA) podem nao ter em comum apenas o elemento 0. 6
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 354/2103

9.2.2 Autovetores

Autovetores
umero 0 C e um autovalor de uma matriz A se e somente se 0 1 A n
Pela definicao, um n ao tem inversa e,
portanto (pelo Corolario 9.1, p ao-nulo v tal que (0 1 A)v = 0,
agina 344) se e somente se existir um menos um vetor n
ou seja, tal que Av = 0 v. Chegamos a mais uma importante definicao:

Defini
c ao-nulo v e dito ser um autovetor de uma matriz A se houver 0 C tal que
ao. Um vetor n

Av = 0 v .

Note-se que se um tal 0 satisfaz a relacao acima para algum v 6= 0 ent ao 0 1 A n


ao tem inversa. 0 e ent
ao um
elemento do espectro de A, ou seja, um autovalor. 0 e dito ser o autovalor associado ao autovetor v.
Uma observacao importante e a seguinte. Sejam v1 e v2 dois autovetores aos quais est
a associado o mesmo autovalor,
ou seja, Av1 = 0 v1 e Av2 = 0 v2 . Ent ao, para quaisquer n
umeros complexos c1 e c2 o vetor v = c1 v1 + c2 v2 tambem
satisfaz Av = 0 v. De fato,

Av = A(c1 v1 + c2 v2 ) = c1 Av1 + c2 Av2 = c1 0 v1 + c2 0 v2 = 0 (c1 v1 + c2 v2 ) = 0 v .

A conclusao e que, para cada autovalor i de uma matriz A, a colecao formada pelo vetor nulo e todos os autovetores
de A com autovalor i e um subespaco vetorial. Vamos denotar esse subespaco por E(i ) ou simplesmente Ei .
Se i e j sao autovalores distintos de A entao os subespacos de autovetores E(i ) e E(j ) tem em comum apenas
o vetor nulo, ou seja, E(i ) E(j ) = {0}. Isso e facil de provar, pois se w e tal que Aw = i w e Aw = j w ent
ao,
subtraindo-se uma relacao da outra teramos 0 = (i j )w, que implica w = 0, ja que i 6= j .
Essas consideracoes nos levam a mais um conceito importante: o de multiplicidade geometrica de um autovalor.

A multiplicidade geom
etrica de um autovalor
Alem do conceito de multiplicidade algebrica de um autovalor, h
a tambem o conceito de multiplicidade geometrica
de um autovalor, do qual trataremos agora.
Como antes seja A Mat (C, n) uma matriz e sejam 1 , . . . , r , 1 r n, seus autovalores distintos, cada qual
com multiplicidade algebrica a1 , . . . , ar , respectivamente.
Acima introduzimos os subespacos Ei = E(i ), definidos como sendo os subespacos gerados por todos os autovetores
que tem i como autovalor. A multiplicidade geometrica de um autovalor i e definida como sendo a dimensao do
subespaco Ei , ou seja, como sendo o n
umero maximo de autovetores linearmente independentes com autovalor i .

E importante advertir de imediato o leitor do fato que a multiplicidade algebrica e multiplicidade geometrica de
autovalores nem sempre coincidem. Isso e bem ilustrado no seguinte exemplo simples. Seja

0 1
A =

.

0 0

Seu polinomio caracterstico e


1
pa () = det(1 A) = det

= 2 .

0

Assim, seu (
unico) autovalor e 0 com multiplicidade algebrica
2. Quais os seus autovetores?
S
aoaqueles
vetores
que
a 0 1 a b
, a relacao Av = 0 significa
satisfazem Av = 0. Denotando v como um vetor coluna v = = = 0.

b 0 0 b 0
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 355/2103


a

, a C. E evidente que o subespaco gerado pelos autovetores
Logo, b = 0 e todos os autovetores sao da forma v =
0
com autovalor zero tem dimensao 1. Assim, a multiplicidade algebrica do autovalor zero e 2 mas a sua multiplicidade
geometrica e 1.

A multiplicidade alg
ebrica e a multiplicidade geom
etrica
Apesar de a multiplicidade algebrica e a multiplicidade geometrica de um autovalor nem sempre coincidirem, h a uma
relacao de ordem entre eles. A saber, e possvel mostrar que a multiplicidade geometrica de um autovalor e sempre menor
ou igual `a sua multiplicidade algebrica.
Isso segue das seguintes consideracoes. Seja 0 um autovalor de A Mat (C, n) e E(0 ) o subespaco gerado pelos
autovetores com autovalor 0 , e cuja dimensao denotaremos por d. Vamos escolher uma base v1 , . . . , vd , vd+1 , . . . , vn
onde os primeiros d vetores sao elementos de E(0 ). Nessa base a matriz A tem a forma

D 0d, nd
,

A3 A4

onde D e uma matriz d d diagonal D = diag 0 , . . . , 0 , A4 e uma matriz (n d) (n d) e A3 e uma matriz


| {z }
d vezes
(n d) d. Alguns segundos (minutos?) de meditacao, usando a Proposicao 9.3 da pagina 349, nos levam a concluir
que o polinomio caracterstico de A e dado por

det(1 A) = ( 0 )d det(1 A4 ) .

Isso mostra que a multiplicidade algebrica de 0 e pelo menos igual a d, sua multiplicidade geometrica.

E. 9.7 Exerccio. Realize a meditacao sugerida acima. 6

Matrizes simples
O que foi exposto acima leva-nos naturalmente ao conceito de matriz simples que, como veremos mais adiante, est
a
intimamente ligado ao problema da diagonalizabilidade de matrizes.

Defini ao. Uma matriz A Mat (C, n) e dita ser uma matriz simples se cada autovalor de A tiver uma multiplicidade
c
algebrica igual `a sua multiplicidade geometrica.
Deixamos para o leitor provar o seguinte fato: toda matriz diagonal e simples.

E. 9.8 Exerccio. Prove isso. 6

Adiante faremos uso da seguinte proposicao.


Proposi c ao P 1 AP e tambem
ao 9.8 Se A Mat (C, n) e uma matriz simples e P Mat (C, n) e inversvel ent
simples. 2

Prova. Ja vimos na Proposicao 9.5, p agina 352, que A e P 1 AP tem o mesmo polinomio caracterstico e, portanto, os
mesmos autovalores, incluindo suas multiplicidades algebricas. Seja 0 um desses autovalores com multiplicidade algebrica
d e sejam v1 , . . . , vd um conjunto de d autovetores linearmente independentes de A. Os vetores P 1 v1 , . . . , P 1 vd
sao autovetores de P 1 AP com autovalor 0 . De fato, P 1 AP P 1 vi = P 1 Avi = 0 P 1 vi . Fora isso os d vetores
P 1 v1 , . . . , P 1 vd sao tambem linearmente independentes. Para ver isso, suponha houvesse constantes c1 , . . . , cd tais
que
c1 P 1 v1 + + cd P 1 vd = 0 .
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 356/2103

Multiplicando-se `a esquerda por P teramos c1 v1 + + cd vd = 0. Como v1 , . . . , vd sao linearmente independen-


tes as constantes ci tem que ser todas nulas, provando que os vetores P 1 v1 , . . . , P 1 vd sao tambem linearmente
independentes.
Isso prova que a multiplicidade geometrica do autovalor 0 e pelo menos igual a d. Como ela n
ao pode ser maior que
d (pagina 355), conclui-se que e igual a d provando a proposicao.

A seguinte proposicao elementar e por vezes u


til para verificar se uma matriz e simples.
Proposiao 9.9 Se todos os n autovalores de uma matriz A Mat (C, n) forem distintos ent
c ao A e simples. 2

Prova. Se os autovalores de A sao 1 , . . . , n , todos distintos, ent


ao cada um tem multiplicidade algebrica igual a 1.
Forcosamente, sua multiplicidade geometrica e tambem igual a 1, ja que a multiplicidade geometrica n
ao pode ser maior
que a algebrica.

Ressaltemos que a recproca da proposicao acima n


ao e verdadeira: uma matriz pode ser simples e possuir autovalores
com multiplicidade algebrica maior que 1.

9.2.3 O Tra
co de uma Matriz

O tra
co de uma matriz
Seja A Mat (C, n), cujos elementos de matriz sao Aij , i, j = 1, . . . n. Sejam 1 , . . . , n seus n autovalores (nao
necessariamente distintos e repetidos conforme sua multiplicidade).
Definimos o traco de A como sendo a soma de seus n autovalores:
n
X
Tr(A) := a .
a=1

Uma conclusao que se tira dessa definicao e que se duas matrizes sao similares, ent
ao ambas tem o mesmo traco, ou
seja, para qualquer matriz inversvel P e qualquer matriz A vale

Tr P 1 AP = Tr(A) . (9.33)

A raz
ao reside na observacao feita acima que duas matrizes similares tem o mesmo conjunto de autovalores e, portanto,
o mesmo traco.
Temos a seguinte e importante proposicao:
Proposiao 9.10 O traco de uma matriz A Mat (C, n) e igual a soma dos elementos de sua diagonal principal, ou
c
seja,
Xn X n
Tr(A) := a = Aaa . (9.34)
a=1 a=1
2

Prova. A demonstracao consistir a em se calcular o coeficiente de n1 no polinomio caracterstico p() de A de dois


modos diferentes. O polinomio caracterstico pA () de A e dado
Pn por (9.29). As tecnicas de calculo de determinantes
(e.g., (9.21) e (9.22)) dizem-nos que o coeficiente de n1 e i=1 Aii . Por exemplo, para o caso n = 2

A11 A12
p() = det = 2 (A11 + A22 ) + A11 A22 A12 A21 .

A21 A22
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 357/2103

E. 9.9 Exerccio. Convenca-se da veracidade da afirmativa acima para o caso de n arbitrario. Sugestao: use a expansao
em cofatores (9.21)(9.22) ou leia a Secao 9.11.1, pagina 431. 6

Por outro lado, os autovalores de A, 1 , . . . , n , sao por definicao as razes do polinomio caracterstico. Logo,

p() = ( 1 )( 2 ) ( n ) .

Expandindo-se essa expressao, conclui-se que o coeficiente de n1 e

(1 + + n ) = Tr(A) .

E. 9.10 Exerccio. Certo? 6

Do exposto acima, conclui-se que o coeficiente de n1 no polinomio caracterstico de A e


n
X
Aii = (1 + + n ) = Tr(A) ,
i=1

o que termina a prova.

Essa proposicao leva a duas outras propriedades igualmente importantes: a linearidade do traco e a chamada propri-
edade cclica do traco.
Proposi
c co) Sejam A, B Mat (C, n) e , C. Ent
ao 9.11 (A Linearidade do Tra ao,

Tr(A + B) = Tr(A) + Tr(B) .

Prova. A prova e imediata por (9.34).

curioso notar que a linearidade do traco vista acima e evidente por (9.34), mas n
E ao e nem um pouco evidente pela
definicao do traco de uma matriz como soma de seus autovalores, pois os autovalores individuais de A + B n ao sao
em geral combinacoes lineares dos autovalores de A e de B, especialmente no caso em que A e B n ao comutam.
Proposi
c co) Sejam A, B Mat (C, n). Ent
ao 9.12 (A Propriedade Cclica do Tra ao,

Tr(AB) = Tr(BA) .

Prova. Pelo que vimos acima, tem-se


!
n
X n
X Xn n
X n
X n
X
Tr(AB) = (AB)ii = Aij Bji = Bji Aij = (BA)jj = Tr(BA) .
i=1 i=1 j=1 j=1 i=1 j=1

Na segunda e quarta igualdades usamos a regra de produto de matrizes. Na terceira igualdade apenas trocamos a ordem
das somas.

A propriedade cclica expressa na Proposicao 9.12 pode ser provada diretamente da definicao do traco de uma matriz
como soma de seus autovalores (incluindo multiplicidades algebricas) se recordarmos a Proposicao 9.7, p agina 353, que
afirma que AB e BA tem os mesmos auto-valores com as mesmas multiplicidades algebricas.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 358/2103

9.2.3.1 Algumas Relac


oes entre Determinantes e Tracos de Matrizes
Proposi ao 9.13 Seja A() Mat (C, n) uma matriz que depende de forma diferenci
c avel de uma vari
avel (que pode
ser real ou complexa) em um certo domnio. Ent
ao, vale
 
d   T d
det A() = Tr Cof A() A() . (9.35)
d d

Se A() for invertvel para todos os valores de no domnio considerado, vale tambem
 
1 d   1 d
 det A() = Tr A() A() . (9.36)
det A() d d

Prova. Por (9.17), tem-se


   
d   X d X d
det A() = sinal() A1(1) () An(n) () + + sinal()A1(1) () An(n) ()
d d d
Sn Sn

n
X 
= det Bk () ,
k=1
 
onde Bk () e a matriz obtida substituindo a k-esima linha da matrix A() pela linha d
d .
d Ak1 () d Akn ()
Usando a expansao em linha do determinante, expressao (9.21), temos
n  
 X d 
det Bk () = Akj () Cof A() kj .
j=1
d

Logo,
n X
n    
d   X d  T d
det A() = Akj () Cof A() kj = Tr Cof A() A() ,
d d d
k=1 j=1

estabelecendo (9.35). A relacao (9.36) segue de (9.35) com uso de (9.18).

A expressao (9.36) e u
til ate mesmo no contexto da Geometria Riemanniana. Para uma aplicacao naquele contexto,
vide expressao (34.108), pagina 1607. Uma das consequencias de (9.36) e o seguinte resultado, tambem muito u
til:
Proposiao 9.14 Seja A Mat (C, n). Ent
c ao, vale que

det eA = eTr(A) . (9.37)

Nota para o estudante. A noca


o de exponencial de uma matriz ser a apresentada em (10.20), pagina 445. E facil ver de (10.20) que
AeA = eA A para qualquer matriz A Mat (C, n). Da Proposica agina 447, segue facilmente que eA
o 10.6, p e invertvel e que sua inversa
e
eA tamb
em para qualquer A Mat (C, n).

d A
1 d A
Prova da Proposicao 9.14. Tome-se A() := eA . Ent
ao, d e = AeA = eA A (por (10.20)) e, portanto, eA d e =
d
 A
A. Dessa forma, (9.36) fica d ln det A() = Tr(A). Integrando-se em entre 0 e 1 e lembrando que A(1) = e e que
A(0) = 1, teremos ln det eA = Tr(A), que e o que queramos provar.

Uma segunda demonstracao da Proposicao 9.14 sera encontrada na Proposicao 10.7, p


agina 449.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 359/2103

9.3 Polin
omios de Matrizes

Polin
omios de matrizes
Seja p um polinomio de grau m: p(x) = am xm + + a1 x + a0 com x C, aj C e am 6= 0. Para uma matriz
A Mat (C, n) definimos o polin
omio matricial p(A) por

p(A) = am Am + + a1 A + a0 1 .

Obviamente p(A) e tambem uma matriz n n com entradas complexas.


Se as razes do polinomio p forem 1 , . . . , r , com multiplicidades m1 , . . . , mr , respectivamente, ent
ao
r
Y
p(x) = am (x j )mj ,
j=1

f
para todo x C. E acil provar, ent
ao, que
r
Y
p(A) = am (A j 1)mj .
j=1

E. 9.11 Exerccio. Justifique isso. 6

E. 9.12 Exerccio. Mostre que se D = diag (d1 , . . . , dn ) e q e um polinomio entao



q(D) = diag q(d1 ), . . . , q(dn ) .

E. 9.13 Exerccio. Suponha que A = P 1 DP , onde D = diag (d1 , . . . , dn ). Se q e um polinomio mostre que

q(A) = P 1 q(D)P = P 1 diag q(d1 ), . . . , q(dn ) P .

O polin
omio mnimo
Vamos mostrar que para cada matriz A Mat (C, n) sempre existe pelo menos um polinomio p com a propriedade
que p(A) = 0. Para tal notemos primeiramente que Mat (C, n) e um espaco vetorial complexo de dimensao n2 . De fato
toda a matriz A Mat (C, n), cujos elementos de matriz sao Aij C pode ser trivialmente escrita na forma
n X
X n
A = Aab E ab
a=1 b=1

onde E ab Mat (C, n) sao matrizes cujos elementos de matriz sao (E ab )ij = i,a j,b , ou seja, todos os elementos de
matriz de E ab sao nulos, exceto o elemento a, b, que vale 1.

E. 9.14 Exerccio. Certo? 6

Assim, vemos que as matrizes {E ab , a = 1, . . . , n, b = 1, . . . , n} formam uma base em Mat (C, n), mostrando que
Mat (C, n) e um espaco vetorial de dimensao n2 . Isto posto, temos que concluir que qualquer conjunto de mais de n2
matrizes n
ao-nulas em Mat (C, n) e linearmente dependente.
Se uma das matrizes Ak , k = 1, . . . , n2 , for nula, digamos Aq = 0, ent
ao o polinomio p(x) = xq tem a propriedade
que p(A) = 0, que e o que desejamos provar. Se, por outro lado, as matrizes Ak , k = 1, . . . , n2 , sao todas n
ao-nulas,
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 360/2103

ao o conjunto {1, A, A2 , . . . , An } e linearmente dependente, pois possui n2 + 1 elementos. Portanto, existem


2
ent
constantes c0 , . . . , cn2 , nem todas nulas, tais que
2
c0 1 + c1 A + c2 A2 + + cn2 An = 0 .
Como o lado esquerdo e um polinomio em A, fica provada nossa afirmacao que toda matriz possui um polinomio que a
anula. Chegamos `as seguintes definicoes:

Defini
c
ao Polin onico.. Um polinomio p : R C de grau n e dito ser um polin
omio M omio m
onico se for da forma

p(x) = xn + an1 xn1 + + a1 x + a0 ,


omio de maior grau (no caso, xn ) for igual a 1. Note-se que polinomios monicos nunca
ou seja, se o coeficiente do mon
sao identicamente nulos.

Definic
ao Polin omio Mnimo de uma Matriz.. Dada uma matriz A Mat (C, n), o polin omio mnimo de A e o
polinomio monico de menor grau que e anulado em A, ou seja, e o polinomio n
ao-nulo de menor grau da forma
M (x) = xm + am1 xm1 + + a1 x + a0
para o qual M (A) = 0.
As consideracoes acima mostram que um tal polinomio sempre existe e que tem grau no maximo igual a n2 . Essa
e, no entanto, uma estimativa exagerada para o grau do polinomio mnimo de uma matriz A Mat (C, n) pois, como
veremos abaixo, o polinomio mnimo de uma matriz A Mat (C, n) tem, na verdade, grau menor ou igual a n. Isso e
um corolario de um teorema conhecido como Teorema de Hamilton-Cayley , que demonstraremos abaixo (Teorema 9.3,
p
agina 361).
Finalizamos com um teorema b asico que garante a unicidade do polinomio mnimo e estabelece sua relacao com
outros polinomios que anulam A.
Teorema 9.2 O polin omio mnimo M de uma matriz A Mat (C, n) e u
nico. Fora isso se P e um polin omio n ao-
identicamente nulo que tambem se anula em A, ou seja, P (A) = 0, ent
ao P e divisvel por M , ou seja, existe um
omio F tal que P (x) = F (x)M (x) para todo x C.
polin 2

Demonstracao. Dada uma matriz A Mat (C, n), o polinomio mnimo de A e o polinomio de menor grau da forma
M (x) = xm + am1 xm1 + + a1 x + a0
para o qual M (A) = 0. Vamos supor que haja outro polinomio N da forma
N (x) = xm + bm1 xm1 + + b1 x + b0
para o qual N (A) = 0. Subtraindo um do outro teramos o polinomio
(M N )(x) = (am1 bm1 )xm1 + + (a1 b1 )x + (a0 b0 ) ,
que tem grau menor ou igual a m 1 e para o qual vale (M N )(A) = M (A) N (A) = 0 0 = 0. Como, por hipotese,
n
ao ha polinomios n
ao-nulos com grau menor que o de M que anulam A, isso e uma contradicao, a menos que M = N .
Isso prova a unicidade.
Seja P um polinomio n ao identicamente nulo para o qual valha P (A) = 0. Se p e o grau de P , deve-se ter p m,
onde m e o grau do polinomio mnimo de A. Logo, pelos bem conhecidos fatos sobre divisao de polinomios, podemos
encontrar dois polinomios F e R, cujos graus sao, respectivamente p m e r com 0 r < m, tais que
P (x) = F (x)M (x) + R(x) ,
para todo x C. Ora, isso diz que
P (A) = F (A)M (A) + R(A) .
Como P (A) = 0 e M (A) = 0, isso implica R(A) = 0. Como, porem, o grau de R e menor que m, tem-se que R deve ser
identicamente nulo. Isso completa a prova.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 361/2103

9.3.1 O Teorema de Hamilton-Cayley


Vamos aqui demonstrar um teorema sobre matrizes que sera usado mais adiante de varias formas, em particular no
Teorema Espectral, o chamado Teorema de Hamilton3 -Cayley4 , o qual afirma que toda matriz de Mat (C, n) anula seu
proprio polinomio caracterstico. Esse teorema fornece tambem, como veremos, um metodo eficiente para o c alculo da
inversa de matrizes. Cayley e Hamilton demonstraram casos particulares do teorema para matrizes 2 2, 3 3 (Cayley)
e 4 4 (Hamilton). A primeira demonstracao geral e devida a Frobenius5 . Cayley, Hamilton e Sylvester6 est
ao entre os
fundadores modernos da teoria das matrizes7 .
Teorema 9.3 (Teorema de Hamilton-Cayley) Seja A Mat (C, n) e seja pA (x) = det(x1 A) o polin
omio carac-
ao, pA (A) = 0.
terstico de A (e que tem grau n). Ent 2

Coment ario. No caso particular de matrizes diagonalizaveis o Teorema 9.3 pode ser provado elementarmente usando o Teorema Espectral,
como indicado no Exerccio E. 9.21, p
agina 371.

Prova do Teorema 9.3. Desejamos mostrar que para todo vetor y Cn vale pA (A)y = 0. Se y = 0 isso e trivial. Se y 6= 0
mas com Ay = 0 entao
pA (A)y = (1)n 1 n y ,
onde 1 , , n sao os autovalores de A. Mas a propria relacao Ay = 0 indica que um dos autovalores e igual a zero.
Logo pA (A)y = 0. Mais genericamente, se y 6= 0 e {y, Ay} n ao for um conjunto de vetores linearmente independentes,
ent
ao Ay e y sao proporcionais, ou seja, existe um autovalor, digamos, n tal que Ay = n y. Nesse caso tambem tem-se
n1
!
Y
pA (A)y = (A i 1) (A n 1)y = 0 ,
i=1

pois (A n 1)y = Ay n y = 0.
Seja ent ao-nulo e tal que {y, Ay} e um conjunto de dois vetores n
ao y daqui por diante um vetor fixado, n ao-nulos e
linearmente independentes.
Como o espaco Cn tem dimensao n, nem todos os conjuntos de vetores da forma

{y, Ay, A2 y, . . . , Aj y}

ao-nulos linearmente independentes. Por exemplo, se j n, o conjunto {y, Ay, A2 y, . . . , Aj y}


sao formados por vetores n
nao pode ser formado por vetores n ao-nulos linearmente independentes pois seu n
umero excede a dimensao do espaco.
Seja k o maior numero tal que {y, Ay, A2 y, . . . Ak1 y} e um conjunto de vetores n
ao-nulos e linearmente indepen-
claro que 1 < k n.
dentes. E
claro tambem, pela definicao de k, que
E

Ak y = hk y + hk1 Ay + + h1 Ak1 y , (9.38)

para constantes h1 , . . . , hk .
Vamos denominar z1 = Ak1 y, z2 = Ak2 y, . . . , zk = y, ou seja, zj = Akj y, j = 1, . . . , k, todos n ao-nulos por
otese. Caso k < n, escolhamos ainda vetores zk+1 , . . . , zn de modo que o conjunto {z1 , . . . , zn } forme uma base em
hip
Cn .
Coloquemo-nos agora a seguinte quest ao: qual e a forma da matriz A nessa base? No subespaco gerado pelos vetores
{z1 , . . . , zk } tem-se o seguinte: para i = 2, . . . , k vale Azi = zi1 . Alem disso, por (9.38), Az1 = h1 z1 + h2 z2 + + hk zk .
3 SirWilliam Rowan Hamilton (18051865).
4 Arthur Cayley (18211895).
5 Ferdinand Georg Frobenius (18491917)
6 James Joseph Sylvester (18141897).
7 Muitos certamente se surpreender
ao muitssimo em saber que, apesar de suas diversas e importantes contribuico
es `
a Matem
atica, Cayley
e Sylvester eram originalmente advogados.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 362/2103

Isso mostra que o subespaco gerado pelos vetores {z1 , . . . , zk } e invariante pela acao de A e o operador linear A, no
mesmo subespaco, tem a forma
h1 1 0 ... 0 0

..
h
2 0 1 . 0 0

. .. .. .. .. ..
.. . . . . .

. (9.39)
..
h
k2 0 0 . 1 0


h 0 0 ... 0 1
k1


hk 0 0 ... 0 0

E. 9.15 Exerccio. Justifique isso. 6

Se designarmos por P o operador que realiza essa mudanca de base, o operador linear A na base {z1 , . . . , zn } tem,
portanto, a forma A = P 1 AP , onde
A1 0k, nk
A =

,

A2 A3

onde A1 e a matriz k k definida em (9.39), A2 e uma matriz (n k) k e A3 e uma matriz (n k) (n k). N


ao nos
sera necessario especificar os elementos das matrizes A2 e A3 .
Outros segundos (minutos?) de meditacao, usando a Proposicao 9.3 da p
agina 349, nos levam a concluir que o
polinomio caracterstico pA pode ser escrito como

pA (x) = det(x1 A ) = det(x1 A1 ) det(x1 A3 ) .

O estudante deve recordar-se que as matrizes A e A , por serem similares, tem o mesmo polinomio caracterstico (Pro-
posicao 9.5, p
agina 352).
Vamos denominar qk (x) = det(x1 A1 ) e rk (x) = det(x1 A3 ). Claramente, pA (x) = qk (x)rk (x). N ao sera necessario,
no que segue, calcular rk , mas precisaremos calcular qk . Como esse pequeno resultado tem interesse independente, vamos
formula-lo como um lema, para futura referencia.
Lema 9.1 Para h1 , . . . , hk C, tem-se

x h1 1 0 ... 0 0

..
h
2 x 1 . 0 0

. .. .. .. ..
.. . . . .

qk (x) := det = xk (h1 xk1 + + hk1 x + hk ) . (9.40)
..
h
k2 0 0 . 1 0


h 0 0 ... x 1
k1


hk 0 0 ... 0 x

2
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 363/2103

Prova. A prova e feita por inducao. Para k = 2 vale



x h1 1
q2 (x) = det = x2 h1 x h2 .

h2 x

Para k > 2, tem-se, pelas bem conhecidas regras de c


alculo de determinantes,

x h1 1 0 0 x h1 1 0 0

.. ..
h
2 x . 0 0
h
2 x . 0 0

. .. .. . .. ..
qk (x) = x det . . . + 1 det . . .
. .


h 0 x 1 h 0 x 1
k2 k2


hk1 0 ... 0 x hk 0 ... 0 0
(k1)(k1) (k1)(k1)


1 0 . . . 0 0

x 1 . . . 0

0

k1+1
. . . . . . ..
= xqk1 (x) + (1) (hk ) det
. . . .


..
0
0 . 1 0


0 0 . . . x 1
(k2)(k2)

= xqk1 (x) + (1)k+1 hk (1)k2

= xqk1 (x) hk . (9.41)

E. 9.16 Exerccio. Complete os detalhes. 6

Assim, se pela hip


otese indutiva qk1 e da forma

qk1 (x) = xk1 (h1 xk2 + + hk2 x + hk1 ) ,

segue de (9.41) que

qk (x) = x(xk1 (h1 xk2 + + hk2 x + hk1 )) hk

= xk (h1 xk1 + + hk2 x2 + hk1 x + hk ) , (9.42)

como queramos provar.

Retomando, temos que pA (A)y = qk (A)rk (A)y = rk (A)qk (A)y. Sucede, porem, que qk (A)y = 0. De fato, pelo
c
omputo acima,
qk (A)y = Ak y h1 Ak1 y hk2 A2 y hk1 Ay hk y ,
que e igual a zero por (9.38). Logo pA (A)y = 0. Como y foi escolhido arbitrario, segue que pA (A) = 0, demonstrando o
Teorema de Hamilton-Cayley, Teorema 9.3.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 364/2103

O Teorema de Hamilton-Cayley e a inversa de matrizes


O Teorema de Hamilton-Cayley fornece-nos um metodo de calcular a inversa de matrizes n ao-singulares. De fato, se
pA (x) = xn + an1 xn1 + + a1 x + a0 e o polinomio caracterstico de uma matriz n
ao-singular A, ent
ao o Teorema de
Hamilton-Cayley afirma que
An + an1 An1 + + a1 A + a0 1 = 0 ,
ou seja, 
A An1 + an1 An2 + + a2 A + a1 1 = a0 1 .
Isso tem por implicacao
1 
A1 = An1 + an1 An2 + + a2 A + a1 1 . (9.43)
a0
Vide (9.164), p
agina 431, para uma expressao mais explcita.
Nota. Usando a definica omio caracterstico pA (x) = det(x1 A),
o de polin e evidente (tomando-se x = 0) que a0 = (1)n det(A). Assim,
a0 6= 0 se e somente se A for n
ao-singular.

Em muitos casos a formula (9.43) e bastante eficiente para calcular A1 , pois a mesma envolve poucas operacoes
algebricas em comparacao com outros metodos, o que e uma vantagem para valores grandes de n. Compare, por
exemplo, com a regra de Laplace, expressao (9.20), p alculo de A1 , que envolve o c
agina 345, para o c omputo de n2 + 1
determinantes de sub-matrizes de ordem n 1 de A.

E. 9.17 Exerccio. Use esse metodo para calcular a inversa das suas matrizes nao-singulares favoritas. 6

De volta ao polin
omio mnimo
O Teorema 9.2, p agina 360, e o Teorema de Hamilton-Cayley, juntos, permitem-nos precisar algo a respeito da forma
geral do polinomio mnimo de uma matriz.
Se A Mat (C, n) tem r autovalores distintos 1 , . . . , r , cada qual com multiplicidade algebrica a1 , . . . , ar ,
respectivamente, ent
ao seu polinomio caracterstico pA e da forma
r
Y
pA (x) = (x k )ak .
k=1

Pelo Teorema de Hamilton-Cayley, pA (A) = 0 e, portanto, pelo Teorema 9.2, M , o polinomio mnimo de A, divide q.
Logo, M deve ser da forma
Ys
M (x) = (x kl )bl , (9.44)
l=1
onde s r, {k1 , . . . , ks } {1 , . . . , r } e onde 0 < bl akl para todo 1 l s. Seja agora, porem, vm 6= 0 um
autovetor de A com autovalor m Segue do fato que M (A) = 0 que
s
Y s
Y
0 = M (A)vm = (A kl 1)bl vm = (m kl )bl vm .
l=1 l=1
Qs bl
Logo, l=1 (m kl ) = 0 e isso implica que m {k1 , . . . , ks }. Como isso vale para todo 1 m r, segue que
{1 , . . . , r } {k1 , . . . , ks } e, portanto, {1 , . . . , r } = {k1 , . . . , ks }. Nossa conclusao e resumida no seguinte:
Proposi ao 9.15 Seja A Mat (C, n) com r autovalores distintos 1 , . . . , r C, cada qual com multiplicidade
c
algebrica a1 , , . . . , ar , sendo 1 r n. Ent
ao, M , o polin
omio mnimo de A, e da forma
r
Y
M (x) = (x k )bk , (9.45)
k=1

x C, onde 0 < bl al para todo 1 l r. Em particular, se A Mat (C, n) tiver exatamente n autovalores
distintos, teremos que bl = al = 1 para todo 1 l n, e
n
Y
M (x) = pA (x) = (x k ) ,
k=1
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 365/2103

x C. 2

Usos do Teorema de Hamilton-Cayley para matrizes 2 2

E. 9.18 Exerccio. Usando o Teorema de Hamilton-Cayley, mostre que toda matriz 2 2 complexa A Mat (C, 2)
satisfaz
A2 Tr(A)A + det(A)1 = 0 . (9.46)

omio caracterstico e pA (x) = x2 Tr(A)x + det(A).
Sugestao: se A = ac db , mostre que seu polin
Se A Mat (C, 2) for inversvel, mostre com uso de (9.46) que vale a simples relacao
1  
A1 = Tr(A)1 A . (9.47)
det(A)
 1
 a+d 0
  1 d b

Assim, se A = ac db tem inversa (ou seja, se ad bc 6= 0), entao A1 = adbc 0 a+d a b
c d = adbc c a ,
resultado esse bem conhecido e que pode ser obtido por diversos outros metodos.
A identidade (9.46) tem emprego importante na Mecanica Quantica de sistemas desordenados unidimensionais e na
Mecanica Estatstica. 6

9.3.1.1 O Teorema da Aplicac


ao Espectral para Matrizes
Vamos nesta secao demonstrar um importante teorema sobre o espectro de matrizes. Esse teorema e sua demonstracao
deixam-se generalizar com toda literalidade a uma situacao mais geral, a saber, a de algebras de Banach. Vide Secao
38.3.5.1, p
agina 1908.
Como acima, denotamos por (M ) o espectro (conjunto de autovalores) de uma matriz M Mat (C, m). Seja a
lgebras de matrizes Mat (C, m) e seja um polinomio p(z) = a0 + a1 z + + an z n definido para z C. Para A
a
M at(C, n) definimos, como antes, p(A) := a0 1 + a1 A + + an An Mat (C, m). O Teorema da Aplicacao Espectral,
que demonstraremos logo abaixo consiste na afirmacao que p(A) = p (A) , onde
 
p (A) := p(), (A) .

Para demonsta-lo, usaremos o seguinte resultado:


ao, se (A), a matriz (A 1)q(A) n
Lema 9.2 Seja A Mat (C, m). Ent ao tem inversa para nenhum polin
omio
q. 2

ao, p(A) = (A 1)q(A). E


Prova. Seja p(z) := (z )q(z). Ent evidente que q(A) e p(A) comutam com A: q(A)A =
Aq(A) e p(A)A = Ap(A). Desejamos provar que p(A) n ao tem inversa e, para tal, vamos supor o oposto, a saber, vamos
supor que exista W Mat (C, m) tal que W p(A) = p(A)A = 1.
Vamos primeiramente provar que A e W comutam. Seja C := W A AW . Ent ao, multiplicando-se `a esquerda
por p(A), teremos p(A)C = A p(A)AW = A Ap(A)W = A A = 0. Assim, p(A)C = 0 e multiplicando-se essa
igualdade `a esquerda por W teremos C = 0, estabelecendo que W A = AW . Naturalmente, isso implica tambem que
q(A)W = W q(A).
Agora, por hipotese, A satisfaz p(A)W = W p(A) = 1, ou seja, (A 1)q(A)W = 1 e W (A 1)q(A) = 1. Usando
a comutatividade de q(A) com A e com W , essa u ltima relacao pode ser reescrita como q(A)W (A 1) = 1. Assim,
estabelecemos que    
(A 1) q(A)W = 1 e q(A)W (A 1) = 1

o que significa que A 1 tem inversa, sendo (A 1)1 = q(A)W , uma contradicao com a hipotese que (A).
Logo, p(A) n ao pode ter inversa.

Passemos agora ao nosso objetivo.


JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 366/2103

Teorema 9.4 (Teorema da Aplicaao Espectral (para matrizes)) Seja A Mat (C, m). Ent
c ao,
  n o
p(A) = p (A) := p(), (A) (9.48)

para todo polin


omio p. 2

Prova. Vamos supor que p(z) = a0 + a1 z + + an z n seja de grau n 1, pois no caso de um polinomio constante a
afirmativa e trivial. Naturalmente, an 6= 0.

Tomemos p(A) , que e n ao-vazio, como sabemos, e sejam 1 , . . . , n as n razes do polinomio p(z) em C.
Entao, p(z) = an (z1 ) (zn ), o que implica p(A)1 = an (A1 1) (An 1). Se nenhum dos i pertencesse
a (A), entao cada
 fator (A j 1) seria inversvel, assim como o produto an (A 1 1) (A n 1), contrariando o fato
de p(A) . Logo, algum dos i pertence a (A). Como p(i ) = , isso diz que p(A) {p(), (A)}.
ao-vazio. Para (A) tem-se evidentemente que o polinomio
Provemos agora a recproca. Ja sabemos que (A) e n
p(z) p() tem como raiz. Logo, p(z) p() = (z )q(z), onde q e um polinomio de grau n 1. Portanto,
p(A) p()1 = (A 1)q(A) e como (A 1) n ao e inversvel, p(A) p()1 tambem n
ao pode s
e-lo (pelo Lema 9.2,
agina 365), o que diz-nos que p() (p(A)). Isso significa que {p(), (A)} p(A) , estabelecendo que
p
p(A) = {p(), (A)}.

9.4 Matrizes Diagonaliz


aveis e o Teorema Espectral

Matrizes diagonaliz
aveis
Vamos agora apresentar uma nocao intimamente ligada `a de matriz simples introduzida acima (pagina 355), mas de
import
ancia maior.

Definiao. Uma matriz A Mat (C, n) e dita ser uma matriz diagonaliz
c avel se existir uma matriz inversvel P
Mat (C, n) tal que P 1 AP e uma matriz diagonal, ou seja,

d1 0

. .. ..
P 1 AP = D = diag (d1 , . . . , dn ) =
.
. . . .


0 dn

facil de se ver que os elementos da diagonal de D sao os autovalores de A. De fato, se A e diagonaliz


E avel por P ,
vale para seu polinomio caracterstico
p() = det(1 A) = det(P 1 (1 A)P ) = det(1 P 1 AP ) = det(1 D)

d1 0

. .. ..
= det . . = ( d1 ) ( dn ) ,
. .


0 dn

o que mostra que os di sao as razes do polinomio caracterstico de A e, portanto, seus autovalores.

E. 9.19 Exerccio. Justifique todas as passagens acima. 6

Diagonaliza
c
ao de matrizes
O proximo teorema e fundamental no estudo de matrizes diagonaliz
aveis.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 367/2103

Teorema 9.5 Uma matriz A Mat (C, n) e diagonaliz avel se e somente se possuir um conjunto de n autovetores
linearmente independentes, ou seja, se e somente se o subespaco gerado pela colec
ao de todos os autovetores de A possuir
dimensao n. 2

Prova. Vamos primeiro provar que se A Mat (C, n) possui um conjunto de n autovetores linearmente independentes
ent
ao A e diagonaliz
avel. Para tal vamos construir a matriz P que diagonaliza A.
Seja {v 1 , . . . , v n } um conjunto de n autovetores linearmente independentes de A, cujos autovalores sao {d1 , . . . , dn },
respectivamente. Vamos denotar as componentes de v i na base canonica por vji , j = 1, . . . , n. Seja a matriz P definida
hh ii
por P = v 1 , . . . , v n , ou seja,

v11 v1n

. .. ..
P = .
. . . .


vn1 vnn

Como se ve pela construcao, a a-esima coluna de P e formada pelas componentes do vetor v a . Por (9.12), segue que
hh ii hh ii
AP = Av 1 , . . . , Av n = d1 v 1 , . . . , dn v n .

Por (9.15) vale, porem, que



v11 v1n d1 0
hh ii
. .. .. . .. ..
d1 v 1 , . . . , dn v n =
.
. . . .
. . . = PD .


vn1 vnn 0 dn

E. 9.20 Exerccio. Verifique. 6

Portanto, AP = P D. Como, por hip otese, as colunas de P sao formadas por vetores linearmente independentes,
tem-se que det(P ) 6= 0 (por que?). Logo, P e inversvel e, portanto, P 1 AP = D, como queramos demonstrar.
Vamos provar agora a afirmacao recproca que se A e diagonaliz
avel, ent
ao possui n autovetores linearmente inde-
pendentes. Suponha que exista P tal que

d1 0

1
. .. ..
P AP = D = .
. . . .


0 dn

evidente que os vetores da base can


E onica

1 0 0


0 1 0


.
e1 0 ,
= e2 0 ,
= ..., en = .
.

. .
.. .. 0



0 0 1
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 368/2103

sao autovetores de D com Dea = da ea . Logo, v a = P ea sao autovetores de A, pois

Av a = AP ea = P Dea = P (da ea ) = da P ea = da v a .

Para provar que os vetores v a sao linearmente independentes, suponha que existam n umeros complexos 1 , . . . , n tais
que 1 v 1 + + n v n = 0. Multiplicando-se `
a esquerda por P 1 teramos 1 e1 + + n en = 0. Como os ea sao
obviamente linearmente independentes, segue que 1 = = n = 0.

Matrizes diagonaliz
aveis e matrizes simples
Vamos agora discutir a relacao entre os conceitos de matriz diagonaliz
avel e o de matriz simples, conceito esse
introduzido `a p
agina 355. Tem-se a saber o seguinte fato:
Proposi cao 9.16 Uma matriz A Mat (C, n) e diagonaliz avel se e somente se for simples, ou seja, se e somente se a
multiplicidade algebrica de cada um dos seus autovalores coincidir com sua multiplicidade geometrica. 2

avel existe P tal que P 1 AP = D, diagonal. Como toda matriz diagonal, D e simples.
Prova. Se A e diagonaliz
Escrevamos D na forma

D = diag 1 , . . . , 1 , . . . , r , . . . , r , .
| {z } | {z }
a1 vezes ar vezes

Um conjunto de n-autovetores de D linearmente independentes e fornecido pelos vetores da base canonica:



1 0 0


0 1 0


.
e1 0 ,
= e2 0 ,
= ..., en = .
. .

. .
.. .. 0



0 0 1

Os vetores e1 , . . . , ea1 geram o subespaco de autovetores com autovalor 1 de D etc.


Para a matriz A, os vetores P e1 , . . . , P ea1 geram o subespaco de autovetores com autovalor 1 etc. E claro que a
1 a1
dimensao desse subespaco e a1 , pois P e , . . . , P e sao linearmente independentes, ja que os vetores da base canonica
e1 , . . . , ea1 o sao. Como isso tambem vale para os demais autovalores conclumos que A e simples.
Resta-nos agora mostrar que se A Mat (C, n) e simples entao A e diagonaliz avel. Como antes, sejam 1 , . . . , r ,
1 r n, seus autovalores distintos, cada qual com multiplicidade algebrica a1 , . . . , ar , respectivamente, e seja E(i )
o subespaco gerado pelos autovetores com autovalor i . Como A e simples, tem-se que a dimensao de E(i ) e ai . Ja
observamos (pagina 354) que subespacos E(i ) associados a autovalores distintos tem em comum Pr apenas o vetor nulo.
Assim, se em cada E(i ) escolhermos ai vetores independentes, teremos ao todo um conjunto de i=1 ai = n autovetores
(vide (9.30)) linearmente independentes de A. Pelo Teorema 9.5, A e diagonaliz avel, completando a prova.

Projetores
Uma matriz E Mat (C, n) e dita ser um projetor se satisfizer

E2 = E .

Projetores sao tambem denominados matrizes idempotentes.


Discutiremos varias propriedades importantes de projetores adiante, especialmente de uma classe especial de proje-
tores denominados projetores ortogonais. Por ora, vamos mostrar duas propriedades que usaremos logo abaixo quando
discutirmos o teorema espectral.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 369/2103

A primeira propriedade e a afirmacao que se e um autovalor de um projetor E ent


ao ou e igual a zero ou a um.
De fato se v e um autovetor associado a um autovalor de E, tem-se que Ev = v e E 2 v = 2 v. Como E 2 = E, segue
que 2 v = v. Logo ( 1) = 0 e, portanto, = 0 ou = 1.
A segunda propriedade e uma conseq uencia da primeira: o traco de um projetor E Mat (C, n) e um n umero inteiro
positivo ou nulo, mas menor ou igual a n. De fato, pela definicao, o traco de um projetor E e a soma de seus autovalores.
Como os mesmos valem zero ou um a soma e um inteiro positivo ou nulo. Como h a no maximo n autovalores a soma
n
ao pode exceder n. Na verdade, o u nico projetor cujo traco vale exatamente n e a identidade 1 e o u nico projetor cujo
traco vale exatamente 0 e a matriz nula (por que?).
Essas observacoes tem a seguinte conseq
uencia que usaremos adiante. Se E1 , . . . , Er sao r projetores n
ao-nulos com
a propriedade que
Xr
1 = Ea
a=1

ao r n. Para ver isso, basta tomar o traco de ambos os lados dessa expressao:
ent
r
X
Tr(1) = Tr(Ea ) . (9.49)
a=1

O lado esquerdo vale n enquanto que o lado direito e uma soma de r inteiros positivos. Obviamente isso so e possvel se
r n.
til e a seguinte: se E e E sao dois projetores satisfazendo EE = E E = 0, ent
Uma outra observacao u ao E + E e
igualmente um projetor, como facilmente se constata.

O Teorema Espectral
O chamado Teorema Espectral e um dos mais importantes teoremas de toda a Algebra Linear e, em verdade, de
toda Analise Funcional, ja que o mesmo possui generalizacoes para operadores limitados e n ao-limitados (auto-adjuntos)
agindo em espacos de Hilbert. Dessas generalizacoes trataremos na Secao 38.8.2, p
agina 1990, para o caso dos chamados
operadores compactos e na Secao 38.9, pagina 1996, para o caso geral de operadores limitados auto-adjuntos. Nessa versao
mais geral o teorema espectral e de importancia fundamental para a interpretacao probabilstica da Fsica Qu
antica. Vide
discuss
ao da Secao 38.9.5, p
agina 2012.
Teorema 9.6 (Teorema Espectral para Matrizes) Uma matriz A Mat (C, n) e diagonaliz avel se e somente se
existirem r N, 1 r n, escalares distintos 1 , . . . , r e projetores n
ao-nulos distintos E1 , . . . , Er Mat (C, n)
tais que
Xr
A = a Ea , (9.50)
a=1
r
X
1 = Ea (9.51)
a=1
e
Ei Ej = i, j Ej .

Os escalares 1 , . . . , r vem a ser os autovalores distintos de A. 2

Adiante demonstraremos uma versao um pouco mais detalhada desse importante teorema (Teorema 9.8, abaixo). Os
projetores Ea que surgem em (9.50) sao denominados projetores espectrais de A. A decomposicao (9.50) e freq
uentemente
denominada decomposic ao espectral de A. Na Proposicao 9.18, p
agina 371 mostraremos como os projetores espectrais
Ea de A podem ser expressos em termos de polinomios em A. Na Proposicao 9.19, p agina 372, provaremos a unicidade
da decomposicao espectral de uma matriz diagonaliz
avel.
avel existe P Mat (C, n) tal que P 1 AP = D = diag (1 , . . . , n ),
Prova do Teorema 9.6. Se A Mat (C, n) e diagonaliz
onde 1 , . . . , n sao os autovalores de A. Como pode haver autovalores repetidos, vamos denotar por {1 , . . . , r },
1 r n, o conjunto de autovalores distintos de A.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 370/2103

bem claro que podemos escrever


E
r
X
D = a Ka ,
a=1

onde as matrizes Ka sao todas matrizes diagonais, cujos elementos diagonais sao ou 0 ou 1 e tais que
r
X
Ka = 1 . (9.52)
a=1

As matrizes Ka sao simplesmente definidas de modo a terem elementos de matriz iguais a 1 nas posicoes da diagonal
ocupadas pelo autovalor a em D e zero nos demais. Formalmente,





1, se i = j e (D)ii = a


(Ka )ij = 0, se i = j e (D)ii 6= a .






0, se i 6= j

Por exemplo, se

2 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0


0 3 0 0 0 0 0 0 0 1 0 0 0 0 0 0

D =


teremos D = 2

+3

+4

.

0 0 2 0 0 0 1 0 0 0 0 0 0 0 0 0



0 0 0 4 0 0 0 0 0 0 0 0 0 0 0 1

f
E acil constatar que as matrizes Ka tem a seguinte propriedade:

Ka Kb = a, b Ka . (9.53)

De fato, e evidente que (Ka )2 = Ka para todo a, pois Ka e diagonal com zeros ou uns na diagonal. Analogamente, se
a 6= b Ka Kb = 0, pois os zeros ou uns aparecem em lugares distintos das diagonais das duas matrizes.
Como A = P DP 1 , tem-se que
r
X
A = a Ea ,
a=1
r
X
onde Ea := P Ka P 1 . E acil agora provar que 1 =
f Ea e que Ei Ej = i, j Ej . De fato, por (9.52),
a=1

r r r
!
X X X
Ea = P Ka P 1
= P Ka P 1 = P 1P 1 = 1 .
a=1 a=1 a=1

Analogamente, tem-se por (9.53),

Ea Eb = P Ka P 1 P Kb P 1 = P Ka Kb P 1 = a, b P Ka P 1 = a, b Ea .

Vamos agora provar a recproca. Vamos supor que A possua a representacao (9.50), onde os Ea s satisfazem as
propriedades enunciadas.
Notemos primeiramente que para x Cn , e para k {1, . . . , r}, tem-se por (9.50)
r
X
AEk x = j Ej Ek x = k Ek x .
j=1
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 371/2103

Logo, ou Ek x = 0 ou Ek x e autovetor de A. Assim, o subespaco S gerado pelos conjunto de vetores {Ek x, x Cn , k =


1, . . . , r} e um subespaco do espaco A gerado pelos autovetores de A. Agora, por (9.51), temos, para todo x Cn ,
r
X
x = 1x = Ek x
k=1

e este fato revela que Cn = S A e, portanto, que A = Cn . Assim, pelo Teorema 9.5, p
agina 367, A e diagonaliz
avel.
Isso completa a demonstracao.

No Teorema 9.8, pagina 374, apresentaremos uma segunda demonstracao do Teorema Espectral para Matrizes, a qual
lanca luz sobre outras condicoes de diagonalizabilidade de matrizes. Antes, exploremos algumas das conseq
uencias do
Teorema Espectral.

O C
alculo Funcional para matrizes diagonaliz
aveis
O Teorema Espectral tem o seguinte corol
ario, muitas vezes conhecido como c
alculo funcional.
alculo Funcional) Seja A Mat (C, n) uma matriz diagonaliz
Teorema 9.7 (C avel e seja
r
X
A = a Ea
a=1

sua decomposic
ao espectral, de acordo com o Teorema Espectral, o Teorema 9.6. Ent
ao, para qualquer polin
omio p vale
r
X
p(A) = p(a )Ea . (9.54)
a=1
2

r
X r
X r
X
Prova. Tem-se, pelas propriedades dos Ea s, A2 = a b Ea Eb = a b a, b Ea = (a )2 Ea . Analogamente,
a, b=1 a, b=1 a=1
r
X
mostra-se que Am = (a )m Ea , para qualquer m N. O resto da prova e trivial.
a=1

E. 9.21 Exerccio. Usando (9.54) demonstre novamente o Teorema de Hamilton-Cayley (Teorema 9.3, pagina 361), agora
apenas para o caso particular de matrizes diagonalizaveis. 6

Por simples constatacao verifica-se tambem facilmente a validade do seguinte resultado, que usaremos diversas vezes:
r
X
Proposiao 9.17 Seja A Mat (C, n) uma matriz diagonaliz
c avel e inversvel e seja A = a Ea sua decomposic
ao
a=1
r
X 1
ao, A1 =
espectral, de acordo com o Teorema Espectral, o Teorema 9.6. Ent Ea . 2

a=1 a

Obtendo os projetores espectrais


O Calculo Funcional para matrizes, Teorema 9.7, tem diversas conseq uencias praticas, uma delas sendo a seguinte
proposicao, que permite expressar os projetores espectrais de uma matriz A diretamente em termos de A e seus autova-
lores.
Proposi ao 9.18 Seja A Mat (C, n), n
c ao-nula e diagonalizavel, e seja A = 1 E1 + + r Er , com os k s distintos,
sua representac
ao espectral, descrita no Teorema 9.6. Sejam os polin omios pj , j = 1, . . . , r, definidos por
r  
Y x l
pj (x) := . (9.55)
l=1
j l
l6=j
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 372/2103

Ent
ao,
r r  
Y 1 Y
Ej = pj (A) = A l 1 (9.56)
k=1
j k l=1
k6=j l6=j

para todo j = 1, . . . , r. 2

Prova. Pela definicao dos polinomios pj , e evidente que pj (k ) = j, k . Logo, pelo Calculo Funcional para matrizes,
r
X
pj (A) = pj (k )Ek = Ej .
k=1

O Teorema Espectral para matrizes. Unicidade


Proposi
c
ao 9.19 A representac avel A Mat (C, n) descrita no Teorema 9.6 e
ao espectral de uma matriz diagonaliz
u
nica. 2

r
X
Demonstracao. Seja A Mat (C, n) diagonaliz
avel e seja A = k Ek a representacao espectral de A descrita no
k=1

r
X
Teorema 9.6, onde k , k = 1, . . . , r, com 1 r n sao os autovalores distintos de A, Seja A = k Ek uma segunda
k=1
representacao espectral para A, onde os k s sao distintos e onde os Ek s sao n
ao-nulos e satisfazem Ej El = j, l El e

Xr
Pr
1= Ek . Por essa u
ltima propriedade segue que para um dado vetor x 6= 0 vale x = k=1 Ek x, de modo que nem todos
k=1
Pr
ao-nulos. Tem-se que AEk 0 x = k=1 k Ek Ek 0 x = k0 Ek 0 x. Isso
os vetores Ek x sao nulos. Seja Ek 0 x um desses vetores n
mostra que k0 e um dos autovalores de A e, portanto, {1 , . . . , r } {1 , . . . , r }. Isso, em particular ensina-nos
que r r. Podemos sem perda de generalidade considerar que os dois conjuntos sejam ordenados de modo que k = k
para todo 1 k r . Assim,
Xr r
X
A = k Ek = k Ek . (9.57)
k=1 k=1

Sejam agora os polinomios pj , j = 1, . . . , r, definidos em (9.55), os quais satisfazem pj (j ) = 1 e pj (k ) = 0 para


todo k 6= j. Pelo Calculo Funcional descrito acima, segue de (9.57) que, com 1 j r ,

r
X r
X
pj (A) = pj (k )Ek = pj (k )Ek , Ej = Ej .
k=1 k=1
| {z } | {z }
=Ej =Ej

P
(A igualdade pj (A) = rk=1 pj (k )Ek segue do fato que os Ek s satisfazem as mesmas relacoes algebricas que os Ek s
e, portanto, para a representacao espectral de A em termos dos Ek s vale tambem o Calculo Funcional). Como 1 =
Xr Xr Xr
Ek = Ek e como Ej = Ej para 1 j r , tem-se Ek = 0. Multiplicando isso por El com r + 1 l r,
k=1 k=1 k=r +1
segue que El = 0 para todo r + 1 l r. Isso so e possvel se r = r , pois os E ks sao n
ao-nulos. Isso completa a
demonstracao.

Algumas outras identidades decorrentes do Teorema Espectral


JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 373/2103

Proposi ao 9.20 Seja A Mat (C, n) uma matriz diagonaliz


c avel e invertvel, cujos autovalores distintos sejam
{1 , . . . , r }, para algum 1 r n. Ent
ao, vale a identidade

r r   r r  
Y 1 Y Y 1 Y
A l 1 = 1 1
1

A l , (9.58)
j=1
k j l=1 j=1
1
k j
1
l=1
j6=k l6=k j6=k l6=k

para cada k {1, . . . , r}. 2

Observe-se tambem que (9.58) implica


r 
Y   r 
Y  
1
k 1
l A l 1 = l 1
k l A1 1 (9.59)
l=1 l=1
l6=k l6=k

e
r  r 
(1)r1 Y  Y 
r2 Qr A l 1 = l 1 .
A1 1 (9.60)
k j=1 j l=1 l=1
l6=k l6=k

Prova da Proposicao 9.20. Pelo Teorema Espectral e por (9.56) podemos escrever A em sua representacao espectral:

r r r  
X Y 1 Y
A = k A l 1 . (9.61)
k j l=1
j=1 k=1
j6=k l6=k

Se A e tambem invertvel, a Proposicao 9.17, pagina 371, informa-nos que



r r r  
X 1 Y 1 Y
A1 = A l 1 .
k j=1 k j l=1
k=1
j6=k l6=k

Por outro lado, se A e invertvel, A1 e diagonaliz avel (justifique!), e seus autovalores distintos sao {1 1
1 , . . . , r }
1
(justifique!). Logo, a representacao espectral de A e

r r r  
X Y 1 Y
A1 = k1 A 1
1
l 1 ,
k=1 j=1
1
k j
1
l=1
j6=k l6=k

   
Qr Qr
l 1 s
A1 1
1
onde as matrizes j=1
1 1 l=1 ao os projetores espectrais de A1 . Aplicando novamente a
j6=k k j l6=k

Proposicao 9.17, obtemos


r r  r
X Y 1 Y
A = k 1 1 l 1 .
A1 1 (9.62)
k=1 j=1
k j l=1
j6=k l6=k

Comparando (9.61) a (9.62) e evocando a unicidade da representacao espectral de A, conclumos pela validade de (9.58)
para cada k {1, . . . , r}.

E. 9.22 Exerccio. Seja A Mat (C, n) uma matriz diagonalizavel e invertvel com apenas dois autovalores distintos, 1
e 2 . Usando (9.58) ou (9.60) mostre que
1   
A1 = 1 + 2 1 A . (9.63)
1 2
Essa rela
 c1a1o nao e geralmente valida para matrizes nao-diagonalizaveis e invertveis com apenas dois autovalores distintos. A
0
matriz 0 1 0 tem autovalores +1 e 1, e invertvel, nao e diagonalizavel e nao satizfaz (9.63). Verifique! Prove (9.63)
0 0 1
diretamente do Teorema Espectral. 6
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 374/2103

O Teorema Espectral para matrizes. Uma segunda visita


O Teorema Espectral, Teorema 9.6, pode ser formulado de um modo mais detalhado (Teorema 9.8). A principal
utilidade dessa outra formulacao e a de fornecer mais informacoes sobre os projetores espectrais Ea (vide expressao
(9.66), abaixo). Obtem-se tambem nessa nova formulacao mais condicoes necessarias e suficientes `a diagonalizabilidade
e que podem ser uteis, como veremos, por exemplo, no Teorema 9.22 provado adiante (pagina 377). No teorema a seguir
e em sua demonstracao seguimos parcialmente [74].
ao Detalhada) Seja A Mat (C, n). S
Teorema 9.8 (Teorema Espectral para Matrizes. Vers ao equivalentes
as seguintes afirmac
oes:

1. A possui n autovetores linearmente independentes, ou seja, o subespaco gerado pelos autovetores de A tem dimens
ao
n.
2. A e diagonaliz avel, ou seja, existe uma matriz P Mat (C, n) inversvel tal que P 1 AP e uma matriz diagonal
diag (d1 , . . . , dn ), onde os di s s
ao autovalores de A.
3. Para todo vetor x Cn e todo escalar C tais que (A 1)2 x = 0, vale que (A 1)x = 0.
4. Se x e um vetor nao-nulo tal que (A 1)x = 0 para algum C ent
ao n
ao existe nenhum vetor y com a
propriedade que (A 1)y = x.
5. Todas as razes do polin
omio mnimo de A tem multiplicidade 1.
6. Existem r N, escalares distintos 1 , . . . , r e projetores distintos E1 , . . . , Er Mat (C, n), denominados
projetores espectrais de A, tais que
X r
A = a Ea .
a=1
Alem disso, as matrizes Ea satisfazem
r
X
1 = Ea (9.64)
a=1
e
Ei Ej = i, j Ej . (9.65)

Os projetores espectrais Ek do item 6, acima, podem ser expressos em termos de polin


omios da matriz A:
1
Ek = mk (A) , (9.66)
mk (k )
para todo k, 1 k r, onde os polin
omios mk s
ao definidos por
M (x) = (x k )mk (x) ,
M sendo o polin
omio mnimo de A. 2

Demonstracao. A prova da equivalencia sera feita demonstrando-se sucessivamente as seguintes implicacoes: 1 2,


2 3, 3 4, 4 5, 5 6, 6 1. Que 1 implica 2 ja foi demonstrado no Teorema 9.5, pagina 367.

2 3. Seja D = P 1 AP diagonal. D = diag (d1 , . . . , dn ). Seja (A 1)2 x = 0. Segue que


P 1 (A 1)2 P y = 0
onde y = P 1 x. Logo,
(D 1)2 y = 0 ,
y1 !
2
ou seja, (dj ) yj = 0, j = 1, . . . , n, onde yj sao as componentes de y: y = .. . Agora, e evidente que se
.
yn
(da )2 ya = 0 ent
ao (da )ya = 0. Logo
(D 1)y = 0 .
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 375/2103

Usando-se y = P 1 x e multiplicando-se `
a direita por P , conclumos que

0 = P (D 1)P 1 x = (P DP 1 1)x = (A 1)x ,

que e o que queramos provar.


3 4. A prova e feita por contradicao. Vamos supor que para algum vetor x 6= 0 exista C tal que (A 1)x = 0.
Suponhamos tambem que exista vetor y tal que (A 1)y = x. Teramos

(A 1)2 y = (A 1)x = 0 .

Pelo item 3 isso implica (A 1)y = 0. Mas isso diz que x = 0, uma contradicao.
4 5. Seja M o polinomio mnimo de A, ou seja, o polinomio monico8 de menor grau tal que M (A) = 0. Vamos
mostrar que todas as razes de M tem multiplicidade 1. Vamos, por contradicao, supor que haja uma raiz, 0 , com
multiplicidade maior ou igual a 2. Teramos, para x C,

M (x) = p(x)(x 0 )2 .

Assim, M (A) = p(A)(A 0 1)2 = 0. Como M e, por definicao, o polinomio de menor grau que zera em A, segue
que
p(A)(A 0 1) 6= 0 .
Assim, existe pelo menos um vetor z tal que p(A)(A0 1)z =
6 0. Vamos definir um vetor x por x := p(A)(A0 1)z.
Ent
ao,
(A 0 1)x = (A 0 1)p(A)(A 0 1)z = p(A)(A 0 1)2 z = M (A)z = 0 ,
pois M (A) = 0. Agora, pela definicao,
x = (A 0 1)y ,
onde y = p(A)z. Pelo item 4, porem, isso e impossvel.
5 6. Pela hipotese que as razes de M sao simples segue da expressao (9.45) da Proposicao 9.15, p
agina 364, que para
x C,
Yr
M (x) = (x j ) ,
j=1

onde j sao as razes de M e que coincidem com os r autovalores distintos de A. Para k = 1, . . . , r defina-se os
polinomios mk por
M (x) =: (x k )mk (x) ,
ou seja,
r
Y
mk (x) := (x j ) .
j=1
j6=k

claro que mk (j ) = 0 j 6= k (por que?).


E
Vamos agora definir mais um polinomio, g, da seguinte forma:
r
X 1
g(x) = 1 mk (x) .
mk (k )
k=1

Como os polinomios mk tem grau r 1, o polinomio g tem grau menor ou igual a r 1. Porem, observe-se que,
para todos os j , j = 1, . . . , r, vale
r
X 1 mj (j )
g(j ) = 1 mk (j ) = 1 = 0.
mk (k ) mj (j )
k=1
8A definica
o de polin
omio m
onico est
a`a p
agina 360.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 376/2103

Assim, g tem pelo menos r razes distintas! O u nico polinomio de grau menor ou igual a r 1 que tem r razes
distintas e o polinomio nulo. Logo, conclumos que
r
X 1
g(x) = 1 mk (x) 0
mk (k )
k=1

para todo x C. Isso significa que todos os coeficientes de g sao nulos. Assim, para qualquer matriz B tem-se
g(B) = 0. Para a matriz A isso diz que
r
X 1
1 = mk (A) .
mk (k )
k=1

Definindo-se
1
Ek := mk (A) , (9.67)
mk (k )
conclumos que
r
X
1 = Ek . (9.68)
k=1

Para todo k vale 0 = M (A) = (A k 1)mk (A), ou seja, Amk (A) = k mk (A). Pela definicao de Ek isso significa

AEk = k Ek .

Assim, multiplicando-se ambos os lados de (9.68) por A, segue que


r
X
A = k Ek .
k=1

Para completar a demonstracao de 6, resta-nos provar que Ei Ej = i, j Ej .


Para i 6= j tem-se pela definicao dos Ek s que
1
Ei Ej = mi (A)mj (A)
mi (i )mj (j )

r r
1 Y Y
(A k 1) (A l 1)

=
mi (i )mj (j ) k=1 l=1
k6=i l6=j


r
" r #
1 Y Y
(A k 1) (A l 1)

=
mi (i )mj (j ) k=1 l=1
k6=i, k6=j


r
1 Y
(A k 1) M (A)

=
mi (i )mj (j ) k=1
k6=i, k6=j

= 0,

pois M (A) = 0. Resta-nos provar que Ej2 = Ej para todo j. Multiplicando-se ambos os lados de (9.68) por Ej
teremos
Xr
Ej = Ej Ek = Ej Ej ,
k=1

ja que Ej Ek = 0 quando j 6= k. Isso completa a demonstracao do item 6.


JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 377/2103

6 1. Notemos primeiramente que para todo vetor x, os vetores Ek x ou sao nulos ou sao autovetores de A. De fato, por
6,
Xr
AEk x = j Ej Ek x = k Ek x .
j=1

Logo, ou Ek x = 0 ou Ek x e autovetor de A. O espaco gerado pelos autovetores de A obviamente tem dimensao


menor ou igual a n. Por (9.68), porem, vale para todo vetor x que
r
X
x = 1x = Ek x .
k=1

Assim, todo vetor x pode ser escrito como uma combinacao linear de autovetores de A, o que significa que o espaco
gerado pelos autovetores tem dimensao exatamente igual a n.

Isso completa a demonstracao do Teorema 9.8.

Destacamos ao leitor o fato de que a expressao (9.66) permite representar os projetores espectrais diretamente em
termos da matriz diagonaliz
avel A.

Diagonalizabilidade de projetores
A proposicao abaixo e uma aplicacao simples do Teorema 9.8 a projetores. A mesma sera usada abaixo quando
falarmos de diagonalizacao simult
anea de matrizes.
Proposiao 9.21 Seja E Mat (C, n) um projetor, ou seja, tal que E 2 = E. Ent
c ao, E e diagonaliz
avel. 2

Prova. Seja E Mat (C, n) um projetor. Definamos E1 = E e E2 = 1 E. Ent


ao, E2 e tambem um projetor, pois
(E2 )2 = (1 E)2 = 1 2E + E 2 = 1 2E + E = 1 E = E2 .
Tem-se tambem que E1 E2 = 0, pois E1 E2 = E(1 E) = E E 2 = E E = 0. Fora isso, e obvio que 1 = E1 + E2 e
que E = 1 E1 + 2 E2 , com 1 = 1 e 2 = 0. Ora, isso tudo diz que E satisfaz precisamente todas as condicoes do item
6 do Teorema 9.8. Portanto, pelo mesmo teorema, E e diagonaliz avel.

Uma condi
c
ao suficiente para diagonalizabilidade
Ate agora estudamos condicoes necessarias e suficientes para que uma matriz seja diagonaliz avel. Vimos que uma
matriz A Mat (C, n) e diagonaliz avel se e somente se for simples ou se e somente se tiver n autovetores linearmente
independentes ou se e somente se puder ser representada na forma espectral, como em (9.50). Nem sempre, porem, e
imediato verificar essas hip
oteses, de modo que e util saber de condicoes mais facilmente verific
aveis e que sejam pelo
menos suficientes para garantir diagonalizabilidade. Veremos abaixo que e, por exemplo, suficiente que uma matriz seja
auto-adjunta ou normal para garantir que ela seja diagonaliz avel.
Uma outra condicao u
til e aquela contida na seguinte proposicao.
Proposiao 9.22 Se A Mat (C, n) tem n autovalores distintos, ent
c ao A e diagonaliz
avel. 2

Prova. Isso e imediato pelas Proposicoes 9.9 e 9.16, das p


aginas 356 e 368, respectivamente.

Observac
ao. A condicao mencionada na u
ltima proposica
o
e apenas suficiente, pois h
a obviamente matrizes diagonaliz
aveis que n
ao t
em
autovalores todos distintos.

Outra forma de provar a Proposicao 9.22 e a seguinte. Seja {1 , . . . , n } o conjunto dos n autovalores de A,
todos distintos. O polinomio caracterstico de A e q(x) = (x 1 ) (x n ). Como as razes de q tem, nesse caso,
multiplicidade 1, segue pela Proposicao 9.15, p
agina 364, que o polinomio mnimo de A, M , coincide com o polinomio
caracterstico de A: q(x) = M (x), x C. Logo, o polinomio mnimo M de A tem tambem razes com multiplicidade
1. Assim, pelo item 5 do Teorema 9.8, p agina 374, A e diagonaliz
avel.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 378/2103

E. 9.23 Exerccio. Demonstre a seguinte afirmacao: se os autovalores de uma matriz A sao todos iguais, entao A e
ultiplo de 1. Sugestao: use o Teorema Espectral ou a forma geral do polinomio
diagonalizavel se e somente se for um m
mnimo (9.45). 6

Segue da afirmativa desse exerccio que matrizes triangulares superiores com diagonal principal constante, ou seja,
da forma
A12 . . . A1(n1) A1n


0 . . . A2(n1) A2n


. .. ..
A = . . ,
. .


0 0 ... A(n1)n



0 0 ... 0
aveis se todos os elementos acima da diagonal principal forem nulos, ou seja, se Aij = 0, j > i.
so sao diagonaliz
Naturalmente, a mesma afirmativa e valida para matrizes da forma AT , triangulares inferiores com diagonal principal
constante.

9.4.1 Diagonalizac
ao Simult
anea de Matrizes
Uma matriz A Mat (C, n) e dita ser diagonalizada por uma matriz P Mat (C, n) se P 1 AP for uma matriz diagonal.
Uma quest
ao muito importante e saber quando duas matrizes diagonaliz
aveis podem ser diagonalizadas por uma
mesma matriz P . A resposta e fornecida no proximo teorema.
Teorema 9.9 (Diagonaliza c
ao Simult aveis A e B Mat (C, n) podem
anea de Matrizes) Duas matrizes diagonaliz
ser diagonalizadas pela mesma matriz P Mat (C, n) se e somente se AB = BA, ou seja, se e somente se comutarem
entre si. 2

Prova. A parte facil da demonstracao e provar que se A e B podem ser diagonalizadas pela mesma matriz P ent
ao A e
B comutam entre si. De fato P 1 (AB BA)P = (P 1 AP )(P 1 BP ) (P 1 BP )(P 1 AP ) = 0, pois P 1 AP e P 1 BP
sao ambas diagonais e matrizes diagonais sempre comutam entre si (por que?). Assim, P 1 (AB BA)P = 0 e, portanto,
AB = BA.
Vamos agora passar a mostrar que se AB = BA ent ao ambas sao diagonalizaveis por uma mesma matriz P . Sejam
1 , . . . , r os r autovalores distintos de A e 1 , . . . , s os s autovalores distintos de B. Evocando o teorema espectral,
A e B podem ser escritos de acordo com suas decomposicoes espectrais como
r
X s
X
A = i EiA e B = j EjB ,
i=1 j=1

onde, de acordo com (9.66),


1

Yr
Yr
EiA (A k 1) ,

= (i k ) i = 1, . . . , r (9.69)

k=1
k=1
k6=i k6=i

e 1

Ys
Ys
EjB (B k 1) ,

= (j k ) j = 1, . . . , s . (9.70)

k=1
k=1
k6=j k6=j

Como A e B comutam entre si e como EiA e EjB , dados em (9.69)(9.70), sao polinomios em A e B, respectivamente,
segue que EiA e EjB tambem comutam entre si para todo i e todo j.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 379/2103

Com isso, vamos definir


Qi, j = EiA EjB = EjB EiA
para i = 1, . . . , r e j = 1, . . . , s.
Note-se que os Qi, j s sao projetores pois

Q2i, j = (EiA EjB )(EiA EjB ) = (EiA )2 (EjB )2 = EiA EjB = Qi, j .

Fora isso, e facil ver que,


Qi, j Qk, l = i, k j, l Qi, j . (9.71)

E. 9.24 Exerccio. Mostre isso. 6

Note-se tambem que


r X
X s
1 = Qi, j , (9.72)
i=1 j=1

pois
r X
s r X
s r
! s
X X X X
Qi, j = EiA EjB = EiA EjB = 11 = 1 .
i=1 j=1 i=1 j=1 i=1 j=1

Afirmamos que podemos escrever


r X
X s
A = i,A j Qi, j (9.73)
i=1 j=1
e
r X
X s
B = i,B j Qi, j , (9.74)
i=1 j=1

onde i,A j = i e i,B j = j . De fato, com essas definicoes,

r X
s r X
s r
! s

X X X X
i,A j Qi, j = i EiA EjB = i EiA EjB = A1 = A .
i=1 j=1 i=1 j=1 i=1 j=1

Para B a demonstracao e analoga.


Nas relacoes (9.73) e (9.74) e possvel fazer simplificacoes em funcao do fato de que nem todos os projetores Qi, j sao
n
ao-nulos. Seja Q1 . . . , Qt a lista dos projetores Qi, j n ao-nulos, ou seja,

{Q1 . . . , Qt } = {Qi, j | Qi, j 6= 0, i = 1, . . . , r e j = 1, . . . , s} .

evidente por (9.71) que os Qk s sao projetores e que


E

Qk Ql = k, l Qk .

Por (9.72), tem-se


t
X
1 = Qk (9.75)
k=1

e por (9.73) e (9.74)


t
X
A = A
k Qk (9.76)
k=1
t
X
B = B
k Qk (9.77)
k=1
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 380/2103

onde as constantes A B
ao relacionadas de modo obvio com i,A j e i,B j , respectivamente.
k e k est
Em (9.76) e (9.77) vemos que A e B, por serem diagonaliz
aveis e por comutarem entre si, tem decomposicoes espectrais
com os mesmos projetores espectrais. Note-se tambem que, pela observacao feita no topico Projetores, `a p agina 368
(vide equacao (9.49)), tem-se 1 t n.
Vamos agora completar a demonstracao que A e B podem ser diagonalizados por uma mesma matriz inversvel P .
Seja Ek o subespaco dos autovetores de Qk com autovalor 1. Subespacos Ek s diferentes tem em comum apenas o
vetor nulo. De fato, se k 6= l e w e um vetor tal que Qk w = w e Ql w = w ent
ao, como Qk Ql = 0 segue que

0 = (Qk Ql )w = Qk (Ql w) = Qk w = w .

Seja dk a dimensao do subespaco Ek e seja u1k , . . . , udkk um conjunto de dk vetores linearmente independentes em
Ek . Notemos que dk coincide com a multiplicidade algebrica do autovalor 1 de Qk , pois, conforme P diz a Proposicao
avel e, portanto, e uma matriz simples (Proposicao 9.16). Como 1 = k=1 Qk , tem-se,
t
9.21, o projetor Qk e diagonaliz
Pt
tomando-se o traco, que n = k=1 dk . Pelas definicoes, temos que

Ql uak = k, l uak , (9.78)

pois Qk uak = uak e, portanto, Ql uak = Ql (Qk uak ) = (Ql Qk )uak = 0 para k 6= l.
Afirmamos que o conjunto de vetores

u11 , . . . , ud11 , u12 , . . . , ud22 , . . . u1t , . . . , udt t (9.79)

e formado por n vetores linearmente independentes. De fato, suponha que existam constantes ck, j tais que
dk
t X
X
ck, j ujk = 0 .
k=i j=1

Pdl
Aplicando-se `a direita Ql teramos j=1 cl, j ujl = 0, o que so e possvel se cl, j = 0 para todo j pois u1l , . . . , udl l , foram
escolhidos linearmente independentes. Como l e arbitrario, conclumos que cl, j = 0 para todo l e todo j, o que mostra
que o conjunto de vetores em (9.79) e linearmente independente.
ao a matriz P Mat (C, n) definida por
Seja ent
hh ii
P = u11 , . . . , ud11 , u12 , . . . , ud22 , . . . u1t , . . . , udt t .

P e inversvel pois o conjunto (9.79) e linearmente independente (e, portanto, det(P ) 6= 0).
Tem-se, hh ii
AP = Au11 , . . . , Aud11 , Au12 , . . . , Aud22 , . . . , Au1t , . . . , Audt t .
Pt
Escrevendo A = l=1 A
l Ql (9.76) e usando (9.78), temos

t
X
Auak = A a A a
l Ql u k = k u k .
l=1

Assim, hh ii
A d1 A d1 A dt
AP = A 1 A 1 A 1
1 u 1 , . . . , 1 u 1 , 2 u 1 , . . . , 2 u 1 , . . . , t u t , . . . , t u t = P DA ,
onde

DA = diag A , . . . , A A A A A

1 , 2 , . . . , 2 , . . . , t , . . . , t .
| 1 {z } | {z } | {z }
d1 vezes d2 vezes dt vezes

Portanto, P 1 AP = DA . Analogamente,
hh ii
BP = Bu11 , . . . , Bud11 , Bu12 , . . . , Bud22 , . . . Bu1t , . . . , Budt t .
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 381/2103

t
X
Escrevendo B = B
l Ql (9.77) temos,
l=1
hh ii
B d1 B d2 B dt
BP = B u
1 1
1
, . . . , u
1 1 , B 1
u
2 2 , . . . , u
2 2 , . . . , B 1
u
t t , . . . , u
t t = P DB ,

onde

DB = diag B , . . . , B B B B B

1 , 2 , . . . , 2 , . . . , t , . . . , t .
| 1 {z } | {z } | {z }
d1 vezes d2 vezes dt vezes

Portanto, P 1 BP = DB . Isso provou que A e B sao diagonaliz


aveis pela mesma matriz inversvel P . A demonstracao
do Teorema 9.9 est
a completa.

9.5 Matrizes Auto-Adjuntas, Normais e Unit


arias

A adjunta de uma matriz


Seja V um espaco vetorial dotado de um produto escalar h, i e seja A : V V um operador linear. Um operador
linear A que para todos u, v V satisfaca
hu, Avi = hA u, vi
e dito ser o operador adjunto de A. Em espacos vetoriais gerais n
ao e obvio (e nem sempre verdadeiro!) que sempre exista
o adjunto de um operador linear A dado. H a muitos casos, porem, nos quais isso pode ser garantido9. Aqui trataremos
do caso dos espacos V = Cn com o produto escalar usual.
Sejam u = (u1 , . . . , un ) e v = (v1 , . . . , vn ) dois vetores de Cn para os quais define-se o produto escalar usual
n
X
hu, vi = uk vk .
k=1

Um operador linear A e representado (na base canonica) por uma matriz cujos elementos de matriz sao Aij , com
i, j {1, . . . , n}.
um exerccio simples (faca!) verificar que o operador adjunto A de A e representado (na base canonica) por uma
E
matriz cujos elementos de matriz sao (A )ij = Aji , com i, j {1, . . . , n}. Ou seja, a matriz adjunta de A e obtida (na
base canonica!) transpondo-se A e tomando-se o complexo conjugado de seus elementos.
Os seguintes fatos sao importantes:
Proposi
c ao dois operadores lineares agindo em Cn ent
ao 9.23 Se A e B s ao

(A + B) = A + B

para todos , C. Fora isso,


(AB) = B A .
Por fim, vale para todo A que (A ) = A. 2

Deixamos a demonstracao como exerccio para o leitor.


A operacao Mat (C, n) A 7 A Mat (C, n) e denominada operac ao de adjunc
ao de matrizes. Como vimos na
Proposicao 9.23, a operacao de adjuncao e anti-linear e e um anti-homomorfismo algebrico.
9 Tal
e o caso dos chamados operadores lineares limitados agindo em espacos de Hilbert, para os quais sempre
e possvel garantir a exist
encia
do adjunto.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 382/2103

Os espectro e a opera
c
ao de adjun
c
ao
Seja A Mat (C, n). Como j a vimos, o espectro de A, (A), e o conjunto de razes de seu polinomio caracterstico,
definido por pA (z) = det(z 1 A), z C. Como para toda B Mat (C, n) vale det(B ) = det(B) (por que?), segue que
pA (z) = det(z 1 A) = det(z 1 A ) = pA (z), ou seja, pA (z) = pA (z). Com isso, provamos a seguinte afirmacao:
Proposi ao 9.24 Seja A Mat (C, n). Ent
c ao, (A) se e somente se (A ), ou seja, e um autovalor de A

se e somente se e um um autovalor de A .

Em smbolos, as afirmacoes acima sao expressas pela igualdade (A) = (A ).

Matrizes Hermitianas, normais e unit


arias
Vamos agora a algumas definicoes muito importantes.

Defini ao. Um operador linear em Cn e dito ser simetrico, Hermitiano ou auto-adjunto se A = A , ou seja, se para
c
todos u, v V satisfizer
hu, Avi = hAu, vi .

Advertencia. Em espacos vetoriais de dimensao finita as nocoes de operador simetrico, Hermitiano ou auto-adjunto sao
sin
onimas. Em espacos vetoriais de dimensao infinita, porem, ha uma distincao entre essas nocoes relativa a problemas
com o domnio de definicao de operadores.

Defini
cao. Um operador linear em Cn e dito ser normal se AA = A A. Ou seja, A e normal se comuta com seu
adjunto.

Definic ario se A A = AA = 1. E
ao. Um operador linear em Cn e dito ser unit claro que todo operador unitario e
ario em Cn se e somente se A = A1 . Note que se A e unit
normal e que um operador e unit ario ent
ao, para todos
u, v V , tem-se
hAu, Avi = hu, vi .

Definiao. Se A e um operador linear em Cn define-se a parte real de A por


c

1
Re (A) = (A + A )
2
e a parte imagin
aria de A por
1
Im (A) = (A A ).
2i
claro que essas definicoes foram inspiradas nas relacoes analogas para n
E umeros complexos. Note tambem que

A = Re (A) + iIm (A) .

E. 9.25 Exerccio. Por que? 6

importante notar que para qualquer operador linear A em Cn sua parte real e imaginaria sao ambas operadores
E
Hermitianos: (Re (A)) = Re (A) e (Im (A)) = Im (A).

E. 9.26 Exerccio. Mostre isso. 6

Para operadores normais tem-se a seguinte proposicao, que sera u


til adiante e serve como caracterizacao alternativa
do conceito de operador normal.
Proposi ao 9.25 Um operador linear agindo em Cn e normal se e somente se sua parte real comuta com sua parte
c
imagin
aria. 2
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 383/2103

Deixamos a demonstracao (elementar) como exerccio para o leitor.


A import ancia das definicoes acima reside no seguinte fato, que demonstraremos adiante: matrizes Hermitianas e
matrizes normais sao diagonalizaveis. Antes de tratarmos disso, vamos discutir algumas propriedades do espectro de
matrizes Hermitianas e de matrizes unitarias.

Os autovalores de matrizes Hermitianas e de matrizes unit


arias
Os seguintes teoremas tem import
ancia fundamental para o estudo de propriedades de matrizes Hermitianas e de
matrizes unit
arias.
Teorema 9.10 Os autovalores de uma matriz Hermitiana s
ao sempre n
umeros reais. 2

Prova. Seja A Hermitiana, um autovalor de A e v 6= 0 um autovetor de A com autovalor . Como A e Hermitiana


tem-se
hv, Avi = hAv, vi .
Como v e um autovetor, o lado esquerdo vale hv, vi e o lado direito vale hv, vi. Logo, ( )hv, vi = 0. Como v 6= 0
isso implica = , ou seja, e real.

2 1
Note-se que a recproca desse teorema e falsa. A matriz

tem autovalores reais (2 e 3) mas n
ao e Hermitiana.
0 3
Para matrizes unit
arias temos
Teorema 9.11 Os autovalores de uma matriz unit
aria s
ao sempre n
umeros complexos de m
odulo 1. 2

Prova. Seja A unit aria, um autovalor de A e v 6= 0 um autovetor de A com autovalor . Como A e unit
aria tem-se
hAv, Avi = hv, vi. Como v e um autovetor, o lado esquerdo vale hv, vi. Assim, (||2 1)hv, vi = 0. Como v 6= 0
isso implica || = 1.

Operadores sim
etricos e unit
arios. Ortogonalidade de autovetores
Teorema 9.12 Os autovetores associados a autovalores distintos de uma matriz simetrica s
ao ortogonais entre si. 2

Prova. Seja A simetrica e 1 , 2 dois de seus autovalores, que suporemos distintos. Seja v1 autovetor de A com autovalor
1 e v2 autovetor de A com autovalor 2 . Temos, por A ser simetrico, hv1 , Av2 i = hAv1 , v2 i. O lado esquerdo vale
2 hv1 , v2 i e o lado direito 1 hv1 , v2 i (lembre-se que 1 e real). Assim (2 1 )hv1 , v2 i = 0. Como 2 6= 1 , segue que
hv1 , v2 i = 0, que e o que se queria provar.

Teorema 9.13 Os autovetores associados a autovalores distintos de uma matriz unit


aria s
ao ortogonais entre si. 2

aria e sejam 1 , 2 dois de seus autovalores, sendo que suporemos 1 6= 2 . Seja v1 autovetor de U com
Prova. Seja U unit
autovalor 1 e v2 autovetor de U com autovalor 2 . Temos, por U ser unit ario, hU v1 , U v2 i = hv1 , U U v2 i = hv1 , v2 i.
2
O lado esquerdo vale 2 1 hv1 , v2 i = 1 hv1 , v2 i (lembre-se que 1 e um n
umero complexo de modulo 1 e, portanto
1
1 = 1 ). Assim  
2
1 hv1 , v2 i = 0 .
1
Como 2 6= 1 , segue que hv1 , v2 i = 0, que e o que se queria provar.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 384/2103

Projetores ortogonais
Um operador linear E agindo em Cn e dito ser um projetor ortogonal se E 2 = E e se E = E.
Projetores ortogonais sao importantes na decomposicao espectral de matrizes auto-adjuntas, como veremos.

1 0
Note-se que nem todo projetor e ortogonal. Por exemplo E = e um projetor (E 2 = E) mas n
ao e ortogonal

1 0

1 0
(E 6= E). O mesmo vale para E =

.

2 0

E. 9.27 Exerccio. Mostre que uma matriz  complexa 2 2 e um projetor ortogonal se e somente se ou for a matriz
identidade 1 ou se for da forma 21 1 + ~a ~ , com ~a (a1 , a2 , a3 ) R3 e ~a = 1. Aqui, ~a ~ := a1 1 + a2 2 + a3 3 , com
k sendo as matrizes de Pauli, cuja definicao e cujas propriedades basicas encontram-se no Exerccio E. 10.26, pagina 476. 6

Um exemplo importante de projetor ortogonal e representado por projetores sobre


p subespacos uni-dimensionais ge-
rados por vetores. Seja v um vetor cuja norma assumiremos ser 1, ou seja, kvk = hv, vi = 1. Definimos o projetor Pv
sobre o subespaco gerado por v por
Pv u := hv, ui v , (9.80)
para todo vetor u. Provemos que Pv e um projetor ortogonal. Por um lado, tem-se

Pv2 u = hv, ui Pv v = hv, ui hv, vi v = hv, ui v = Pv u ,

o que mostra que Pv2 = Pv . Por outro lado, para quaisquer vetores a e b, usando as propriedades de linearidade,
anti-linearidade e conjugacao complexa do produto escalar, tem-se

D E

ha, Pv bi = a, hv, bi v = hv, bi ha, vi = ha, vi v, b = hv, ai v, b = hPv a, bi ,

provando que Pv = Pv . Isso mostra que Pv e um projetor ortogonal.


Um fato crucial sobre projetores como Pv e o seguinte. Se u e v sao dois vetores ortogonais, ou seja, se hu, vi = 0
ent
ao Pu Pv = Pv Pu = 0. Para provar isso notemos que para qualquer vetor a vale

Pu (Pv a) = Pu hv, ai v = hv, ai Pu v = hv, ai hu, vi u = 0 .

O mesmo se passa para Pv (Pu a).

Matrizes auto-adjuntas e diagonalizabilidade


Vamos aqui demonstrar a seguinte afirmacao importante: toda matriz auto-adjunta e diagonaliz avel. Uma outra
demonstracao (eventualmente mais simples) dessa afirmacao pode ser encontrada na Secao 9.8.3, p
agina 413. Vide
Teorema 9.28, pagina 415.
Teorema 9.14 (Teorema Espectral para Matrizes Auto-adjuntas) Se A Mat (C, n) e auto-adjunta, ent ao A
possui n autovetores mutuamente ortonormais v1 , . . . , vn , com autovalores reais 1 , . . . , n , respectivamente, e pode ser
representada na forma espectral
A = 1 Pv1 + + n Pvn . (9.81)
P
Os projetores Pvk satisfazem Pvk = Pvk para todo k e valem tambem Pvj Pvk = jkPvk , sendo que k=1 Pvk = 1.
n

Portanto, se A e auto-adjunta, entao A e diagonaliz


avel, sendo que e possvel encontrar uma matriz unit
aria P que
diagonaliza A, ou seja, tal que P 1 AP e diagonal e P 1 = P .
Note-se que se 1 , . . . , r com 1 r n sao os autovalores distintos de A, ent
ao (9.81) pode ser reescrita como
A = 1 P1 + + r Pr , onde cada Pk e o projetor ortogonal dado pela soma dos Pvj s de mesmo autovalor k . A
Proposic
ao 9.19, p
agina 372, garante a unicidade dessa representac
ao para A. 2
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 385/2103

Prova do Teorema 9.14. A demonstracao que A e diagonaliz


avel sera feita construindo-se a representacao espectral (9.81)
para A. Seja 1 um autovalor de A e v1 um autovetor de A com autovalor 1 normalizado de tal forma que kv1 k = 1.
Vamos definir um operador A1 por
A1 := A 1 Pv1 .
Como A e Pv1 sao auto-adjuntos e 1 e real, segue que A1 e igualmente auto-adjunto.
Afirmamos que A1 v1 = 0 e que [v1 ] e um subespaco invariante por A1 . De fato,

A1 v1 = Av1 1 Pv1 v1 = 1 v1 1 v1 = 0 .

Fora isso, se w [v1 ] tem-se


hA1 w, v1 i = hw, A1 v1 i = 0 ,
mostrando que A1 w e tambem elemento de [v1 ] .
O operador A1 restrito a [v1 ] e tambem auto-adjunto (por que?). Seja 2 um de seus autovalores com autovetor
v2 [v1 ] , que escolhemos com norma 1. Seja

A2 := A1 2 Pv2 = A 1 Pv1 2 Pv2 .

Como 2 tambem e real A2 e igualmente auto-adjunto. Fora isso afirmamos que A2 anula os vetores do subespaco [v1 , v2 ]
e mantem [v1 , v2 ] invariante. De fato,

A2 v1 = Av1 1 Pv1 v1 2 Pv2 v1 = 1 v1 1 v1 2 hv2 , v1 iv2 = 0 ,

pois hv2 , v1 i = 0. Analogamente,

A2 v2 = A1 v2 2 Pv2 v2 = 2 v2 2 v2 = 0 .

Por fim, para quaisquer , C e w [v1 , v2 ] tem-se





A2 w, (v1 + v2 ) = w, A2 (v1 + v2 ) = 0 ,

que e o que queramos provar.


Prosseguindo indutivamente, construiremos um conjunto de vetores v1 , . . . , vn , todos com norma 1 e com va
[v1 , . . . , va1 ] e um conjunto de n
umeros reais 1 , . . . , n tais que

An := A 1 Pv1 n Pvn

anula-se no subespaco [v1 , . . . , vn ]. Ora, como estamos em um espaco de dimensao n e os vetores vk sao mutuamente
ortogonais, segue que [v1 , . . . , vn ] deve ser o espaco todo, ou seja, An = 0. Provamos ent
ao que

A = 1 Pv1 + + n Pvn . (9.82)

Vamos provar agora que essa e a representacao espectral de A. Como os vk s sao mutuamente ortogonais, e evidente
que Pvk Pvl = k, l Pvk . Resta-nos provar que Pv1 + + Pvn = 1. Como v1 , . . . , vn formam uma base, todo vetor x
pode ser escrito como uma combinacao linear

x = 1 v1 + + n vn . (9.83)

Tomando-se o produto escalar com va , e usando o fato que os vk s sao mutuamente ortogonais, tem-se a = hva , xi.

E. 9.28 Exerccio. Verifique. 6

Assim, (9.83) pode ser escrita como

x = hv1 , xiv1 + + hvn , xivn = Pv1 x + + Pvn x = (Pv1 + + Pvn ) x .

Como isso vale para todo vetor x, segue que Pv1 + + Pvn = 1. Assim, A possui uma representacao espectral como
(9.50). Pelo Teorema Espectral 9.6, A e diagonaliz
avel.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 386/2103

Por (9.82), vemos que Ava = a va (verifique!). Logo os a s sao autovalores de A e os va s seus autovetores. Assim,
se A e auto-adjunto, podemos encontrar n autovetores de A mutuamente ortogonais, mesmo que sejam autovetores com
o mesmo autovalor. Isso generaliza o Teorema 9.12.
hh ii
facil verificar, porem,
Pelo que ja vimos A e diagonalizada por P 1 AP , onde podemos escolher P = v 1 , . . . , v n . E
que P e unit
aria. De fato, e um exerccio simples (faca!) mostrar que

hv1 , v1 i hv1 , vn i


.. .. ..
P P =
. . . .



hvn , v1 i hvn , vn i

Como hva , vb i = a, b , a matriz do lado direito e igual a 1, mostrando que P P = P P = 1 e que, portanto, P e unit
aria.

Para concluir essa discuss


ao, temos:
Proposi ao 9.26 Uma matriz A Mat (C, n) e auto-adjunta, se e somente se for diagonaliz
c avel por uma transformac
ao
de similaridade unit
aria e se seus autovalores forem reais. 2

Prova. Se A Mat (C, n) e diagonaliz


avel por uma transformacao de similaridade unit
aria e seus autovalores sao reais,
aria e D diagonal real com P AP = D, ent
ou seja, existe P unit ao A = P DP e A = P D P . Como D e diagonal e
real, vale D = D e, portanto, A = P DP = A, provando que A e auto-adjunta. A recproca ja foi provada acima.

Matrizes normais e diagonalizabilidade


O teorema que afirma que toda matriz simetrica e diagonaliz
avel tem a seguinte conseq
uencia:
Teorema 9.15 Se A Mat (C, n) e normal ent
ao A e diagonaliz
avel. 2

Prova. Ja vimos que toda matriz A pode ser escrita na forma A = Re (A) + iIm (A) onde Re (A) e Im (A) sao auto-
adjuntas. Vimos tambem que se A e normal Re (A) e Im (A) comutam entre si (Proposicao 9.25). Pelo Teorema 9.9,
Re (A) e Im (A) podem ser simultaneamente diagonalizados.

Observacao. Como no caso auto-adjunto, o operador que faz a diagonalizacao pode ser escolhido unitario. De fato, vale uma afirmativa
ainda mais forte.

Teorema 9.16 Uma matriz A Mat (C, n) e normal se e somente se for diagonaliz
avel por um operador unit
ario. 2

Prova. Resta provar apenas que se A e diagonaliz


avel por um operador unit ao A e normal. Seja D = P AP .
ario P ent

Tem-se D = P A P (por que?). Assim,

A A AA = P D P P DP P DP P D P = P (D D DD )P = 0 ,

a que D e D comutam por serem diagonais (duas matrizes diagonais quaisquer sempre comutam. Por que?). Isso
j
completa a prova que A e normal.

Uma outra demonstracao (eventualmente mais simples) dessa afirmacao pode ser encontrada na Secao 9.8.3, p
agina
413. Vide Teorema 9.29, p
agina 415.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 387/2103

9.5.1 Matrizes Positivas


Uma matriz A Mat (C, n) e dita ser uma matriz positiva se hw, Awi 0 para todo vetor w Cn . A seguinte
proposicao e relevante10 :
Proposi ao 9.27 Se A Mat (C, n) e positiva, ent
c ao A e Hermitiana e tem autovalores n
ao-negativos. Reciprocamente,
se A e Hermitiana e tem autovalores n
ao-negativos, entao A e positiva. 2

Prova. A expressao (u, v) := hu, Avi, u, v Cn , define uma forma sesquilinear que, por hipotese, e positiva, ou seja,
satisfaz (u, u) 0 para todo u Cn . Pelo Teorema 3.1, p agina 193, e Hermitiana, ou seja, (u, v) = (v, u) ,
para todos os vetores u e v. Mas isso significa que hu, Avi = hv, Aui, ou seja, hu, Avi = hAu, vi para todos os
vetores u e v e assim provou-se que A = A . Uma outra forma de demonstrar isso usa a identidade de polarizacao. Se
ao, para quaisquer vetores u, v Cn vale h(u + in v), A(u + in v)i 0 para todo n Z e, portanto,
A e positiva ent
h(u + i v), A(u + in v)i e um n
n
umero real. Usando a identidade de polarizacao, eqs. (3.34)(3.35), p
agina 203, vale, para
quaisquer vetores u, v Cn ,

3 3
(3.34) 1 X n 1X n
hAv, ui = hu, Avi = n n
i h(u + i v), A(u + i v)i = i h(u + in v), A(u + in v)i
4 n=0 4 n=0

3
1 X n n n
= i i i h(u + in v), A(u + in v)i
4 n=0

3
1 X n n
i hi (u + in v), Ain (u + in v)i
sesquilin.
=
4 n=0

3
1 X n
= i h(v + in u), A((1)n v + in u)i
4 n=0

3
1X
= (1)n in h(v + in u), A(v + in u)i
4 n=0

3
1X n (3.35)
= i h(v + in u), A(v + in u)i = hv, Aui .
4 n=0

Assim, hAv, ui = hv, Aui para todos u, v Cn , o que significa que A e Hermitiana. Portanto, por (9.81), podemos
escrever A = 1 Pv1 + + n Pvn , onde v1 , . . . , vn sao autovetores mutuamente ortonormais de A com autovalores
1 , . . . , n , respectivamente. Disso segue que hvj , Avj i = j para todo j = 1, . . . , n. Como o lado esquerdo e 0, por
hipotese, segue que j 0 para todo j = 1, . . . , n.
Se, reciprocamente, A for auto-adjunta com autovalores n ao-negativos, segue de (9.81) e da definicao de Pvj em (9.80)
n
X
que hw, Awi = j |hw, vj i|2 0, para todo w Cn , provando que A e positiva.
j=1

O seguinte corol
ario e imediato.
ario 9.4 Uma matriz A Mat (C, n) e positiva se somente se existe uma matriz positiva B (unvoca!) tal que
Corol
A = B 2 . As matrizes A e B comutam: AB = BA. 2

10 V
arios dos resultados que seguem podem ser generalizados para operadores lineares positivos agindo em espacos de Hilbert. Vide Teorema
38.30, p
agina 1968.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 388/2103

Demonstracao. Se A = B 2 com B positiva, ent


ao, como B e auto-adjunta (pela Proposicao 9.27), segue que para todo
w Cn vale hw, Awi = hw, B 2 wi = hBw, Bwi = kBwk2 0, provando que A e positiva. Provemos agora a recproca.
Se A e positiva ent ao, como comentamos na demonstracao da Proposicao 9.27, A e auto-adjunta com representacao
espectral A = 1 Pv1 + + n Pvn , onde v1 , . . . , vn sao autovetores mutuamente ortonormais de A com autovalores
1 , . . . , n , respectivamente, todos n
ao-negativos. Defina-se a matriz
p p
B := 1 Pv1 + + n Pvn . (9.84)

Como, pela ortonormalidade dos vj s, vale Pvj Pvk = j, k Pvj , e facil ver que B 2 = 1 Pv1 + + n Pvn = A. A unicidade
de B segue da unicidade da decomposicao espectral, Proposicao 9.19, p agina 372. A igualdade (B 2 )B = B(B)2 significa
AB = BA, provando que A e B comutam.

Defini
c unica!) matriz positiva B satisfazendo B 2 = A e freq
ao. Se A e uma matriz positiva, a ( uentemente denotada

por A e denominada raiz quadrada da matriz A. Como vimos, A A = AA.

Lema 9.3 Se A Mat (C, n) e uma matriz positiva e C Mat (C, n) satisfaz CA = AC ent ao C A = AC. 2

Prova. Se C comuta com A, ent ao C comuta com qualquer polinomio em A. Vimos na Proposicao 9.18, p
agina 371, que
os projetores espectraisde A podem ser escritos como polinomios em A. Assim, C comuta com os projetores espectrais
de A e, portanto, com A, devido a (9.84).

Uma conseq
uencia interessante das consideracoes acima e a seguinte proposicao:
Proposi
cao 9.28 Toda matriz Hermitiana pode ser escrita como combinac ao linear de ate duas matrizes unit
arias.
Toda matriz pode ser escrita como combinac
ao linear de ate quatro matrizes unit
arias. 2

Demonstracao. Seja A Mat (C, n). Se A e Hermitiana (vamos supor que A 6= 0, pois de outra forma n ao ha o que se
ao, para todo w Cn , o produto escalar hw A2 wi e um n
provar), ent umero real e, pela desigualdade de Cauchy-Schwarz,
|hw A2 wi| kA2 k kwk2Cn . Assim, kA2 k kwk2Cn hw, A2 wi kA2 k kwk2Cn Logo, a matriz 1 p A2 /kA2 k e positiva, pois
hw, (1 A /kA k)wi = kwkCn hw, A wi/kA k kwkCn kwkCn = 0. Conseq
2 2 2 2 2 2 2
uentemente, 1 A2 /kA2 k existe e e
positiva e Hermitiana. Trivialmente, podemos escrever
p s ! p s !
kA2 k A A2 kA2 k A A2
A = p +i 1 + p i 1 . (9.85)
2 kA2 k kA2 k 2 kA2 k kA2 k
q
Agora, as matrizes A 2 i 1 A2
kA2 k sao unit
arias. Para ver isso, notemos que
kA k

s ! s !
A A2 A A2
p +i 1 2 = p i 1 2
kA2 k kA k kA2 k kA k

e que s ! s !
A A2 A A2
p +i 1 2 p i 1 2 = 1.
kA2 k kA k kA2 k kA k
q
Para provar a u
ltima igualdade basta expandir o produto e notar que, pelo Lema 9.3, A e 1 A2
kA2 k comutam, ja que
A e 1 A2
kA2 k comutam.
Assim, vemos de (9.85) que uma matriz Hermitiana A e combinacao linear de ate duas unit
arias, provando a primeira
parte da Proposicao 9.28. Para provar a segunda parte, basta notar que se M Mat (C, n) e uma matriz qualquer,
podemos escrever    
M + M M M
M = +i .
2 2i
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 389/2103

Ambas as matrizes entre parenteses sao Hermitianas e, portanto, podem cada uma ser escritas como combinacao linear
de ate duas unit
arias, totalizando ate quatro unit
arias para M .

A Proposicao 9.28 e valida n


ao apenas para
algebras de matrizes. Vide Proposicao 38.44, p
agina 1920.

9.5.2 O Teorema de In
ercia de Sylvester. Superfcies Quadr
aticas

Transforma
co
es de congru
encia em Mat (C, n)
Seja M Mat (C, n). Se P Mat (C, n) e inversvel, a transformacao M 7 P M P e dita ser uma transformac
ao
de congruencia. Uma transformacao de congruencia representa a transformacao de uma matriz por uma mudanca de
base (justifique essa afirmacao!).
Se M for auto-adjunta, P M P e tambem auto-adjunta e, portanto, ambas tem auto-valores reais. Em geral, o
conjunto dos auto-valores de M e distinto do conjunto dos auto-valores de P M P (exceto, por exemplo, se P for
unit
aria). Porem, um teorema devido a Sylvester, frequentemente denominado Lei de Inercia de Sylvester, afirma que
uma propriedade do conjunto dos auto-valores e preservada em uma transformacao de congruencia, a saber, o n
umero de
autovalores, positivos, de autovalores negativos e de autovalores nulos (contando-se as multiplicidades). Enunciaremos e
demonstraremos esse teorema logo adiante.
Dada uma matriz auto-adjunta M Mat (C, n), a tripla de n umeros (m, m , m0 ), onde m e o n umero de autovalores

positivos de M , m e o n
umero de autovalores negativos de M , m0 e o n umero de autovalores nulos de M , (em todos os
casos contando-se as multiplicidades) e denominada (por raz
oes historicas obscuras) a inercia da matriz M . Naturalmente,
vale m + m + m0 = n. A Lei de Inercia de Sylvester afirma, portanto, que a inercia de uma matriz e preservada por
transformacoes de congruencia.
Dizemos que duas matrizes A e B Mat (C, n) sao congruentes se existir P Mat (C, n) inversvel tal que
muito f
A = P BP . E acil provar que a relacao de congruencia e uma relacao de equivalencia.

E. 9.29 Exerccio. Demonstre essa afirmacao! 6

Dessa forma, a Lei de Inercia de Sylvester afirma que a inercia de matrizes e constante nas classes de equivalencia
(pela relacao de congruencia). Assim, e legtimo perguntar se as classes de equivalencia sao univocamente determinadas
pela inercia de seus elementos. A resposta e negativa (exceto no caso trivial n = 1), como mostra a argumentacao do
par
agrafo que segue.
Se A Mat (C, n), com n > 1, e uma matriz positiva, A e da forma P P (Corol ario 9.4, p
agina 387). Assim,
det A = | det P |2 e conclumos que A e inversvel se e somente se P o for. Conclu-se disso que a classe de equivalencia
(por relacoes de congruencia) que contem a matriz identidade contem todas as matrizes positivas e inversveis. Pela
Proposicao 9.27, p
agina 387, esse conjunto coincide com o conjunto de todas as matrizes auto-adjuntas com autovalores
positivos, ou seja, que possuem inercia (n, 0, 0). Entretanto, existem tambem matrizes n ao-auto-adjuntas com inercia
(n, 0, 0) (por exemplo, matrizes triangulares superiores11 com elementos positivos na diagonal e alguns elementos n ao-
nulos acima da diagonal). Como tais matrizes n ao podem ser equivalentes `a identidade (toda matriz da forma P 1P e
auto-adjunta), conclumos que as classes de equivalencia n ao sao determinadas univocamente pela inercia das matrizes
que as compoe.

A Lei de In
ercia de Sylvester
A Lei de Inercia de Sylvester e importante para a classificacao de formas quadr
aticas e sua relevancia estende-se ate
a classificacao de equacoes diferenciais parciais de segunda ordem. Tratemos de seu enunciado e demonstracao.
`
Teorema 9.17 (Lei de In ercia de Sylvester) Sejam A e B Mat (C, n) duas matrizes auto-adjuntas. Denotemos
por A+ , A , A0 os subespacos gerados, respectivamente, pelos auto-vetores com autovalores positivos, negativos e nulos
de A (e analogamente para B).
Suponhamos que exista P Mat (C, n), inversvel, tal que A = P BP . Ent
ao, dim A+ = dim B+ , dim A = dim B
ao de um subespaco C Cn . Assim, conclumos tambem que A e B tem
e dim A0 = dim B0 , onde dim C denota a dimens
11 Para a definica
o, vide p
agina 393
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 390/2103

o mesmo numero de autovalores positivos, o mesmo n umero de autovalores negativos e o mesmo n


umero de autovalores
nulos (em todos os casos, contando-se as multiplicidades). 2

Prova. Sejam 1 , . . . , a os auto-valores positivos (nao necessariamente distintos) e a+1 , . . . , a+a os auto-valores
negativos (nao necessariamente distintos) de A. Analogamente, sejam 1 , . . . , b os auto-valores positivos (nao neces-
sariamente distintos) e b+1 , . . . , b+b os auto-valores negativos (nao necessariamente distintos) de B. Naturalmente,
valem 0 a + a n e 0 b + b n.
Se A e B forem nulos nao h
a o que demonstrar, de modo que podemos supor que ambos tem pelo menos um auto-valor
n
ao-nulo. Nesse caso, podemos sempre, sem perder em generalidade, supor que A tem pelo menos um autovalor positivo,
ao for verdade para A sera verdadeiro para A.
pois se tal n
O Teorema Espectral, Teorema 9.6, p
agina 369, permite-nos escrever

a
X a+a
X
A = k Ak |l |Al
k=1 l=a+1

e
b
X b+b
X
B = k Bk |l |Bl , (9.86)
k=1 l=b+1

onde Aj e Bj sao os projetores espectrais de A e B, respectivamente. Defina-se



a
X a+a
X
A+ := Ak , A := Al e A0 := 1 A+ A
k=1 l=a+1

e, analogamente,

b
X b+b
X
B+ := Bk , B := Bl e B0 := 1 B+ B .
k=1 l=b+1

A+ , A e A0 sao, respectivamente, o projetor sobre o subespaco de autovetores com auto-valores positivos, negativos e
nulos de A. Analogamente para B. Esses subespacos sao

A = A Cn , A0 = A0 Cn , B = B Cn , B0 = B0 Cn .

ao-nulo de A+ . Tem-se que Al x = 0 para todo l > a e Ak x 6= 0 para pelo menos um k = 1, . . . , a.


Seja x um vetor n
Logo, como k > 0 para todo k = 1, . . . , a, segue que
a
X a
X a
X
hx, AxiC = k hx, Ak xiC = k hAk x, Ak xiC = k kAk xk2 > 0 . (9.87)
k=1 k=1 k=1

Porem, para um tal x vale tambem



b
X b+b
X 2
(9.86) 2
hx, AxiC = hx, P BP xiC = hP x, BP xiC = k kBk P xk |k | Bk P x .
k=1 l=b+1

Vamos agora supor que B+ < dim A+ (ou seja, que b < a). Afirmamos que podemos encontrar ao menos um x+ A+ ,
n
ao-nulo, tal que Bk P x+ = 0 para todo k = 1, . . . , b. Se assim n ao existiria x A+ n
ao fosse, n ao-nulo satisfazendo
B+ P x = 0, ou seja, valeria B+ P x 6= 0 para todo x A+ com x 6= 0. Logo, (P A+ ) (B+ ) = {0}, o que implica que
P A+ B+ . Isso, por sua vez, significa que dimensao do subespaco P A+ e menor ou igual `a dimensao de B+ e, como P
e inversvel, isso implica, dim A+ dim B+ , uma contradicao.
Assim, para um tal x+ teramos

b+b
X 2

hx+ , Ax+ iC = |k | Bk P x+ 0 ,
l=b+1
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 391/2103

contradizendo (9.87). Conclumos disso que dim B+ dim A+ . Como B = (P )1 AP 1 , um raciocnio analogo trocando
A e B e trocando P P 1 implica que dim A+ dim B+ . Assim, dim B+ = dim A+ .
Tambem de forma totalmente analoga prova-se que dim B = dim A (isso tambem pode ser visto imediatamente
trocando A 7 A e B 7 B). Isso implica ainda que dim B0 = dim A0 , completando a demonstracao.

Transforma
co
es de congru
encia em Mat (R, n)
Para matrizes reais agindo no espaco Rn valem afirmacoes analogas `as obtidas acima. Seja M Mat (R, n). Se
P Mat (R, n) e inversvel, a transformacao M 7 P T M P e dita ser uma transformac ao de congruencia real, ou
simplesmente transformac ao de congruencia. Uma transformacao de congruencia representa a transformacao de uma
matriz por uma mudanca de base (justifique essa afirmacao!). Para transformacoes de congruencia reais vale tambem a Lei
de Inercia de Sylvester: se A Mat (R, n) e simetrica (ou seja, se A = AT ) sua inercia e preservada por transformacoes
de congruencia A 7 P T AP com P Mat (R, n) inversvel. Como essa afirmacao e um mero caso particular do anterior,
omitimos a demonstracao e convidamos o estudante a complet a-la.

Classifica
c etricas em Rn
ao de matrizes sim
Matrizes simetricas em Rn podem ser classificadas de acordo com o tipo de inercia que possuem, classificacao essa
invariante por transformacoes de congruencia. Uma matriz simetrica A Mat (R, n), n > 1, e dita ser

olica, se ao menos um dos seus autovalores for nulo, ou seja, se sua inercia for da forma (a, a , a0 ) com
1. Parab
a0 1;
2. Elptica, se todos os seus autovalores forem positivos ou se todos forem negativos, ou seja, se sua inercia for da
forma (a, a , 0) com a 1 e a = 0 ou com a 1 e a = 0;
3. Hiperbolica, se um de seus autovalores for positivo e os demais negativos, ou o oposto: se um de seus autovalores
for negativo e os demais positivos, ou seja, se sua inercia for da forma (1, a , 0) com a 1 (a, 1, 0) com a 1;
4. Ultra-Hiperb
olica, se ao menos dois de seus autovalores forem positivos e ao menos dois forem negativos, nenhum
sendo nulo, ou seja, se sua inercia for da forma (a, a , 0) com a 2 e a 2. Esse caso so se d
a se n 4.

Essa nomenclatura que classifica as matrizes em parab olicas, elpticas, hiperb


olicas e ultra-hiperb
olicas tem uma mo-
tivacao geometrica relacionada `
a classificacao de superfcies quadraticas em Rn , assunto que ilustraremos abaixo.

aticas Rn
Superfcies quadr
Sejam x1 , . . . , xn sao n variaveis reais. A forma mais geral de um polinomio real de segundo grau nessas variaveis e
n X
X n n
X
p(x) = Aij xi xj + ck xk + d ,
i=1 j=1 k=1

onde Aij R, ck R e d R. A expressao acima para p pode ! ser escrita como p(x) = hx, AxiR + hc, xiR + d, onde,
!
c1 x1
naturalmente, A e a matriz cujos elementos sao Aij , c = .. ex= .. . A matriz A pode ser sempre, sem perda
. .
cn xn
de generalidade, escolhida como simetrica. Para ver isso, notemos que, A pode sempre ser escrita como soma de uma
matriz simetrica e uma anti-simetrica: A = 21 (A + AT ) + 12 (A AT ). Contudo,
n X
X n
T
hx, (A A )xiR = (Aij Aji ) xi xj = 0
i=1 j=1

como facilmente se constata. Assim, a parte anti-simetrica de A, ou seja, 21 (A AT ), n


ao contribui em hx, AxiR , apenas
a parte simetrica 21 (A + AT ). Portanto, A sera doravante considerada simetrica.
Estamos agora interessados em classificar as superfcies em Rn definidas por p(x) = , com constante. H
a primei-
ramente dois casos a considerar: 1) A e inversvel e 2) A n
ao e inversvel.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 392/2103

1. Se A e inversvel, podemos escrever


   
1 1 1 1 1

p(x) = hx, AxiR + hc, xiR + d = x+ A c , A x+ A c c, A1 c R + d .
2 2 R 4

 
Verifique! Assim, a equacao p(x) = fica x + 21 A1 c , A x + 21 A1 c R = , onde e a constante +
1

1

4 c, A c R d. A matriz simetrica A pode ser diagonalizada por uma matriz ortogonal, ou seja, podemos
escrever A = OT DO, com D = diag (1 , . . . , n ), com k sendo os autovalores de A e O sendo ortogonal. Podemos
sempre escolher O de sorte que os primeiros m autovalores 1 , . . . , m sao positivos e os demais m+1 , . . . , n
sao negativos (nao h
a autovalores nulos, pois A foi suposta inversvel).

  
1 1
Com isso, x + 2 A c , A x + 21 A1 c R = hy, DyiR , onde y = O x + 21 A1 c . A equacao p(x) = fica,
Pn
ent ao, k=1 k yk2 = ou seja,
Xm n
X
k yk2 |l | yl2 = . (9.88)
k=1 l=m+1

Temos os seguintes sub-casos a tratar:


(a) Se todos os autovalores de A sao positivos e > 0, a equacao (9.88) descreve um elips oide em Rn (se < 0
n
n
ao ha solucoes e se = 0 a equacao descreve apenas o ponto y = 0 em R ). O mesmo vale, reciprocamente,
se todos os autovalores de A forem negativos e < 0 (se > 0 n ao h
a solucoes e se = 0 a equacao descreve
apenas o ponto y = 0 em Rn ).
(b) Se um dos autovalores de A e positivo e os demais n 1 sao negativos, ou se ocorre o oposto, ou seja, se um dos
autovalores de A e negativo e os demais n 1 sao positivos, ent
ao a equacao (9.88) descreve um hiperboloide
(n 1)-dimensional em Rn no caso 6= 0.
Se > 0 o hiperboloide tem duas folhas (i.e., possui duas componentes conexas) e no caso < 0 apenas uma.
agina 393, exibe hiperboloides com uma e duas folhas em R3 .
A Figura 9.1, p
Devido a sua estabilidade, hiperbol oides de uma folha sao freq
uentemente encontrados em estruturas arqui-
onicas. A bem conhecida catedral de Braslia, de Niemeyer12 , e um exemplo. A estabilidade estrutural
tet
desse formato decorre do fato que por qualquer ponto de um hiperboloide de uma folha passam duas linhas
retas inteiramente contidas dentro do mesmo (prove isso!).
Se = 0 a equacao (9.88) descreve um cone (n 1)-dimensional em Rn .
(c) Este caso ocorre apenas se n 4. Se ao menos dois autovalores de A e positivo e ao menos dois sao
positivos a equacao (9.88) descreve, no caso 6= 0, uma superfcie (n 1)-dimensional em Rn denominada
oide. Se = 0 a equacao (9.88) descreve uma (n 1)-dimensional em Rn denominada ultra-cone.
ultra-hiperbol
2. Se A nao e inversvel temos que proceder de modo ligeiramente diferente. Como antes, a matriz simetrica A pode
ser diagonalizada por uma matriz ortogonal, ou seja, podemos escrever A = OT DO, com D = diag (1 , . . . , n ),
com k sendo os autovalores de A e O sendo ortogonal. Como A n ao tem inversa, alguns de seus autovalores
sao nulos. Podemos sempre escolher O de sorte que os primeiros m autovalores 1 , . . . , m sao positivos, os m
autovalores seguintes m+1 , . . . , m+m sao negativos e os demais m+m +1 , . . . , n sao nulos. Naturalmente,
0 m + m < n. Podemos, ent ao, escrever p(x) = hx, AxiR + hc, xiR + d = hy, DyiR + hOc, yiR + d onde y = Ox.
Assim, se c 6= 0 a equacao p(x) = fica

m+m m
1 X X
yOc = + |l | yl2 k yk2 , (9.89)
kck
l=m+1 k=1

onde = ( d)/kck e yOc e a projecao de y na direcao do vetor Oc. Se a dimensao do subespaco dos autovalores
nulos A0 for maior que 1 a equacao (9.89) descrevera cilindros de diversos tipos, dependendo do n umero de
autovalores positivos e negativos e de Oc ter uma projecao ou n ao em A0 . N
ao descreveremos os todos os detalhes
aqui, mas um exemplo de interesse se d a em R3 , se A0 tiver dimensao 2 e Oc for um vetor nao-nulo de A0 . Nesse
caso equacao (9.89) descreve um cilindro parabolico. Vide Figura 9.3, pagina 394.
Para o caso em que A0 tem dimensao 1 e Oc e um elemento n ao-nulo desse subespaco, a equacao (9.89) descreve
oides (n 1)-dimensionais. Temos os seguintes casos:
diversos tipos de parabol
12 Oscar Niemeyer Soares Filho (1907).
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 393/2103

(a) a equacao (9.89) descreve um paraboloide elptico (n 1)-dimensional caso todos os autovalores n
ao-nulos de
A forem positivos ou se todos os autovalores n ao-nulos de A forem negativos. Vide Figura 9.2, pagina 9.2.
(b) A equacao (9.89) descreve um parabol
oide hiperb olico (n1)-dimensional caso um autovalor de A seja negativo
e os demais autovalores n ao-nulos de A sejam positivos (ou o contrario: caso um autovalor de A seja positivo
e os demais autovalores n ao-nulos de A sejam negativos). Vide Figura 9.2, p agina 9.2.
(c) A equacao (9.89) descreve um parabol oide ultra-hiperb olico (n 1)-dimensional caso pelo menos dois dos
autovalores n ao-nulos de A sejam positivos e pelo menos dois dos autovalores n ao-nulos de A sejam negativos.
Esse caso so pode ocorrer se n 5.
Para c 6= 0 diversas situacoes acima podem tambem descrever cilindros, por exemplo, se Oc encontra-se no
subespaco dos autovetores com autovalores n ao-nulos.
Se c = 0 e dim A0 1, equacao p(x) = fica

m
X m+m
X
k yk2 |l | yl2 = , (9.90)
k=1 l=m+1

com = d. A equacao (9.90) descreve diversos tipo de cilindros (n 1)-dimensionais.


(a) Caso c = 0 a equacao (9.90) descreve um cilindro elptico (n 1)-dimensional caso todos os autovalores n
ao-
nulos de A forem positivos ou se todos os autovalores n ao-nulos de A forem negativos. Vide Figura 9.3, p
agina
394.
(b) Caso c = 0 a equacao (9.90) descreve um cilindro hiperbolico (n 1)-dimensional caso um autovalor de A seja
negativo e os demais autovalores n ao-nulos de A sejam positivos (ou o contrario: caso um autovalor de A seja
positivo e os demais autovalores n ao-nulos de A sejam negativos). Vide Figura 9.3, p agina 394.
(c) Caso c = 0 a equacao (9.90) descreve um cilindro ultra-hiperb
olico (n1)-dimensional caso pelo menos dois dos
autovalores nao-nulos de A sejam positivos e pelo menos dois dos autovalores n ao-nulos de A sejam negativos.
Esse caso so pode ocorrer se n 5 (lembrar que pelo menos um dos autovalores de A e nulo).

Figura 9.1: Hiperboloides com uma e duas folhas em R3 .

9.6 Matrizes Triangulares


Uma matriz S Mat (C, n) e dita ser uma matriz triangular superior se forem nulos os elementos abaixo da diagonal
principal, ou seja, se Sij = 0 sempre que i > j. Note que esses n
ao precisam ser necessariamente os u
nicos elementos
nulos de S.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 394/2103

Figura 9.2: Um parabol olico (direita) em R3 .


oide elptico (esquerda) e um paraboloide hiperb

olico (centro) e um cilindro parabolico (direita) em R3 .


Figura 9.3: Um cilindro elptico (esquerda), um cilindro hiperb

Uma matriz I Mat (C, n) e dita ser uma matriz triangular inferior se forem nulos os elementos acima da diagonal
principal, ou seja, se Iij = 0 sempre que i < j. Note que esses n
ao precisam ser necessariamente os u nicos elementos
nulos de I.
Proposi
c
ao 9.29 Matrizes triangulares superiores possuem as seguintes propriedades:

1. A matriz identidade 1 e uma matriz triangular superior.


2. O produto de duas matrizes triangulares superiores e novamente uma matriz triangular superior.
3. O determinante de uma matriz triangular superior e o produto dos elementos da sua diagonal. Assim, uma matriz
triangular superior e inversvel se e somente se n
ao tiver zeros na diagonal.
4. Se uma matriz triangular superior e inversvel, sua inversa e novamente uma matriz triangular superior.

As afirmac
oes acima permanecem verdadeiras trocando matriz triangular superior por matriz triangular inferior. 2

Prova. Os tres primeiros itens sao elementares. Para provar o item 4, usa-se a regra de Laplace, expressao (9.20), p
agina
345. Como e facil de se ver, Cof(S)ji = 0 se i > j. Logo, S 1 e triangular superior, se existir.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 395/2103

As propriedades acima atestam que o conjunto das matrizes n n triangulares superiores inversveis forma um grupo,
denominado por alguns autores Grupo de Borel13 de ordem n e denotado por GBn (C).
O seguinte resultado sobre matrizes triangulares superiores sera usado diversas vezes adiante.
Lema 9.4 Uma matriz triangular superior S Mat (C, n) e normal (ou seja, satisfaz SS = S S) se e somente se for
diagonal. 2

Prova. Se S e diagonal, S e obviamente normal pois S e tambem diagonal e matrizes diagonais sempre comutam entre
si. Provaremos a recproca, o que sera feito por inducao. Para n = 1 n
ao ha o que provar. Se n = 2, S e da forma
S = ( a0 cb ), com a, b, c C. A condicao SS = S S significa

|a|2 + |b|2 bc |a|2 ba
= ,

cb |c|2 ab |b|2 + |c|2

o que implica b = 0, provando que S e diagonal. Procedemos agora por inducao, supondo n > 2 e que o lema seja valido
para matrizes (n 1) (n 1) triangulares superiores normais. Se S Mat (C, n) e triangular superior, S e da forma


b1 0
T
a b . .
, sendo a C , b = . , 0 = . ,
S= . .
0 C





bn1 0

ambas b e 0 com n 1 linhas, sendo C uma matriz (n 1) (n 1) triangular superior. A condicao SS = S S significa

|a|2 + bT b bT C |a|2 abT
= ,

Cb CC ab B + CC

sendo B a matriz cujos elementos sao Bij = bi bj . Disso extramos que bT b = 0, ou seja, |b1 |2 + + |bn1 |2 = 0 e,
portanto, b = 0. Com isso, ficamos com CC = C C, ou seja, C e normal. Como C e triangular superior ent ao, pela
hip
otese indutiva, C e diagonal. Isso, mais o fato provado que b e nulo, implica que S e diagonal, provando o lema.

9.7 O Teorema de Decomposi


cao de Jordan e a Forma Can
onica
de Matrizes
Nas secoes anteriores demonstramos condicoes que permitem diagonalizar certas matrizes. Nem todas as matrizes, porem,
podem ser diagonalizadas. Podemos nos perguntar, no entanto, quao proximo podemos chegar de uma matriz diagonal.
Mostraremos nesta secao que toda matriz A pode ser levada (por uma transformacao de similaridade) `a uma forma
proxima `a diagonal, denominada forma can onica de Jordan14 . Resumidamente (a afirmacao precisa sera apresentada
13 Armand Borel (19232003).
14 MarieEnnemond Camille Jordan (18381922). A forma can onica de matrizes foi originalmente descoberta por Weierstrass (Karl Theodor
Wilhelm Weierstrass (18151897)) e redescoberta por Jordan em 1870.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 396/2103

mais adiante), mostraremos que existe uma matriz P tal que P 1 AP tem a seguinte forma:

1 1 0 0 0 0


0 2 2 0 0 0



0 0 3 3 0 0


..
. , (9.91)
0 0 0 4 0 0


. .. .. .. .. .. ..
.. . . . . . .



0 0 0 0 n1 n1



0 0 0 0 0 n

onde 1 , . . . , n sao os autovalores de A e onde os i valem 1 ou 0, mas que forma que a matriz diagonal

1 0 0 0 0 0


0 2 0 0 0 0



0 0 3 0 0 0


..
. , (9.92)
0 0 0 4 0 0


. .. .. .. .. .. ..
.. . . . . . .



0 0 0 0 n1 0



0 0 0 0 0 n

e a matriz supra-diagonal
0 1 0 0 0 0


0 0 2 0 0 0



0 0 0 3 0 0


..
. , (9.93)
0 0 0 0 0 0


. .. .. .. .. .. ..
.. . . . . . .



0 0 0 0 0 n1



0 0 0 0 0 0
comutam entre si.
O resultado central que provaremos, e do qual as afirmativas feitas acima seguirao, diz que toda matriz A pode ser
levada por uma transformacao do tipo P 1 AP a uma matriz da forma D + N , onde D e diagonal e N e nilpotente (ou
seja, tal que N q = 0 para algum q) e tais que D e N comutam: DN = N D. Essa e a afirmativa principal do celebre
Teorema da Decomposicao de Jordan, que demonstraremos nas p aginas que seguem.
Esse Teorema da Decomposicao de Jordan generaliza os teoremas sobre diagonalizabilidade de matrizes: para matrizes
diagonaliz
aveis tem-se simplesmente N = 0 para um P conveniente.
Antes de nos dedicarmos `
a demonstracao desses fatos precisaremos de alguma preparacao.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 397/2103

9.7.1 Resultados Preparat


orios

Somas diretas de subespa


cos
Seja V um espaco vetorial e V1 e V2 dois de seus subespacos. Dizemos que V e a soma direta de V1 e V2 se todo vetor
v de V puder ser escrito de modo unico da forma v = v1 + v2 com v1 V1 e v2 V2 .
Se V e a soma direta de V1 e V2 escrevemos V = V1 V2 .

Subespa
cos invariantes
Um subespaco E de Cn e dito ser invariante pela ac
ao de uma matriz A, se Av E para todo v E.
Se V = V1 V2 e tanto V1 quanto V2 sao invariantes pela acao de A, escrevemos A = A1 A2 onde Ai e A restrita
a Vi . Se escolhermos uma base em V da forma {v1 , . . . , vm , vm+1 , . . . , vn }, onde {v1 , . . . , vm } e uma base em V1 e
{vm+1 , . . . , vn } e uma base em V2 , ent
ao nessa base A ter
a a forma

A1 0m, nm
A =

.
(9.94)
0nm, m A2

onde A1 Mat (C, m) e A2 Mat (C, n m).

E. 9.30 Exerccio. Justifique a forma (9.94). 6

A representacao (9.94) e dita ser uma representac


ao em blocos diagonais de A, os blocos sendo as sub-matrizes A1 e
A2 .
Um fato relevante que decorre imediatamente de (9.94) e da Proposicao 9.3, p
agina 349, e que usaremos freq
uentemente
adiante, e que se A = A1 A2 ent
ao
det(A) = det(A1 ) det(A2 ) .

Operadores nilpotentes
Seja V um espaco vetorial e N : V V um operador linear agindo em V . O operador N e dito ser um operador
nilpotente se existir um inteiro positivo q tal que N q = 0. O menor q N para o qual N q = 0 e dito ser o ndice de N .
Vamos a alguns exemplos.
0 1 0 0 1 0

E. 9.31 Exerccio. Verifique que 001 e 1 0 1 sao matrizes nilpotentes de ndice 3. 6
000 0 1 0

0 a c
E. 9.32 Exerccio. Verifique que 0 0 b com a 6= 0 e b 6= 0 e uma matriz nilpotente de ndice 3. 6
0 0 0

0 0 0 0 1 0
E. 9.33 Exerccio. Verifique que 001 eN= 000 sao matrizes nilpotentes de ndice 2. 6
000 000

O seguinte fato sobre os autovalores de operadores nilpotentes sera usado adiante.


Proposi ao 9.30 Se N Mat (C, n) e nilpotente, ent
c ao seus autovalores sao todos nulos. Isso implica que seu po-
omio caracterstico e qN (x) = xn , x C. Se o ndice de N e q ent
lin omio mnimo de N e mN (x) = xq , x C.
ao o polin
2

No Corolario 9.5, p
agina 403, demonstraremos que uma matriz e nilpotente se e somente se seus autovalores forem
todos nulos.
Prova da Proposicao 9.30. Se N = 0 o ndice e q = 1 e tudo e trivial. Seja N 6= 0 com ndice q > 1. Seja v 6= 0 um
autovetor de N com autovalor : N v = v. Isso diz que 0 = N q v = q v. Logo q = 0 e, obviamente, = 0. E claro
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 398/2103

entao que qN (x) = xn . Que o polinomio mnimo e mN (x) = xq segue do fato que mN (x) deve ser um divisor de qn (x)
(isso segue do Teorema 9.2 junto com o Teorema de Hamilton-Cayley, Teorema 9.3), p agina 361). Logo mN (x) e da
forma xk para algum k n. Mas o menor k tal que mN (N ) = N k = 0 e, por definicao, igual a q. Isso completa a prova.

Mais sobre matrizes nilpotentes sera estudado na Secao 9.7.3 onde, em particular, discutiremos a chamada forma
can
onica de matrizes nilpotentes.

O n
ucleo e a imagem de um operador linear
Seja V um espaco vetorial e A : V V um operador linear agindo em V .
O n
ucleo de A e definido como o conjunto de todos os vetores que sao anulados por A:

N(A) := {x V | Ax = 0} .

A imagem de A e definida por

R(A) := {x V | y V tal que x = Ay} .

Afirmamos que N(A) e R(A) sao dois subespacos de V . Note-se primeiramente que 0 N(A) e 0 R(A) (por que?).
Fora isso, se x e y N(A) ent
ao, para quaisquer escalares e ,

A(x + y) = Ax + Ay = 0 ,

provando que combinacoes lineares x + x tambem pertencem a N(A). Analogamente se x e x R(A) ent
ao existem
y e y V com x = Ay, x = Ay . Logo
x + x = A(y + y ) ,
provando que combinacoes lineares x + y tambem pertencem a R(A).
Para um operador A fixado, e k N, vamos definir

Nk = N(Ak ) e Rk = R(Ak ) .

ao Ak (Ax) = A(Ak x) = A0 = 0, mostrando que


Esses subespacos Nk e Rk sao invariantes por A. De fato, se x Nk , ent
Ax Nk . Analogamente, se x Rk ent ao x = A y para algum vetor y. Logo, Ax = A(Ak y) = Ak (Ay), mostrando que
k

Ax Rk .
Afirmamos que
Nk Nk+1 (9.95)
e que
Rk Rk+1 .
ao Ak x = 0. Isso obviamente implica Ak+1 x = 0.
As demonstracoes dessas afirmativas sao quase banais. Se x Nk ent
Logo x Nk+1 e, portanto, Nk Nk+1 . Analogamente, se x Rk+1 ent ao existe y tal que x = Ak+1 y. Logo x = Ak (Ay),
o que diz que x Rk . Portanto Rk+1 Rk .
Isso diz que os conjuntos Nk formam uma cadeia crescente de conjuntos:

{0} N1 N2 Nk V , (9.96)

e os Rk formam uma cadeia decrescente de conjuntos:

V R1 R2 Rk {0} . (9.97)

Consideremos a cadeia crescente (9.96). Como os conjuntos Nk sao subespacos de V , e claro que a cadeia n
ao pode
ser estritamente crescente se V for um espaco de dimensao finita, ou seja, deve haver um inteiro positivo p tal que
Np = Np+1 . Seja p o menor numero inteiro para o qual isso acontece. Afirmamos que para todo k 1 vale Np = Np+k .
Vamos provar isso. Se x Np+k ent ao Ap+k x = 0, ou seja, Ap+1 (Ak1 x) = 0. Logo, Ak1 x Np+1 . Dado que
k1
Np = Np+1 , isso diz que A x Np , ou seja, Ap (Ak1 x) = 0. Isso, por sua vez, afirma que x Np+k1 . O que fizemos
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 399/2103

ao foi partir de x Np+k e concluir que x Np+k1 . Se repetirmos a argumentacao k vezes concluiremos que x Np .
ent
Logo, Np+k Np . Por (9.95) tem-se, porem, que Np Np+k e, assim, Np+k = Np .
Assim, a cadeia (9.96) tem, no caso de V ter dimensao finita, a forma

{0} N1 N2 Np = Np+1 = = Np+k = V . (9.98)

Como dissemos, p sera daqui por diante o menor inteiro para o qual Np = Np+1 . O lema e o teorema que seguem
tem grande import
ancia na demonstracao do Teorema de Decomposicao de Jordan.
oes acima, Np Rp = {0}, ou seja, os subespacos Np e Rp tem em comum apenas o vetor
Lema 9.5 Com as definic
nulo. 2

Demonstracao. Seja x tal que x Np e x Rp . Isso significa que Ap x = 0 e que existe y tal que x = Ap y. Logo,
A2p y = Ap x = 0, ou seja, y N2p . Pela definicao de p tem-se que N2p = Np . Assim, y Np . Logo Ap y = 0. Mas, pela
propria definicao de y valia que Ap y = x. Logo x = 0.

Esse lema tem a seguinte conseq


uencia importante.
Teorema 9.18 Com as definic oes acima vale que V = Np Rp , ou seja, cada x V pode ser escrito de modo u
nico na
forma x = xn + xr , onde xn Np e xr Rp . 2

Demonstracao. Seja m a dimensao de Np e seja {u1 , . . . , um } uma base em Np . Vamos estender essa base, in-
cluindo vetores {vm+1 , . . . , vn } de modo que {u1 , . . . , um , vm+1 , . . . , vn } seja uma base em V . Afirmamos que
{Ap vm+1 , . . . , Ap vn } e uma base em Rp . Seja x Rp e seja y V tal que x = Ap y. Como todo vetor de V , y pode ser
escrito como combinacao linear de elementos da base {u1 , . . . , um , vm+1 , . . . , vn }:
m
X n
X
y = i ui + i vi .
i=1 i=m+1

Logo,
m
X n
X n
X
x = i Ap ui + i Ap vi = i Ap vi . (9.99)
i=1 i=m+1 i=m+1

Os vetores {Ap vm+1 , . . . , Ap vn } sao linearmente independentes. Isso se mostra com! o seguinte argumento. Se existirem
Xn n
X n
X
escalares m+1 , . . . , n tais que i Ap vi = 0, ent
ao teramos Ap i vi = 0, ou seja, i vi Np . Isso
i=m+1 i=m+1 i=m+1
n
X m
X
implica que existem constantes 1 , . . . , m tais que i vi = i ui , pois os vetores {u1 , . . . , um } sao uma base
i=m+1 i=1
em Np . Ora, como {u1 , . . . , um , vm+1 , . . . , vn } sao linearmente independentes, segue que os i s e os j s sao todos
nulos. Isso prova que {Ap vm+1 , . . . , Ap vn } sao linearmente independentes e, portanto, por (9.99), formam uma base
em Rp .
Isso incidentalmente provou que a dimensao de Rp e n m. Temos, portanto, que dim (Np ) + dim (Rp ) = dim (V ).
Para i = m + 1, . . . , n defina-se ui = Ap vi . Afirmamos que o conjunto de vetores

{u1 , . . . , um , um+1 , . . . , un } = {u1 , . . . , um , Ap vm+1 , . . . , Ap vn }

e tambem linearmente independente e, portanto, forma uma base em V . Suponhamos que haja constantes escalares
1 , . . . , n tais que !
Xn Xm Xn
p
0 = i ui = i ui + A i vi .
i=1 i=1 i=m+1
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 400/2103

Isso implica, obviamente, !


m
X n
X
p
i ui = A i vi .
i=1 i=m+1

O lado esquerdo dessa igualdade e um elemento de Np (pois u1 , . . . , um sao uma base em Np ), enquanto que o lado
esquerdo e obviamente um elemento da imagem de Ap , ou seja, de Rp . Contudo, ja vimos (Lema 9.5) que o u
nico vetor
que Np e Rp tem em comum e o vetor nulo. Logo,
m
X
i ui = 0 (9.100)
i=1
e
n
X
i Ap vi = 0 . (9.101)
i=m+1

A relacao (9.100) implica 1 = = m = 0, pois {u1 , . . . , um } e uma base em Np . A relacao (9.101) implica
m+1 = = n = 0, pois {Ap v1 , . . . , Ap vm } e uma base em Rp . Assim, todos os i s sao nulos, provando que
{u1 , . . . , um , um+1 , . . . , un } = {u1 , . . . , um , Ap vm+1 , . . . , Ap vn } e um conjunto de n vetores linearmente
independentes.
uentemente, todo x V pode ser escrito na forma
Conseq
n m n
!
X X X
p
x = i ui = i ui + A i vi .
i=1 i=1 i=m+1
| {z } | {z }
xn Np xr Rp

Provar a unicidade dessa decomposicao fica como exerccio. Isso completa a demonstracao.

Uma das coisas que o teorema que acabamos de demonstrar diz e que, dado um operador A, o espaco V pode ser
decomposto em uma soma direta de dois subespacos, invariantes por A: um onde A e nilpotente, Np , e outro onde A e
inversvel, Rp . A e nilpotente em Np pois Ap x = 0 para todo elemento x de Np . A e inversvel em Rp pois se x Rp e
tal que Ax = 0 isso implica x N1 Np . Mas x so pode pertencer a Np e a Rp se for nulo. Logo, em Rp , Ax = 0 se
e somente se x = 0, provando que A e inversvel15. Para referencia futura formulemos essa afirmativa na forma de um
teorema:
Teorema 9.19 Se A e um operador linear n ao-nulo agindo em um espaco vetorial V = Cn ent ao e possvel decompor
V em dois subespacos invariantes por A, V = S T, de forma que A restrito a S e nilpotente, enquanto que A restrito a
T e inversvel. 2

Esse sera o teorema b


asico do qual extrairemos a demonstracao do Teorema de Decomposicao de Jordan.

9.7.2 O Teorema da Decomposi


cao de Jordan
Chegamos agora ao resultado mais importante desta secao, o Teorema da Decomposicao de Jordan16, um importante
teorema estrutural sobre matrizes de import ancia em varios campos, por exemplo na teoria das equacoes diferenciais
ordin
arias. Para tais aplicacoes, vide Captulo 13, p
agina 519.
O Teorema da Decomposicao de Jordan tambem tem certa relevancia na Teoria de Grupos, e o usaremos para provar
que toda matriz n n complexa inversvel (ou seja, todo elemento do grupo GL(C, n)) pode ser escrita como exponencial
de outra matriz (Proposicao 10.11, p
agina 451). No Captulo 10 usaremos o Teorema da Decomposicao de Jordan para
til det(eA ) = eTr(A) , valida para qualquer matriz n n real ou complexa (Proposicao 10.7, p
provar a identidade u agina
449). Vide tambem Proposicao 9.14, pagina 358.

Enunciado e demonstra
c
ao do Teorema da Decomposi
c
ao de Jordan
15 Lembre-se
que esse argumento s
o funciona em espacos vetoriais V que tenham dimens ao finita, o que estamos supondo aqui.
16 Marie EnnemondCamille Jordan (18381922). A forma can onica de matrizes (que ser
a discutida mais adiante) foi originalmente descoberta
por Weierstrass (Karl Theodor Wilhelm Weierstrass (18151897)) e redescoberta por Jordan em 1870.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 401/2103

Teorema 9.20 (Teorema da Decomposi ao de Jordan) Seja A um operador linear agindo no espaco V = Cn e
c
seja {1 , . . . , r } o conjunto de seus autovalores distintos. Ent ao, existem r subespacos S1 , . . . , Sr tais que V =
S1 . . . Sr e tais que cada Si e invariante por A. Ou seja, A = A1 . . . Ar , onde Ai e A restrita a Si . Fora isso,
cada Ai , e da forma Ai = i 1i + Ni , onde 1i e a matriz identidade em Si e onde Ni e nilpotente. Por fim, a dimens ao
si de cada subespaco Si e igual `
a multiplicidade algebrica do autovalor i . 2

Demonstracao. Seja {1 , . . . , r } o conjunto dos autovalores distintos de A e seja ni a multiplicidade algebrica do


autovalor i . Seja A1 = A 1 1. Pelo Teorema 9.19, p agina 400, V pode ser escrito como V = S1 T1 , onde S1 e T1
sao invariantes por A1 , sendo A1 nilpotente em S1 e inversvel em T1 . Assim, A1 e da forma A1 = N1 M1 com N1
nilpotente e M1 inversvel. Logo

A = 1 1 + A1 = (1 1S1 + N1 ) (1 1T1 + M1 ) , (9.102)

onde 1S1 e a matriz identidade em S1 etc. Vamos mostrar que a dimensao de S1 e igual `a multiplicidade algebrica de 1 .
Por (9.102) o polinomio caracterstico de A e

qA () = det(1 A) = det(( 1 )1S1 N1 ) det(( 1 )1T1 M1 ) .

Se qN1 denota o polinomio caracterstico de N1 , tem-se

det(( 1 )1S1 N1 ) = qN1 ( 1 ) = ( 1 )s1 ,

onde, na ultima igualdade, usamos a Proposicao 9.30, p agina 397, sobre a forma do polinomio caracterstico de uma
matriz nilpotente. Da, segue que qA () = ( 1 )s1 qM1 ( 1 ), sendo qM1 o polinomio caracterstico de M1 . Como
M1 e inversvel, M1 n ao tem o zero como autovalor. Logo, qM1 (0) 6= 0. Portanto s1 e igual `a multiplicidade de 1 como
raiz de qA , ou seja, e igual a n1 , a multiplicidade algebrica de 1 .
A ideia agora e prosseguir decompondo agora o operador 1 1T1 + M1 que aparece em (9.102) da mesma maneira
como fizermos acima com A.
Seja A = 1 1T1 + M1 e que age em T1 , que e um espaco de dimensao n n1 . Definimos A2 = A 2 1T1 .
Evocando novamente o Teorema 9.19, p agina 400, T1 pode ser escrito como T1 = S2 T2 , onde S2 e T2 sao invariantes
por A2 , sendo A2 nilpotente em S2 e inversvel em T2 . Assim, V = S1 S2 T2 . Agindo em T1 = S2 T2 , A2 e da forma
A2 = N2 M2 com N2 nilpotente e M2 inversvel. Logo

A = 2 1T1 + A2 = (2 1S2 + N2 ) (2 1T2 + M2 ) . (9.103)

Vamos, como acima, mostrar que a dimensao de S2 e igual `a multiplicidade algebrica de 2 .


Pela definicao,
A = (1 1S1 + N1 ) A = (1 1S1 + N1 ) (2 1S2 + N2 ) (2 1T2 + M2 ) .
Logo,
qA () = det (( 1 )1S1 N1 ) det (( 2 )1S2 N2 ) det (( 2 )1T2 M2 ) .
Portanto, pelos mesmos argumentos usados acima,

qA () = ( 1 )n1 ( 2 )s2 qM2 ( 2 ) .

ao tem autovalor zero e, assim, qM2 (0) 6= 0. Logo, s2 = n2 . T2 e assim um subespaco de


Como M2 e inversvel, M2 n
dimensao n n1 n2 .
Prosseguindo nas mesmas linhas, apos r passos chegaremos a um subespaco Tr de dimensao n n1 nr = 0
agina 351). A, teremos V = S1 Sr , onde cada Si tem dimensao ni e
(por (9.30), p

A = (1 1S1 + N1 ) (r 1Sr + Nr ) ,

onde os Ni s sao todos nilpotentes. Isso completa a demonstracao.

Um corol
ario importante do Teorema de Decomposicao de Jordan e o seguinte:
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 402/2103

Teorema 9.21 Para toda matriz A Mat (C, n) existe uma matriz inversvel P Mat (C, n) tal que P 1 AP = D + N ,
onde D e uma matriz diagonal formada pelos autovalores de A e N e uma matriz nilpotente e de tal forma que D e N
comutam: DN = N D.
uentemente, toda matriz A Mat (C, n) pode ser escrita na forma A = Ad + An com Ad An = An Ad , sendo
Conseq
avel e An nilpotente, a saber, Ad = P DP 1 e An = P N P 1 , com D e N dados acima.
Ad diagonaliz 2

Demonstracao do Teorema 9.21. O Teorema 9.20 est


a dizendo que, numa base conveniente, A tem a forma de blocos
diagonais
1 1s1 + N1 0 0





A1 0 0





0 2 1s2 + N2 0

0 A2 0

A =
.
= , (9.104)
.. .. .. ..
. . .
.. .. ..

..





. . . .

0 0 Ar





0 0 r 1sr + Nr
ou seja,
A = D+N ,
onde
1 1s1 0 0


0
2 1s2 0
D =
.
= diag 1 , . . . , 1 , . . . , r , . . . , r
.. .. .. .. | {z } | {z }
. . .
s1 vezes sr vezes


0 0 r 1sr
e
N1 0 0


0 N2 0

N =
.
. (9.105)
.. .. .. ..
. . .



0 0 Nr
Acima si e a dimensao do subespaco Si .
facil de se ver que N e uma matriz nilpotente, pois se o ki e o ndice de Ni (ou seja, ki e o menor inteiro positivo
E
para o qual Niki = 0), entao para k := max (k1 , . . . , kr ) tem-se

(N1 )k 0 0


0
(N2 )k 0

Nk =
.
= 0.
.. .. .. ..
. . .



0 0 (Nr )k
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 403/2103

Em verdade, k = max (k1 , . . . , kr ) e o ndice de N (por que?).


Por fim, como cada Ni comuta com i 1si , fica claro que D e N comutam. Isso completa a demonstracao.

ario 9.5 Uma matriz M Mat (C, n) e nilpotente se e somente se todos os seus autovalores forem nulos.
Corol 2

Prova. A Proposicao 9.30, p


agina 397, afirma que se M e nilpotente todos os seus autovalores sao nulos. O Teorema
9.21, p ao existe P tal que P 1 M P = N , nilpotente. Isso
agina 402, afirma que se os autovalores de M sao nulos, ent
implica que M e nilpotente.

9.7.3 Matrizes Nilpotentes e sua Representa


cao Can
onica
Os teoremas que estudamos acima nesta secao revelam a importancia de matrizes nilpotentes. Um fato relevante e que
elas podem ser representadas de uma forma especial, denominada forma canonica, da qual traremos logo abaixo. Antes,
alguma preparacao se faz necessaria.
Seja N Mat (C, n) uma matriz nilpotente de ndice q, ou seja, N q = 0, mas N q1 6= 0. Para uso futuro, provemos
o seguinte lema:
ao existe um vetor v 6= 0 tal que os q vetores
Lema 9.6 Seja N uma matriz nilpotente de ndice q. Est

v, N v, N 2 v, ..., N q1 v , (9.106)

ao linearmente independentes. Fora isso, o subespaco q-dimensional Jv, q := hv, N v, N 2 v, . . . , N q1 vi de V gerado


s
por esses q vetores e invariante por N . 2

Prova. Se q = 1, ent ao N = 0 e n ao ha nada a provar, pois a afirmacao e trivialmente verdadeira para qualquer v 6= 0.
Seja entao q > 1 (em cujo caso N 6= 0, trivialmente). Sabemos, por hipotese, que a matriz N q1 e n ao-nula. Isso
significa que existe pelo menos um vetor v 6= 0 tal que N q1 v 6= 0. Fixemos um tal vetor. E imediato que os vetores
N v, N 2 v, . . . , N q1 v sao todos n
ao-nulos pois, se tivessemos N j v = 0 para algum 1 j < q 1, ent ao, aplicando-se
q1j q1
N `a esquerda, teramos N v = 0, uma contradicao.
Sejam agora 1 , . . . , q escalares tais que

1 v + 2 N v + 3 N 2 v + + q N q1 v = 0 . (9.107)

Aplicando-se N q1 nessa igualdade e lembrando que N q = 0, conclumos que 1 N q1 v = 0. Como N q1 v 6= 0, segue


que 1 = 0 e, com isso, (9.107) fica
2 N v + 3 N 2 v + + q N q1 v = 0 . (9.108)
Aplicando agora N q2 nessa igualdade conclumos que 2 = 0. Prosseguindo, conclumos depois de q passos que todos
os escalares j sao nulos. Isso prova que os q vetores de (9.106) sao linearmente independentes.
Que o subespaco Jv, q definido acima e invariante por N e evidente pois, para quaisquer escalares 1 , . . . , q , tem-se

N 1 v + 2 N v + + q N q1 v = 1 N v + 2 N 2 v + + q1 N q1 v Jv, q .

O seguinte teorema e central para o que segue.


Teorema 9.22 Se N e uma matriz nilpotente de ndice q agindo em V e v um vetor com a propriedade que N q1 v 6= 0,
ao existe um subespaco K de V tal que Jv, q K = {0}, tal que V = Jv, q K e tal que K e tambem invariante por
ent
N. 2
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 404/2103

Prova.17 A prova e feita por inducao em q. Note-se que se q = 1, ent ao N = 0 e a afirmativa e trivial, pois podemos
tomar como v qualquer vetor n ao-nulo, Jv, q seria o subespaco gerado por esse v e K o subespaco complementar a v, que
e trivialmente invariante por N , pois N = 0.
Vamos supor entao que a afirmacao seja valida para matrizes nilpotentes de ndice q 1 e provar que a mesma e valida
para matrizes nilpotentes de ndice q. O que desejamos e construir um subespaco K com as propriedades desejadas, ou
seja, tal que V = Jv, q K, sendo K invariante por N .
Seja V0 = R(N ) o conjunto imagem de N . Sabemos que V0 e um subespaco de V e que e invariante por N . Fora isso,
N e nilpotente de ndice q 1 agindo em V0 (por que?)
claro que N q2 v0 = N q1 v 6= 0. Assim, pelo Lema 9.6, o subespaco (q 1)-dimensional
Seja v0 = N v V0 . E

Jv0 , q1 = hv0 , N v0 , . . . , N q2 v0 i = hN v, N 2 v, . . . , N q1 vi = JN v, q1 ,

que e um subespaco de V0 , e invariante por N e, da hipotese indutiva, conclumos que existe um subespaco K0 de V0 que
e invariante por N tal que JN v, q1 K0 = {0} e tal que V0 = JN v, q1 K0 .
Seja agora K1 := {x V | N x K0 }. Vamos provar a seguinte afirmacao:

I. Todo vetor x de V pode ser escrito na forma x = y + z onde y Jv, q e z K1 .


Para provar isso, notemos que para qualquer x V vale certamente que N x V0 . Portanto, como pela hipotese
indutiva V0 = JN v, q1 K0 , podemos escrever N x = y + z , com y JN v, q1 e z K0 . Como y JN v, q1 , y e
da forma de uma combinacao linear y = 1 N v + + q1 N q1 v = N y, onde y := 1 v + 2 N v + + q1 N q2 v
e um elemento de Jv, q . Logo, z = N (x y). Como z K0 , segue que z := x y K1 . Assim, x = y + z, com
y Jv, q e z K1 . Isso provou I.

Note que a afirmacao feita em I n ao significa que V = Jv, q K1 , pois os subespacos Jv, q e K1 podem ter uma
interseccao n
ao-trivial. Tem-se, porem, o seguinte:

II. Jv, q K0 = {0}.


Provemos essa afirmacao. Seja x Jv, q K0 . Como x Jv, q , x e da forma x = 1 v + 2 N v + + q N q1 v.
Logo N x = 1 N v + 2 N 2 v + + q1 N q1 v JN v, q1 . Agora, como x K0 e, por hipotese, K0 e invariante
por N , segue que N x K0 . Logo, N x JN v, q1 K0 . Todavia, mencionamos acima que JN v, q1 K0 = {0}.
Logo, N x = 0, ou seja, 0 = N x = 1 N v + 2 N 2 v + + q1 N q1 v. Como os vetores N v, . . . , N q1 v sao
linearmente independentes, conclumos que 1 = q1 = 0. Logo, x = q N q1 v. Isso significa que x JN v, q1 .
Demonstramos, ent ao, que se x Jv, q K0 ent ao x JN v, q1 K0 mas, como JN v, q1 K0 = {0}, segue que
x = 0. Isso conclui a prova de II.

III. K0 e Jv, q K1 , sao dois subespacos disjuntos de K1 .


A demonstracao e muito simples. E evidente que Jv, q K1 e subespaco de K1 . Como K0 e invariante pela acao de
N , segue que se x K0 ent ao N x K0 . Pela definicao, isso diz que x K1 e conclumos que K0 e um subespaco
e K1 .
Que K0 e Jv, q K1 sao subespacos disjuntos, segue do fato que
II
K0 (Jv, q K1 ) = K1 (Jv, q K0 ) = K1 {0} = {0} .

A afirmacao III implica que K1 = (Jv, q K1 ) K0 K0 para algum subespaco K0 de K1 (nao necessariamente
nico). Seja agora K := K0 K0 . Note que K1 = (Jv, q K1 ) K e, portanto,
u

(Jv, q K1 ) K = {0} . (9.109)

Provaremos que esse K possui as propriedades desejadas, ou seja, que V = Jv, q K, sendo K invariante por N . Isso e
feito em tres passos.
17 Extra
da, com modificaco
es, de [95].
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 405/2103

1. Jv, q e K sao subespacos disjuntos, ou seja, Jv, q K = {0}, pois, como K K1 , segue que K = K K1 e, portanto,
(9.109)
Jv, q K = Jv, q (K K1 ) = (Jv, q K1 ) K = {0} .

2. Jv, q K contem os vetores de Jv, q e de (Jv, q K1 ) K = K1 . Por I, isso implica que Jv, q K = V .
3. K e invariante por N , pois o fato que K K1 , implica, pela definicao de K1 , que N K N K1 K0 K.

A prova do Teorema 9.22 est


a completa

A principal conseq
uencia do Teorema 9.22 e a seguinte.
Proposiao 9.31 Seja N Mat (C, n) uma matriz nilpotente de ndice q. Ent
c ao, existem

1. um inteiro positivo r, com 1 r n,


umeros inteiros positivos n q1 q2 qr 1, com q1 + + qr = n,
2. r n
3. r vetores v1 , . . . , vr satisfazendo N qj vj = 0 mas N qj 1 vj 6= 0, j = 1, . . . , r,

tais que
V = Jv1 , q1 Jvr , qr .
2

Prova. Se q = 1 ent
ao N = 0. Basta tomar r = n e escolher v1 , . . . , vn uma base qualquer em V . Os qj s sao todos
iguais a 1.
Consideremos ent ao q > 1 com N 6= 0. Tomemos q1 = q. Pelo Teorema 9.22, existem um vetor v1 6= 0 e um subespaco
K 1 , invariante por N tais que
V = Jv1 , q1 K 1 .

Como K 1 e invariante por N , podemos tambem dizer que a matriz N e nilpotente quando restrita a K 1 (j
a que e
claro que q2 q = q1 .
nilpotente em todo V ). Denotemos por q2 o ndice de N quando restrita a K 1 . E
Assim, podemos aplicar o Teorema 9.22 para a matriz N restrita a K 1 e concluir que existe v2 6= 0 em K 1 e um
subespaco K 2 de K 1 , invariante por N , tais que K 1 = Jv2 , q2 K 2 . Note que N q2 v2 = 0, pois v2 K 1 .
Com isso, temos
V = Jv1 , q1 Jv2 , q2 K 2 .
Novamente K 2 e invariante por N e, como K 2 e um subespaco de K 1 . O ndice de N em K 2 sera q3 q2 q1 .
O espaco V tem dimensao finita. Assim, a prova se conclu repetindo o procedimento acima um n
umero finito r de
vezes. Note que N qj vj = 0, pois N q1 v1 = 0, e vj K j1 para todo j = 2, . . . , r.

Pela construcao acima, e claro que q1 + + qr = n, a dimensao de V , e que os n vetores

v1 , N v1 , . . . , N q1 1 v1 , v2 , N v2 , . . . , N q2 1 v2 , . . . , vr , N vr , . . . , N qr 1 vr

sao linearmente independentes e formam uma base em V . Vamos denota-los (na ordem em que aparecem acima) por
b1 , . . . , bn .
Note agora que, pela construcao, N bj = bj+1 , para j em cada um dos conjuntos

{1, . . . , q1 1}, {1 + q1 , . . . , q1 + q2 1}, {1 + q1 + q2 , . . . , q1 + q2 + q3 1} ,

... {1 + q1 + + qr1 , . . . , q1 + + qr 1} , (9.110)

com l = 0, . . . , r 1, sendo que N bj = 0 para todo j na forma q1 + + ql , l = 1, . . . , r.


JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 406/2103

E. 9.34 Exerccio importante para compreender o que segue. Justifique as ultimas afirmacoes. 6

Isso significa que na base b1 , . . . , bn os elementos de matriz de N sao todos nulos exceto aqueles na forma Nj, j+1
com j em algum dos conjuntos listados em (9.110), em cujo caso Nj, j+1 = 1. Pictoriamente, isso diz-nos que na base
b1 , . . . , bn a matriz N assume uma forma genericamente ilustrada na Figura 9.4. Essa e a denominada forma can onica

0 1 (q 1) vezes
1
}
1
0
1
(q 1) vezes
2
0
}
1
0
N =
0
1

1
0

0 (q r 1) vezes
1

0
}
1
0

Figura 9.4: Forma can


onica tpica de uma matriz nilpotente N . Os elementos da primeira supra-diagonal podem valer
0 ou 1. Todos os demais elementos de matriz sao nulos.

da matriz nilpotente N ou representac


ao can
onica da matriz nilpotente N , que descrevemos mais detalhadamente no que
segue.
Os elementos da diagonal principal sao todos nulos. Os u nicos elementos n
ao-nulos da matriz podem estar localizados
apenas na diagonal imediatamente acima da principal, ou seja, aquela diagonal formada por elementos de matriz do
tipo Nj, j+1 com j = 1, . . . , n 1. Chamaremos essa diagonal de primeira supra-diagonal. Os elementos da primeira
supra-diagonal podem ser 0 ou 1, da forma seguinte: a primeira supra-diagonal possuira r fileiras. As primeiras r 1
fileiras sao formadas por qj elementos, j = 1, . . . , n 1, sendo os primeiros qj 1 elementos iguais a 1 e o u
ltimo igual
a 0. A u a qr 1 elementos iguais a 1. Assim, se qr = 1, o u
ltima fileira ter ltimo elemento da primeira supra-diagonal
sera nulo, proveniente da (r 1)-esima fileira (essa e a u
nica forma de aparecer um zero no u ltimo elemento da primeira
supra-diagonal).
Note que zeros consecutivos podem ocorrer, se tivermos alguns qj s iguais a 1. Note tambem que os elementos da
primeira supra-diagonal podem ser todos nulos (o que valera se r = n, em cujo caso q1 = = rn = 1. Isso so pode
ocorrer se N = 0 e, nesse caso, q = 1) ou todos iguais a 1 (o que valera se r = 1, em cujo caso q1 = n).
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 407/2103

9.7.4 A Forma Can


onica de Matrizes
Finalizamos esta secao e nossa discuss
ao sobre o Teorema da Decomposicao de Jordan e suas conseq
uencias reunindo o
que descobrimos ate aqui.
Se A Mat (C, n) o Teorema 9.20, p agina 401 ensinou-nos que numa base conveniente (ou seja, por uma trans-
formacao de similaridade P01 AP0 ), toda matriz A tem a forma de blocos diagonais:

1 1n1 + N1 0 0





A1 0 0





0 2 1n2 + N2 0

0 A2 0

P01 AP0 =
.
= , (9.111)
.. .. .. ..
. . .
.. .. ..

..





. . . .

0 0 Ar





0 0 r 1nr + Nr

sendo 1 , . . . , r os autovalores distintos de A. O j-esimo bloco e de tamanho nj nj , sendo que nj e a multiplicidade


algebrica do autovalor j . As matrizes Nj sao nilpotentes.
a sua forma canonica Njc (tal como explicado na Figura 9.4, p
Cada matriz Nj pode ser levada ` agina 406, e no que se
lhe segue) em uma base conveniente, ou seja, por uma transformacao de similaridade Pj1 Nj Pj . Assim, definindo

P1 0 0


0 P2 0

P =
.
, (9.112)
.. .. .. ..
. . .


0 0 Pr
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 408/2103

vemos que P 1 (P01 AP0 )P = (P0 P )1 A(P0 P ), sendo que, por (9.111),

1
P1 (1 1n1 + N1 ) P1 0 0







0 P21 (2 1n2 + N2 ) P1 0



P 1 (P01 AP0 )P =




.. .. .. ..

. . . .







0 0 Pr1 (r 1nr + Nr ) Pr


1 1n1 + N1c 0 0







0 2 1n2 + N2c 0



=

.
(9.113)

.. .. .. ..

. . . .







0 0 r 1nr + Nrc

E. 9.35 Exerccio. Complete os detalhes. 6

A matriz final de (9.113) e denominada forma can onica da matriz A, ou forma can onica de Jordan da matriz A.
Como dissemos, toda matriz A assume essa forma numa certa base. Devido ao fato de todos as sub-matrizes nilpotentes
Njc terem a forma can onica, os u
nicos elementos n
ao-nulos da forma canonica da matriz A podem estar ou na diagonal
principal (sendo estes os autovalores de A, cada um aparecendo em uma fileira de nj elementos), ou na primeira supra-
diagonal, sendo que estes valem apenas 0 ou 1 e seguem as regras descritas acima. Isso e ilustrado na Figura 9.5,

A Figura 9.5, mostra a forma can onica de uma matriz que possui 4 autovalores distintos 1 , 2 , 3 e 4 . A primeira
supra-diagonal e formada pela seq
uencia de n
umeros

11 , . . . , 1a , 0, 11 , . . . , 1b , 0, 11 , . . . , 1c , 0, 11 , . . . , 1d , (9.114)

sendo que os ij assumem apenas os valores 0 ou 1, de acordo com as regras explicadas acima quando discutimos a forma
canonica de matrizes nilpotentes. Todos os elementos fora da diagonal principal e da primeira supradiagonal sao nulos.
O primeiro bloco e de dimensao (a + 1) (a + 1), o segundo bloco e de dimensao (b + 1) (b + 1) etc., sendo a + 1 a
multiplicidade algebrica de 1 , b + 1 a multiplicidade algebrica de 2 etc.
interessante notar que na primeira supra-diagonal, sempre ocorrem zeros nos pontos localizados fora dos blocos, ou
E
seja, nos pontos onde ocorrem transicoes entre dois autovalores distintos (indicados por setas na Figura 9.5). Esses sao
os zeros que ocorrem explicitamente na lista (9.114).
Por fim, comentamos que a forma can onica n
ao e exatamente u
nica, pois e possvel ainda fazer transformacoes de
similaridade que permutem os blocos de Jordan da matriz. Alem disso, dentro de cada subespaco invariante (onde cada
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 409/2103

bloco age) e possvel fazer certas permutacoes dos elementos da base, de modo a preservar a diagonal e permutar os i s
da primeira supradiagonal.

9.7.5 Mais Alguns Resultados Sobre Matrizes Nipotentes


O Teorema da Decomposicao de Jordan permite-nos demonstrar mais alguns fatos u
teis sobre matrizes, particularmente
sobre matrizes nilpotentes.
Recordemos que o ndice de uma matriz nilpotente N e o menor q N para o qual vale tem-se N q = 0. Um resultado
u
til sobre matrizes nilpotentes e o seguinte lema:
Lema 9.7 Sejam N1 e N2 Mat (C, n) duas matrizes nilpotentes com ndices q1 e q2 , respectivamente. Se N1 e N2
comutarem, ou seja, se N1 N2 = N2 N1 , ent ao 1 N1 + 2 N2 e tambem nilpotente para todos 1 , 2 C. O ndice de
1 N1 + 2 N2 e menor ou igual a q1 + q2 . 2

omio de Newton e, para todo m N tem-se


Prova. Como N1 e N2 comutam, vale o bin
m  
m X m mp p mp p
1 N1 + 2 N2 = 1 2 N1 N2 .
p=0
p

A condicao de N1 ter ndice q1 implica que e suficiente considerar os valores de p com m p < q1 , ou seja, p > m q1 .
A condicao de N2 ter ndice q2 implica que e suficiente considerar os valores de p com p < q2 . Assim, so podem ser
eventualmente n ao-nulos os termos da soma com m q1 < p < q2 . Se tivermos m q1 q2 (ou seja, m q1 + q2 ), essa
condicao e impossvel e todos os termos da soma do lado direito sao nulos, implicando que 1 N1 + 2 N2 e nilpotente de
ndice menor ou igual a m. Assim, o ndice de 1 N1 + 2 N2 e menor ou igual a q1 + q2 .

Um corolario disso e a Proposicao 9.32, p


agina 410, a qual indica-nos uma condicao suficiente e necessaria para que
uma matriz seja nilpotente. Antes precisamos apresentar e demonstrar o seguinte lema, o qual tem interesse por si so:
Lema 9.8 Seja A Mat (C, n), sejam 1 , . . . , r seus autovalores distintos (naturalmente, com 1 r n) e sejam
m1 , . . . , mr suas multiplicidades algebricas respectivas (naturalmente, m1 + + mr = n). Ent
ao,
r
X

Tr Ak = ml kl (9.115)
l=1

para para todo k N0 . 2

Prova. Seja A Mat (C, n). Para o caso k = 0,P lembremo-nos da convencao que A0 = 1. Assim, Tr(A0 ) = Tr(1) = n.
r
Mas no caso k = 0 o lado direito de (9.115) fica l=1 ml = n. Isso estabeleceu (9.115) para k = 0. Tomemos doravante
k > 0.
Seja P Mat (C, n) uma matriz inversvel que leva A `a sua forma de Jordan, ou seja, tal que P AP 1 = D + N com
D diagonal, N nilpotente e com DN = N D. Seja q ndice de N . E claro que para cada k N tem-se

k   k  
k k X k X k
P Ak P 1 = P AP 1 = D+N = Dkp N p = Dk + Dkp N p . (9.116)
p=0
p p=1
p

Afirmamos que cada termo da ultima somatoria (ou seja, aqueles termos com 1 p k) e uma matriz nilpotente. De
fato, para cada l N tem-se
 l
Dkp N p = D(kp)l N pl

e se escolhermos l de sorte que pl q (e isso e sempre possvel para cada p 1, o fator N pl sera nulo, provando que
Dkp N p e nilpotente.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 410/2103

agina 409 informam que P Ak P 1 = Dk + M com M nilpotente. Logo, para todo


Assim, (9.116) e o Lema 9.7, p
k N tem-se    
Tr Ak = Tr P Ak P 1 = Tr Dk + Tr(M ) = Tr Dk .
Na ultima igualdade usamos o fato de que o traco de uma matriz nilpotente e nulo, pois todos os seus autovalores sao
nulos (vide Corolario 9.5, p
agina 403 e Proposicao 9.30, p
agina 397).
Sejam 1 , . . . , r os autovalores distintos de A (naturalmente, com 1 r n) e sejam m1 , . . . , mr suas multipli-
cidades algebricas respectivas (naturalmente, m1 + + mr = n). Ja sabemos
 que D = diag (1 , . . . , r ), sendo que
k k k
cada j aparece mj vezes na diagonal de D. Logo, D = diag 1 , . . . , r . Conseq uentemente,

r
X
 
Tr Ak = Tr Dk = ml kl ,
l=1

completendo a prova.

Vamos agora ao resultado mais desejado.


Proposi
 c
ao 9.32 Uma condic aria e suficiente para que uma matriz A Mat (C, n) seja nilpotente e que valha
ao necess
Tr Ak = 0 para todo k = 1, . . . , n. 2

Prova. Se A e nilpotente,
 ent
ao todos os seus autovalores, sao nulos, assim como todos os autovalores de todas as suas
potencias. Logo, Tr Ak = 0 para todo k N.

Vamos agora supor que Tr Ak = 0 para todo k = 1, . . . , n. Sejam 1 , . . . , r os autovalores distintos de
A (naturalmente, com 1 r n) e sejam m1 , . . . , mr suas multiplicidades algebricas respectivas (naturalmente,
m1 + + mr = n).
Vamos agora, por contradicao, supor que A n
ao seja nilpotente. Pelo Corolario 9.5, p
agina 403, isso equivale a dizer
que ao menos um dos autovalores de A e n ao nulo. Digamos que este seja o autovalor r . Temos, assim que r 6= 0 e
que mr 1.
Note-se que se r = 1, ent
ao todos os autovalores de A seriam iguais (a , digamos) e teramos mr = n. Porem nesse
caso teramos Tr(A) = n, o que e imcompatvel com a hipotese que Tr(A) = 0, pois isso implicaria que = 0, ou
seja, que todos os autovalores de A sao nulos, o que implicaria, pelo Pelo Corolario 9.5, p
agina 403, que A e nilpotente.
Podemos, portanto, supor r > 1.
Pn k
Seja p(x) = k=1  k x um polinomio de grau menor ou igual a n e cujo termo constante e nulo. Teremos, pela
k
hip
otese que Tr A = 0 para todo k = 1, . . . , n, que
n n r
! r n
! r
X  (9.115) X X X X X
0 = k Tr Ak = k ml kl = ml k kl = ml p(l ) . (9.117)
k=1 k=1 l=1 l=1 k=1 l=1

o
Vamos agora escolher p(x) = x(x 1 ) (x r1 ). Teremos, evidentemente, que: 1 o polinomio p e um polinomio de
grau r n cujo termo constante e nulo. 2o p(l ) = 0 para cada l = 1, . . . r1. 3o p(r ) = r (r 1 ) (r r1) 6= 0,
pois nenhum dos fatores do lado direito e nulo (j a que r 6= 0 e ja que os j s sao distintos). Para esse polinomio a
relacao (9.117) fica 0 = mr p(r ). Como p(r ) 6= 0, conclumos que mr = 0, uma contradicao com o fato que mr 1 que
por sua vez decorria da hip otese de A n
ao ser nilpotente.
k

Logo, a hipotese que Tr A = 0 para todo k = 1, . . . , n, implica que A e nilpotente, completando a prova.


Uma conseq uencia evidente
 da Proposicao 9.32, acima, e que se para A Mat (C, n) valer que Tr Ak = 0 para cada
k = 1, . . . , n, entao Tr Ak = 0 para todo k 1. O proximo exerccio apresenta mais um color ario da Proposicao 9.32.

E. 9.36 Exerccio. Demonstre o seguinte corolario da Proposicao 9.32, pagina 410:


Corolario 9.6 Uma condic aria e suficiente para que uma matriz A Mat (C, n) seja nilpotente e que valha
ao necess
Tr ezA = n para todo z em algum domnio aberto de C. 2
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 411/2103

 P k 
Sugestao: prove que Tr ezA = n + k=1 zk! Tr Ak e analtica em z e use esse fato. Para a demonstrar a analiticidade,
   k
prove (usando (9.115)) que Tr Ak n max |1 |, . . . , |r |

e use esse fato. 6

9.8 Algumas Representa


coes Especiais de Matrizes
Nas secoes anteriores apresentamos algumas formas especiais de representar matrizes com determinadas caractersticas,
como aquelas expressas no Teorema Espectral e no Teorema de Jordan. Nesta secao apresentaremos outras representacoes,
relevantes em certos contextos, como a decomposicao polar.

9.8.1 A Decomposi
cao Polar de Matrizes
bem conhecido o fato de que todo n
E umero complexo z pode ser escrito na forma polar z = |z|ei , onde |z| 0 e

[, ). Tem-se que |z| = zz e ei = z|z|1 . H a uma afirmacao analoga valida para matrizes A Mat (C, n),
a qual e muito u
til, e da qual trataremos nesta secao. Antes de enunciarmos esse resultado de forma mais precisa (o
Teorema da Decomposicao Polar, Teorema 9.23, abaixo), facamos algumas observacoes preliminares.
Seja A Mat (C, n) e seja a matriz A A. Notemos primeiramente que (A A) = A A = A A, ou seja, A A
e auto-adjunta. Pelo Teorema 9.14, p agina 384, e possvel encontrar um conjunto ortonormal {vk , k = 1, . . . , n} de
autovetores de A A, com autovalores dk , k = 1, . . . , n, respectivamente, sendo que a matriz
hh ii
P := v1 , . . . , vn (9.118)

(para a notacao, vide (9.9)) e unit aria e diagonaliza A A, ou seja, P (A A)P = D, sendo D a matriz diagonal D :=
diag (d1 , . . . , dn ), cujos elementos da diagonal sao os autovalores de A A. Os autovalores dk sao todos maiores ou iguais
a zero. De fato, se vk 6= 0 e um autovetor de A A com autovalor dk , teremos dk kvk k2 = dk hvk , vk iC = hvk , Bvk iC =
hvk , A Avk iC = hAvk , Avk iC = kAvk k2 . Logo, dk = kAvk k2 /kvk k2 0.
Com esses fatos `a mao, vamos definir uma matriz diagonal, que denotaremos sugestivamente por D1/2 , por D1/2 :=
2 
diag ( d1 , . . . , dn ). Tem-se que D1/2 = D, uma propriedade obvia18 . Note-se tambem que D1/2 = D1/2 , pois

cada dk e real. Os n umeros n
ao-negativos d1 , . . . , dn sao freq
uentemente denominados valores singulares de A.

Definamos agora a matriz A A, por
A A := P D1/2 P . (9.119)
    2
Essa matriz A A e auto-adjunta, pois A A = P D1/2 P = P D1/2 P = A A. Observemos que A A =
P (D1/2 )2 P = P DP = A A. Disso segue que
  2 
 2
det A A = det A A = det(A A) = det(A ) det(A) = det(A) det(A) = | det(A)|2 .

 
Provamos assim que det A A = | det(A)| e, portanto, A A e inversvel se e somente se A o for.

Alguns autores denotam a matriz A A por |A|, por analogia com o modulo de um n umero complexo. Podemos
agora formular e demonstrar o resultado que procuramos:
Teorema 9.23 (Teorema da Decomposiao Polar) Seja A Mat (C, n). Ent
c aria U
ao, existe uma matriz unit
Mat (C, n) tal que
A = U A A . (9.120)
Se A e inversvel, ent
ao U e univocamente determinada. A representac
ao (9.120) e denominada representacao polar de
A. 2

18 Essa

n
ao nica matriz com essa propriedades, pois qualquer matriz do tipo diag ( d1 , . . . , dn ), com os sinais escolhidos
e a u
independentemente uns dos outros, tamb
em tem como quadrado a matriz D.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 412/2103

Prova. Sejam, como acima, dk , k = 1, . . . , n os autovalores de A A com autovetores respectivos vk , k = 1, . . . , n.


agina 384 que podemos escolher os vk s de forma que hvk , vl iC = k l .
Sabemos pelo Teorema 9.14, p
Como vimos acima, os autovalores dk satisfazem dk 0. Sem perda de generalidade, vamos supo-los ordenados de
forma que dk > 0 para todo k = 1, . . . , r e dk = 0 para todo k = r + 1, . . . , n. Com essa escolha, tem-se que

Avk = 0 para todo k = r + 1, . . . , n , (9.121)

pois de A Avk = 0, segue que 0 = hvk , A Avk iC = hAvk , Avk iC = kAvk k2 .


Para k = 1, . . . , r, sejam wk os vetores definidos da seguinte forma:
1
wk := Avk , k = 1, . . . , r . (9.122)
dk
f
E acil ver que
1 1 dk dk
hwk , wl iC = hAvk , Avl iC = hA Avk , vl iC = hvk , vl iC = k l = k l ,
dk dl dk dl dk dl dk dl
para todos k, l = 1, . . . , r. Assim, o conjunto de vetores {wk , k = 1, . . . , r} forma um conjunto ortonormal. A
eles podemos acrescentar um novo conjunto {wk , k = r + 1, . . . , n}, escolhido arbitrariamente, de vetores ortonormais
pertencentes ao complemento ortogonal do subespaco gerado por {wk , k = 1, . . . , r} e construir assim, um conjunto
ortonormal {wk , k = 1, . . . , n}.
Sejam agora a matriz P , definida em (9.118) e as seguintes matrizes de Mat (C, n):
hh ii
Q := w1 , . . . , wn , U := QP

(para a notacao, vide (9.9)). Como {vk , k = 1, . . . , n} e {wk , k = 1, . . . , n} sao dois conjuntos ortonormais, segue que
P e Q sao matrizes unit arias (por que?) e, portanto, U tambem e unitaria.

E facil 1/2
ver que AP= QD , onde D 1/2

def idiag d1 , . . . , dn , De fato,


(9.118)
hh ii (9.12)
hh ii
AP = A v1 , . . . , vn = Av1 , . . . , Avn

(9.121)
hh ii
= Av1 , . . . , Avr 0, . . . , 0

(9.122)
hhp p ii
= d1 w1 , . . . , dr wr 0, . . . , 0

(9.15)
hh ii
= w1 , . . . , wn D1/2 = QD1/2 .

(9.119)
Agora, de AP = QD1/2 , segue que A = QD1/2 P = U P D1/2 P = U A A, que e o que queramos provar.

Para mostrar que U e univocamentedeterminado se A for inversvel, suponhamos que exista U tal que A = U A A =
U A A. Como
comentamos acima, A A e inversvel se e somente se A o for. Logo, se A e inversvel, a igualdade
U A A = U A A implica U = U , estabelecendo a unicidade. Caso A n ao seja inversvel a arbitrariedade de U reside
na escolha dos vetores ortogonais {wk , k = r + 1, . . . , n}.

O seguinte corol
ario e elementar:
Teorema 9.24 Seja A Mat (C, n). Ent aria V Mat (C, n) tal que
ao, existe uma matriz unit

A = AA V . (9.123)

Se A e inversvel, ent
ao V e univocamente determinada. 2
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 413/2103

p
Prova.
Para a matriz A , (9.120) diz-nos
que A = U0 (A ) A = U

0 AA para alguma matriz unit
aria U0 . Como

AA e auto-adjunta, segue que A = AA U0 . Identificando V = U0 , obtemos o que desejamos.

O Teorema da Decomposicao Polar pode ser generalizado para abranger operadores limitados agindo em espacos
de Hilbert (vide Teorema 38.31, p
agina 1971) e mesmo para abranger operadores n
ao-limitados agindo em espacos de
Hilbert (vide [200]).

9.8.2 A Decomposi
cao em Valores Singulares
O Teorema da Decomposicao Polar, Teorema 9.23, p
agina 411, tem um corol
ario de particular interesse.
Teorema 9.25 (Teorema da Decomposi cao em Valores Singulares) Seja A Mat (C, n). Ent
ao, existem ma-
arias V e W Mat (C, n) tais que
trizes unit
A = V SW , (9.124)
onde S Mat (C, n) e uma matriz diagonal cujos elementos diagonais s
ao os valores singulares de A, ou seja, os
autovalores de A A. 2

Prova. A afirmacao segue imediatamente de (9.120) e de (9.119) tomando V = U P , W = P e S = D1/2 .

O Teorema 9.25 pode ser generalizado para matrizes retangulares. No que segue, m, n N e usaremos as definicoes
(9.3), (9.7) e a relacao (9.8) (vide p
agina 341) que permitem mapear injetivamente matrizes retangulares em certas
matrizes quadradas.
Teorema 9.26 (Teorema da Decomposi cao em Valores Singulares. Geral) Seja A Mat (C, m, n). Ent
ao,
arias V e W Mat (C, m + n) tais que
existem matrizes unit

A = Im, m+n V SW Jm+n, n , (9.125)

onde S Mat (C, m + n) e uma matriz


p ao os valores singulares de A (definida em
diagonal cujos elementos diagonais s

(9.7)), ou seja, os autovalores de (A ) A . 2

Prova. A matriz A Mat (C, m + n) e uma matriz quadrada e, pelo Teorema 9.25, possui uma decomposicao em valores
singulares A = V SW com V e W Mat (C, m + n), unit arias, e S Mat (C, m + n) sendo uma matriz diagonal cujos
elementos diagonais sao os valores singulares de A . Com isso, (9.125) segue de (9.8).

Na Secao 9.9, p
agina 418, estudaremos uma aplicacao do Teorema da Decomposicao em Valores Singulares, a saber,
ao estudo da chamada Pseudo-Inversa de Moore-Penrose e suas aplicacoes em problemas de optimizacao linear.
A decomposicao em valores singulares apresentada acima admite uma generalizacao para operadores compactos agindo
em espacos de Hilbert. Vide Teorema 38.39, p agina 1995.

9.8.3 O Teorema da Triangularizac


ao de Schur
O teorema que apresentamos abaixo, devido a Schur19 , e semelhante, mas n ao identico, ao Teorema de Jordan: toda
matriz de Mat (C, n) pode ser levada por uma transformacao de similaridade induzida por uma matriz unit aria a uma
matriz triangular superior (para a definicao, vide Secao 9.6, pagina 393). Esse teorema e alternativamente denominado
Teorema da Triangularizacao de Schur ou Teorema da Decomposic ao de Schur. Como veremos, esse teorema pode ser
usado para fornecer uma outra demonstracao (eventualmente mais simples) da diagonalizabilidade de matrizes auto-
adjuntas e de matrizes normais por matrizes unit arias.
19 Issai Schur (18751941).
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 414/2103

Teorema 9.27 (Teorema da Decomposi ao de Schur) Seja A Mat (C, n). Ent
c ao, existe U Mat (C, n),
aria, e S Mat (C, n), triangular superior, tais que A = U SU . Os elementos da diagonal de S s
unit ao os auto-
valores de A. 2

Antes de provarmos esse teorema, mencionemos um corol


ario evidente:
Corolario 9.7 Seja A Mat (C, n). Ent ao, existe V Mat (C, n), unitaria, e I Mat (C, n), triangular inferior, tais
que A = V IV . Os elementos da diagonal de I sao os autovalores de A. 2

Prova do Corolario 9.7. Pelo Teorema 9.27, a matriz A pode ser escrita da forma A = V SV , com V unit
aria e S
triangular superior. Logo, A = V S V . Porem, S I e triangular inferior.
Tambem pelo Teorema 9.27, os autovalores de A sao os elementos diagonais de S, que sao o complexo conjugado
dos elementos diagonais de S I. Mas os autovalores de A sao o complexo conjugado dos autovalores de A (pela
Proposicao 9.24, p
agina 382) e, portanto, sao os elementos diagonais de I.

Prova do Teorema 9.27. Comecemos observando que se A = U SU com U unit ario, ent
ao A e S tem o mesmo polinomio
caracterstico e, portanto, os mesmos autovalores, incluindo a multiplicidade
Qn (vide a discuss
ao em torno de (9.32), p
agina
352). Mas o polinomio caracterstico de S e pS (x) = det(x1 S) = k=1 (x Skk ), pois S e triangular superior e,
portanto, os autovalores de S sao os elementos de sua diagonal. Passemos `a demonstracao da afirmativa principal, ou
seja, que A = U SU com U unit ario e S triangular superior.
(1)
hh Seja n 2 eii v1 um autovetor de A com autovalor 1 e kv1 k = 1. Seja U aria da forma U (1) =
uma matriz unit
(1) (1) (1)
u1 , . . . , un com u1 = v1 , ou seja, cuja primeira coluna e o vetor v1 . Ent
ao,

(1) (1)
1 b1 bn1


0 (1) (1)
(9.12)
hh
(1)
ii hh
(1) (1)
ii a11 a1(n1)
AU (1) = Au1 , . . . , Au(1)
n = u
1 1 , Au 2 , . . . , Au (1)
n = U (1)
.
,
.. .. .. ..
. . .



(1) (1)
0 a(n1)1 a(n1)(n1)

(1) (1)
para certos bk e akl , k, l = 1, . . . , n 1, onde
n1
X
(1) (1) (1) (1) (1)
Auk = bk u 1 + alk ul+1 , k = 2, . . . , n . (9.126)
l=1

Para simplificar a notacao, definimos



(1) (1) (1)
b1 0 a11 a1(n1)

. . . .. ..
b(1) .
= . , 0n1 = .
. , A(1) =
.
. . . ,



(1) (1) (1)
bn1 0 a(n1)1 a(n1)(n1)

(0n1 tendo n 1 linhas) e escrevemos a identidade (9.126) como



(1) T
1 b
U (1) AU (1) =

.
(9.127)
0n1 A(1)
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 415/2103

Para n = 2 isso demonstra o teorema, pois afirma que



(1)
1 b1
U (1) AU (1) =

,

(1)
0 a11

sendo o lado direito uma matriz triangular superior. Para n > 2 procedemos por inducao. Supondo a afirmacao valida
(1) (1)
para matrizes (n 1) (n 1), ent ao existe uma matriz unitaria V Mat (C, n 1) tal que
 V A T V = S , sendo
aria U (2) Mat (C, n) por U (2) := 0 1 0n1
S (1) triangular superior. Assim, definindo a matriz unit V
, teremos por
n1
(9.127),

U (1) U (2) AU (1) U (2) = U (2) U (1) AU (1) U (2)

(1) T
1 0Tn1 1 b 1 0Tn1
=







0n1 V
0n1 A (1)
0n1 V


T (1) T

1 V b
=



0n1 V A(1) V


T (1) T

1 V b
=

,

0n1 S (1)

que e triangular superior, pois S (1) o e. Como U (1) U (2) e unit


aria (pois U (1) e U (2) o sao), o teorema est
a provado.

Coment
ario. Toda matriz triangular superior S pode ser escrita na forma D + N , sendo D a matriz diagonal formada pela diagonal de
S (ou seja, Dii = Sii para todo i = 1, . . . , n) e N
e nilpotente (pois
e triangular superior, mas com diagonal nula). Assim, o Teorema 9.27
afirma que toda matriz A pode ser levada ` a forma D + N por uma transformaca o de similaridade unit
aria. Por
em, o Teorema 9.27 n
ao garante
(nem e verdade, em geral) que D e N comutem. Assim, o Teorema 9.27 e distinto do Teorema de Jordan, Teorema 9.21, pagina 402.

O Teorema 9.27 tem por corol ario o seguinte teorema, ja provado anteriormente por outros meios (Teorema 9.14,
p
agina 384, e Proposicao 9.26, p
agina 386).
Teorema 9.28 Uma matriz A Mat (C, n) e auto-adjunta, se e somente se for diagonaliz
avel por uma transformac
ao
de similaridade unit
aria e se seus autovalores forem reais. 2

Prova. Pelo Teorema 9.27, existe uma matriz unit aria U tal que U AU = S, sendo S triangular superior cujos elementos
diagonais sao os autovalores de A. Assim, se A = A , segue que S = (U AU ) = U A U = U AU = S. Mas para uma
matriz triangular superior S, a igualdade S = S implica que S e diagonal e os elementos da diagonal sao reais.
Reciprocamente, se A Mat (C, n) e diagonalizavel por uma transformacao de similaridade unit
aria e seus autovalores
aria e D diagonal real com U AU = D, ent
sao reais, ou seja, existe U unit ao A = U DU e A = U D U . Como D e
diagonal e real, vale D = D e, portanto, A = U DU = A, provando que A e auto-adjunta.

Pelo Teorema 9.27, se A Mat (C, n) e uma matriz normal e U AU = S, com U unit aria e S triangular superior,
ent
ao S e normal (justifique!). Assim, junto com o Lema 9.4, p
agina 395, provamos o seguinte:
Teorema 9.29 Uma matriz A Mat (C, n) e normal se e somente se for diagonaliz
avel por uma transformac
ao de
similaridade unit
aria. 2

Essas afirmacoes foram demonstradas por outros meios no Teorema 9.16, p


agina 386.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 416/2103

9.8.4 A Decomposi
cao QR e a Decomposi
cao de Iwasawa (KAN)
O prop osito desta secao e apresentar a chamada decomposicao de Iwasawa20 , ou decomposicao KAN 21 , de matrizes
inversveis, Teorema 9.31. Esse teorema tem relacao com a teoria dos grupos de Lie, como discutiremos brevemente
ao final. Os dois primeiros resultados preparat orios abaixo, Proposicao 9.33 e Teorema 9.30 (Decomposicao QR), tem
interesse por si so.
Proposi ao 9.33 Seja R Mat (C, n) uma matriz triangular superior cujos elementos diagonais s
c ao n
ao-nulos (i.e.,
ao, podemos escrever R = AN , onde A Mat (C, n) e a matriz diagonal formada com a diagonal de
R e inversvel). Ent
R: A = diag (R11 , . . . , Rnn ), e N Mat (C, n) e uma matriz triangular superior cujos elementos diagonais s
ao iguais
a 1. 2

facil constatar que (abaixo m n 1)


Prova. E

R12 R1n
R11 R12 R1n R11 0 0 1 R11 R11

.. .. ..
R2n
0
R22 .
R2n 0
R22 . 0
0 1 . R22

. .. .. .. .. . .. .. .. .. . .. .. .. ..
R = . . = . .
. . . . . . . . . .
. .
. . .

.. .. ..
Rmn
0
. Rmm Rmn

0
. Rmm 0
0 . 1 Rmm


0 0 Rnn 0 0 Rnn 0 0 1
| {z }| {z }
A N

O estudante deve comparar as afirmacoes do teorema a seguir com o Teorema da Decomposicao Polar, Teorema 9.23,
p
agina 411, e com o Teorema da Decomposicao de Schur, Teorema 9.27, p agina 414.
Teorema 9.30 (Teorema da Decomposi ao QR) Seja M Mat (C, n) uma matriz inversvel. Ent
c ao, M pode ser
escrita na forma M = QR, onde Q Mat (C, n) e unit aria e R Mat (C, n) e triangular superior, sendo que os
elementos diagonais de R s
ao estritamente positivos.
 
Prova do Teorema 9.30. Seja M = m1 , . . . , mn . Como M e inversvel, os vetores mk , k = 1, . . . , n, sao linearmente
independentes, ou seja, formam uma base em Cn . Podemos, portanto, usar o procedimento de ortogonalizacao de Gram-
Schmidt (vide Secao 3.3, p agina 205) e construir uma nova base ortonormal de vetores qj , j = 1, . . . , n, a partir dos
vetores ml , l = 1, . . . , n. Tais vetores sao definidos por
j1
X
mj hql , mj iC ql
m1 l=1
q1 = , qj = , j = 2, . . . , n .
km1 k j1
X

mj hql , mj iC ql

l=1

Como e facil verificar, tem-se hqi , qj iC = i j para todos i, j = 1, . . . , n. As relacoes acima implicam trivialmente
j1
j1
X X

m1 = q1 km1 k , mj = qj mj hql , mj iC ql + ql hql , mj iC , j = 2, . . . , n ,

l=1 l=1
20 Kenkichi Iwasawa (19171998).
21 Infelizmente n
ao h
a uniformidade na literatura quanto `
a denominaca
o dessa decomposica
o. Vamos cham a-la de decomposica
o de Iwasawa
pois a mesma e um caso particular (para o grupo GL(C, n) das matrizes complexas n n inversveis) de um teorema mais geral da teoria dos
grupos de Lie, denominado Teorema da Decomposica o de Iwasawa, que afirma que todo elemento g de um grupo de Lie semi-simples pode
ser escrito como produto de um elemento k de um subgrupo compacto maximal, por um elemento a de um subgrupo Abeliano (real) e por
um elemento n de um subgrupo nilpotente (ou seja, cuja algebra de Lie
e nilpotente): g = kan. Em Alem ao, as palavras compacto, Abeliano
e nilpotente s
ao Kompakt, Abelsch e Nilpotent, da a denominaca o decomposicao KAN para essa decomposicao, denominacao essa
encontrada em alguns textos.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 417/2103

relacoes estas que podem ser escritas em forma matricial como



R11 hq1 , m2 iC hq1 , mn iC





..
0
R22 . hq2 , mn iC




hh ii hh ii
. .. .. .. ..
m1 , . . . , mn = q1 , . . . , qn R , onde R := . . . . , (9.128)
. .





..
0
. R(n1)(n1) hqn1 , mn iC







0 0 Rnn

com
j1
X

R11 = km1 k , Rjj = mj hql , mj iC ql , j = 2, . . . , n .

l=1

E. 9.37 Exerccio. Convenca-se da validade da relacao (9.128). 6


 
Definindo Q := q1 , . . . , qn , a relacao (9.128) diz-nos que M = QR, sendo R triangular superior (como se ve) e Q
unit
aria (pois os vetores ql , l = 1, . . . , n, sao ortonormais). Isso completa a prova do Teorema 9.30.

Chegamos assim ao importante Teorema da Decomposicao de Iwasawa para matrizes inversveis:


Teorema 9.31 (Teorema da Decomposi c
ao de Iwasawa, ou Decomposi ao KAN ) Seja M Mat (C, n) uma
c
matriz inversvel. Ent nico na forma M = KAN , onde K Mat (C, n) e uma matriz
ao, M pode ser escrita de modo u
aria, A Mat (C, n) e a uma matriz diagonal, tendo elementos diagonais estritamente positivos, e N Mat (C, n)
unit
e uma matriz triangular superior cujos elementos diagonais s
ao iguais a 1. 2

Prova. A afirmacao que M pode ser escrita na forma M = KAN , com K, A e N com as propriedades acima segue
imediatamente da Proposicao 9.33 e do Teorema 9.30, dispensando demonstracao. O u
nico ponto a se demonstrar e a
unicidade dessa decomposicao.
Vamos entao supor que para algum M Mat (C, n) existam K, K0 Mat (C, n), matrizes unit arias, A, A0
Mat (C, n), matrizes diagonais, tendo elementos diagonais estritamente positivos, e N, N0 Mat (C, n) matrizes
triangulares superiores cujos elementos diagonais sao iguais a 1, tais que M = KAN = K0 A0 N0 .
Segue imediatamente disso que K01 K = A0 N0 N 1 A1 . O lado esquerdo dessa igualdade e uma matriz unit aria
e, portanto, normal. O lado direito e uma matriz triangular superior (pela Proposicao 9.29, p
agina 394). Pelo Lema
agina 395, A0 N0 N 1 A1 deve ser uma matriz diagonal D. Assim, temos que K01 K = D e A0 N0 N 1 A1 = D.
9.4, p
aria. A segunda diz-nos que N0 N 1 = A1
A primeira dessas relacoes diz-nos que D e unit 0 DA, ou seja, N0 = D0 N ,
1
onde D0 := A0 DA e diagonal (por ser o produto de tres matrizes diagonais). Agora, N e N0 sao matrizes triangulares
superiores cujos elementos diagonais sao iguais a 1. Portanto, a relacao N0 = D0 N com D0 diagonal so e possvel se
D0 = 1 (de outra forma haveria elementos na diagonal de N ou de N0 diferentes de 1), estabelecendo que N = N0 .
0 DA = 1, ou seja, D = A0 A
Provamos, assim, que A1 1
. Agora, A e A0 sao diagonais, tendo na diagonal n
umeros
reais positivos. Logo, D tambem e diagonal e tem na diagonal numeros reais positivos e, portanto, D = D . Como
aria (como observado linhas acima), segue que D2 = 1. Logo, os elementos Dkk da diagonal de D satisfazem
D e unit
Dkk = 1, para todo k = 1, . . . , n (os sinais podendo ser distintos para ks distintos). Agora, como A0 = DA e
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 418/2103

como A e A0 tem na diagonal n ao podemos ter Dkk = 1 para algum k e, portanto, D = 1.


umeros reais positivos, n
Conseq
uentemente, K = K0 e A = A0 , estabelecendo a unicidade desejada.

Note o leitor que o conjunto das matrizes unit


arias de Mat (C, n) forma um subgrupo de GL(C, n) (o grupo das
matrizes complexas n n inversveis). O conjunto das matrizes diagonais de Mat (C, n) tendo elementos diagonais
estritamente positivos e igualmente um subgrupo de GL(C, n). Por fim, o conjunto das matrizes triangulares superiores
de Mat (C, n) cujos elementos diagonais sao iguais a 1 e tambem um subgrupo de GL(C, n). Assim, o Teorema 9.31
afirma que cada elemento de GL(C, n) pode ser escrito de modo u nico como produto de elementos de cada um desses
tres subgrupos. Esse e um caso particular de um teorema da teoria dos grupos de Lie conhecido como Teorema da
Decomposic ao de Iwasawa.

9.9 A Pseudo-Inversa de Moore-Penrose


Na presente secao introduziremos uma generalizacao especial da nocao de inversa de matrizes, a qual aplica-se mesmo a
matrizes nao-quadradas. O conceito que descreveremos, a chamada pseudo-inversa de Moore-Penrose, e particularmente
u
til no tratamento de problemas de optimizacao linear, como discutiremos adiante (Secao 9.9.2, pagina 426), ou seja, em
problemas onde procura-se solucoes optimalmente aproximadas de sistemas de equacoes lineares como Ax = y, onde A e
uma matriz m n dada, y um vetor-coluna, dado, com m componentes e x, a inc ognita do problema, e um vetor-coluna
com n componentes. Em tais problemas procura-se vetores x tais que a norma de Ax y seja a menor possvel e que
representem, portanto, n ao necessariamente a solucao exata do sistema Ax = y (que pode n ao existir), mas a melhor
aproximacao em termos de mnimos quadrados ao que seria a solucao.

Inversas generalizadas, ou pseudo-inversas


Sejam m, n N e seja uma matriz (nao necessariamente quadrada) A Mat (C, m , n). Uma matriz B
Mat (C, n, m) e dita ser uma inversa generalizada, ou pseudo-inversa, de A, se satisfizer as seguintes condicoes:

1. ABA = A,
2. BAB = B.

a de notar que se A Mat (C, n) e uma matriz quadrada inversvel, sua inversa A1 satisfaz trivialmente as
O leitor h
propriedades definidoras da inversa generalizada. Provaremos mais adiante que toda matriz A Mat (C, m , n) possui
ao menos uma inversa generalizada, a saber, a pseudo-inversa de Moore-Penrose. Com a generalidade da definicao acima,
porem, n
ao se pode garantir a unicidade da inversa generalizada de A.
Com a amplitude da definicao acima, a nocao inversa generalizada n
ao e muito u
til, mas certos tipos mais especficos
de inversas generalizadas sao de interesse em certos tipos de problemas. No que segue discutiremos a chamada pseudo-
inversa de Moore-Penrose e seu emprego em problemas de optimizacao linear.

Defini
c
ao da pseudo-inversa de Moore-Penrose de uma matriz
Sejam m, n N e seja uma matriz (nao necessariamente quadrada) A Mat (C, m , n). Uma matriz A+
Mat (C, n, m) e dita ser uma pseudo-inversa de Moore-Penrose de A se satisfizer as seguintes condicoes:

1. AA+ A = A,
2. A+ AA+ = A+ ,
3. AA+ Mat (C, m) e A+ A Mat (C, n) sao auto-adjuntas.

a de notar que se A Mat (C, n) e uma matriz quadrada inversvel, sua inversa A1 satisfaz trivialmente
O leitor h
as propriedades definidoras da pseudo-inversa de Moore-Penrose.
A nocao de pseudo-inversa descrita acima foi introduzida por E. H. Moore22 em 1920 e redescoberta por R. Penrose23
em 1955. O conceito de pseudo-inversa de Moore-Penrose e u til para a resolucao de problemas de optimizacao lineares,
22 Eliakim Hastings Moore (18621932).
23 Sir Roger Penrose (1931).
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 419/2103

ou seja, `a determinacao da melhor aproximacao em termos de mnimos quadrados `a solucao de sistemas lineares.
Trataremos desses aspectos mais adiante (vide Teorema 9.34, p
agina 427), apos demonstrarmos resultados sobre existencia
e unicidade. Outros desenvolvimentos da teoria das pseudo-inversas de Moore-Penrose e suas aplicacoes, podem ser
encontrados em [24]. Vide tambem as referencias originais: E. H. Moore, On the reciprocal of the general algebraic
matrix. Bulletin of the American Mathematical Society 26, 394395 (1920); R. Penrose, A generalized inverse for
matrices, Proceedings of the Cambridge Philosophical Society 51, 406413 (1955) e R. Penrose, On best approximate
solution of linear matrix equations, Proceedings of the Cambridge Philosophical Society 52, 1719 (1956).
Nas paginas que seguem demonstraremos que toda a matriz A Mat (C, m, n) possui uma pseudo-inversa de Moore-
Penrose, a qual e u
nica. Comecamos com a quest ao da unicidade para em seguida tratarmos de propriedades gerais e,
posteriormente, da quest ao da existencia. As aplicacoes em problemas de optimizacao sao discutidas na Secao 9.9.2,
p
agina 426.

A unicidade da pseudo-inversa de Moore-Penrose


Demonstremos a unicidade da pseudo-inversa de Moore-Penrose de uma matriz A Mat (C, m, n), caso exista.
Seja A+ Mat (C, n, m) uma pseudo-inversa de Moore-Penrose de A Mat (C, m, n) e seja B Mat (C, n, m)
uma outra pseudo-inversa de Moore-Penrose de A, ou seja, tal que ABA = A, BAB = B com AB e BA auto-adjuntas.
Seja M1 := AB AA+ = A(B A+ ) Mat (C, m). Pelas hipoteses, M1 e auto-adjunta (por ser a diferenca de duas
matrizes auto-adjuntas) e (M1 )2 = (AB AA+ )A(B A+ ) = (ABA AA+ A)(B A+ ) = (A A)(B A+ ) = 0. Como
M1 e auto-adjunta, o fato que (M1 )2 = 0 implica M1 = 0, pois para todo x Cm tem-se kM1 xk2C = hM1 x, M1 xiC =
hx, (M1 )2 xiC = 0, o que significa que M1 = 0. Isso provou que AB = AA+ . Analogamente, prova-se que BA = A+ A
(para tal, considere-se a matriz auto-adjunta M2 := BA A+ A Mat (C, n) e proceda-se como acima). Agora, tudo
isso implica que A+ = A+ AA+ = A+ (AA+ ) = A+ AB = (A+ A)B = BAB = B, provando a unicidade.
Como ja comentamos, se A Mat (C, n) e uma matriz quadrada inversvel, sua inversa A1 satisfaz trivialmente as
propriedades definidoras da pseudo-inversa de Moore-Penrose e, portanto, tem-se nesse caso A+ = A1 , univocamente.
tambem evidente pela definicao que para 0mn , a matriz m n identicamente nula, vale (0mn )+ = 0nm .
E

A exist
encia da pseudo-inversa de Moore-Penrose
Apresentaremos no que seguira duas demonstracoes da existencia da pseudo-inversa de Moore-Penrose de matrizes
arbitrarias de Mat (C, m, n). Ambas as demonstracoes permitem produzir algoritmos para a determinacao explcita
da pseudo-inversa de Moore-Penrose. Uma primeira demonstracao sera apresentada na Secao 9.9.1.1, p
agina 423, (vide
o Teorema 9.32, p agina 424, e o Teorema 9.33, p
agina 425) e decorrera de diversos resultados que estabeleceremos a
seguir. Destacamos particularmente as expressoes (9.150) e (9.151), as quais permitem calcular a pseudo-inversa de
Moore-Penrose A+ de uma matriz A Mat (C, m, n) diretamente em termos de A, A e dos autovalores de AA ou de
A A (ou seja, dos valores singulares de A).
Uma segunda demonstracao sera apresentada na Secao 9.9.3, p
agina 427, e para a mesma faremos uso da decomposicao
em valores singulares apresentada no Teorema 9.25, p agina 413. A essa segunda demonstracao da Secao 9.9.3 o leitor
interessado poder
a passar sem perdas neste ponto. Os resultados da Secao 9.9.3, porem, n ao serao usados no que segue.
Essa segunda demonstracao e a mais freq
uentemente apresentada na literatura, mas cremos que as expressoes (9.150) e
(9.151) fornecem um metodo algoritmicamente mais simples para a determinacao da pseudo-inversa de Moore-Penrose
de uma matriz geral.

Calculando a pseudo-inversa de Moore-Penrose em casos particulares


Se A Mat (C, m, n), ent ao A Mat (C, n, m) e definida como a matriz cujos elementos (A )ij sao dados por Aji
para todos 0 i n e 0 j m. Futuramente obteremos as expressoes (9.150) e (9.151), as quais permitem calcular a
pseudo-inversa de Moore-Penrose A+ Mat (C, n, m) de uma matriz A Mat (C, m, n) diretamente em termos de A,
A e dos autovalores de AA ou de A A. Nos exerccios que seguem indicaremos situacoes especiais mas u teis nas quais
a pseudo-inversa de Moore-Penrose pode ser calculada de modo relativamente simples.
a1
!
E. 9.38 Exerccio. Constate que se A Mat (C, m, 1), A = .
.. , um vetor-coluna nao-nulo, entao A+ = kAk 1
2 A =
C
am
1
p
kAk2
( a1 , ..., am ), onde kAkC = |a1 |2 + + |am |2 . 6
C
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 420/2103

Observe-se que se z C, podemos considerar z como uma matriz complexa 1 1, ou seja, como elemento de


0, z = 0
+
Mat (C, 1, 1) e, com isso, obtemos do exposto acima (z) = .

1 , z 6= 0

z

O resultado do Exerccio E. 9.38 pode ser generalizado.

E. 9.39 Exerccio. Seja A Mat (C, m, n). Mostre que se (AA )1 existe, entao A+ = A (AA )1 . Mostre que se
(A A)1 existe, entao A+ = (A A)1 A . Sugestao: em ambos os casos, verifique que o lado direito satisfaz as propriedades
definidoras da pseudo-inversa de Moore-Penrose e use a unicidade. 6

Os resultados do Exerccio E. 9.39 podem ser generalizados para situacoes em que AA ou A A n ao sao inversveis
+ +
agina 421 valem sempre as relacoes A+ = A AA = A A A . Tambem
pois, como veremos na Proposicao 9.35, p
o Teorema 9.32, p
agina 424, apresentar a uma generalizacao dos resultados do Exerccio E. 9.39, mostrando uma outra
forma de proceder quando AA ou A A n ao forem inversveis.
Os exerccios que seguem contem aplicacoes dos resultados do Exerccio E. 9.39.
 2 0 
E. 9.40 Exerccio. Seja A = ( 20 0i 1i ), com A = 0 i . Mostre que AA possui inversa, mas que A A nao possui.
i 1  4 2i 
Usando o Exerccio E. 9.39, calcule a pseudo-inversa de Moore-Penrose A+ de A, obtendo A+ = 91 1 5i . Verifique que
i 4
essa A+ satisfaz de fato as propriedades definidoras da pseudo-inversa de Moore-Penrose. 6

1 2 
1 0 0
E. 9.41 Exerccio. Seja A = 0 i , com A = . Mostre que AA nao possui inversa, mas que A A possui.
2 i 3
03 
1 10 2i 6
Usando o Exerccio E. 9.39, calcule a pseudo-inversa de Moore-Penrose A+ de A, obtendo A+ = 10 0 i 3 . Verifique
que essa A+ satisfaz de fato as propriedades definidoras da pseudo-inversa de Moore-Penrose. 6

9.9.1 Outras Propriedades da Pseudo-Inversa de Moore-Penrose


As seguintes propriedades da pseudo-inversa de Moore-Penrose seguem das definicoes e da unicidade. Suas demonstracoes
sao elementares e sao deixadas como exerccio: para A Mat (C, m, n) valem

1. (A+ )+ = A,
T + +
2. (A+ ) = AT uentemente, (A+ ) = (A )+ ,
, A+ = A e, conseq
3. (zA)+ = z 1 A+ para todo z C n
ao-nulo.

de se observar, porem, que se A Mat (C, m, n) e B Mat (C, n, p), nem sempre (AB)+ e dada por B + A+ ,
E
ao contrario do que ocorre com a inversa usual (para o caso m = n = p). Uma excecao relevante sera encontrada na
Proposicao 9.35, p
agina 421.
A seguinte proposicao lista mais algumas propriedades importantes, algumas das quais usaremos logo adiante:
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 421/2103

Proposi
c
ao 9.34 A pseudo-inversa de Moore-Penrose satisfaz as seguintes relac
oes

A+ = A+ (A+ ) A , (9.129)

A = A A (A+ ) , (9.130)

A = A A A+ , (9.131)

A+ = A (A+ ) A+ , (9.132)

A = (A+ ) A A , (9.133)

A = A+ A A , (9.134)

alidas para toda A Mat (C, m, n).


v 2

Das relacoes acima, a mais relevante talvez seja a relacao (9.131), pois faremos uso importante dela na demonstracao
da Proposicao 9.34, p
agina 427, que trata da aplicacao da pseudo-inversa de Moore-Penrose a problemas de optimizacao
linear.
Prova da Proposicao 9.34. Por AA+ ser auto-adjunta, vale AA+ = (AA+ ) = (A+ ) A . Multiplicando-se `a esquerda por
A+ obtemos A+ = A+ (A+ ) A , provando (9.129). Substituindo-se A A+ e usando o fato que A = (A+ )+ , obtem-se
de (9.129) que A = AA (A+ ) , que e a relacao (9.130). Substituindo-se A A e usando o fato que (A )+ = (A+ ) ,
obtem-se de (9.130) que A = A AA+ que e a relacao (9.131).
As relacoes (9.132)(9.134) podem ser obtidas analogamente a partir do fato de A+ A ser tambem auto-adjunta, mas
e mais facil obte-las substituindo-se A A em (9.129)(9.131) e tomando-se o adjunto das expressoes resultantes.

Da Proposicao 9.34 podem ser obtidos varios resultados de interesse, alguns dos quais encontram-se reunidos na
proposicao que segue.
Proposi
c
ao 9.35 Para a pseudo-inversa de Moore-Penrose vale
+ +
AA = A A+ (9.135)

para todo A Mat (C, m, n). Disso obtem-se que


+ +
A+ = A AA = A A A , (9.136)

tambem para todo A Mat (C, m, n). 2

agina 420 e pode ser empregada para calcular A+


A expressao (9.136) generaliza os resultados do Exerccio E. 9.39, p

+
+
desde que AA ou A A sejam previamente conhecidas.
+
Prova da Proposicao 9.35. Seja B = A A+ . Tem-se

(9.130) (9.134)
AA = A A (A+ ) A = A A (A+ ) A+ A A = (AA )B(AA ) ,
+ 
onde usamos tambem que A = A+ . Tem-se tambem que
+ (9.129) (9.132) 
B = A A+ = (A+ ) A+ A A+ = (A+ ) A+ A A (A+ ) A+ = B A A B .

Observe-se tambem que  


 (9.131)
A A B = A A (A+ ) A+ = AA+
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 422/2103

que e auto-adjunto, por definicao. Analogamente,


   (9.133)
B A A = (A+ ) A+ A A = (A )+ A

que tambem e auto-adjunto, por definicao. Os fatos expostos nas linhas acima provaram que B e a pseudo-inversa de
Moore-Penrose de AA , provando (9.135). Substituindo-se A A em (9.135) obtem-se tambem
+ +
A A = A+ A . (9.137)
Observe-se agora que
+ (9.135) + (9.132)
A AA = A A A+ = A+
e que
+ (9.137) + (9.129)
A A A = A+ A A = A+ ,
provando (9.136).

A pseudo-inversa de Moore-Penrose, o n
ucleo e a imagem de uma matriz
Definimos o n ucleo e a imagem (range) de uma matriz A Mat (C, m, n) por Ker (A) := {u Cn | Au = 0} e
Ran (A) := {Au, u Cn }, respectivamente. E evidente que Ker (A) e um subespaco linear de Cn e que Ran (A) e um
m
subespaco linear de C .
A seguinte proposicao sera usada logo adiante, mas e de interesse por si so.
Proposi ao 9.36 Seja A Mat (C, m, n) e sejam definidos P1 := 1n A+ A Mat (C, n) e P2 := 1m AA+
c
Mat (C, n). Ent
ao, valem as seguintes afirmac
oes:

ao projetores ortogonais, ou seja, satisfazem (Pk )2 = Pk e Pk = Pk , k = 1, 2.


1. P1 e P2 s
2. Ker (A) = Ran (P1 ), Ran (A) = Ker (P2 ),
Ker (A+ ) = Ran (P2 ) e Ran (A+ ) = Ker (P1 ).
3. Ran (A) = Ker (A+ ) e Ran (A+ ) = Ker (A) .
4. Ker (A) Ran (A+ ) = Cn e Ker (A+ ) Ran (A) = Cm , ambas somas diretas de subespacos ortogonais. 2

Prova. Que P1 e P2 sao auto-adjuntos segue do fato de AA+ e A+ A o serem. Tem-se tambem que (P1 )2 = 1 2A+ A +
A+ AA+ A = 1 2A+ A + A+ A = 1 A+ A = P1 e analogamente para P2 . Isso provou o item 1.
Seja x Ker (A). Como Ran (P1 ) e um subespaco linear fechado de Cn , o Teorema do Melhor Aproximante e o
Teorema da Decomposicao Ortogonal (que neste texto sao apresentados com toda generalidade no contexto de espacos
de Hilbert, como Cm na forma do Teorema 37.1, p agina 1831, e do Teorema 37.2, p agina 1833, respectivamente)
garantem-nos a existencia de um u nico z0 Ran (P1 ) tal que kx z0 kCm e mnimo. Alem disso, x z0 e ortogonal a
Ran (P1 ). Assim, existe ao menos um y0 Cm tal que x P1 y0 e ortogonal a todo elemento da forma P1 y, ou seja,
hx P1 y0 , P1 yiC = 0 para todo y Cm , o que implica hP1 (x P1 y0 ), yiC = 0 para todo y Cm , o que por sua vez
implica P1 (x P1 y0 ) = 0. Isso, porem, afirma que P1 x = P1 y0 . Como x Ker (A) vale P1 x = x (pela definicao de P1 ).
Provamos portanto que se x Ker (A) ent ao x Ran (P1 ), estabelecendo que Ker (A) Ran (P1 ). Por outro lado, o
fato que AP1 = A(1 A+ A) = A A = 0 implica que Ran (P1 ) Ker (A), provando que Ran (P1 ) = Ker (A).
ao z = A+ Az, provando que z Ran (A+ ). Isso provou que Ker (P1 ) Ran (A+ ). Por outro
Se z Ker (P1 ), ent
ao existe v Cm tal que u = A+ v. Logo, P1 u = (1n A+ A)A+ v = (A+ A+ AA+ )v = 0,
lado, se u Ran (A+ ) ent
provando que u Ker (P1 ) e que Ran (A+ ) Ker (P1 ). Isso estabeleceu que Ker (P1 ) = Ran (A+ ).
P2 e obtida de P1 com a substituicao A A+ (lembrando-se que (A+ )+ = A). Logo, os resultados de acima implicam
que Ran (P2 ) = Ker (A+ ) e que Ker (P2 ) = Ran (A). Isso provou o item 2.
ao hy, M xiC = hM y, xiC para todos x, y Cp . Essa
Se M Mat (C, p) (com p N, arbitrario) e auto-adjunta, ent

relacao torna evidente que Ker (M ) = Ran (M ) (justifique!). Com isso o item 3 segue do item 2 tomando-se M = P1 e
M = P2 . O item 4 e evidente pelo item 3.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 423/2103

E. 9.42 Exerccio. Calcule P1 e P2 para o exemplo do Exerccio E. 9.40, pagina 420, e para o exemplo do Exerccio E.
9.41, pagina 420. 6

9.9.1.1 A Regularizac
ao de Tikhonov. Exist
encia
agina 420, vimos que se (AA )1 existe, ent
No Exerccio E. 9.39, p ao A+ = A (AA )1 e que se (A A)1 existe, ent
ao
+ 1
A = (A A) A . No caso de essas inversas n ao existirem h
a um procedimento alternativo que tambem permite obter
A+ . Sabemos da Proposicao 9.6, p agina 352, que mesmo se (AA )1 n ao existir, a matriz AA + 1 sera invertvel
para todo C n ao-nulo com || pequeno o suficiente. Isso permite conjecturar que as expressoes A (AA + 1)1
e (A A + 1) A , que est
1
ao bem definidas para 6= 0 com || pequeno, convergem a A+ quando tomamos o limite
0. Como veremos no que segue, essa conjectura e correta.
Pelo dito acima, podemos substituir as matrizes AA ou A A, caso sejam singulares, pelas matrizes inversveis AA +
1 ou A A + 1 com 6= 0 com || pequeno. Esse procedimento de regularizacao (que envolve a substituicao provisoria
ao de Tikhonov24 , em honra ao matematico que
de uma expressao singular por outra regular) e denominado regularizac
25
desenvolveu essas ideias no contexto de equacoes integrais .
Nosso primeiro resultado consiste em provar que os limites descritos acima de fato existem e sao iguais, o que sera
feito nos dois lemas que seguem.
Lema 9.9 Seja A Mat (C, m, n) e seja C tal que AA + 1m e A A + 1n sejam inversveis (i.e., 6
ao, A (AA + 1m )1 = (A A + 1n )1 A .
(AA ) (A A), um conjunto finito). Ent 2

Prova. Sejam B := A (AA + 1m )1 e C := (A A + 1n )1 A . Temos que


    
A AB = A AA (AA +1m )1 = A AA +1m 1m (AA +1m )1 = A 1m (AA +1m )1 = A B .
Logo, (A A + 1n )B = A , o que implica B = (A A + 1n )1 A = C .

Lema 9.10 Para toda A Mat (C, m, n) os limites lim A (AA + 1m )1 e lim (A A + 1n )1 A existem e s
ao iguais
0 0
(pelo Lema 9.9), definindo um elemento de Mat (C, n, m). 2

Prova do Lema 9.10. Notemos primeiramente que A e uma matriz identicamente nula se e somente se AA ou A A o
forem. De fato, se, por exemplo, A A = 0, valera para todo vetor x que 0 = hx, A AxiC = hAx, AxiC = kAxk2 ,
provando que A = 0. Como a afirmacao a ser provada e evidente se A for nula, suporemos no que segue que AA e A A
n
ao sao nulas.
A matriz AA Mat (C, m) e, evidentemente, auto-adjunta. Sejam 1 , . . . , r seus autovalores distintos. Pelo
Teorema Espectral para operadores auto-adjuntos (vide Teorema 9.6, p
agina 369 e Teorema 9.14, p agina 384) podemos
escrever r
X
AA = a Ea , (9.138)
a=1
Pr
onde Ea sao os projetores espectrais de AA e satisfazem Ea Eb = ab Ea , Ea = Ea e a=1 Ea = 1m . Logo,
r
X
AA + 1m = (a + )Ea
a=1

e, portanto, para 6 {1 , . . . , r }, vale pela Proposicao 9.17, p


agina 371,
r r
1 X 1 1 X 1
AA + 1m = Ea e A AA + 1m = A Ea .
+
a=1 a a=1
a +
24 Andrei Nikolaevich Tikhonov (19061993). O sobrenome russo Tikhonov e por vezes transliterado como Tykhonov, Tichonov ou
ainda Tychonoff.
25 Para uma refer
encia geral, vide [248]. Para os trabalhos originais, vide: Tikhonov, A. N., 1943, On the stability of inverse problems,
Dokl. Akad. Nauk. USSR, 39, No. 5, 195198 (1943); Tikhonov, A. N., Solution of incorrectly formulated problems and the regularization
method, Soviet Math. Dokl. 4, 10351038 (1963), traduca o para o ingles de Dokl. Akad. Nauk. USSR 151, 501504 (1963).
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 424/2103

a dois casos a se considerar 1. AA n


H ao tem auto-valor nulo e 2. AA tem auto-valor nulo.
No caso em que AA n ltima expressao que o limite lim A (AA + 1m )1 existe
ao tem auto-valor nulo e claro pela u
0
e vale
r
X 1
lim A (AA + 1m )1 = A Ea . (9.139)
0
a=1 a

No caso em que AA tem auto-valor nulo, digamos, 1 = 0, o projetor E1 projeta sobre o n


ucleo de AA : Ker (AA ) :=
n
{u C | AA u = 0}. Se x Ker (AA ), entao A x = 0, pois 0 = hx, AA xiC = hA x, A xiC = kA xk. Portanto,

A E1 = 0 (9.140)

e, assim, podemos escrever,


r
X 1
A (AA + 1m )1 = A Ea ,
a=2
a +
donde obtem-se r
X 1
lim A (AA + 1m )1 = A Ea . (9.141)
0
a=2 a

Isso provou que lim A (AA + 1m )1 sempre existe.


0

agina 423, o limite lim (A A + 1n )1 A tambem existe e coincide com lim A (AA + 1m )1 .
Pelo Lema 9.9, p
0 0

A principal conseq
uencia e o seguinte resultado:
Teorema 9.32 (Regularizaao de Tikhonov) Para toda A Mat (C, m, n) valem
c
1
A+ = lim A AA + 1m (9.142)
0

e 1
A+ = lim A A + 1n A . (9.143)
0

Como a existencia dos limites acima foi estabelecida para matrizes arbitrarias no Lema 9.10, p
agina 423, o Teorema
9.32 contem uma prova geral de existencia da pseudo-inversa de Moore-Penrose.
Prova do Teorema 9.32. As afirmacoes a serem provadas sao evidentes caso A = 0mn pois, como ja vimos (0mn )+ = 0nm .
Assim, assumiremos no que segue que A e n ao nula, o que equivale, pelo exposto no incio da prova do Lema 9.10, a
supor que AA e A A nao sao nulas.
a dois casos a se considerar 1. AA n
Pelos Lemas 9.9 e 9.10 e suficiente demonstrar (9.142). H ao tem auto-valor nulo

e 2. AA tem auto-valor nulo. No caso 1., vimos em (9.139), na prova do Lema 9.10 (e com a notacao la estabelecida),
que
r
1 X 1
lim A AA + 1m = A Ea =: B .
0
a=1 a

Note-se agora que
r r r
! r Xr r
X 1 X 1 X X 1 X
AB = AA Ea = b Eb Ea = b ab Ea = Ea = 1m , (9.144)

a=1 a

a=1 a a=1
a a=1
b=1 b=1

que e auto-adjunta, e que


r
X 1
BA = A Ea A , (9.145)

a=1 a
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 425/2103

que e tambem auto-adjunta, pois a R para todo a (por serem autovalores de uma matriz auto-adjunta) e pelo fato
de (A Ea A) = A Ea A para todo a, j
a que Ea = Ea .
De (9.144) segue que ABA = A. De (9.145) segue que
r
! r ! r Xr
X 1 X 1

X 1
BAB = A Ea A A Eb = A Ea (AA )Eb .

a=1 a
b a=1

a b
b=1 b=1

Agora, pela decomposicao espectral (9.138) de AA , segue que (AA )Eb = b Eb . Logo,
r X r r
! r
X 1 X 1 X 
BAB = A Ea Eb = A Ea Eb = B.

a=1 b=1 a

a=1 a b=1
| {z }
1m

Isso provou que A = A+ no caso em que AA n


ao tem autovalor nulo.
Vamos agora supor que AA n
ao autovalor nulo, a saber, 1 . Vimos em (9.141), na prova do Lema 9.10, que
r
1 X 1
lim A AA + 1m = A Ea =: B .
0
a=2 a

Usando o fato que (AA )Ea = a Ea , o qual segue da decomposicao espectral (9.138) de AA , obtem-se
r r r
X 1 X 1 X
AB = AA Ea = a Ea = Ea = 1m E1 , (9.146)

a=2 a

a=2 a a=2

que e auto-adjunta, pois E1 o e. Tem-se tambem


r
X 1
BA = A Ea A , (9.147)

a=2 a

que e tambem auto-adjunta, pelos argumentos j


a expostos.
De (9.146) segue que ABA = A E1 A. Note-se agora que (E1 A) = A E1 = 0, por (9.140). Isso demonstrou que
E1 A = 0 e que ABA = A. De (9.147) segue que
r
! r ! r Xr
X 1 X 1

X 1
BAB = A Ea A A Eb = A Ea (AA )Eb .

a=2 a
b a=2

a b
b=2 b=2

Usando novamente que (AA )Eb = b Eb , obtemos


r Xr r
! r
! r
X 1 X 1 X X 1
BAB = A Ea Eb = A Ea Eb = B A Ea E1 = B ,
a=2
a
a=2 a

a=2 a
b=2 b=2
| {z }
1m E1

pois Ea E1 = 0 para a 6= 1. Isso demonstrou que BAB = B. Assim, estabelecemos que A = A+ tambem no caso em que
AA tem autovalor nulo, completando a prova de (9.142).

9.9.1.2 A Pseudo-Inversa de Moore-Penrose e o Teorema Espectral


Durante a demonstracao do Teorema 9.32 estabelecemos tambem o seguinte resultado de interesse:
Pr
Teorema 9.33 Seja A Mat (C, m, n) n ao espectral de AA , onde
ao-nula e seja AA = a=1 a Ea a representac

{1 , . . . , r } R e o conjunto dos autovalores distintos de AA e Ea s
ao os correspondentes projetores espectrais
auto-adjuntos. Ent ao, vale
r
X 1
A+ = A Ea . (9.148)
a=1
a
a 6=0
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 426/2103

Ps
Analogamente, seja A A = b=1 b Fb a representac ao espectral de A A, onde {1 , . . . , s } R e o conjunto dos

autovalores distintos de A A e Fb os correspondentes projetores espectrais auto-adjuntos. Ent ao, vale tambem
s
+
X 1
A = Fb A . (9.149)
b=1
b
b 6=0

(Vale mencionar aqui que, pelo Exerccio E. 9.6, p


agina 353, o conjunto de autovalores n ao-nulos de AA coincide com

ao-nulos de A A: {1 , . . . , r } \ {0} = {1 , . . . , s } \ {0}).
o conjunto de autovalores n
De (9.148) e (9.149) segue que para A n
ao-nula valem

r r  
X 1 Y
A+ A AA l 1m ,

= r (9.150)
a=1
Y l=1
a 6=0 a (a l ) l6=a
l=1
l6=a


s s  
X 1 Y
A+ A A l 1n A .

= s (9.151)
b=1
Y l=1
b 6=0 b (b l ) l6=b
l=1
l6=b

As expressoes (9.150) e (9.151) fornecem mais um algoritmo geral para o c omputo da pseudo-inversa de Moore-
Penrose, o qual pode ser de implementacao simples, pois requer apenas a determinacao dos autovalores de AA ou de
A A.
Prova do Teorema 9.33. A igualdade (9.148) foi provada durante a demonstracao do Teorema 9.32 (vide (9.139) e (9.141)).
A relacao (9.149) pode ser provada analogamente, mas segue mais facilmente do truque ja mencionado de usar (9.148),
trocando A A e tomando-se o adjunto da expressao obtida. As relacoes (9.150) e (9.151) seguem da Proposicao 9.18,
p
agina 371, particularmente de (9.56).

E. 9.43 Exerccio. Usando (9.150) ou (9.151) reobtenha as matrizes A+ dos Exerccios E. 9.38, E. 9.40 e E. 9.41. 6

9.9.2 A Pseudo-Inversa de Moore-Penrose e Problemas de Optimizac


ao
Linear
Tratemos agora de uma das principais aplicacoes da nocao de pseudo-inversa de Moore-Penrose, a saber, no tratamento
de problemas de optimizacao linear, que motivaremos e definiremos a seguir.
Sejam A Mat (C, m, n) e y Cm dados e considere-se o problema de determinar x Cn que satisfaca a equacao
linear
Ax = y . (9.152)
No caso em que m = n e A tem inversa, a solucao ( unica) e, naturalmente, x = A1 y. Nos demais casos uma solucao
pode n ao estar presente ou n nica. Podemos considerar o problema alternativo de saber para quais x Cn
ao ser u
a norma Euclidiana kAx ykCm e a menor possvel. Tais vetores x Cn seriam, no sentido da norma Euclidiana

k kCm , ou seja, em termos de mnimos quadrados, os melhores aproximantes ao que seria a solucao de (9.152). Um tal
problema e por vezes dito ser um problema de optimizac ao linear. Esse problema pode ser tratado com o uso da nocao
de pseudo-inversa de Moore-Penrose, a qual permite caracterizar precisamente o conjunto dos vetores x que minimizam
kAx ykCm . A isso dedicaremos as linhas que seguem, sendo o principal resultado condensado no seguinte teorema:
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 427/2103

Teorema 9.34 (Optimiza cao Linear) Sejam A Mat (C, m, n) e y Cm dados. Entao, a colec
ao de todos vetores
n
ao Cn x 7 kAx ykCm [0, ) assume um mnimo absoluto coincide com o conjunto
de C para os quais a aplicac
n  o
A+ y + Ker (A) = A+ y + 1n A+ A z, z Cn . (9.153)

Esse conjunto e dito ser o conjunto minimizante do problema de optimizac


ao linear em quest interessante observar
ao. E
que pela Proposic
ao 9.36, pagina 422, tem-se tambem A+ y + Ker (A) = A+ y + Ran (A+ ) . 2

Como se ve do enunciado acima, a pseudo-inversa de Moore-Penrose fornece a melhor aproximacao em termos de


mnimos quadrados `
a solucao de sistemas lineares. Observe-se que para os elementos x do conjunto minimizante (9.153)
vale kAx ykCm = k(AA+ 1m )ykCm = kP2 ykCm , que e nulo se e somente se y Ker (P2 ) = Ran (A) (pela Proposicao
9.36, p
agina 422), um fato um tanto obvio.
Prova do Teorema 9.34. A imagem de A, Ran (A), e um subespaco linear fechado de Cm . O Teorema do Melhor
Aproximante e o Teorema da Decomposicao Ortogonal (que neste texto sao apresentados com toda generalidade no
contexto de espacos de Hilbert, como Cm na forma do Teorema 37.1, p agina 1831, e do Teorema 37.2, p agina 1833,
respectivamente) garantem-nos a existencia de um unico y0 Ran (A) tal que ky0 ykCm e mnimo, sendo que esse y0
satisfaz a propriedade de y0 y ser ortogonal a Ran (A).
Assim, existe ao menos um x0 Cn tal que kAx0 ykCm e mnimo. Tal x0 n ao e necessariamente u
nico e, como e
acil ver, x1 Cn tem as mesmas propriedades se e somente se x0 x1 Ker (A) (j
f a que Ax0 = y0 e Ax1 = y0 , pela
unicidade de y0 ). Como observamos, Ax0 y e ortogonal a Ran (A), ou seja, h(Ax0 y), AuiC = 0 para todo u Cn .
Isso significa que h(A Ax0 A y), uiC = 0 para todo u Cn e, portanto, x0 satisfaz

A Ax0 = A y . (9.154)
(9.131)
Agora, a relacao (9.131) mostra-nos que x0 = A+ y satisfaz (9.154), pois A AA+ y = A y. Assim, conclumos que
o conjunto de todos x Cn que satisfazem a condicao de kAx ykCm ser mnimo e composto por todos os vetores da
forma A+ y + x1 com x1 Ker (A). Pela Proposicao 9.36, p agina 422, x1 e da forma x1 = (1n A+ A)z para algum
n
z C , completando a prova.

Os exerccios que seguem ilustram a aplicacao da pseudo-inversa de Moore-Penrose no tratamento de problemas de


optimizacao linear.

E. 9.44 Exerccio. Usando o Exerccio E. 9.40, pagina 420, determine o conjunto dos melhores aproximantes x C3 `a
1
solucao da equacao linear Ax = y com A = ( 20 0i 1i ) e y = 2i . Para tais vetores minimizantes x, calcule kAx ykC . 6

O exerccio que segue envolve uma situacao menos trivial que a do exerccio anterior, pois trata de um sistema linear
sub-determinado e que n ao tem solucao.

E. 9.45 Exerccio. Usando o Exerccio E. 9.41,


 1 2 pagina 420,
 1 determine
 o conjunto dos melhores aproximantes x C2
`a solucao da equacao linear Ax = y com A = 0 i e y = 3 . Para tais vetores minimizantes x, calcule kAx ykC .
0 3 2
Observe que nesse caso y 6 Ran (A) e, portanto, o sistema Ax = y nao tem solucao. 6

9.9.3 Exist
encia e Decomposi
cao em Valores Singulares
Passemos agora a uma segunda demonstracao da existencia da pseudo-inversa de Moore-Penrose de uma matriz A
Mat (C, m, n) geral, fazendo uso aqui do Teorema da Decomposicao em Valores Singulares, Teorema 9.25, p
agina 413.
Trataremos primeiramente de matrizes quadradas para depois passarmos ao caso de matrizes nao-quadradas.

Determinando a pseudo-inversa de Moore-Penrose para matrizes quadradas


Comecaremos pelas matrizes diagonais. Se D Mat (C, n) e uma matriz diagonal, a pseudo-inversa de Moore-Penrose
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 428/2103

de D e dada pela matriz diagonal D+ Mat (C, n) cujos elementos diagonais sao definidos para todo i = 1, . . . , n por


1 , se Dii 6= 0 ,

+
 Dii
D ii =


0 , se Dii = 0 .

elementar verificar que DD+ D = D, D+ DD+ = D+ e que DD+ e D+ D sao auto-adjuntas. Em verdade, vale
E
DD+ = D+ D que e uma matriz diagonal com elementos diagonais iguais a 0 ou a 1:



  1 , se Dii 6= 0 ,
+ +
DD ii = D D ii =


0 , se Dii = 0 .

Passemos agora `a quest


ao da existencia da pseudo-inversa de Moore-Penrose de uma matriz quadrada geral. Se
A Mat (C, n) tem uma decomposicao em valores singulares A = V SW (vide Teorema 9.25, pagina 413), ent
ao a
pseudo-inversa de Moore-Penrose A+ de A e dada por

A+ = W S + V .
     
De fato, AA+ A = V SW W S + V V SW = V SS + SW + = V SW = A e A+ AA 
+
= W S + V V SW W S + V =
W S + SS + V = W S + V = A+ . Alem disso, AA+ = V SW W S + V = V SS + V e auto-adjunta,

+
pois SS +e uma
+ +
matriz diagonal com elementos diagonais iguais a 0 ou a 1. Analogamente, A A = W S V V SW = W S S W
e auto-adjunta.

Determinando a pseudo-inversa de Moore-Penrose para matrizes retangulares


Consideraremos agora matrizes gerais (nao necessariamente quadradas) A Mat (C, m, n).
Seja A Mat (C, m + n) a matriz quadrada (m + n) (m + n) definida em (9.7), p
agina 342. Como A e uma matriz
quadrada, estabelecemos acima que ela possui uma pseudo-inversa de Moore-Penrose (A )+ , u nica, satisfazendo
+
1. A A A = A ,
+ + +
2. A A A = A ,
+ +
3. A A e A A sao auto-adjuntas.

No que segue, demonstraremos que A+ Mat (C, n, m), a pseudo-inversa de Moore-Penrose de A Mat (C, m, n),
e dada, seguindo as definicoes (9.3)(9.4), por
+
A+ := In, m+n A Jm+n, m , (9.155)

ou seja,
 +
A+ = In, m+n Jm+n, m AIn, m+n Jm+n, m . (9.156)

+
O ponto de partida e a existencia da pseudo-inversa de A . A relacao A A A = A significa, usando a definicao
(9.7), h i
+
Jm+n, m A In, m+n A Jm+n, m AIn, m+n = Jm+n, m AIn, m+n

e das relacoes (9.5)(9.6) segue, multiplicando-se a` esquerda por Im, m+n e `a direita por Jm+n, n que AA+ A = A, uma
das relacoes que desejamos provar.
+ + +
A relacao A A A = A significa, usando a definicao (9.7),
+ + +
A Jm+n, m AIn, m+n A = A .
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 429/2103

Multiplicando `a esquerda por In, m+n e `a direita por Jm+n, m , isso estabelece a validade de A+ AA+ = A+ .
+
Como A (A )+ e auto-adjunta, segue da definicao a definicao (9.7), que Jm+n, m AIn, m+n A e auto-adjunta, ou
seja, 
+ + 
Jm+n, m AIn, m+n A = AIn, m+n A Im, m+n .

Logo, multiplicando-se `
a esquerda por Im, m+n e `
a direita por Jm+n, m , segue de (9.5) que
+  +   + 
AIn, m+n A Jm+n, m = Im, m+n AIn, m+n A = AIn, m+n A Jm+n, m ,

provando que AA+ e auto-adjunta.


+
Por fim, como (A )+ A e auto-adjunta, segue da definicao (9.7) que A Jm+n, m AIn, m+n e auto-adjunta, ou seja,
 + 
(A )+ Jm+n, m AIn, m+n = Jm+n, n A Jm+n, m A .

Logo, multiplicando-se `
a esquerda por In, m+n e `
a direita por Jm+n, n , segue de (9.6) que
+  
In, m+n A Jm+n, m A = (A )+ Jm+n, m A Jm+n, n = In, m+n (A )+ Jm+n, m A ,

estabelecendo que A+ A e auto-adjunta. Com isso estabelecemos que A+ dada em (9.155) e a pseudo-inversa de Moore-
Penrose de A.

9.10 Produtos Tensoriais de Matrizes


A nocao de produto tensorial de espacos vetoriais foi introduzida e desenvolvida na Secao 2.3.5, p agina 148. Vamos
condiderar os espacos vetoriais complexos de dimensao finita Cm e Cn (o caso de espacos vetoriais reais de dimensao
m n
mn
 C C , que a um espaco vetorial
finita e totalmente analogo) e seu produto tensorial
m
complexo de dimensao mn,
isomorfo, portanto, a C . Sejam e1 , . . . , em e f1 , . . . , fn as bases canonicas em C e Cn , respectivamente, com
a qual podemos constituir a base can onica B := ei fj , i = 1, . . . m, j = 1, . . . , n em C Cn .
m

P
Um elemento generico de Cm Cn e uma soma finita N a=1 a a , para algum N N e com a C
m
e a Cn
para todo a = 1, . . . , N . Se A Mat (C, m) e B Mat (C, n), definimos seu produto tensorial, denotado por A B,
PN
como a matriz que age em um vetor generico qualquer de a=1 a a de Cm Cn de acordo com o seguinte:
N
! N
X X  
AB a a = Aa Ba . (9.157)
a=1 a=1

O produto tensorial A B de duas matrizes e tambem denominado produto de Kronecker26 de A e B.


elementar constatar que A B, assim definido, e um operador linear em Cm Cn . Por convencao, as matrizes A
E
e B agem nos respectivos vetores de base de acordo com a regra estabelecida em (9.14):
m
X n
X
Aei = Aai ea e Bfj = Bbj fb ,
a=1 b=1

onde Aai e Bbj sao os elementos de matriz de A e B nas respectivas bases. Assim, vale
m X
X n

A B ei fj = Aai Bbj ea fb . (9.158)
a=1 b=1

uentemente, podemos afirmar que os elementos de matriz de A B na base B de Cm Cn e


Conseq

A B (a, b)(i, j) = Aai Bbj ,
26 Leopold Kronecker (18231891).
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 430/2103

pois assim, seguindo a mesma convencao, podemos reescrever (9.158), na forma


 X  
A B ei fj = A B (a, b)(i, j) ea fb ,
(a, b)

X m X
X n
onde significa . Nessa representacao os pares ordenados (i, j) {1, . . . , m} {1, . . . , n} fazem o papel de
(a, b) a=1 b=1
ndices das matrizes.
Se A, A1 , A2 Mat (C, m) e B, B1 , B2 Mat (C, n) e trivial demonstrar com uso de (9.157) que
A1 B + A2 B = (A1 + A2 ) B , A B1 + A B2 = A (B1 + B2 ) (9.159)
e que (verifique!)    
A1 B1 A2 B2 = A1 A2 B1 B2 . (9.160)

E. 9.46 Exerccio. Prove que (A B)T = AT B T e que (A B) = A B . 6

Segue tambem de (9.157) que 1m 1n e a matriz unidade em Cm Cn . Portanto, se A e B possuirem inversa, A B


tambem possuira e valer
a (verifique!)
1  
AB = A1 B 1 . (9.161)
Para a recproca dessa afirmacao precisamos aprendar algo sobre determinantes de produtos tensoriais de matrizes.

O determinante de um produto tensorial de matrizes


   
imediato por (9.160) que A B = A 1n 1m B = 1m B A 1n . Segue que o determinante de A B
E   
sera dado por det A B = det A 1n det 1m B . Vamos agora determinar os dois determinantes do lado direito.

Ordenemos os vetores da base B na forma e1 f1 , . . . , em f1 , . . . , e1 fn , . . . , em fn . E claro que Cm Cn
quebra-se na soma direta de sub-espacos V1 . . . Vn , onde Vk e gerado pelos vetores e1 fk , . . . , em fk . Cada Vk e um
sub-espaco invariante pela acao de A 1n , que nele age como (Ae1 ) fk , . . . , (Aen ) fk . Assim, ordenando os elementos
da base B dessa maneira, A1n assumira a representacao matricial na forma de n blocos diagonais, como apresentado `a es-
querda:
 n
Disso, fica evidente27 que det A 1n = det(A) (Proposicao 9.3, p agina
A



349).

..
. Para o caso de det 1m B a ideia e analoga. Ordenamos a base na
. 



forma e1 f1 , . . . , e1 fn , . . . , em f1 , . . . , em fn e fica claro que
Cm Cn quebra-se na soma direta de sub-espacos W1 . . . Wm , onde Wk
A
e gerado pelos vetores ek f1 , . . . , ek fn . Cada Wk e um sub-espaco in-
variante pela acao de 1m B, que nele age como ek (Bf1 ), . . . , ek
(Bfn ). Com a base B assim ordenada, 1m B assumira a representacao
matricial na forma de m blocos diagonais como apresentado `a esquerda:
 m
Disso, fica evidente que det 1m B = det(B) . Juntando as afirmacoes
anteriores, estabelecemos que se A Mat (C, m) e B Mat (C, n), ent ao
B  n m
det A B = det(A) det(B) . (9.162)

..
. . Observe o leitor que o expoente de det(A) `a direita e a ordem de B e vice-versa.



B
acil). Sejam A1 Mat (C, m1 ), A2 Mat (C, m2 ) e A3
E. 9.47 Exerccio (f
Mat (C, m3 ). Mostre que
 m2 m3 m1 m3 m1 m2
det A1 A2 A3 = det(A1 ) det(A2 ) det(A3 ) .
6
27 Lembrar que o reordenamento de uma base n ao altera o determinante de uma matrix, pois
e realizado por uma transformac
ao de
similaridade envolvendo uma matrix de permutaca
o.
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 431/2103

A relacao (9.162) diz-nos, entre outras coisas, que A B e uma matriz inversvel se e somente se A e B o forem. Em
qualquer desses casos, valera (9.161).

9.11 Propriedades Especiais de Determinantes


9.11.1 Expans
ao do Polin
omio Caracterstico
Pn
Seja A Mat (C, n) e seja pA () = det(1 A) = m
m=0 cm , C, seu polin omio caracterstico. Desejamos
obter uma formula explicita para os coeficientes cm em termos de determinantes de sub-matrizes de A (vide abaixo).
Vamos  designar por ak a k-esima coluna de A, de sorte que, pela notacao introduzida em (9.9), p agina 342, valha
A = a1 , . . ., an . Recordando a defini
 c a
o de base cano nica fornecida em (9.10) e (9.11), p
a gina 342, fica claro que
pA () = det e1 a1 , . . . , en an . Usando a propriedade de multilinearidade do determinante (linearidade em
relacao a cada coluna), segue que

X n X hh ii
pA () = (1)nm m det a1 , . . . , ej1 . . . , ejm . . . , an + (1)n det(A) ,
m=1 1j1 <<jm n
 
onde, para 1 j1 < < jm n, a1 , . . . , ej1 . . . , ejm . . . , an e a matriz obtida a partir da matriz A substituindo
sua jl -esima coluna
 por ejl para cada l = 1, . . . , m. Note que  no caso m = n, tem-se forcosamente jl = l para cada
l = 1, . . . , n e a1 , . . . , ej1 . . . , ejm . . . , an = e1 , . . . , en = 1. Com isso, escrevemos

n1
X X hh ii
pA () = n + (1)nm m det a1 , . . . , ej1 . . . , ejm . . . , an + (1)n det(A) .
m=1 1j1 <<jm n

Como cada vetor-coluna ejl contem 1 na jl -esima linha, as demais linhas sendo nulas, as bem-conhecidas regras de
alculo de determinantes ensinam-nos que, para todo m = 1, . . . , n 1,
c
hh ii  
det a1 , . . . , ej1 . . . , ejm . . . , an = det Aj1 , ..., jm ,

Aj1 , ..., jm sendo a matriz de Mat (C, n m) (ou seja (n m) (n m)) obtida a partir de A eliminando-lhe as jl -esimas
linhas e colunas para todo l = 1, . . . , m. Assim, obtemos

n1
X X  
pA () = n + (1)nm m det Aj1 , ..., jm + (1)n det(A) , (9.163)
m=1 1j1 <<jm n

onde e possvel reconhecer os coeficientes de pA ().


agina 361, pA (A) = 0 e, portanto,
Pelo Teorema de Hamilton-Cayley, Teorema 9.3, p

n1
X X  
An + (1)nm det Aj1 , ..., jm Am + (1)n det(A)1 = 0 .
m=1 1j1 <<jm n

Como comentamos em (9.43), p


agina 364, se A for inversvel, obtem-se disso

n1  
1 X X
A1 = An1 + (1)nm det Aj1 , ..., jm Am1 . (9.164)
(1)n+1 det(A) m=1 1j1 <<jm n

9.11.2 A Desigualdade de Hadamard


Vamos nesta secao demonstrar uma desigualdade para determinantes de matrizes, a qual e muito u
til, a chamada
desigualdade de Hadamard28 .
28 Jacques Salomon Hadamard (18651963). A refer encia ao trabalho de Hadamard
e: J. Hadamard, R
esolution dune question relativ aux
d
eterminants, Bull. Sci. Math. 28, 240-246 (1893).
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 432/2103

Teorema 9.35 (Teorema do Determinante de Hadamard) Seja A Mat (C, n). Ent
ao,
n X
Y n
| det(A)|2 |Aij |2 , (9.165)
j=1 i=1

sendo Aij o elemento ij da matriz A. Segue disso que para toda matriz A Mat (C, n) vale
 n
n/2
| det(A)| n max |Aij | . (9.166)
ij

O importante na estimativa (9.166) e o tipo de dependencia em n que se tem do lado direito. Ela sera usada, por
exemplo, em estimativas de convergencia da serie de determinantes de Fredholm na Secao 18.2, p
agina 845.
Prova do Teorema 9.35. A prova de (9.166) e elementar, por (9.165). Passemos `a prova de (9.165).
Seja A Mat (C, n). Se A n
ao tem inversa, ent
ao det(A) = 0 e a desigualdade (9.165) e trivialmente satisfeita, n
ao
havendo o que se provar. Vamos ent
ao supor que A tenha inversa.
Seja A o conjunto de todas as matrizes M de Mat (C, n) com a propriedade que
n
X n
X
|Mij |2 = |Aij |2
i=1 i=1

tambem claro que A e um subconjunto compacto de Mat (C, n) (visto


a que A A. E
para todo j = 1, . . . , n. Claro est
n2
aqui como C ). A funcao | det(M )| e contnua como funcao de M e, portanto, assume ao menos um maximo absoluto
(nao necessariamente u nico) em A, por este ser compacto (teorema de Weierstrass). Seja T A um desses maximos.
Note-se que | det(T )| | det(A)| > 0 e, portanto, T tem inversa.
Xn
Para todo i = 1, . . . , n vale por (9.21), p agina 345, que det(T ) = Tij Cof(T )ij , onde Cof(T ), chamada de
j=1
matriz dos cofatores de T , foi definida no enunciado do Teorema 9.1, p agina 345. Seja fixo esse i. Pela desigualdade de
Cauchy-Schwarz, vale

X n Xn n
X n
X
| det(T )|2 |Tij |2 |Cof(T )ij |2 = |Aij |2 |Cof(T )ij |2 . (9.167)
j=1 j=1 j=1 j=1

ltima igualdade sendo devida ao fato que T A.


Au
n
X
Como e bem sabido, para o produto escalar ha, bi := ak bk , a desigualdade de Cauchy-Schwarz |ha, bi| kakkbk e
k=1
uma igualdade se e somente se os vetores a e b forem proporcionais. Assim, tem-se a igualdade em (9.167) se e somente
se existir i C tal que Tij = i Cof(T )ij para todo j, ou seja, se a i-esima linha de T for proporcional `a i-esima linha
de Cof(T ).
O ponto importante agora e notar que se tivermos a desigualdade estrita

n
X n
X
2 2 2
| det(T )| < |Aij | |Cof(T )ij | , (9.168)
j=1 j=1

ent
ao T n ao pode maximizar o modulo de determinante entre as matrizes de A. De fato, considere a matriz T que e
igual a` matriz T , exceto sua i-esima linha, que e dada por
n
X 1/2
2
|Aij |
j=1
Tij :=
Xn

Cof(T )ij ,
2
|Cof(T )ij |
j=1
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 433/2103

claro que
j = 1, . . . , n. E
n
X n
X
|Tij |2 = |Aij |2 ,
j=1 j=1

o que mostra que T A (para as demais linhas T coincide com T e n a o que provar, pois T A). Fora isso,
ao h
n
X
det(T ) = Tij Cof(T )ij , pois Cof(T )ij = Cof(T )ij , ja que T e T so diferem na i-esima linha. Assim,
j=1

n
X 1/2
|Aij |2
1/2 1/2
n
X n
X Xn

j=1
det(T ) = n

|Cof(T )ij |2 = |Aij |2 |Cof(T )ij |2
X
|Cof(T )ij |2
j=1 j=1 j=1

j=1

e conclumos por (9.168) que teramos | det(T )| < det(T ), contrariando a hipotese que | det(T )| e maximo. Assim,
devemos ter a igualdade em (9.167) e, pelos coment arios de acima, isso implica que existe i C tal que Tij = i Cof(T )ij
para todo j, ou seja, a i-esima linha de T e proporcional `a i-esima linha de Cof(T ). Como i e arbitrario, isso vale para
todo i.
Agora, como as linhas de T sao proporcionais a`s de Cof(T ), segue que
n n n
X 1 X 1 X
det(T ) = Tij Cof(T )ij = |Tij |2 , = |Aij |2
j=1
i j=1 i j=1

e pela multilinearidade do determinante, que

det(T ) = det(T ) = 1 n det(Cof(T )) .

Dessas duas relacoes extramos


n X n n n
1 Y det(Cof(T )) Y X
det(T )n = |Aij |2 = |Aij |2 .
1 n i=1 j=1 det(T ) i=1 j=1

Como a relacao (9.26) vale para qualquer matriz inversvel, tem-se det(Cof(T )) = det(T )n1 e, portanto, | det(T )|2 =
n X
Y n
|Aij |2 . Por construcao, T maximiza | det(T )| em A. Como A A, segue que
i=1 j=1

n X
Y n
| det(A)|2 |Aij |2 . (9.169)
i=1 j=1

Isso prova o teorema.


JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 434/2103

9.12 Exerccios Adicionais


E. 9.48 Exerccio. a) Determine o polin
omio caracterstico da matriz

5 2 7


A = 0 2 3i 5i

.


0 0 1 4i

b) Verifique explicitamente a validade do Teorema de Hamilton-Cayley para a matriz A.


c) Usando o Teorema de Hamilton-Cayley calcule A1 .
6

E. 9.49 Exerccio. Repita o exerccio anterior para as matrizes



2 1 3 5 0 0


A1 =
0 4 + i i , A2 =
8 8 0 .


0 0 2 7i 3i 1 9i 4 5i
6

E. 9.50 Exerccio. Considere em Cn o seguinte produto escalar


n
X
hu, vip = ua va pa ,
a=1

onde pa > 0 para a = 1, . . . , n. Seja uma matriz A, com elementos de matriz Aij . Mostre que, com o produto escalar h, ip
o elemento de matriz (Ap )ij da adjunta Ap da matriz A e dado por
pj
(Ap )ij = Aji . (9.170)
pi
(Lembre-se que Ap e definida de sorte que hu, Avip = hAp u, vip para todos u, v Cn ).
Para a matriz adjunta definida em (9.170), verifique a validade das regras (Ap )p = A e (AB)p = B p Ap , para
quaisquer matrizes A, B Mat (C, n). Calcule 1p .
P
Mostre que para quaisquer u, v Cn vale hu, vip = hu, P viC , onde hu, viC = na=1 ua va e o produto escalar usual em
Cn e P = diag (p1 , . . . , pn ). Conclua disso que Ap = P 1 A P , onde A e a adjunta usual de A em relacao ao produto
escalar h, iC : (A )ij = Aji . 6


4 i/2
E. 9.51 Exerccio. Determine os autovalores da matriz A =

. Essa matriz nao e auto-adjunta em relacao ao

2i 5
produto escalar usual em C2 , mas possui autovalores reais. Justifique esse fato mostrando, pelos exerccios anteriores, que A
e auto-adjunta em relacao ao produto escalar hu, vip = 2u1 v1 + u2 v2 /2. Mostre a adjunta Ap em relacao a esse produto

4 i/2
escalar e Ap =

= A e constate explicitamente que hu, Avi = hAu, vi para todos u, v C2 . Determine os
p p
2i 5
autovetores de A e constate que os mesmos sao ortogonais em relacao ao produto escalar h, ip . 6
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 435/2103

O exerccio que segue generaliza o Exerccio E. 9.50.

E. 9.52 Exerccio. Seja um produto escalar em Cn . Pela Proposicao 3.5, pagina 211, existe uma unica matriz M
Mat (C, n) auto-adjunta e de autovalores positivos (e, portanto, inversvel) tal que (x, y) = hx, M yiC para todos
x, y Cn .
Seja A Mat (C, n) e seja A Mat (C, n) sua adjunta em relacao ao produto escalar : (x, Ay) = (A x, y)
para todos x, y Cn . Mostre que A = M1 A M , onde A e a adjunta usual de A em relacao ao produto escalar h, iC .
Mostre que para quaisquer matrizes A, B Mat (C, n) valem (A ) = A e (AB) = B A . Calcule 1 . 6

E. 9.53 Exerccio. [N umeros de Fibonacci]. A sequencia de numeros conhecida como sequencia de Fibonacci29 foi
introduzida `a pagina 259 e foi la estudada usando-se funcoes geratrizes. Neste exerccio vamos estuda-la fazendo uso de
matrizes e do Teorema Espectral.
A sequencia de Fibonacci an , n N0 , e a seq
uencia definida recursivamente pela relacao

an+2 = an+1 + an , n0. (9.171)

Comummente adota-se a0 = 1 e a1 = 1, mas vamos deixar essa escolha de condicoes iniciais provisoriamente em aberto.
A relacao (9.171) pode ser expressa de forma elegante com o uso de matrizes e vetores, da seguinte forma. Tem-se,
trivialmente que
x x + y 1 1
T

=

,
onde T :=

.

y x 1 0

Isso mostra que vale a seguinte relacao para os elementos da sequencia de Fibonacci:

an+1 an


= T

,
n N ,
an an1

o que permite escrever


an+1 a1
= Tn , n N0 . (9.172)

an a0

Justifique! A matriz T e, por vezes, denominada matriz de transferencia.


T e manifestamente autoadjunta e, portanto, diagonalizavel (Teorema 9.14, pagina 384) e, portanto, satisfaz o Teorema
Espectral (Teorema 9.6, pagina 369).

Mostre que os autovalores de T sao = 12 1 5 . Usando (9.56), mostre que a decomposicao espectral de T e

1 1
T = + E+ + E , onde E = .
5
1

Conclua do Calculo Funcional (Teorema 9.7, pagina 371) que, para n N,



n+1 n+1 n n
n n 1 + +
n
T = + E+ + E = ,
5 n n n1 n1
+ +

(use que + = 1).


29 Leonardo Pisano, cognominado Fibonacci (11701250).
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 436/2103

Retornando com isso a (9.172), obtenha que


 
1  n1 n1   n n 
an = + a0 + + a1 , (9.173)
5
n N0 . Essa e a expressao geral (em termos de n, a0 e a1 ) dos elementos an da sequencia de Fibonacci.
Para o caso particular em que a0 = 1 e a1 = 1, obtenha disso que

!n+1 !n+1
1 1+ 5 1 5
an = , (9.174)
5 2 2

n n1 n  1  n  n+1
para todo n 0. Para isso, mostre que + = 1 + = 1 = .
A expressao (9.174) coincide com o resultado apresentado em (6.2), pagina 260, e la obtido por outros meios. 6

E. 9.54 Exerccio. [N
umeros de Fibonacci Generalizados]. Este exerccio generaliza o Exerccio E. 9.53.
Considere a sequencia de Fibonacci generalizada:
an+2 = an+1 + an , n0, (9.175)
onde e sao constantes (reais ou complexas). A matriz de transferencia T associada a essa sequencia e


T :=

.

1 0
 p 
1
Mostre que os seus autovalores sao = 2 2 + 4 .
Considere primeiramente o caso em que 2 + 4 6= 0. Nessa situacao, os autovalores + e sao distintos e, portanto,
T e diagonalizavel (pela Proposicao 9.22, pagina 377) e aplicam-se novamente o Teorema Espectral e o Calculo Funcional.
Repita o procedimento do Exerccio E. 9.53 para obter a expressao geral (em termos de n, a0 e a1 ) dos elementos an da
seq
uencia de Fibonacci generalizada. O resultado e que

n+1 n+1  n n 
1 + +
Tn = p
  ,

2
+ 4 n n n1 n1
+ +

donde obtem-se que   


1 n1 n1   n n 
an = p + a0 + + a1 . (9.176)
2 + 4
Esta e a expressao geral (em termos de n, a0 , a1 e ) da sequencia de Fibonacci generalizada para o caso 6= 2 /4.
No caso em que 2 + 4 = 0,mostre que T nao e diagonalizavel. Para isso, mostre, por exemplo, que seus autovetores
sao todos multiplos do vetor /2
1
e, portanto, compoe um subespaco unidimensional.
O que se pode fazer nessa situacao para determinar T n ? Proceda da seguinte forma: escreva

2 /4 /2 2 /4
T = = 1 + N , onde N = .
2
1 0 1 /2

Constate que N 2 = 0 e conclua que a representacao T = 2 1 + N e a forma de Jordan de T . Pelo binomio de Newton,
teremos, para n 1,
 n n    np 1    np  n  n1
X n 2
p N =0
X n
n
T = 1+N = N = Np = 1+n N.
2 p=0
p 2 p=0
p 2 2 2
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 437/2103

Portanto,

n

n+1
(1 + n) 2 n 2
Tn =

,
n1 
n
n 2 (1 n) 2

e, portanto,
 n  n1
an = (1 n) a0 + n a1 . (9.177)
2 2
Esta e a expressao geral (em termos de n, a0 , a1 e ) da sequencia de Fibonacci generalizada para o caso = 2 /4.
Note-se que no caso = 2 (e = 1), obtem-se disso an = a0 + n(a1 a0 ), que exibe um comportamento dominante
linear em relacao a n, e nao exponencial, como em todos os casos anteriores. Em particular, se a0 = a1 , a sequencia e
constante. 6
JCABarata. Curso de Fsica-Matem
atica Vers
ao de 19 de marco de 2014. Captulo 9 438/2103

1
1 1
0
a
1
0 1 0

1

2 2
0
0

b
0
2
2 0
1
3
3
0
c

3
0

0 3 0

4
1
4
0
d

4
0
4

Figura 9.5: Forma can onica de uma matriz com 4 autovalores distintos 1 , 2 , 3 e 4 . Os s assumem apenas os
valores 0 ou 1, de acordo com as regras explicadas acima. Todos os elementos fora da diagonal principal e da primeira
supradiagonal sao nulos. As setas indicam zeros que ocorrem na primeira supradiagonal nos pontos onde ocorre transicao
entre os blocos, conseq
uencia do fato de esses elementos estarem fora dos blocos.

Potrebbero piacerti anche