Sei sulla pagina 1di 15

Diagonalização das Matrizes

A diagonalizacao de matrizes consiste na obtenção de uma matriz diagonal que seja


equivalente a matriz original. O que motiva a obtenção dessa matriz equivalente diagonal são as
suas características. Por apresentar todos os elementos fora da diagonal principal diferentes de
zero, isso implica, matematicamente, em uma redução significativa no custo de processamento
dessa matriz.
𝛾1 0 0
B = [0 𝛾2 0]
0 0 𝛾𝑛
Matizes Equivalentes ou Semelhantes.
Para que uma matriz diagonal, seja semelhante a uma matriz quadrada qualquer é necessário que
obdessa às seguintes condiçõs:
 Se as características/postos (imagens) são iguais;
 Se as nulidades ou nuclios são iguais;
 Se os polinómios caracteristicos são iguais;
 Se os determinantes são iguais;
 Se os traços iguais;
 Se os autovalores são iguais;
 Se os autovectores são correspondentes.
Com esses pontos iguais, então podemos afirmar que duas matrizes são semelhantes.Isto é duas
matrizes A ,B ∈ Mnxn (k) ou matrizes quadradas são semelhantes se existir uma matriz inversível
P ∈ Mnxn (k), tal que B = P-1.A. P
Teorema 1: Duas matrizes são semelhantes se tiverem o mesmo determinante.
Prova: det(B) = det(P-1.A. P)

det(B) = det(P-1).det(A).det(P)
1
det(B) = det( P).det(A).det(P)

1
det(B) = det(P) .det (A).det(P)

det(B) = det(A)
Teorema 2 : Duas matrizes são semelhantes se tiverem o mesmo autovalor.

Prova: sejam A e B = P-1.A. P matrizes semelhantes.


PB (𝛾) = det(B - I𝛾 ) = det(P-1.A. P - I𝛾 )

PB (𝛾) = det(P-1.A. P - I𝛾) = det(P-1.A. P - I𝛾)

PB (𝛾) = det(P-1.A. P – I.P-1. P.𝛾) = det(P-1.A. P – I.P-1. P.𝛾)

PB (𝛾) = det[P-1.P (A– I.𝛾)] = det[P-1.P (A– I.𝛾)]

PB (𝛾) = det(P-1). det(P). det(A– I.𝛾) = det(P-1). det(P). det(A– I.𝛾)


1 1
PB (𝛾) = det( P). det(P). det(A– I.𝛾) = det( P). det(P). det(A– I.𝛾)

1 1
PB (𝛾) = det(P) . det(P). det(A– I.𝛾) = det(P) . det(P). det(A– I.𝛾)

PB (𝛾) = det(A– I.𝛾) = det(A– I.𝛾)

PB (𝛾) = PA (𝛾).

Os polinómios caracteriísticos são iguaís logo os autovalores (raizes do


polinómio característico) são iguais.
Se quisermos apenas saber qual a matriz diagonal equivalente, entao basta encontrarmos os
autovalores da matriz A, porém, muitos problemas requerem encontrar a matriz que diagonaliza
A, uma vez que essa simplificação na matriz de trabalho implica em uma mudança de
coordenadas e é muito provável que todos os dados envolvidos com o sistema original
necessitem migrar para esse novo sistema de coordenadas.

Matriz que diagonaliza a matriz A ou Matrizes Diagonizaveis

Para encontrarmos a matriz que diagonaliza A, devemos encontrar os autovetores da matriz A,


uma vez conhecidos os autovetores v1, v2, v3,..., vn, basta montar a matriz P com os autovetores
por coluna . 𝑷 = [⟨𝒗𝟏 |𝒗𝟐 |𝒗𝟑 |𝒗𝒏 ⟩].

A única ressalva é que os autovectores sejam linearmente independentes (LI), pois P deve ser
inversível. Portanto, se os autovectores forem LI e a quantidade de autovectores for igual a
ordem da matriz A, então dizemos que A e diagonalizável.
Isto é : Uma matriz A é diagonizável (sob semelhança) se existe uma matriz não-singular P tal
que B = P-1.A. P é uma matriz diagonal, isto é se A é semelhnte a uma matriz diagonal B.
Teorema 3: Uma matriz quadrada A de ordem n é semelhnte a uma matriz diagonal B, se e
somente se A tem autovalores linearmente independentes.
1 0 0
Exemplos 1: Encontre a matriz que diagonaliza A = [2 0 0]
0 0 1
Resolução:
1a condição: Encontrar os autovectores mais para tal primeiro encontrar os autovalores.
Autovalores: det(A –K.I) = 0
1 0 0 1 0 0
Det[[2 0 0] – 𝐾. [0 1 0]] =0
0 0 1 0 0 1 0 0 0
1−𝑘 0 0 1−𝑘 0 0 1−𝑘 0
Det[ 2 −𝑘 0 ]= 0 logo det[ 2 −𝑘 0 2 −𝑘] = 0
0 0 1−𝑘 0 0 1−𝑘 0 0
-k(1-k)2 0 0

Logo –k(1-k)2 =0 ↔ k1 =0 ou k2 = 1 ou k3 = 1
Autovectores : (A-KI)v = 0
Caso 1 e 2 : k = 1
1−1 0 0 𝑥 0 0 0 0 𝑥 0 𝟎=𝟎 𝒛=𝒛
[ 2 −1 0 ] [ 𝑦 ] = [ 0] ↔ [ 2 −1 0] [𝑦 ] = [ 0 ] ↔ {𝟐𝒙 − 𝒚 = 𝟎 ↔ { 𝟐𝒙 = 𝒚
0 0 1−1 𝑧 0 0 0 0 𝑧 0 𝟎=𝟎 𝟎=𝟎
v = (x;2x;z) ↔v = x(1;2;0) + z(0;0;1) ↔v1 = x(1;2;0) e v2 = z(0;0;1)
Caso 3: k= 0
1−0 0 0 𝑥 0 1 0 0 𝑥 0 𝒙=𝟎 𝒙=𝟎
[ 2 −1 0 ] [𝑦]=[0] ↔ [2 0 0] [𝑦]=[0] ↔ { 𝟐𝒙 = 𝟎 ↔ { 𝟎 = 𝟎 ↔
0 0 1−0 𝑧 0 0 0 1 𝑧 0 𝒛=𝟎 𝒛=𝟎
v3= y(0;1;0)
2a condição: verificar se os autovectores são linearmente independentes.
𝜶𝟏 . 𝒗𝟏 + 𝜶𝟐 . 𝒗𝟐 + 𝜶𝟑 . 𝒗𝟑 = 𝟎 ↔ 𝜶𝟏 . (𝟏; 𝟐; 𝟎) + 𝜶𝟐 . (𝟎; 𝟎; 𝟏) + 𝜶𝟑 . (𝟎; 𝟏; 𝟎) = 𝟎
𝜶𝟏 = 𝟎 𝜶𝟏 = 𝟎
↔{ 𝟐. 𝜶𝟏 + 𝜶𝟑 = 𝟎 ↔ { 𝜶𝟑 = 𝟎 ↔N.B: como todas as constantes são iguais a zero então
𝜶𝟐 = 𝟎 𝜶𝟐 = 𝟎
os autovectores são linearmente independentes (LI), Contudo podemos montar a matriz.
1 0 0 1 0 0 1 0 0
𝑷 = [⟨𝒗𝟏 |𝒗𝟐 |𝒗𝟑 ⟩]. ↔ p = [2 0 1] ↔ p-1 =[2 0 1 0 1 0] ↔
0 1 0 0 1 0 0 0 1
1 0 0 1 0 0 1 0 0 1 0 0
[2 0 1 0 1 0] 𝑙2 = 𝑙2 − 2 𝑙1 [0 0 1 −2 1 0] 𝑙2 = 𝑙2 ↔ 𝑙3
0 1 0 0 0 1 0 1 0 0 0 1
1 0 0 1 0 0 1 0 0
[0 1 0 0 0 1] ↔ p = [ 0 0 1] -1

0 0 1 −2 1 0 −2 1 0

Verificação
1 0 0 1 0 0 1 0 0 1 0 0 1 0 0
B = P-1.A. P ↔ 𝑩 = [ 0 0 1]. [2 0 0] . [2 0 1] ↔ 𝑩 = [0 0 1] . [2 0 1]
−2 1 0 0 0 1 0 1 0 0 0 0 0 1 0
1 0 0
↔ B = [0 1 0] ↔ 𝑩 é 𝒎𝒂𝒕𝒊𝒛 𝒅𝒊𝒂𝒈𝒐𝒏𝒂𝒍 formada por autovalores de A
0 0 0

𝟏 𝟐
Exemplo 2: Seja A= [ ], Encontre a matriz que diagonaliza A.
𝟑 𝟐
Potencialização de Matrizes
A diagonalizacao de matrizes permite-nos calcular potências de matrizes. Sabendo que
B = P–1AP, ao multiplicarmos a matriz diagonal por ela mesma, teremos:

B・B= (P–1AP)・(P–1AP)

Eliminando os parenteses, temos:


B2 = P–1A.In.AP = P–1A2P
Multiplicando a expressão pela esquerda por P e pela direita por P–1, temos: PB2P–1 = A2
Se multiplicarmos novamente por B, chegaremos a conclusao que: Ak = PBkP–1 onde k e
qualquer expoente inteiro.
Dessa forma, se conhecemos a matriz diagonal e a matriz que diagonaliza A, podemos calcular
qualquer potência de A.

𝟎 𝟎
Exemplo 1: Calcule a matriz, A15 onde A= [ ]
𝟏 𝟏
Resolução

Ak = PBkP–1
A15 = PB15P–1 , então deve-se encontrar B e P.
Encontrando os autovalores:
Det(A-k.I) =0
𝟎 𝟎 𝟏 𝟎 −𝒌 𝟎
Det[[ ] −k. [ ]]=0 ↔ det[[ ]= 0 ↔ como é uma matriz triangular o
𝟏 𝟏 𝟎 𝟏 𝟏 𝟏−𝒌
determinante é igual ao produto dos valores da diagonal pricimpal ↔ -k(1-k)=0 ↔
𝒌𝟏 = 𝟎
{
𝒌𝟐 = 𝟏
Caso 1 : k1 = 1
(A-kI)v = 0
−𝒌 𝟎 𝒙 𝟎 −𝟏 𝟎 𝒙 𝟎 −𝒙 = 𝟎 𝒙=𝟎 𝒙=𝟎
[ ] [𝒚] = [ ] ↔ [ ] [𝒚] = [ ] ↔ { ↔{ ↔{ ↔ 𝒗𝟏 = (0;y)
𝟏 𝟏−𝒌 𝟎 𝟏 𝟎 𝟎 𝟎=𝟎 𝟎=𝟎 𝒚=𝒚
↔ 𝒗𝟏 = y(0;1)

Caso 1 : k2 = 0
−𝒌 𝟎 𝒙 𝟎 𝟎 𝟎 𝒙 𝟎 𝟎=𝟎 𝒙=𝒙
[ ] [𝒚] = [ ] ↔ [ ] [ 𝒚] = [ ] ↔ { ↔ {𝒚 = −𝒙 ↔ 𝒗𝟐 = (x;-x)
𝟏 𝟏−𝒌 𝟎 𝟏 𝟏 𝟎 𝒙+𝒚=𝟎
↔ 𝒗𝟐 = 𝒙(𝟏; −𝟏)

3o Verficar-se são LI: Como não são multiplos um do outro logo são LI.
4o Detrminar a matriz que diagonaliza A.
𝟎 𝟏 𝟏 𝟏
𝑷 = [⟨𝒗𝟏 |𝒗𝟐 |𝒗𝟑 |𝒗𝒏 ⟩]. ↔ P = [ ] ↔ p-1 = [ ]
𝟏 −𝟏 𝟏 𝟎

5o Detrminar a matriz que diagonal B.


𝟏 𝟏 𝟎 𝟎 𝟎 𝟏 𝟏 𝟎
B=P–1AP ↔B = [ ].[ ].[ ] ↔B = [ ] ↔ Ak = PBkP–1
𝟏 𝟎 𝟏 𝟏 𝟏 −𝟏 𝟎 𝟎
𝟎 𝟏 𝟏𝟓 𝟏 𝟏 𝟎 𝟎
A15 = [ ].[ 𝟏 𝟎 ].[ ] ↔ A15 = [ ]
𝟏 −𝟏 𝟎 𝟎 𝟏 𝟎 𝟏 𝟏
Diagonalização de matrizes simétricas

É imperoso resaltar que nem toda matriz matriz e diagonalizavel.

Neste subtema, vamos ver que se uma matriz A é simétrica, então ela é diagonalizavel, isto é,
existe uma matriz diagonal B e uma matriz invertível P tal que B= P-1AP. Alem disso, para
matrizes simetricas, existe uma matriz P tal que B= PtAP. Isto porque existe uma ortogonal P que
faz a diagonalização, ou seja, que tem a propriedade P-1=Pt (uma matriz que satisfaz essa
propriedade é chamada matiz ortogonal).

Diagonalização ortogonal de matrizes


Uma particularidade no caso da diagonalização de matrizes é quando a matriz que diagonaliza A
é uma matriz ortogonal: Pt = P–1
Ou seja, os vetores que representam as linhas e as colunas de P são ortonormais entre si.
A diagonalização ortogonal permite que a transição de um sistema de coordenadas para
outro ocorra sem perda de proporções, fato que comprovará-se ao estudar-se as cônicas.
Portanto, se houver uma matriz P, tal que B = P–1AP = PtAP, então dizemos que A é
ortogonalmente diagonalizável.
Para saber se A pode ser diagonalizada ortogonalmente, deve-se observar se A é uma
matriz simétrica, caso contrário, já pode-se descartar a possibilidade. Então:
Se At = A (simétrica), A é diagonalizável ortogonalmente.
O processo de obtenção da matriz que diagonaliza A ortogonalmente é inicialmente o mesmo do
processo de diagonalização convencional, porém quando encontram-se os autovectores LI, estes
devem ser ortonormais e, para isso, aplica-se o processo de Gram-Schmidt e depois normaliza-se
os vectores para só então montar-se a matriz P.
As etapas para a diagonalização ortogonal são:
1) Encontrar os autovetores.
2) Se os vectores forem LI, aplicar o processo de ortogonalização de Gram-Schmidt.
3) Normalizar os vectores.
1 0 1
Exemplo 1 :Encontre a matriz que diagonaliza A = [0 0 0]
1 0 1
Resolução
1o Encontrar os autovalores.
1 0 1 1 0 0 1−𝑘 0 1 𝒌𝟏 = 𝟐
Det(A-K.I) = 0↔ 𝒅𝒆𝒕[[0 0 0] − 𝑘 [0 1 0]] ↔ 𝒅𝒆𝒕 [ 0 −𝑘 0 ] ↔ { 𝒌𝟐 = 𝟎
1 0 1 0 0 1 1 0 1−𝑘 𝒌𝟑 = 𝟎
2o Encontrar os autovectores.
Caso 1 : 𝒌𝟏 = 𝟐
1−𝑘 0 1 𝑥 0 −1 0 1 𝑥 0 −𝒙 + 𝒛 = 𝟎
(A-K.I)v=0 ↔ [ 0 −𝑘 0 ] [𝑦]=[0] ↔ [ 0 −2 0 ] [𝑦]=[0] ↔ { −𝟐𝒚 =𝟎
1 0 1−𝑘 𝑧 0 1 0 −1 𝑧 0 𝒙−𝒛=𝟎
𝒛=𝒙
↔ { 𝒚 = 𝟎 ↔ 𝒗𝟏 = (𝒙; 𝟎; 𝒙) ↔ 𝒗𝟏 = 𝒙(𝟏; 𝟎; 𝟏)
𝒙=𝒛
Caso 2 : 𝒌𝟐 𝒆 𝟑 = 𝟎
1−𝑘 0 1 𝑥 0 1 0 1 𝑥 0 𝒙+𝒛 = 𝟎
(A-K.I)v=0 ↔ [ 0 −𝑘 0 ] [𝑦]=[0] ↔ [0 0 0] [𝑦]=[0] ↔ { 𝟎 =𝟎
1 0 1−𝑘 𝑧 0 1 0 1 𝑧 0 𝒙+𝒛 = 𝟎

𝒛 = −𝒙
↔ { 𝒚 = 𝒚 ↔ 𝒗 = (−𝒛; 𝒚; 𝒛) ↔ 𝒗 = 𝒛(−𝟏; 𝟎; 𝟏) + 𝒚(𝟎; 𝟏; 𝟎) ↔ 𝒗𝟐 = 𝒛(−𝟏; 𝟎; 𝟏) 𝒆
𝒙 = −𝒛

𝒗𝟑 = 𝒚(𝟎; 𝟏; 𝟎)

2o Verificar se os autovectores são LI.

𝜶𝟏 . 𝒗𝟏 + 𝜶𝟐 . 𝒗𝟐 + 𝜶𝟑 . 𝒗𝟑 = 𝟎 ↔ 𝜶𝟏 . (𝟏; 𝟎; 𝟏) + 𝜶𝟐 . (−𝟏; 𝟎; 𝟏) + 𝜶𝟑 . (𝟎; 𝟏; 𝟎) = 𝟎


𝜶𝟏 − 𝜶𝟐 = 𝟎 𝜶𝟏 = 𝜶𝟐
↔{ 𝜶𝟑 =𝟎↔{ 𝜶𝟑 = 𝟎 ↔ 𝜶𝟏 = 𝜶𝟐 = 𝜶𝟑 = 𝟎
𝜶𝟏 + 𝜶𝟐 = 𝟎 𝜶𝟐 = −𝜶𝟏
N.B: Como todas as constantes sao iguais a zero, entao o conjunto e LI.
3o. Analisar se os vetores são ortogonais.

A partir da da base s = {𝑣1 ; 𝑣2 ; 𝑣3 ; 𝑣4 … . 𝑣𝑛 }

𝐸 𝑐𝑜𝑛𝑠𝑡𝑢í𝑛𝑑𝑜 a dase ortogonal { 𝑣1′ ; 𝑣1′ ; 𝑣1′ … . 𝑣𝑛′ }

(𝒗𝒏 ; 𝒗′𝒏−𝟏 ) (𝒗𝒏 ; 𝒗′𝟏 )


𝒗′𝒏 = 𝒗𝒏 – 𝟐 . 𝒗′𝒏−𝟏 − ⋯ − 𝟐 . 𝒗′𝟏
‖𝒗′𝒏−𝟏 ; 𝒗′𝒏−𝟏 ‖ ‖𝒗′𝟏 ; 𝒗′𝟏 ‖
[(1;0;1).(–1;0;1)] = 0
[(1;0;1).(0;1;0)] = 0
[(–1;0;1).(0,1,0)] = 0

Não será necessário utilizar o processo de ortogonalizaçãoo de Gram-Schmidt, pois os vectores já são
ortogonais, é necessário então apenas normalizá-los:
4o. Determinar as normas dos vectores.
1
𝑣 (1;0;1) (1;0;1) √2
𝑣1= ‖𝑣1 ‖ ↔ 𝑣1= ↔ 𝑣1= ↔ 𝑣1= ( 0 )
1 √12 +02 +12 √2 1
√2

−1
𝑣 (–1;0;1) (−1;0;1) √2
𝑣2= ‖𝑣2 ‖ ↔ 𝑣2= ↔ 𝑣2= ↔ 𝑣2= ( 0 )
2 √(−1)2 +02 +12 √2 1
√2

𝑣 (0;1;0) (0;1;0) 0
𝑣3= ‖𝑣3 ‖ ↔ 𝑣3= ↔ 𝑣2= ↔ 𝑣2= (1)
3 √02 +12 +02 √1 0

5o. Montar a matriz P


1 −1 1 1
0 0
√2 √2 √2 √2
𝑷 = [⟨𝒗𝟏 |𝒗𝟐 |𝒗𝟑 |𝒗𝒏 ⟩] ↔ 𝑃 = ↔ [ 0 0 1] ↔ Pt = P–1 ↔ P–1 = −1
0
1
1 1 √2 √2
0 [0
√2 √2 1 0]
Diagonalização de Operadores

Definição

Diz-se que um operador linear T : 𝑅 𝑛 → 𝑅 𝑛 é diagonizável , se existe uma base C de 𝑅 𝑛 tal


𝐶
que a matriz da transformacção [T] é uma matriz diagonal.
𝐶
Proposição

Seja T : 𝑅 𝑛 → 𝑅 𝑛 um operador linear. Seja B = {E1 , . . . , En }a base canónica de 𝑅 𝑛 . T é um


𝐵
operador diagonalizável se, e somente se, [T] é uma matriz diagonalizável.
𝐵
Conclui-se portanto que um operador linear é diagonizavel se e somente se a matriz do operador
em relação a uma base é diagonizável.

Demonstração
Se um operador linear T : 𝑅 𝑛 → 𝑅 𝑛 é diagonizável , então existe uma base C de 𝑅 𝑛 tal que
𝐶 𝐶 𝐵 𝐵
[T] é diagonal. Então existe uma matriz P tal que [T] = 𝑃 −1[T] 𝑃, ou seja, a matriz A=[T] é
𝐶 𝐶 𝐵 𝐵
diagonizável.

𝐵
Do mesmo modo, se a matriz A=[T] é diagonizável, em que B = {E1 , . . . , En }, então existe
𝐵
−1
uma matriz P tal que D=𝑃 A𝑃 é uma matriz diagonal.

Forma canónica de Jordan

Visto que nem todo operador T : 𝑅 𝑛 → 𝑅 𝑛 é diagonalizável, ou seja, nem sempre existe uma
𝐶
base C de 𝑅 𝑛 tal que a matriz [T] é diagonal. Entretanto, para várias aplicações é suficiente que
𝐶
𝐶
exista uma base C tal que a matriz [T] tenha uma forma bastante próxima de forma diagonal
𝐶
chamada forma canónica.

Uma matriz J, n ×n, está na forma canonica de Jordan, se ela é da forma

𝐽𝜆1 𝑂̅ … 𝑂̅
̅ … 𝑂̅
J= 𝑂 𝐽𝜆2
⋮ ⋮ ⋱ ⋮
[ 𝑂̅ 𝑂̅ … 𝐽𝜆𝑚 ]

Em que:

𝜆𝑗 0 … 0 0
1 𝜆𝑗 … 0 0
𝐽𝜆𝑗= ⋮ ⋮ ⋱ ⋮ ⋮
0 0 … 𝜆𝑗 0
[0 0 … 1 𝜆𝑗 ]

para j=1, . . . , m. 𝐽𝜆𝑗 é chamado bloco de Jordan.

As matrizes

2 0 0 0 5 0 0 0 −4 0 0 0 7 0 0 0
1 2 0 0 1 5 0 0 1 −4 0 0 0 7 0 0
[ ], [ ], [ ]e[ ]
0 1 2 0 0 1 −3 0 0 1 −4 0 0 0 7 0
0 0 0 2 0 0 1 −3 0 0 1 −4 0 0 0 7
As matrizes estão na forma canónica de Jordan. A primeira é formada de dois blocos de Jordan,
o primeiro sendo 3 ×3 e o segundo 1 ×1. A segunda matriz é formada de dois blocos de Jordan 2
×2. A terceira, por somente um bloco e a última por 4 blocos 1 ´ ×1. A matriz
2 0 0 0
1 2 0 0
[ ]
0 1 2 0
0 0 1 −1
não está na forma canónica de Jordan. Pois como os elementos da diagonal não são iguais, ela
teria que ser formada por pelo menos dois blocos de Jordan e [−1]deveria ser um bloco de Jordan
1 ×1. Entretanto, a entrada imediatamente acima de −1 não é igual a 0.

Autoespaco Generalizado

Seja C uma base em que, C = {𝑉 (1)1 , . . . ,𝑉 (1) 𝑚1 ), . . . ,𝑉 𝑘 1 . . . , 𝑉 𝑘 𝑚𝑘 } de 𝑅 𝑛 (𝑚1 +. . . + 𝑚𝑘 =


n) tal que a matriz do operador linear T : 𝑅 𝑛 → 𝑅 𝑛 , esteja na forma canónica de Jordan.

𝜆𝑗 0 … 0 0
𝐽𝜆1 𝑂̅ … 𝑂̅ 1 𝜆𝑗 … 0 0
𝐶 ̅ … 𝑂̅ em que𝐽
[T] =𝐽 = 𝑂 𝐽𝜆2
𝜆𝑗= ⋮ ⋮ ⋱ ⋮ ⋮ 𝑚𝑗 𝑥 𝑚𝑗
𝐶 ⋮ ⋮ ⋱ ⋮ 0 0 … 𝜆𝑗 0
[ 𝑂̅ 𝑂̅ … 𝐽𝜆𝑘 ]
[0 0 … 1 𝜆𝑗 ]

Assim T(𝑉𝑗 𝑖 = λj𝑉𝑗 𝑖 +𝑉𝑗 𝑖 +1 ) ou (T −λj I )(𝑉𝑗 𝑖 ) = 𝑉𝑗 𝑖 +1 e T(𝑉𝑗 𝑚𝑗 )= λj 𝑉𝑗 𝑚𝑗

para i = 1, . . . , 𝑚𝑗 −1 e j = 1, . . . , k. Ou seja, (T −λj I )(𝑉𝑗 𝑚𝑗 ) = 0

(𝑇 − 𝜆𝑗 𝐼)2 (𝑉𝑗 𝑚𝑗−1 ) = (𝑇 − 𝜆𝑗𝐼 )(𝑉𝑗 𝑚𝑗 ) = 𝑂̅,

(T −λj I )𝑚𝑗 (𝑉𝑗 𝑖 )= (T −λj I )𝑚𝑗 −1 (𝑉𝑗 2 )=𝑂̅.

Portanto, os vetores da base C, 𝑉𝑗 𝑖 e os elementos da diagonal de J, λj , satisfazem as equações

(𝑇 − 𝜆𝐼)𝑘 (V ) =𝑂̅ para k = 1, . . . , mj . Isto motiva a seguinte definiçao.

Definição

Seja T : 𝑅 𝑛 → 𝑅 𝑛 um operador linear. Um vetor V ∈𝑅 𝑛 não nulo é chamado autovetor


generalizado de T associado ao escalar λ se (𝑇 − 𝜆𝐼 𝑘 ) (V ) =𝑂̅, para algum inteiropositivo
k.

Obs: Se V é um autovetor generalizado associado a λ e p é o menor inteiro positivo tal que


(𝑇 − 𝜆𝐼)𝑝 (𝑉) = 𝑂̅, então (𝑇 − 𝜆𝐼)𝑝−1 (𝑉) é um autovetor de T associado a λ. Portanto, λ é um
autovalor de T. Além disso, (𝑇 − 𝜆𝐼)𝑞 (𝑉) = 𝑂̅, para todo q ≥ p.

Definição

Seja λ um autovalor de um operador T : 𝑅 𝑛 → 𝑅 𝑛 . O autoespaco generalizado associado


a λ, é o subconjunto definido por:
𝑊𝜆 = {V ∈𝑅 𝑛 | (𝑇 − 𝜆𝐼)𝑘 (𝑉) = 𝑂̅, para algum inteiro k> 0 }.

O 𝑊𝜆 consiste dos autovetores generalizados acrescentado o vetor nulo e contém o autoespaço


associado a λ e 𝑊𝜆 é um subespaço.

Assim, obtém-se a sequência de subespaços encaixados:

N(𝑇 − 𝜆𝐼𝑛 )⊆ N(𝑇 − 𝜆𝐼𝑛 )2⊆ ··· ⊆𝑊𝜆 ⊆𝑅 𝑛 .

O seguinte resultado é muito útil na determinação das possíveis formas canónicas de Jordan de
um operador.

Teorema

Seja T : V → V um operador tal que seu polinómio característico é da forma 𝑝(𝑡) =


(−1)𝑛 ...(𝑇 − 𝜆𝑛 )𝑛𝑘 distintos. Então, dim(𝑊𝑖 ) = 𝑛𝑖 , para i = 1, . . . , k.

Seja T : 𝑅 3 → 𝑅 3 o operador definido por T(X) = AX, para todo X ∈𝑅 3 , em que

5 1 0
A= [−4 1 0]
−2 −1 3
O polinómio característico de T é dado por p(λ) = det(A −𝜆𝐼3 ) = −(𝜆 − 3)3.

Assim, o unico autovalor de T é λ = 3. A forma escalonada reduzida de


1
2 1 0 1 2 0
A - 3𝐼3 = [−4 −2 0] é [0 0 0]
−2 −1 0 0 0 0
Assim, N(T −3I ) = {(−β, 2β, α) | α, β ∈ R}. Agora, (𝑇 − 3𝐼 )2= O, a transformaçãolinear
nula.

Portanto, 𝑊3 = N(𝐴 − 3𝐼3 )2= 𝑅 3 . Assim existe uma matriz P invertível tal que

3 0 0
−1
𝑃 𝐴𝑃 = [1 3 0]
0 0 3
que está na forma canónica de Jordan, ou seja, a menos de ordenação dos blocos esta é a unica
forma canónica de jordan do operador T.

Seja T : 𝑅 4 → 𝑅4 o operador definido por T(X) = AX, para todo X ∈𝑅 4 , em que


2 −1 0 1
0 3 −1 0
𝐴=[ ],
0 1 1 0
0 −1 0 3
O polinómio característico de T é dado por p(λ) = det(A −λ𝐼4 ) = (𝜆 − 3)(𝜆 − 2)3 . Assim
os autovalores de T são 𝜆1 = 3 e 𝜆2 = 2. A forma escalonada reduzida de

−1 −1 0 1 1 0 0 −1
0 0 −1 0 0 1 0 0
𝐴 − 3𝐼4 = [ ]é[ ],
0 1 −2 0 0 0 1 0
0 −1 0 0 0 0 0 0

Assim, 𝑊3 = N(T −3I ) = {(α, 0, 0, α) | α ∈ R}. A forma escalonada reduzida de

0 −1 0 1 0 1 0 −1
0 1 −1 0 0 0 1 −1
𝐴 − 2𝐼4 = [ ]é[ ],
0 1 −1 0 0 0 0 0
0 −1 0 1 0 0 0 0

Assim, N(T −2I ) = {(β, α, α, α) | α, β ∈ R}. A forma escalonada reduzida de

−1 −1
0 −2 1 1 0 1 2 2
0 0 0 0
(𝐴 − 2𝐼4 )2 = [ ]é 0 0 0 0
0 0 1 0 0 0 0 0
0 −2 1 1 [0 0 0 0]

Assim, 𝑊2 = N(𝑇 − 2𝐼 )2 = {(γ, α + β, 2β, 2α) | α, β, γ ∈ R}. Assim existe uma matriz P
tal que

3 0 0 0
0 2 0 0
𝑃−1 𝐴𝑃 = [ ],
0 1 2 0
0 0 0 2
que está na forma canónica de Jordan. E a menos da ordem dos blocos esta
é a única forma canónica de Jordan possível do operador T.

Polinómio Minimal

Visto que para saber se uma matriz de um operador é diagonizável é preciso achar uma base
que é um conjunto de autovectores LI, mais torna-se complicado achar essa base cada vez mais
que a dimensão do operador for maior dai iremos falar do polinómio minimal que irá nos ajudar
a dizer se a matriz de um operador é diagonalizável.

Definição. Seja 𝑝(𝑥) = 𝑎𝑛 𝑥 𝑛 + ⋯ + 𝑎1 𝑥 + 𝑎0 um polinómio e A uma matriz quadrada. Então,


𝑝(𝐴) é a matriz

𝑝(𝐴) = 𝑎𝑛 𝐴𝑛 + ⋯ + 𝑎1 𝐴 + 𝑎0 𝐼

Quando 𝑝(𝐴) = 0 dizemos que 𝑝(𝑥) anula a matriz A.

1 4
Exemplo: Sejam 𝑝(𝑥) = 𝑥 2 − 9 e A = [ ]. Calcule 𝑝(𝐴).
2 1

1 4 1 4 1 0 0 0
Solução:𝑝(𝐴) = 𝐴2 − 9𝐼 = [ ]× [ ]–9×[ ]= [ ]
2 1 2 1 0 1 0 0

Seja A uma matriz quadrada. Polinómio minimal de A é um polinomio

M(x)= 𝑥 𝑘 + 𝑎𝑘−1 𝑥 𝑘−1 + ⋯ + 𝑎0 tal que

(𝑖) 𝑚(𝐴) = 0, isto é, m(x) anula a matriz A

(𝑖𝑖) m(x) é o polinomio de menor grau entre aqueles que anulam A

Teorema. Seja T: V→ 𝑉 um operador linear e α uma base qualquer de V de dimensão n. Então, T


𝛼
é diagonalizável se e somente se o polinómio minimal de [T] é da forma :
𝛼

m(x) = ( 𝑥 − 𝜆1 ) × ( 𝑥 − 𝜆2 ) … . ( 𝑥 − 𝜆𝑛 )

com 𝜆1 , 𝜆2 , … . 𝜆𝑛 autovectores distintos.

Achar o polinómio minimal de T seria o resumo para se saber se um operador linear é


diagonalizável. Para obtermos esse polinómio minimal vamos considerar alguns teoremas.
Teorema de Cayley – Hamilton : Seja T: V→ 𝑉 um operador linear, ᵦ uma base de V e 𝑝(𝑥) o

polinómio característico de T. Então, 𝑝 ([𝑇]ᵦ) = 0.

As raizes do polinómio minimal são as mesmas raizes (distintas) do polinómio característico.

Assim podemos dizer que encontrar o polinómio minimal significa encontrar o polinómio

característico de menor grau que anula [𝑇]ᵦ onde ᵦ é uma base qualquer de V.

Sejam 𝜆1 , 𝜆2 , … . 𝜆𝑛 os autovectores distintos de um operador linear de T. Então, T será


diagonalizável se, e somente se, o polinómio

( 𝑥 − 𝜆1 ) × ( 𝑥 − 𝜆2 ) … . ( 𝑥 − 𝜆𝑛 ) anula a matriz de T.

Exemplo. Seja T: 𝑅 4 → 𝑅 4 um operador linear definido por T(x,y,z,t) = (3𝑥 − 4𝑧, 3𝑦 +


5𝑧, −𝑧, −𝑡). T é diagonalizável?

Solucão:

Consideremos a base canónica então a matriz de T será

3 0 −4 0

[𝑇]ᵦ = [0 3 5 0
]
0 0 −1 0
0 0 0 −1

Seu polinómio característico é 𝑝(𝜆) = det ([𝑇]ᵦ − 𝜆𝐼) = (3 − 𝜆)2 × (−1 − 𝜆)2.

Os autovectores sao 𝜆1 = 3 𝑒 𝜆2 = −1,ambos com multiplicidade 2. Então, os candidatos para o


polinómio minimal são:

𝑝1 (𝜆) = (3 − 𝜆)2 × (−1 − 𝜆)2 , 𝑝2 (𝜆) = (3 − 𝜆)2 × ( −1 − 𝜆)

𝑝3 (𝜆) = ( 3 − 𝜆) × (−1 − 𝜆)2 , 𝑝4 (𝜆) = (3 − 𝜆) × (−1 − 𝜆)



Assim, notamos que 𝑝4 ([𝑇]ᵦ) = 0 e é, dentre as possibilidades, o de menor grau. Então,

𝑝4 (𝑥)= (x-3)(x+1)

É o polinómio minimal. Portanto, T é diagonizável, isto é, existe uma base α de autovectores e


nesta base
3 0 0 0
𝛼
[𝑇] = [0 3 0 0
].
𝛼 0 0 −1 0
0 0 0 −1

Anexo

Referências Bibliográficas

ANTON, Howard; RORRES, Chris. Álgebra linear com aplicações. Porto Alegre: Bookman,
2001.

BOLDRINI, J. L. et al. Álgebra linear. 3. ed. São Paulo: Harper-Row, 1980.

Harbra Ltda., São Paulo, 3a. edição, 1986.

Howard Anton e Chris Rorres. Álgebra Linear com Aplicações. Bookman, São Paulo, 8a.
edição, 2000.

José L. Boldrini, Sueli I. R. Costa, Vera L. Figueiredo, e Henry G. Wetzler. .Álgebra Linear. Ed.

LAY, David. Algebra linear e suas aplicações. 2. ed. Rio de Janeiro: LTC, 2007.

Reginaldo J. Santos. Álgebra Linear e Aplicação. Imprensa Universitária da UFMG, Belo


Horizonte, 2006.

Potrebbero piacerti anche