Sei sulla pagina 1di 49

Álgebra Linear II: Notas de Aula

Prof. Christina F. E. Maciel Waga1

2018

1
waga@ime.uerj.br
Introdução

Este segundo curso de Álgebra Linear e ao final do perı́odo o aluno deverá ser capaz de: identi-
ficar produto interno, manipular matrizes e operadores lineares, operar com as formas bilineares e
quadráticas.
Bibliografia sugerida:

1. Anton, H., Rorres, C., Álgebra Linear com aplicações, Bookman.

2. Hoffman, K., Kunze, R., Álgebra Linear, Editora Polı́gono.

3. Kolman, B., Álgebra Linear, LTC

4. Lay, C.D., Álgebra Linear e suas aplicações, LTC.

5. Lima, E.L., Álgebra Linear, SBM.

6. Lipschutz, S., Lipson, M., Álgebra Linear, Coleção Schaum, Bookman.

i
Sumário

Introdução i

1 Produto Interno 1
1.1 Primeiros conceitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Processo de ortogonalização de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Processo para o R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
3
1.2.2 Processo para o R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.3 Generalização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Complemento ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2 Diagonalização de Operadores 11
2.1 Autovalores, Autovetores e Autoespaços . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Polinômio Caracterı́stico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3 Critérios de Diagonalização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.4 Teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.5 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

3 Espaço Vetorial com Produto Interno e Operadores Lineares 23


3.1 Subespaço Invariante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Espaço Dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.3 Operador Adjunto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.4 Operador Auto-Adjunto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.5 Operador Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.6 Operador Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.7 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

4 Formas Lineares, Bilineares e Quadráticas 34


4.1 Formas Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

ii
4.2 Formas Bilineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.3 Formas Bilineares e Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.4 Formas Bilineares Simétricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.5 Formas Bilineares em Espaços Vetorias munidos de Produto Interno . . . . . . . . . 36
4.6 Formas Quadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.7 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

5 Introdução às Formas Canônicas 40


5.1 Matriz por Blocos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.2 Formas Canônicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.2.1 Triangulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.2.2 Decomposição Primária . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
5.2.3 Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.3 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

iii
Capı́tulo 1

Produto Interno

1.1 Primeiros conceitos

Considere V um espaço vetorial n dimensional sobre o corpo dos complexos C. O


produto interno sobre V é uma função binária

h i: V ×V → C
(v, u) 7→ hv, ui

que satisfaz as propriedades:

PI1 Positiva Definida: para todo v ∈ V , hv, vi ≥ 0 e hv, vi = 0 se e somente se v = 0V .


PI2 Simétrica: para quaisquer u, v ∈ V , hu, vi = hv, ui.
PI3 Aditividade: para quaisquer u, v, w ∈ V , hv + u, wi = hv, wi + hu, wi.
PI4 Homogeneidade: para quaisquer u, v ∈ V e para todo k ∈ R, hku, vi = khu, vi.

Observe que, hu, kvi = k̄hu, vi


O produto interno usual no Cn é

h(u1 , . . . , un ), (v1 , . . . , vn )i = u1 v1 + · · · + un vn

Exemplo 1.1 Considere C3 , u = (i, 1 + i, −2) e v = (2 + i, 1 − i, 3 + 2i).

u+v = (i, 1 + i, −2) + (2 + i, 1 − i, 3 + 2i) = (2 + 2i, 2, 1 + 2i)


iu = i(i, 1 + i, −2) = (−1, −1 + i, −2i)
h(i, 1 + i, −2), (2 + i, 1 − i, 3 + 2i)i = i(2 − i) + (1 + i)(1 + i), (−2)(3 − 2i) = −5 + 8i

A partir de agora vamos considerar espaços vetoriais reais. Neste caso, o segundo axioma
pode ser revisto como:

PI2 Simétrica: para quaisquer u, v ∈ V , hu, vi = hv, ui.

1
Exemplos 1.2

1. V : R2 , h(x, y), (z, t)i = 21 xz + 3yt


2. V : R3 , h(x1 , x2 , x3 ), (y1 , y2 , y3 )i = x1 y1 + 2x2 y2 + 5x3 y3
3. Produto interno usual, canônico ou euclidiano no Rn ,
n
X
h(x1 , . . . , xn ), (y1 , . . . , yn )i = xi yi
i=1

Teorema 1.3 Seja V um espaço vetorial munido de um produto interno. Para quais-
quer u, v, w ∈ V e k, ` ∈ R,

1. hu, kvi = khu, vi


Corolário: hku, `vi = k`hu, vi
2. hu, v + wi = hu, vi + hu, wi
3. hu, 0V i = 0
4. Se u 6= 0V e hu, vi = 0 então v = 0V .
5. hu − v, wi = hu, wi − hv, wi
6. Se u 6= 0V e hu, vi = hu, wi então v = w.

Prova:

3. hu, 0V i = hu, 0V i + 0
hu, 0V i = hu, 0V + 0V i = hu, 0V i + hu, 0V i
Assim, hu, 0V i + 0 = hu, 0V i + hu, 0V i ∴ hu, 0V i = 0.
4. (RAA) Considere v 6= 0V e v = u ∴ hu, vi = hv, vi > 0.
Mas,hu, vi = 0. Contradição.
Logo, v = 0V .
6. hu, vi = hu, wi ∴ hu, vi − hu, wi = 0 ∴ hu, v − wi = 0 ∴ v − w = 0V ∴ v = w.

Seja V um espaço vetorial munido de um produto interno. A norma de um vetor é


a função
kk:V →R p
v 7→ kvk = hv, vi.
Assim, kvk2 = hv, vi. Observe que, a norma de vetores depende do produto interno
considerado. Um vetor v ∈ V é denominado vetor unitário quando kvk = 1. Seja
1 v
v 6= 0V , o vetor kvk v = kvk é denominado vetor normalizado e é um vetor unitário,
v
isto é, kvk = 1.

Teorema 1.4 Seja V um espaço vetorial munido de um produto interno. Para quais-
quer u, v, w ∈ V e k ∈ R,

1. Se v 6= 0V então v = 1.

kvk
2. kvk ≥ 0 e kvk = 0 se e somente se v = 0V .

2
3. (Desigualdade de Cauchy-Schwarz) |hu, vi| ≤ kuk kvk
Corolário: hu, vi2 ≤ kuk2 kvk2
4. (Desigualdade Triangular) kv + uk ≤ kvk + kuk
5. kkvk = |k| kvk

Prova:

3. Se u = 0V então hv, ui = hu, ui = 0


Se u 6= 0V então considere a = hu, ui, b = 2hu, vi, c = hv, vi e k ∈ R.
hku + v, ku + vi ≥ 0
hku + v, ku + vi = hu, uik 2 + 2hu, vik + hv, vi = ak 2 + bk + c ≥ 0
Assim, o polinômio não tem raiz real ou tem raiz repetida.
Portanto, ∆ ≤ 0 ∴ b2 − 4ac ≤ 0 ∴ 4hu, vi2 − 4hu, uihv, vi ≤ 0 ∴
hu, vi2 ≤ hu, uihv, vi ∴ hu, vi2 ≤ kuk2 kvk2 ∴ |hv, ui| ≤ kukkvk

Ou:
hv,ui
Sejam u, v ∈ V , z = proj[u] v = hu,ui u e v = z + w com w⊥z.
kvk2 = kzk2 + kwk2 ∴ kzk ≤ kvk
hv,ui |hv,ui| |hv,ui|
kzk = k hu,ui uk = kuk2
kuk = kuk ≤ kvk
|hv, ui| ≤ kukkvk

4. kv + uk2 = hv + u, v + ui = hv, vi + 2hv, ui + hu, ui = kvk2 + 2hv, ui + kuk2


kvk2 + 2hv, ui + kuk2 ≤ kvk2 + 2kvkkuk + kuk2 = (kvk + kuk)2
Assim, kv + uk2 ≤ (kvk + kuk)2 ∴ kv + uk ≤ kvk + kuk.

Define-se a função distância entre vetores como sendo


d:V ×V →R
(u, v) 7→ d(u, v) = ku − vk.
p
Desta forma, d(u, v) = hu − v, u − vi e d(u, v)2 = hu − v, u − vi.

Teorema 1.5 Seja V um espaço vetorial munido de um produto interno. Para quais-
quer u, v, w ∈ V e k ∈ R,
1. d(u, v) ≥ 0 e d(u, v) = 0 se e somente se u = v.
2. d(u, v) = d(v, u)
3. d(u, v) ≤ d(u, w) + d(w, v)

hu,vi
O ângulo θ entre dois vetores u, v ∈ V é tal que cos θ = kukkvk com 0 ≤ θ ≤ π.

Dois vetores u, v ∈ V são vetores ortogonais, v⊥u, quando por hu, vi = 0. O conjunto
de vetores A = {v1 , . . . , vr } ⊆ V é dito conjunto ortogonal quando hvi , vj i = 0,
para todo i, j = 1, . . . , r, i 6= j. Se em um conjunto ortogonal todos os vetores são
unitários o conjunto é denomindado conjunto ortonormal. Desta forma, se uma base
do espaço vetorial for um conjunto ortogonal, será denominada base ortogonal. Uma
base ortogonal formada por vetores unitários é chamada base ortonormal.

3
Exemplo 1.6 O conjunto {(1, 2, 0), (2, −1, 3), (−6, 3, 5)} é uma base ortogonal e o con-
junto {( √15 , √25 , 0), ( √214 , − √114 , √314 ), (− 6√
6 3
, √ 5
, √
2 6 2 6 2
)} uma base ortonormal do R3 .

Teorema 1.7 Seja V um espaço vetorial munido de um produto interno. Para quais-
quer u, v, w ∈ V e k ∈ R,

1. 0V ⊥v.
2. Se u⊥v então v⊥u.
3. Se u⊥w e v⊥w então u + v⊥w.
4. Se u⊥v então ku⊥v.
5. (Generalização do Teorema de Pitágoras) Se {v1 , . . . , vr } é um conjunto ortogonal
de vetores então
kv1 + · · · + vr k2 = kv1 k2 + · · · + kvr k2 .

6. Se {v1 , . . . , vr } ⊂ V é um conjunto ortogonal de vetores não nulos então {v1 , . . . , vr }


é linearmente independente.
7. Seja S ≤ V , {v1 , . . . , vr } uma base de S e v ∈ V tal que para todo i = 1, . . . , r,
v⊥vi então para todo s ∈ S, v⊥s.
hv,v1 i hv,vn i
8. Seja {v1 , . . . , vn } uma base ortogonal de V então v = hv1 ,v1 i v1 + ··· + hvn ,vn i vn .
Corolário: Se {v1 , . . . , vn } é uma base ortonormal de V então

v = hv, v1 iv1 + · · · + hv, vn ivn .

Prova:

3. u⊥w ∴ hu, wi = 0 e v⊥w ∴ hv, wi = 0


hu + v, wi = hu, wi + hv, wi = 0 + 0 = 0 ∴ u + v⊥w.
6. Seja ri=1 ki vi = 0V .
P

Considere 1 ≤ i ≤ r, h ri=1 ki vi , vi i = h0V , vi i ∴


P

k1 hv1 , vi i + · · · + ki hvi , vi i + · · · + kr hvr , vi i = 0 ∴


Mas, hvj , vi i = 0 quando i 6= j.
Então, ki hvi , vi i = 0 ∴ ki kvi k2 = 0 ∴ ki = 0.
Logo, e o conjunto é L.I.
8. Seja ni=1 ki vi = v e 1 ≤ i ≤ n.
P

hv, vi i = h ni=1 ki vi , vi i = k1 hv1 , vi i + · · · + ki hvi , vi i + · · · + kn hvn , vi i = ki hvi , vi i


P
hv,vi i
Assim, ki = hvi ,vi i .

1.2 Processo de ortogonalização de Gram-Schmidt

O processo de ortogonalização de Gram-Schmidt resolve o problema de a partir


de uma base qualquer de um espaço vetorial munido de um produto interno, se obter
uma base ortogonal. E, posteriormente, se obter uma base ortonormal. O processo será
apresentado para os espaços vetoriais R2 e R3 para o produto interno usual e depois
generalizado.

4
1.2.1 Processo para o R2

Considere {v1 , v2 } uma base do R2 .


Sejam u1 = v1 e u2 = v2 − ku1 tal que hu1 , u2 i = 0.

v2
 
u1 = v1

u2 ku1

Figura 1.1: Interpretação geométrica no R2

O escalar k é tal que

hu1 , u2 i = 0
hu1 , v2 − ku1 i = 0
hu1 , v2 i − khu1 , u1 i = 0
hu1 ,v2 i
k = hu 1 ,u1 i

hu1 ,v2 i
Assim, u2 = v2 − hu1 ,u1 i u1 .
O vetor ku1 é a projeção ortogonal do vetor v2 no subespaço gerado pelo vetor u1 .

hu1 , v2 i
proj[u1 ] v2 = ku1 = u1
hu1 , u1 i
n o
u1 u2
Logo, {u1 , u2 } é uma base ortogonal e ku1 k , ku2 k é uma base ortonormal do R2 .

Exemplo 1.8 Ortogonalizando a base {(1, 2), (3, 5)} pelo processo de de Gram-Schmidt.
u1 = v1 = (1, 2)
hu1 ,v2 i h(1,2),(3,5)i 13
u2 = v2 − hu1 ,u1 i u1 = (3, 5) − h(1,2),(1,2)i (1, 2) = (3, 5) − 5 (1, 2) = ( 25 , − 51 )
O vetor ( 13 26
5 , 5 ) é a projeção ortogonal do vetor (3, 5) no subespaço [(1, 2)].
n o n o
O conjunto (1, 2), ( 52 , − 51 ) é uma base ortogonal e ( √15 , √25 ), ( √25 , − √15 ) uma base
ortonormal do R2 .

5
1.2.2 Processo para o R3

Considere {v1 , v2 , v3 } uma base do R32 .


hu1 ,v2 i
Sejam u1 = v1 e u2 = v2 − hu1 ,u1 i u1 .
O vetor u3 é obtido em função dos vetores u1 , u2 e v3 de tal forma forma que seja
ortogonal tanto a u1 quanto ao u2 .
Assim, u3 = v3 − k2 u2 − k1 u1 com hu1 , u3 i = 0 e hu2 , u3 i = 0.

u3
 

v3

u2
k2 u2

k1 u1
k1 u1 + k2 u2
u1

Figura 1.2: Interpretação geométrica no R3

O escalar k1 é tal que

hu1 , u3 i = 0
hu1 , v3 − k2 u2 − k1 u1 i = 0
hu1 , v3 i − k2 hu1 , u2 i − k1 hu1 , u1 i = 0
hu1 ,v3 i
Mas, u1 ⊥u2 ∴ hu1 , u2 i = 0 ∴ hu1 , v3 i − k1 hu1 , u1 i = 0 ∴ k1 = hu1 ,u1 i

O escalar k2 é tal que

hu2 , u3 i = 0
hu2 , v3 − k2 u2 − k1 u1 i = 0
hu2 , v3 i − k2 hu2 , u2 i − k1 hu2 , u1 i = 0
hu2 ,v3 i
Mas, u1 ⊥u2 ∴ hu2 , u1 i = 0 ∴ hu2 , v3 i − k2 hu2 , u2 i = 0 ∴ k2 = hu2 ,u2 i

hu2 ,v3 i hu1 ,v3 i


Desta forma, u3 = v3 − hu2 ,u2 i u2 − hu1 ,u1 i u1 .
O vetor k1 u1 +k2 u2 é a projeção ortogonal do vetor v3 no subespaço gerado pelos vetores
u1 e u2 .
hu1 , v3 i hu2 , v3 i
proj[u1 ,u2 ] v3 = k1 u1 + k2 u2 = u1 + u2
hu1 , u1 i hu2 , u2 i
n o
Logo, {u1 , u2 , u3 } é uma base ortogonal e kuu11 k , kuu22 k , kuu33 k é uma base ortonormal do
R3 .

6
1.2.3 Generalização

Considere {v1 , . . . , vn } uma base de V e os vetores:

u1 = v1
hu1 ,v2 i
u2 = v2 − hu1 ,u1 i
u1
........................
Pn−1 hui ,vn i
un = vn − i=1 hui ,ui i ui
n o
u1 un
Então, {u1 , . . . , un } é uma base ortogonal e ku1 k , . . . , kun k uma base ortonormal de
V.
Para j = 2, . . . , n, a projeção ortogonal do vetor vj no subespaço gerado pelos
vetores u1 , . . . , uj−1 é o vetor
j−1
X hui , vj i
proj[u1 ,...,uj−1 ] vj = ui
hui , ui i
i=1

1.3 Complemento ortogonal

Seja S um subespaço vetorial de V . O complemento ortogonal de S é o conjunto


S ⊥ = {v ∈ V, hv, si = 0, para todo s ∈ S}.

Exemplos 1.9

1. S = {(x, y, z) ∈ R3 , x = 0}.
Encontrar um vetor ortogonal ao subespaço S significa encontrar um vetor orto-
gonal aos vetores de uma base de S.
Seja {(0, 1, 0), (0, 0, 1)} uma base de S.
Assim, S ⊥ = {(x, y, z) ∈ R3 , (x, y, z)⊥(0, 1, 0) e (x, y, z)⊥(0, 0, 1)}.
h(x, y, z), (0, 1, 0)i = 0 e h(x, y, z), (0, 0, 1)i = 0 ∴ y = 0 e z = 0
Então, S ⊥ = {(x, y, z) ∈ R3 , y = 0 e z = 0}.

2. S = {(3y − z, y, z), y, z ∈ R}.


Seja {(3, 1, 0), (−1, 0, 1)} uma base de S.
S ⊥ = {(x, y, z) ∈ R3 , h(x, y, z), (3, 1, 0)i = 0 e h(x, y, z), (−1, 0, 1)i = 0}.

3x + y = 0
Assim,
−x + z = 0
Então, S ⊥ = {(z, −3z, z), z ∈ R}.

Teorema 1.10 Seja V um espaço vetorial munido de um produto interno. Para quais-
quer u, v, w ∈ V e k ∈ R,

1. S ⊥ 6= ∅
2. S ⊥ ≤ V
3. S ∩ S ⊥ = {0V }

7
4. Sejam S, R ≤ V . Então (S ⊥ )⊥ = S, (S + R)⊥ = S ⊥ ∩ R⊥ e (S ∩ R)⊥ = S ⊥ + R⊥ .
5. V = S ⊕ S ⊥
Corolário: (Teorema da Dimensão) dimS + dimS ⊥ = dimV

Prova:

2. S ⊥ ⊆ V , por definição.
0V ∈ S ⊥ , pois 0V ⊥v para todo v ∈ V .
(fech.+) Sejam v, u ∈ S ⊥ e s ∈ S então hv + u, si = hv, si + hu, si = 0 + 0 = 0.
(fech.·) Sejam v ∈ S ⊥ , k ∈ R e s ∈ S então hkv, si = khv, si = k 0 = 0.
5. (exist.)
Considere uma base ortonomal {v1 , . . . , vr } de S e v ∈ V .
Seja v1 = proj[v1 ] v + · · · + proj[vr ] v ∈ S.
v2 = v − v1 ⊥vi , para todo i = 1, . . . , r. Então v2 ⊥s, para todo s ∈ S, v2 ∈ S ⊥ e
v = v1 + v2 com v1 ∈ S e v2 ∈ S ⊥ .
(unic.)
(RAA) Supor que existam outros v10 6= v1 ∈ S e v20 6= v2 ∈ S ⊥ tais que v = v10 + v20 .
v1 = proj[v1 ] v + · · · + proj[vr ] v = proj[v1 ] (v10 + v20 ) + · · · + proj[vr ] (v10 + v20 ) =
= proj[v1 ] v10 + · · · + proj[vr ] v10 = v10
v20 = v − v10 = v − v1 = v2 .

1.4 Exercı́cios
1. Verifique se as funções abaixo definem produtos internos no R2 .
(a) h(x, y), (z, t)i = 2xz + 3yt
(b) h(x, y), (z, t)i = xz − yt
(c) h(x, y), (z, t)i = 4xz
(d) h(x, y), (z, t)i = xz + yt + 1
(e) h(x, y), (z, t)i = 2x2 z + y 2 t
(f) h(x, y), (z, t)i = x2 z 2 + y 2 t2
(g) h(x, y), (z, t)i = xz − 2xt − 2yz + 5yt
(h) h(x, y), (z, t)i = k1 `1 + k2 `2 onde A = {v1 , v2 } é uma base do R2 e (x, y) =
k1 v1 + k2 v2 e (z, t) = `1 v1 + `2 v2 .
2. Considere o espaço vetorial das matrizes quadradas M atn (R) com as operações
usuais. Mostre que a função hA, Bi = tr(A B T ) é um produto interno.
Solução:
PI1 Positiva Definida: Pn
hA, AiP= tr(AAt ) = P tr(AB) = trC = i=1 cii
cii = Pnk=1 aik bki P
= nk=1 n 2
P
a a
ik ik = k=1 aik ≥ 0
n n Pn 2
Logo, i=1 cii = i=1 k=1 aik ≥ 0.
Pn Pn 2
E, i=1 k=1 aik = 0 sse aik = 0, i, k = 1, . . . , n.

8
PI2 Simétrica:
hA, BiP= tr(AB t ) = P tr(AC) = trD = ni=1 dii
P
dii = nk=1 aik cki = nk=1 aik bik
hB, AiP= tr(BAt ) = P tr(BE) = trF = ni=1 fii
P
fii = nk=1 bik eki = nk=1 bik aik
Logo, hA, Bi = hB, Ai.
PI3 Aditividade: Pn
hA + B, t ) = tr(DE) = trF =
PnCi = tr((A + PB)C
n P n
i=1 fii
fii = k=1 dik eki = k=1 (aik + bik )cik = k=1 aik cik + bik cik
hA, Ci + hB, PCi = tr(AC t ) + tr(BC t ) = tr(AD) + tr(BD) = trG + trH =
P n n
gii + i=1 hii P
i=1 P
gii = Pnk=1 aik dki = Pnk=1 aik cik
hii = nk=1 bik dki = nk=1 bik cik
PI4 Homogeneidade: Pn
h`A, Bi = tr((`A)B t ) = tr(CD) = trE =
Pn Pn Pn i=1 eii
eii = k=1 cik dki = k=1 (`aik )bik = k=1P `aik bik
n Pn
`hA, Bi P = `tr(AB t ) = `tr(AC) = `trF = ` i=1 fii = i=1 `fii
`fii = ` nk=1 aik cki = ` nk=1 aik bik = nk=1 `aik bik
P P

3. Calcule a norma do vetor (1, −5, 2) considerando:


(a) o produto interno usual no R3 .
(b) h(x, y, z), (w, r, t)i = 12 xw + yr + 3zt.

4. Considere o R3 . Indique o valor de k ∈ R para que k(6, k, 1)k = 41.

v
5. Mostre que para todo v ∈ V , kvk = 1.
6. Sejam u, v ∈ V tais que kuk = 3, kvk = 5. Indique o valor de k ∈ R para que
hu + kv, u − kvi = 0.
7. Considere o produto interno usual no R2 , u = (1, 2) e v = (3, 5).
(a) Interprete geometricamente u + v, u − v e v − u.
(b) Calcule d(v, u) e o ângulo entre eles.

8. Considere o produto interno usual no R2 , kuk = 3, kvk = 4 e ku + vk = 2 5.
Indique o ângulo entre v e u.
9. Verifique se os vetores (2, −3) e (3, 2) são ortogonais em relação aos produtos
internos:
(a) usual.
(b) h(x, y), (z, t)i = 4xz + 3yt.
10. Se u⊥v então ku + vk2 = kuk2 + kvk2 ?
11. Verifique se as bases são ortogonais:
(a) {(1, 2), (3, 5)}
n     o
2 2 1 2 1 2 1 2 2
(b) 3 , − ,
3 3 , ,
3 3 , − 3 , , ,
3 3 3

12. Encontre um vetor unitário que seja ortogonal aos vetores (1, −1, 0) e (2, −1, 1).

13. Se u⊥v unitários então ku − vk = 2?
14. A partir da base {(1, 2), (3, 5)} indique duas bases ortonormais distintas.
15. Normalize o conjunto {(2, −1, 3), (−6, 3, 5)}.
16. Ortonormalize as bases:

9
(a) {(1, 1, 2), (1, 2, 0), (0, −1, 1)}
(b) {(1, 1, 1), (−1, 1, 0), (1, 2, 1)}
(c) {(1, 0, 0), (3, 7, −2), (0, 4, 1)}
17. Seja o subespaço S gerado pela base ortogonal {(0, 1, 0), (−4, 0, 3)}. Encontre a
projeção do vetor (1, 1, 1) em S.
18. O conjunto {(1, 0, 2), (0, 1, 1)} é uma base do subespaço S.
(a) Ortogonalize-a obtendo uma base B.
(b) Encontre a projeção do vetor (1, 1, −1) no subespaço gerado por B.
19. Indique S ⊥ sendo:
(a) S = {(3y − z, y, z), y, z ∈ R}.
(b) S = [(1, 2, −3), (2, −4, 2)].
20. Considere o produto interno h(x, y, z), (w, r, t)i = xw + 2yr + 3zt do R3 . Ortogo-
nalize a base {(1, 1, 1), (1, 1, 0), (1, 0, 0)}
21. Considere o produto interno h(x, y, z), (w, r, t)i = 2xw + 3yr + 4zt do R3 e o su-
bespaço S = {(z, y, z), y, z ∈ R}. Indique S ⊥ , uma base e sua dimensão.

10
Capı́tulo 2

Diagonalização de Operadores

2.1 Autovalores, Autovetores e Autoespaços

Considere V um R-espaço vetorial n dimensional e T : V → V um operador linear. Um vetor


v ∈ V , v 6= 0V , é um autovetor, vetor próprio ou vetor caracterı́stico do operador T , se
existir um escalar λ ∈ R tal que T (v) = λv. O escalar λ é denominado autovalor, valor próprio
ou valor caracterı́stico do operador linear T associado ao autovetor v.

Exemplos 2.1

1. T : R2 → R2 tal que T (x, y) = (3x, 8x − y)


(1, 2) é autovetor de T associado ao autovalor 3, pois T (1, 2) = (3, 6) = 3(1, 2).
(0, 1) é autovetor de T associado ao autovalor −1, pois T (0, 1) = (0, −1) = (−1)(0, 1).

2. T : R3 → R3 tal que T (x, y, z) = (x + y + z, 2y + z, 2y + 3z)


(1, 1, 2) é autovetor de T associado ao autovalor 4, pois T (1, 1, 2) = (4, 4, 8) = 4(1, 1, 2).
(1, −1, 1) é autovetor de T associado ao autovalor 1, pois T (1, −1, 1) = (1, −1, 1).

Teorema 2.2 Seja v um autovetor do operador linear T associado ao autovalor λ. Os múltiplos


escalares de v também são autovetores de T associados a λ.

Prova: T (kv) = kT (v) = k(λv) = (kλ)v = (λk)v = λ(kv) 2

Exemplo 2.3 Seja o operador linear T (x, y) = (3x, 8x − y).


(2, 4) = 2(1, 2) ∴ T (2, 4) = T (2(1, 2)) = 2T (1, 2) = 2 · 3 · (1, 2) = 3 · 2 · (1, 2) = 3(2, 4)

Seja λ um autovalor do operador linear T . O conjunto

Vλ = {v ∈ V ; T (v) = λv}

de todos os autovetores associados a λ juntamente com o vetor nulo 0V é denominado autoespaço


correspondente ao autovalor λ.

11
Exemplo 2.4 Considere o operador linear T (x, y) = (3x, 8x − y).
V3 = {(x, y) ∈ R2 ; T (x, y) = 3(x, y)} = {(x, 2x), x ∈ R} é o autoespaço correspondente ao
autovalor 3.

Teorema 2.5 Todo autoespaço é um subespaço vetorial.

Prova: 0V ∈ Vλ , por definição.


(Fech. +) Sejam v, u ∈ Vλ . T (v + u) = T (v) + T (u) = λv + λu = λ(v + u).
(Fech. ·) Vide Teorema 2.2. 2

2.2 Polinômio Caracterı́stico

Seja o operador linear T : V → V .


Por definição, T (v) = λv com v ∈ V , v 6= 0V e λ ∈ R.
Considere o operador identidade IV : V → V tal que IV (v) = v.
Assim, T (v) = λIV (v).
Então, T (v) − λIV (v) = 0V .
Pela multiplicação por escalar em transformações lineares, T (v) − (λIV )(v) = 0V .
Pela adição de transformações, (T − λIV )(v) = 0V .
Então, o vetor v ∈ V , v 6= 0V deve pertencer ao núcleo do operador (T − λIV ), isto é,
v ∈ Ker(T − λIV ) com v 6= 0V .
Portanto, o operador linear (T − λIV ) não é injetivo, consequentemente, não é bijetivo, nem
invertı́vel. O fato do operador linear não ser invertı́vel é equivalente ao do determinante de sua
matriz associada, dada uma certa base, ser igual a zero.
A equação det([T ]A − λIn ) = 0, onde In é a matriz identidade de ordem n, é denominada
equação caracterı́stica do operador linear T .
O polinômio det([T ]A − λIn ) com coeficientes reais na variável λ é denominado polinômio
caracterı́stico do operador linear T . Este polinômio é denotado por PT (λ), tem grau n e suas
raı́zes reais são os autovalores de T . Os autovalores formam o espectro do operador linear T .

Exemplo 2.6 Considere o operador linear T (x, y) = (3x, 8x − y) e a base canônica do R2 .


     
3 0 λ 0 3−λ 0
Assim, [T ] − λI2 = − = .
8 −1 0 λ 8 −1 − λ
 
3−λ 0
Então, PT (λ) = det = (3 − λ)(−1 − λ).
8 −1 − λ
E, PT (λ) = 0 ∴ (3 − λ)(−1 − λ) = 0 ∴ λ1 = 3 e λ2 = −1.
Logo, 3 e −1 são os autovalores do operador linear T .

Tendo encontrado os autovalores λi , 1 ≤ i ≤ n, os autovetores são os vetores v ∈ V , v 6= 0V tais


que (T − λIV )(v) = 0V .

12
Considere A uma base qualquer do espaço vetorial V , 0n×1 a matriz coluna nula, In a matriz
identidade de ordem n e a equação matricial ([T ]A − λIn ) [v]A = 0n×1 .
Substituindo-se um autovalor λi na equação matricial, obtém-se um sistema de equações lineares.
Resolvendo-se o sistema, os autovetores associados ao autovalor λi são obtidos e,
consequentemente, o autoespaço Vλi .

Exemplo 2.7 Considere o operador linear T (x, y) = (3x, 8x − y), a base canônica do R2 e os
autovalores λ1 = 3 e λ2 = −1.
Para λ1 = 3: ([T ] − 3I2 ) [(x, y)] = 02×1
                
3 0 1 0 x 3 0 3 0 x 0 0 x 0
−3 = − = =
8 −1 0 1 y 8 −1 0 3 y 8 −4 y 0

0x + 0y = 0
∴ y = 2x
8x − 4y = 0
V3 = {(x, 2x), x ∈ R}.

Para λ2 = −1: ([T ] + I2 ) [(x, y)] = 02×1


          
3 0 1 0 x 4 0 x 0
+ = =
8 −1 0 1 y 8 0 y 0

4x = 0
∴x=0
8x = 0
V−1 = {(0, y), y ∈ R}.

Considere o polinômio caracterı́stico PT (λ) e λ0 ∈ R um autovalor do operador linear T .


Assim, PT (λ) = (λ − λ0 )ei f (λ). O expoente ei é denominado multiplicidade algébrica do
autovalor λ0 e é denotado por ma (λ0 ).
A dimensão do autoespaço Vλ0 é a multiplicidade geométrica do autovalor λ0 e é denotado por
mg (λ0 ).

Exemplo 2.8 Considere o operador T no R3 tal que

T (x, y, z) = (4x + 2y + 2z, 2x + 4y + 2z, 2x + 2y + 4z)

e a base canônica.
   
4 2 2 4−λ 2 2
[T ] =  2 4 2  e [T ] − λI3 =  2 4−λ 2 
2 2 4 2 2 4−λ
PT (λ) = det([T ] − λI3 ) = λ3 − 12λ2 + 36λ − 32 = (λ − 2)2 (λ − 8) = 0
λ1 = 2 ∴ ma (2) = 2
V2 = {(−y − z, y, z), y, z ∈ R} ∴ mg (2) = 2
λ2 = 8 ∴ ma (8) = 1
V8 = {(z, z, z), z ∈ R} ∴ mg (8) = 1

13
2.3 Critérios de Diagonalização

Considere V um espaço vetorial n dimensional e T : V → V um operador linear.


Existem representações matriciais de T relativas às bases do espaço vetorial V . Dentre estas
representações, a considerada mais simples é uma matriz diagonal.
A cada base corresponde uma única matriz, a questão se resume em obter uma certa base A do
espaço vetorial V , cuja representação matricial do operador linear T , isto é, [T ]A seja uma matriz
diagonal. Assim, diz-se que a base A diagonaliza o operador linear T ou que o operador T é
diagonalizável. Uma base que diagonaliza T é uma base de autovetores.

Teorema 2.9 Sejam os autovetores v e v 0 do operador T associados respectivamente, aos autova-


lores distintos λ e λ0 . Então v e v 0 são linearmente independentes.

Prova:

kv + k 0 v 0 = 0V ∴ (1)
T (kv + k 0 v 0 ) = T (0V ) ∴ kT (v) + k 0 T (v 0 ) = 0V ∴ k(λv) + k 0 (λ0 v 0 ) = 0V ∴ (kλ)v + (k 0 λ0 )v 0 = 0V ∴
(λk)v + (λ0 k 0 )v 0 = 0V (2)
Multiplicando a equação (1) por λ, temos:
λ(kv + k 0 v 0 ) = λ 0V ∴ λ(kv) + λ(k 0 v 0 ) = 0V ∴ (λk)v + (λk 0 )v 0 = 0V (3)
Subtraindo (3) de (2), temos:
(λ0 k 0 )v 0 − (λk 0 )v 0 = 0V ∴ (λ0 − λ)k 0 v 0 = 0V
v 6= 0V e λ 6= λ0 ∴ k 0 = 0.
Analogamnte, k = 0.
Logo, os vetores são linearmente independentes. 2

Teorema 2.10 Se existem λ1 , . . . , λn autovalores distintos então o operador T é diagonalizável.

Prova:
Considere uma base de autovetores A = {v1 , . . . , vn } ⊂ V tal que vi ∈ Vλi , i = 1, . . . , n.
T (vi ) = λi vi = 0v1 + · · · + λi vi + · · · + 0vn
 
0  
 ...  λ1 0 ... 0
   0 λ2 ... 0 
Assim, [vi ]A =   λi  e [T ]A =  . . . . . .
  .
 ...  ... ... 
0 0 ... λn
0
Logo, o operador T é diagonalizável. 2

Exemplo 2.11 Considere o operador T no R3 tal que

T (x, y, z) = (4x + z, −2x + y, −2x + z)

e a base canônica.

14
 
4−λ 0 1
PT (λ) = det([T ] − λI3 ) =  −2 1 − λ 0  = (λ − 1)(λ − 2)(λ − 3)
−2 0 1−λ
λ1 = 1 : V1 = {(0, y, 0), y ∈ R} = [(0, 1, 0)]
λ2 = 2 : V2 = {(− z2 , z, z), z ∈ R} = [(−1, 2, 2)]
λ3 = 3 : V3 = {(−z, z, z), z ∈ R} = [(−1, 1, 1)]
O conjunto A = {(0, 1, 0), (−1, 2, 2), (−1, 1, 1)} é uma base de autovetores do R3 .
 
1 0 0
Desta forma, [T ]A =  0 2 0 .
0 0 3

Teorema 2.12 Se existem r < n autovalores distintos λ1 , . . . , λr tais que ma (λi ) = mg (λi ), i =
1, . . . , r, então o operador T é diagonalizável.

Prova:
Como as multiplicidades de λi , i = 1, . . . , r, são iguais,
dimVλ1 + · · · + Vλr = dimV = n
Considere Ai uma base do auto espaço Vλi , 1 ≤ i ≤ r.
Assim, A = A1 ∪ · · · ∪ Ar é uma base de autovetores de V .
 
k1 0 ... 0
 0 k 2 ... 0 
Então, [T ]A = 
 ... ...
 onde kj , j = 1, . . . , n, é um dos autovetores λi , respeitada
... ... 
0 0 . . . kn
sua multiplicidade algébrica. 2

T é diagonalizável com r ≤ n autovalores distintos λ1 , . . . , λr então


Corolário 2.13 Se o operador P
V = Vλ1 ⊕ · · · ⊕ Vλr e dimV = ri=1 dimVλi .

Exemplos 2.14 Considere o operador T no R3 e a base canônica.

1. T (x, y, z) = (x + y + z, x + y + z, x + y + z)
 
1−λ 1 1
PT (λ) = det([T ] − λI3 ) =  1 1−λ 1  = λ2 (λ − 3)
1 1 1−λ
λ1 = 0 : V0 = {(−y − z, y, z), y, z ∈ R} = [(−1, 1, 0), (−1, 0, 1)]
λ2 = 3 : V3 = {(z, z, z), z ∈ R} = [(1, 1, 1)]
O conjunto A = {(−1, 1, 0), (−1, 0, 1), (1, 1, 1)} é uma base de autovetores do R3 .
 
0 0 0
Desta forma, [T ]A =  0 0 0 .
0 0 3

2. T (x, y, z) = (3x, 2y, y + 2z)

15
 
3−λ 0 0
PT (λ) = det([T ] − λI3 ) =  0 2−λ 0  = (λ − 2)2 (λ − 3)
0 1 2−λ
λ1 = 2 : V2 = {(0, 0, z), z ∈ R} = [(0, 0, 1)]
λ2 = 3 : V3 = {(x, 0, 0), x ∈ R} = [(1, 0, 0)]
Não é possı́vel obter uma base de autovetores para o R3 , já que ma (2) = 2 6= 1 = mg (2).

Exercı́cios 2.15

1. Verificar se são autovetores.


 
2 2
(a) (−2, 1) para [T ] =
1 3
 
1 −1 0
(b) (−2, 1, 3) para [T ] =  2 3 2 
1 2 1

2. Os vetores (1, 1) e (2, −1) são autovetores de T associados aos autovalores 5 e −1, respecti-
vamente. Determinar T (4, 1).

3. Determinar o operador linear T cujos autoespaços são V1 = {(−y, y), y ∈ R} e V3 = {(0, y), y ∈
R}.

4. Determinar os autovalores e os autovetores dos seguintes operadores lineares.

(a) T (x, y) = (x + 2y, −x + 4y)


(b) T (x, y) = (y, −x)

5. Dado o operador linear T tal que T (x, y) = (−3x−5y, 2y), encontrar uma base de autovetores.

6. Verificar se os operadores são diagonalizáveis.

(a) T (x, y, z) = (x + y + z, 2y + z, 2y + 3z)


(b) T (x, y, z) = (x, −2x − y, 2x + y + 2z)
(c) T (x, y, z) = (x, −2x + 3y − z, −4y + 3z)

7. Seja T tal que T (x, y) = (4x + 5y, 2x + y). Encontrar uma base que diagonalize o operador.

8. O operador linear T tal que T (x, y, z, t) = (x + y + z + t, x + y + z, y + z + t, x + y) é


diagonalizável?

9. Sejam v1 , . . . , vr autovetores do operador T associados, respectivamente, aos autovalores


λ1 , . . . , λr todos distintos. Então v1 , . . . , vr são linearmente independentes.

2.4 Teorema de Cayley-Hamilton

Duas matrizes A e B ∈ M atn (R) são semelhantes quando existe uma matriz invertı́vel P ∈ M atn (R)
tal que B = P −1 AP .

Teorema 2.16 Semelhança de matrizes é uma relação de equivalência.

16
Prova: Para quaisquer matrizes A, B, C ∈ M atn (R)
(refl.) A = In AIn ∴ A é semelhante à A.
(sim.) A é semelhante à B ∴ B = P −1 AP ∴ P BP −1 = A ∴ B é semelhante à A.
(trans.) A é semelhante à B e B é semelhante à C ∴ B = P −1 AP e C = Q−1 BQ ∴
C = Q−1 (P −1 AP )Q = (Q−1 P −1 )A(P Q) = (P Q)−1 A(P Q) ∴ A é semelhante à C 2

Teorema 2.17 Se as matrizes A e B ∈ M atn (R) são semelhantes então

1. kA e kB são semelhantes.
2. At e B t são semelhantes.
3. trA = trB e detA = detB
4. PA (λ) = PB (λ)

Prova: Por hipótese, B = P −1 AP

1. kB = k(P −1 AP ) ∴ kB = P −1 (kA)P
2. B t = (P −1 AP )t = P t At (P −1 )t = P t At (P t )−1
3. trB = tr(P −1 AP ) = tr(AP −1 P ) = tr(AIn ) = trA
detB = det(P −1 AP ) = det(P −1 )det(A)det(P ) = det(A)det(P −1 )det(P ) = detA
4. PA (λ) = det(A − λIn ) = det((A − λIn )In ) = det((A − λIn )P −1 P ) =
= det(P −1 (A − λIn )P ) = det(P −1 AP − P −1 (λIn )P ) = det(B − λIn ) =
= PB (λ) 2
   
1 2 7 −4
Exemplo 2.18 As matrizes A = eB= são semelhantes.
3 4 3 −2
       
7 −4 1 2 1 2 1 −2
Observe que, = · · ,
3 −2 0 1 3 4 0 1
   
1 2 7 −4
tr = tr = 5,
3 4 3 −2
   
1 2 7 −4
det = det = −2 e
3 4 3 −2
PA (λ) = PB (λ) = λ2 − 5λ − 2.

Considere V um espaço vetorial n-dimensional, um operador linear T : V → V e as bases α e β


de V . As representações matriciais do operador são matrizes semelhantes pois [T ]α = [I]βα [T ]β [I]αβ .

Exemplo 2.19 Considere o operador T (x, y) = (3x, 8x−y), α a base canônica e β = {(1, 2), (3, 5)}.

[T ]α = [I]βα [T ]β [I]αβ
       
3 0 1 3 3 12 −5 3
=
8 −1 2 5 0 −1 2 −1

17
Uma matriz A ∈ M atn (R) pode ser diagonalizada quando existe uma matriz invertı́vel P ∈
M atn (R) tal que P −1 AP é uma matriz diagonal. A matriz P que diagonaliza A é uma matriz de
autovetores do operador relativo à matriz.

Exemplos 2.20
 
3 0
1. A matriz é diagonalizável já que
8 −1
       
1 0 3 0 1 0 3 0
· · =
−2 1 8 −1 2 1 0 −1

sendo que, V3 = {(x, 2x), x ∈ R} = [(1, 2)] e V−1 = {(0, y), y ∈ R} = [(0, 1)].
 
3 0 −5
2. A matriz  15 −1 0  é diagonalizável pois
1 1 −2
√ √ √
−4+ √2 −2+4√2 −2+4√2 √ √  
 
  
20−5
√ 2 −4+8
√ 2 −4+8 2 3 0 −5 5 15 + 5 √2 15 − 5 √2 0 √0 0
2+ 2√ 1− √2 −70√  1
 

5
−1 0  1 −1 + 2 2 −1 − 2 2  =  0 2 0 

 −20+40√ 2 −4+8√2 −4+8
√ 2 
−5+3
√ 2 −2−3
√ 2 4−√ 2 1 1 −2 3 7 7 0 0 − 2
70 2 28 2 28 2

sendo que, V0 = [(5, 1, 3)],


 √ √ 
V√2 = (15 + 5 2, −1 + 2 2, 7) e
 √ √ 
V−√2 = (15 − 5 2, −1 − 2 2, 7) .

Teorema 2.21 Seja A uma matriz diagonalizável e m ∈ Z+ . Então Am = P Dm P −1 .

Prova: D = P −1 AP ∴ Dm = (P −1 AP )m = P −1 Am P . 2

 10   10  
3 0 1 0 3 0 1 0
Exemplo 2.22 =
8 −1 2 1 0 −1 −2 1
   10  
1 0 3 0 1 0
=
2 1 0 (−1)10 −2 1
 
59049 0
=
118100 −1

Considere p(x) = am xm + · · · + a1 x + a0 um polinômio com coeficientes em R, a matriz A ∈


M atn (R) e a matriz p(A) = am Am + · · · + a1 A + a0 In . Diz-se que o polinômio p(x) anula a matriz
A quando p(A) = 0n . Analogamente, diz-se que o polinômio p(x) anula o operador linear T quando
p([T ]α ) = 0n , para toda a base α de V .

Exemplos 2.23
 
−1 4
1. Sejam p(x) = x2 − 9, q(x) = 2x + 3 e a matriz A = .
2 1
 2    
−1 4 1 0 0 0
p(A) = −9 =
2 1 0 1 0 0

18
     
−1 4 1 0 1 8
q(A) = 2 +3 =
2 1 0 1 4 5
O polinômio p(x) anula A, mas q(x) não.

2. O polinômio p(x) = x2 − 2x − 3 anula o operador T (x, y) = (3x, 8x − y) pois


 2      
3 0 3 0 1 0 0 0
p([T ]) = −2 −3 =
8 −1 8 −1 0 1 0 0

Considere V um espaço vetorial n-dimensional, um operador linear T : V → V e um polinômio


p(x) = am xm + · · · + a1 x + a0 . Define-se o operador linear p(T ) : V → V tal que p(T )(v) =
(am T m + · · · + a1 T + a0 In )(v). Se λ é um autovalor de T então p(λ) é um autovalor de p(T ).

Exemplo 2.24 Sejam o operador T (x, y) = (3x, 8x − y), com autovalores 3 e −1, p(x) = 2x3 −
4x2 − x + 3 e o operador p(T )(x, y) = (2T 3 − 4T 2 − T + 3I3 )(x, y).
p(T )(x, y) = (2T 3 )(x, y) − (4T 2 )(x, y) − T (x, y) + (3I3 )(x, y) =
= (54x, 112x − 2y) − (36x, 64x + 4y) − (3x, 8x − y) + (3x, 3y) =
= (18x, 40x − 2y)
Os autovalores de p(T ) são p(3) = 18 e p(−1) = −2.

A adjunta clássica da matriz A ∈ M atn (R) é a transposta da matriz de cofatores de A, isto é,
 
C11 C21 . . . Cn1
 C12 C22 . . . Cn2 
adjA = 
 ...

... ... ... 
C1n C2n . . . Cnn

Um Cij da matriz A é o determinante sinalizado da submatriz obtida da remoção da linha i e


da coluna j de A.
Cij = (−1)i+j detAij

Proposição 2.25

1. A · adjA = adjA · A = detA · In

2. Se detA 6= 0 então A−1 = 1


detA adjA.

 
2 3 −4
Exemplo 2.26 Seja A =  0 −4 2 .
1 −1 5
   
−4 2 0 2
Por exemplo, C11 = +det = −18 e C12 = −det = 2.
−1 5 1 5
 
−18 −11 −10
Assim, adjA =  2 14 −4 .
4 5 −8

19
Teorema de Cayley-Hamilton O polinômio caracterı́stico PT (λ) anula o operador linear T ,
isto é, PT ([T ]α ) = 0n , para toda base α de V .
Prova:
Sejam PT (λ) = λn + an−1 λn−1 + · · · + a1 λ + a0 e A(λ) a adjunta clássica da matriz [T − λIn ]α .
Os elementos de A(λ) são polinômios em λ de grau menor ou igual a n − 1.
A(λ) = An−1 λn−1 + · · · + A1 λ + A0 com An−1 , . . . , A0 ∈ M atn (R).
Pela propriedade fundamental da adjunta clássica,
[T − λIn ]α · A(λ) = det [T − λIn ]α · In
[T − λIn ]α · (An−1 λn−1 + · · · + A1 λ + A0 ) = (λn + an−1 λn−1 + · · · + a1 λ + a0 ) · In
−An−1 λn + ([T ]α An−1 − An−2 )λn−1 + · · · + ([T ]α A1 − A0 )λ + [T ]α A0 = (λn + an−1 λn−1 + · · · + a1 λ + a0 ) · In

(n) −An−1 = In
(n − 1) [T ]α An−1 − An−2 = an−1 In
(n − 2) [T ]α An−2 − An−3 = an−2 In
... ...
(1) [T ]α A1 − A0 = a1 In
(0) [T ]α A0 = a0 In

Multiplicando a equação (n) por [T ]nα , (n − 1) por [T ]n−1


α ,. . . , e (1) por [T ]α , temos:

(n) − [T ]nα An−1 = [T ]nα


(n − 1) [T ]nα An−1 − [T ]n−1α An−2 = an−1 [T ]n−1
α
(n − 2) [T ]n−1
α An−2 − [T ] n−2
α A n−3 = an−2 [T ]n−2
α
... ...
(1) [T ]2α A1 − [T ]α A0 = a1 [T ]α
(0) [T ]α A0 = a0 In

Somando as equações, 0n = [T ]nα + an−1 [T ]αn−1 + · · · + a1 [T ]α + a0 In = PT ([T ]α ). 2

Exemplo 2.27 Vamos rever a demonstração do Teorema de Cayley-Hamilton, utilizando a matriz


A do Exemplo 2.26 como o operador T .
 
2−λ 3 −4
PT (λ) = det  0 −4 − λ 2  = λ3 − 3λ2 − 12λ + 46
1 −1 5−λ
 2 
λ − λ − 18 3λ − 11 −4λ − 10
A(λ) = adj[T − λI3 ] =  2 λ2 − 7λ + 14 2λ − 4 =
λ+4 −λ + 5 2
λ + 2λ − 8
     
1 0 0 −1 3 −4 −18 −11 −10
=  0 1 0  λ2 +  0 −7 2  λ +  −2 14 −4 
0 0 1 1 −1 2 4 5 −8

Pela propriedade fundamental,

[T − λI3 ] · A(λ) = det[T − λI3 ] · I3 = PT (λ) · I3

20
   2 
2−λ 3 −4 λ − λ − 18 3λ − 11 −4λ − 10
 0 −4 − λ 2 · −2 λ2 − 7λ + 14 2λ − 4 =
1 −1 5−λ λ+4 −λ + 5 2
λ + 2λ − 8
       
2−λ 3 −4 1 0 0 −1 3 −4 −18 −11 −10
= 0 −4 − λ 2  ·  0 1 0  λ2 +  0 −7 2  λ +  −2 14 −4  =
1 −1 5−λ 0 0 1 1 −1 2 4 5 −8
       
1 0 0 2 3 −4 1 0 0 −1 3 −4
= −  0 1 0  λ3 +  0 −4 2 · 0 1 0 − 0 −7 2  λ2 +
0 0 1 1 −1 5 0 0 1 1 −1 2
     
2 3 −4 −1 3 −4 −18 −11 −10
+  0 −4 2  ·  0 −7 2  −  −2 14 −4  λ+
1 −1 5 1 −1 2 4 5 −8
   
2 3 −4 −18 −11 −10
+  0 −4 2  ·  −2 14 −4  =
1 −1 5 4 5 −8
 
1 0 0
= (λ3 − 3λ2 − 12λ + 46) ·  0 1 0 
0 0 1

Seja V um espaço vetorial n-dimensional e um operador linear T : V → V . O polinômio minimal


ou polinômio mı́nimo do operador T , denotado por mT (λ), é o polinômio mônico de menor grau
possı́vel que anula o operador T , isto é, mT ([T ]α ) = 0n , para toda base α de V .

Exemplos 2.28

1. T (x, y, z) = (2x + 2y − 5z, 3x + 7y − 15z, x + 2y − 4z)


PT (λ) = (λ − 1)2 (λ − 3)
mT (λ) = (λ − 1)(λ − 3)

2. T (x, y, z) = (4z, x, y − 3z)


PT (λ) = (λ + 2)2 (λ − 1)
mT (λ) = (λ + 2)2 (λ − 1)

3. T (x, y, z, t) = (3x − 4z, 3y + 5z, −z, −t)


PT (λ) = (λ + 1)2 (λ − 3)2
mT (λ) = (λ + 1)(λ − 3)

Colorário do Teorema de Cayley-Hamilton O polinômio minimal mT (λ) divide o polinômio


caracterı́stico PT (λ).

Teorema 2.29 Os polinômios caracterı́stico e minimal possuem os mesmos fatores irredutı́veis e


as mesmas raı́zes.

Teorema 2.30 Sejam λ1 , . . . , λr autovalores distintos de T . Então T é diagonalizável se, e so-


mente se, mT (λ) = (λ − λ1 ) . . . (λ − λr ).

21
2.5 Exercı́cios

1. Verifique se é diagonalizável.
 
2 1 0 0
 0 2 0 0 
(a)  0 0 2 0 

0 0 0 3
 
1 1 0 0
 −1 −1 0 0 
(b)  −2 −2

2 1 
1 1 −1 0
   
1 1 1 b
2. Para que valores de a e b as matrizes e são diagonalizáveis?
0 a 0 1
 
a b c
3. Dada a matriz  0 d e , com todos os elementos acima da diagonal distintos e não nulos,
0 0 f
indique os autovalores.

4. Se uma matriz é diagonalizável então seu determinante é o produto de seus autovalores?

5. Calcule Ak .
 
−3 4
(a)
−1 2
 
0 7 −6
(b)  −1 4 0 
0 2 −2
6. Determine o polinômio minimal.
 
5 −6 −6
(a)  −1 4 2 
3 −6 −4
(b) T (x, y, z, t, w) = (ax + by, ay + bz, az + bt, at + bw, aw)
(c) T (x, y, z, t, w) = (−aw, x − bw, y − cw, z − dw, t − ew)

7. Determine uma matriz de ordem 3 tal que mT (λ) = λ2 .

22
Capı́tulo 3

Espaço Vetorial com Produto Interno


e Operadores Lineares

3.1 Subespaço Invariante

Considere V um R-espaço vetorial n dimensional e T : V → V um operador linear. O subespaço


S ≤ V é denominado subespaço vetorial invariante pelo operador T ou subespaço vetorial
T -invariante quando T (S) ⊆ S, isto é, para todo v ∈ V , se v ∈ T (S) então v ∈ S.

Exemplo 3.1 Seja T : R2 → R2 tal que T (x, y) = (3x, 8x − y).


O subespaço S = {(x, 2x), x ∈ R} é T -invariante pois T (1, 2) = (3, 6) ∈ S.
Já o subespaço R = {(x, 0), x ∈ R} não é T -invariante, T (1, 0) = (3, 8) ∈
/ R.

Teorema 3.2 Considere V um R-espaço vetorial n dimensional e T : V → V operador linear.

1. Os subespaços {0V }, V , Ker T e Im T são T -invariantes.

2. Se λ é um autovalor de T então Vλ é T -invariante.

3. Se S, R ≤ V são T -invariantes então S ∩ R e S + R também são.

Prova:
(2) u ∈ T (Vλ ) ∴ u = T (v), para algum v ∈ Vλ ∴ T (v) = λv e u = λv.
Assim, T (u) = T (λv) = λT (v) = λ(λv) = λu ∴ u ∈ Vλ . 2

Exemplo 3.3 Considere os operadores:


     
4 2 2 3 0 0 1 1 0
[T1 ] =  2 4 2 , [T2 ] =  0 2 0  e [T3 ] =  1 1 0 
2 2 4 0 1 2 0 0 1

23
S T1 (S) T2 (S) T3 (S) T1 -inv T2 -inv T3 -inv
√ √ √
Ker T1 = Ker T2 = {(0, 0, 0)} {(0, 0, 0)} {(0, 0, 0)} {(0, 0, 0)}
√ √ √
Im T1 = Im T2 = R3 R3 R3 R3 √ √
Ker T3 = [(−1, 1, 0)] [(−1, 1, 0)] [(−3, 2, 1)] {(0, 0, 0)} √ √
Im T3 = [(1, 1, 0), (0, 0, 1)] Im T3 [(3, 2, 0), (0, 0, 1)] Im T3 √
V2T1 = [(−1, 1, 0), (−1, 0, 1)] V2T1 [(3, 4, 0), (0, −2, 1)] [(−1, −1, 1)] √
V8T1 = [(1, 1, 1)] V8T1 [(3, 2, 3)] [(2, 2, 1)] √ √
V2T2 = [(0, 0, 1)] [(1, 1, 2)] [(0, 0, 1)] [(0, 0, 1)] √
V3T2 = [(1, 0, 0)] [(2, 1, 1)] [(1, 0, 0)] [(1, 1, 0)] √ √
V0T3 = [(−1, 1, 0)] V0T3 [(−3, 2, 1)] {(0, 0, 0)} √ √
V1T3 = [(0, 0, 1)] [(1, 1, 2)] [(0, 0, 1)] [(0, 0, 1)] √
V2T3 = [(1, 1, 0)] [(3, 3, 2)] [(3, 2, 1)] [(1, 1, 0)]

3.2 Espaço Dual

Considere V um R-espaço vetorial n dimensional. Uma transformação linear f : V → R é deno-


minada funcional linear. O conjunto de todos os funcionais lineares com as operações usuais de
soma e de multiplicação por escalar de funções é um espaço vetorial, denominado espaço dual
de V e denotado por V ∗ . Observe que o vetor nulo do espaço dual é o funcional nulo f0 tal que
f0 (v) = 0 e o simétrico de um funcional linear f é o funcional −f tal que (−f )(v) = −f (v).

Exemplos 3.4

1. fi : Rn → R tal que fi (x1 , . . . , xn ) = xi , i = 1, . . . , n.


Cada fi é um funcional linear do espaço Rn .

2. Considere k1 , . . . , kn ∈ R.
Pn
f : Rn → R tal que f (x1 , . . . , xn ) = i=1 ki xi é também um funcional linear de Rn .

3. f : M atn (R) → R tal que f (A) = tr(A) é um funcional linear de M atn (R).

4. Seja k ∈ R.
fk : R [X] → R tal que fk (p(X)) = p(k) é um funcional linear de R [X].

5. Considere uma base α = {v1 , . . . , vn } de V .



1 se i = j
fi : V → R tal que fi (vj ) = δij = , i = 1, . . . , n e j = 1, . . . , n.
0 caso contrário
δij é denominado Delta de Kronecker.
Cada fi é um funcional linear do espaço V e α∗ = {f1 , . . . , fn } é a base dual de V ∗ associada
à base α.

Exemplo: {(1, 0, 0), (0, 1, 2), (0, 3, 5)} base do R3

f1 (x, y, z) = a1 x + b1 y + c1 z
f2 (x, y, z) = a2 x + b2 y + c2 z
f3 (x, y, z) = a3 x + b3 y + c3 z

24
f1 (1, 0, 0) = 1, f2 (1, 0, 0) = 0 e f3 (1, 0, 0) = 0
f1 (0, 1, 2) = 0, f2 (0, 1, 2) = 1 e f3 (0, 1, 2) = 0
f1 (0, 3, 5) = 0, f2 (0, 3, 5) = 0 e f3 (0, 3, 5) = 1

f1 (1, 0, 0) = a1 = 1, f1 (0, 1, 2) = b1 + 2c1 = 0, f1 (0, 3, 5) = 3b1 + 5c1 = 0 ∴


a1 = 1, b1 = 0, c1 = 0 ∴
f1 (x, y, z) = x

f2 (1, 0, 0) = a2 = 0, f2 (0, 1, 2) = b2 + 2c2 = 1, f2 (0, 3, 5) = 3b2 + 5c2 = 0 ∴


a2 = 0, b2 = −5, c2 = 3 ∴
f2 (x, y, z) = −5y + 3z

f3 (1, 0, 0) = a3 = 0, f3 (0, 1, 2) = b3 + 2c3 = 0, f3 (0, 3, 5) = 3b3 + 5c3 = 1 ∴


a3 = 0, b3 = 2, c3 = −1 ∴
f3 (x, y, z) = 2y − z

{x, −5y + 3z, 2y − z} é a base dual associada à base {(1, 0, 0), (0, 1, 2), (0, 3, 5)}.

Considere V um R-espaço vetorial n dimensional munido de um produto interno h i : V ×V → R.


Cada vetor de V está relacionado a um funcional linear do espaço dual V ∗ da seguinte forma:

Lema 3.5 Dado um vetor u ∈ V , a função fu : V → R tal que fu (v) = hv, ui é um funcional
linear.

Prova:
(TL1) para quaisquer v, w ∈ V , fu (v + w) = hv + w, ui = hv, ui + hw, ui = fu (v) + fu (w).
(TL2) para quaisquer v ∈ V e k ∈ R, fu (kv) = hkv, ui = khv, ui = k fu (v). 2

A recı́proca também é verdadeira, isto é:

Lema 3.6 Seja f : V → R um funcional linear. Então para todo v ∈ V , existe um único vetor
u ∈ V tal que f (v) = hv, ui.

Prova:
(exist.) Seja {v1 , . . . , vn } uma base ortonormal de V e o vetor u = f (v1 )v1 + · · · + f (vn )vn ∈ V .
Para i = 1, . . . , n, hvi , ui = hvi , f (v1 )v1 + · · · + f (vn )vn i
= f (v1 )hvi , v1 i + · · · + f (vi )hvi , vi i + · · · + f (vn )hvi , vn i
= f (vi )
(unic.) Supor, por absurdo, que existam u, w ∈ V , u 6= w, tais que f (v) = hv, ui = hv, wi.
hv, ui − hv, wi = 0 ∴ hv, u − wi = 0
Em particular, vale a igualdade para v = u − w ∴ hu − w, u − wi = 0 ∴ u − w = 0 ∴ u = w.
Contradição. 2

25
Corolário 3.7 A função T : V → V tal que T (v) = fv é um isomorfismo.

Os lemas anteriores constituem a Representação de Riesz.

3.3 Operador Adjunto

Considere V um R-espaço vetorial n dimensional munido de um produto interno h i : V × V → R


e T : V → V um operador linear.

Teorema 3.8 Existe um único operador linear T ∗ : V → V tal que hT (v), wi = hv, T ∗ (w)i, para
quaisquer v, w ∈ V .

Prova: Seja w ∈ V e o funcional linear f : V → R tal que f (v) = hT (v), wi.


Pelo Lema 3.6, existe um único vetor u ∈ V tal que f (v) = hv, ui.
Assim, hT (v), wi = hv, ui.
Considere T ∗ : V → V tal que T ∗ (w) = u.
Então, hT (v), wi = hv, T ∗ (w)i
A unicidade de T ∗ é uma decorrência da unicidade de u.
T ∗ é um operador linear, pois:
(TL1) hv1 , T ∗ (v2 + v3 )i = hT (v1 ), v2 + v3 i = hT (v1 ), v2 i + hT (v1 ), v3 i = hv1 , T ∗ (v2 )i + hv1 , T ∗ (v3 )i
Então, T ∗ (v + v 0 ) = T ∗ (v) + T ∗ (v 0 ), para quaisquer v, v 0 ∈ V .
(TL2) hv, T ∗ (kv 0 )i = hT (v), kv 0 i = khT (v), v 0 i = khvT ∗ (v 0 )i = hv, kT ∗ (v 0 )i
Então, T ∗ (kv) = kT ∗ (v) para quaisquer k ∈ R e v ∈ V . 2
O operador T ∗ é denominado operador adjunto do operador T .

Exemplo 3.9 Seja T : R2 →: R2 tal que T (x, y) = (3x, 8x − y). O operador T ∗ : R2 →: R2 tal
que T ∗ (x, y) = (3x + 8y, −y) é o operador adjunto de T .

Teorema 3.10 Sejam T , T1 e T2 operadores lineares em V .

1. (T1 + T2 )∗ = T1∗ + T2∗

2. (kT )∗ = kT ∗ , para todo k ∈ R

3. (T1 ◦ T2 )∗ = T2∗ ◦ T1∗

4. (T ∗ )∗ = T

5. Ker T = (Im T ∗ )⊥

Prova: Sejam v, u ∈ V .

1. h(T1 + T2 )(v), ui = hT1 (v) + T2 (v), ui = hT1 (v), ui + hT2 (v), ui = hv, T1∗ (u)i + hv, T2∗ (u)i =
hv, T1∗ (u) + T2∗ (u)i = hv, (T1∗ + T2∗ )(u)i

26
3. h(T1 ◦ T2 )(v), ui = hT1 [T2 (v)] , ui = hT2 (v), T1∗ (u)i = hv, T2∗ [T1∗ (u)]i = hv, (T2∗ ◦ T1∗ )(u)h

5. Seja v ∈ Ker T ∴ T (v) = 0V ∴ hT (v), ui = 0, para todo u ∈ V .


hT (v), ui = hv, T ∗ (u)i = 0 ∴ v⊥T ∗ (u)
Mas, T ∗ (u) ∈ Im T ∗ ∴ v ∈ (Im T ∗ )⊥ . 2

Teorema 3.11 Seja S ≤ V um subespaço T -invariante. Então S ⊥ é T ∗ -invariante.

Prova: Sejam v ∈ S ⊥ e w ∈ S ∴ hT ∗ (v), wi = hv, T (w)i.


Como S é T -invariante, T (w) ∈ S. Assim, hv, T (w)i = 0 ∴ hT ∗ (v), wi = 0 ∴ T ∗ (v) ∈ S ⊥ .
Então, T ∗ (S ⊥ ) ⊆ S ⊥ . Logo, S ⊥ é T ∗ -invariante. 2

É possı́vel apresentar o operador adjunto na versão matricial.

Teorema 3.12 Seja α uma base ortonormal de V . Então [T ∗ ]α = [T ]tα .

 t
Quando V é um C-espaço vetorial, [T ∗ ]α = T α

Exemplo 3.13 Considere o operador linear T : R2 → R2 tal que T (x, y) = (3x, 8x − y) e a base
canônica.
   
3 0 3 8
Assim, [T ] = e seu operador adjunto [T ∗ ] = , isto é, T ∗ : R2 → R2 tal
8 −1 0 −1
que T (x, y) = (3x + 8, −y).
   
3 12 ∗ −101 −260
A base α = {(1, 2), (3, 5)} não é ortonormal, [T ]α = e [T ]α = .
0 −1 40 95
E, [T ∗ ]α 6= [T ]tα .
 
−5x + 3y
Lembrando que [(x, y)]α = .
2x − y

3.4 Operador Auto-Adjunto

Considere o operador linear T : V → V . Se T ∗ = T , o operador T é denominado operador auto-


adjunto (OAA) (caso real) e operador hermitiano (caso complexo), isto é, para quaisquer
v, w ∈ V , hT (v), wi = hv, T (w)i.

Exemplos 3.14

1. T : R2 → R2 tal que T (x, y) = (2x + 4y, 4x − y)

2. T : R3 → R3 tal que T (x, y, z) = (x − y, −x + 3y − 2z, −2y)

Propriedades importantes:

Proposição 3.15 Seja T : V → V um operador linear.

27
1. Para quaisquer v, w ∈ V , hT (v), wi = 0 se e somente se T = T0 .
2. Para todo v ∈ V , hT (v), vi = 0 se e somente se T ∗ = −T .
3. Se T é um operador OAA em um R-EVPI e hT (v), vi = 0, para todo v ∈ V então T = T0 .
Observe que, T (x, y) = (−y, x) tal que hT (x, y), (x, y)i = h(−y, x)(x, y)i = −xy + xy = 0 com
T 6= T0 . Além disso, temos uma caracterização para o caso complexo.
4. Seja T é um operador em um C-EVPI. hT (v), vi = 0, para todo v ∈ V se e somente se
T = T0 .

Teorema 3.16 Seja T um operador auto-adjunto e v1 , . . . , vr autovetores associados a autovalores


distintos λ1 , . . . , λr de T . Então vi é ortogonal a vj , i, j = 1, . . . , r, i 6= j.

Prova: hT (vi ), vj i = hvi , T ∗ (vj )i = hvi , T (vj )i ∴


hλi vi , vj i = hvi , λj vj i ∴ hλi vi , vj i−hvi , λj vj i = 0 ∴ λi hvi , vj i−λj hvi , vj i = 0 ∴ (λi −λj )hvi , vj i = 0
Por hipótese, λi 6= λj ∴ hvi , vj i = 0. 2

Teorema 3.17 Seja V um C-espaço vetorial n dimensional e T um operador auto-adjunto. Então:

1. Os autovalores de T são reais.


2. T possui um autovetor não nulo.

Prova:

1. Considere v ∈ V , v 6= 0V um autovetor associado ao autovalor λ de T .


hT (v), vi = hλv, vi = λhv, vi
hT (v), vi = hv, T ∗ (v)i = hv, T (v)i = λhv, vi
λ=λ∴λ∈R
2. Seja α uma base ortonormal de V e A = [T ]α .
Considere W = M atn×1 (C) um C-espaço vetorial com as operações usuais de matrizes com
t
o produto interno hhX, Y ii = Y X e U : W → W tal que U (X) = AX um operador auto-
adjunto.
Observe que, o operador adjunto de U é o operador U ? : W → W tal que U ? (X) = Āt X pois:

 U (X), Y = X, U ? (Y ) 
t
 U (X), Y = AX, Y = Y AX
t t t t tt t
 X, A Y = (A Y ) X = Y A X = Y AX

t
Como a adjunta é única, U ? (Y ) = A Y .
O polinômio caracterı́stico PT (λ) = det(A − λI) é um polinômio em C de grau n com raı́zes
em C. Então, existe c ∈ C tal que PT (c) = det(A − cI) = 0. Assim, A − cI é singular ou que
existe um vetor X não nulo tal que AX = cX. Como U é OAA e pelo item anterior, c ∈ R.
Se V for um R-espaço vetorial, todas as matrizes X, A e A − λ0 I são reais e (A − λ0 I)X = 0
tem solução real não nula. 2

28
Teorema 3.18 Seja T um operador auto-adjunto e v um autovetor associados ao autovalor λ de
T . Então os subespaços [v] e [v]⊥ são T -invariantes.

Teorema Espectral para Operadores Auto-Adjuntos Seja T um operador linear auto-adjunto.


Então T é diagonalizável, isto é, existe uma base ortonormal α de autovetores de V tal que [T ]α é
uma matriz diagonal.
Prova: (indução em n)
Base: dim V = 1
Existe um autovetor v ∈ V , v 6= 0V , pelo Teorema 3.17.
v
{v} é uma base de V e { kvk }é uma base ortonormal de V .
Passo: (HI) Supor que vale o teorema para espaços vetoriais com dimensão n − 1.
Considere v um autovetor unitário de T . Assim, dim [v] = 1.
Mas [v]⊥ é um subespaço T -invariante.
Então, T |[v]⊥ : [v]⊥ → [v]⊥ é um operador auto-adjunto.
Pela hipótese de indução, existe uma base ortonormal δ = {v1 , . . . , vn−1 } de autovetores
h i
de T |[v]⊥ tal que T |[v]⊥ é uma matriz diagonal.
δ

Mas, V = [v] ⊕ [v] e dim V = dim [v] + dim [v]⊥ .


Logo, α = {v, v1 , . . . , vn−1 } é uma base ortonormal de autovetores de V . 2

Corolário 3.19 Seja T um operador linear auto-adjunto e λ1 , . . . , λr , r ≤ n, seus autovalores.


Então, V = Vλ1 ⊕ · · · ⊕ Vλr .

O espectro de um operador linear é o conjunto {λ1 , . . . , λr } de seus autovalores.

3.5 Operador Ortogonal

O operador linear T : V → V invertı́vel é denominado operador ortogonal (OO) (caso real)


ou operador unitário (caso complexo) quando T ∗ = T −1 . Assim, para quaisquer v, w ∈ V ,
hT (v), wi = hv, T −1 (w)i.

Exemplos 3.20

1. T : R2 → R2 tal que T (x, y) = (y, −x)


√ √ √ √ √ √ √ √
3 3 3 6 6 6 2 2
2. T : R3 → R3 tal que T (x, y, z) = ( 3 x + 3 y + 3 z, − 6 x + 6 y + 6 z, − 2 y + 2 z)

Teorema 3.21 Seja T um operador linear. São equivalentes:

1. T é ortogonal.

29
2. T transforma bases ortonormais em bases ortonormais.
3. T preserva produto interno, isto é, hT (u), T (v)i = hu, vi, para quaisquer u, v ∈ V .
4. T preserva norma, isto é, kT (v)k = kvk, para todo v ∈ V .

Prova:
(1 → 2) Seja {v1 , . . . , vn } uma base ortonormal de V .
T (α) = {T (v1 ), . . . , T (vn )} também uma base de V , pois T é um isomorfismo.
hT (vi ), T (vj )i = hvi , T ∗ (T (vj ))i = hvi , T −1 (T (vj ))i = hvi , vj i = 0, i, j = 1, . . . , n, i 6= j.
kT (vi )k2 = hT (vi ), T (vi )i = hvi , vi i = kvi k2 = 1.
T (α) é uma base ortonormal de V .
(2 → 3) Sejam α e T (α) bases ortonormais de V .
u = k1 v1 + · · · + kn vn e v = `1 v1 + · · · + `n vn
hu, vi = hk1 v1 + · · · + kn vn , `1 v1 + · · · + `n vn i =
= k1 `1 hv1 , v1 i + · · · + k1 `n hv1 , vn i + · · · + kn `1 hvn , v1 i + · · · + kn `n hvn , vn i =
= k1 `1 1 + · · · + k1 `n 0 + · · · + kn `1 0 + · · · + kn `n 1 = k1 `1 + · · · + kn `n
T (u) = k1 T (v1 ) + · · · + kn T (vn ) e T (v) = `1 T (v1 ) + · · · + `n T (vn )
hT (u), T (v)i = hk1 T (v1 ) + · · · + kn T (vn ), `1 T (v1 ) + · · · + `n T (vn )i =
= k1 `1 hT (v1 ), T (v1 )i+· · ·+k1 `n hT (v1 ), T (vn )i+· · ·+kn `1 hT (vn ), T (v1 )i+· · ·+kn `n hT (vn ), T (vn )i =
= k1 `1 1 + · · · + k1 `n 0 + · · · + kn `1 0 + · · · + kn `n 1 = k1 `1 + · · · + kn `n
Logo, hu, vi = hT (u), T (v)i.
(3 → 4) kT (v)k2 = hT (v), T (v)i = hv, vi = kvk2 .
(4 → 1) kT (v)k2 = kvk2 ∴ hT (v), T (v)i = hv, vi ∴ hT ∗ (T (v)), vi = hv, vi ∴
hT ∗ (T (v)), vi − hv, vi = 0 ∴ hT ∗ (T (v)) − v, vi = 0 ∴ h(T ∗ ◦ T )(v) − I(v), vi = 0 ∴
h(T ∗ ◦ T − I)(v), vi = 0
Mas, (T ∗ ◦ T − I)∗ = (T ∗ ◦ T )∗ − I ∗ = (T ∗ ◦ T ) − I ∴ (T ∗ ◦ T − I) é OAA.
Então, (T ∗ ◦ T − I) = T0 ∴ T ∗ ◦ T = I ∴ T ∗ = T −1 .
Analogamente, T ◦ T ∗ = I.
Logo, T é OO. 2

Teorema 3.22 Seja T um operador ortogonal. Então,

1. T preserva distâncias, isto é, d(T (u), T (v)) = d(u, v), para quaisquer u, v ∈ V .
2. Os únicos autovalores possı́veis para T são ±1.
3. Os autovetores de T associados a autovalores distintos são ortogonais.
4. Se S ≤ V é um subespaço T -invariante então S ⊥ é T -invariante.

Prova:

30
1. d(u, v) = ku − vk = kT (u − v)k = kT (u) − T (v)k = d(T (u), T (v))

2. v ∈ V , v 6= 0V , autovetor associado a λ.
hT (v), T (v)i = hλv, λvi = λ2 hv, vi.
Mas, hT (v), T (v)i = hv, vi ∴ λ2 = 1 ∴ λ = ±1.

3. u, v ∈ V , u, v 6= 0V , autovetores associados a λ 6= λ0 , respectivamente.


hT (u), T (v)i = hλu, λ0 vi = h±u, ∓vi.
Mas, hT (u), T (v)i = hu, vi ∴ h±u, ∓vi = hu, vi ∴ hu, vi = 0.

4. v ∈ S ⊥ e s ∈ S, hT (v), T (s)i = hT (v), s0 i, para algum s0 ∈ S.


Mas, hT (v), T (s)i = hv, si = 0 ∴ hT (v), s0 i = 0 ∴ T (v) ∈ S ⊥ . 2

3.6 Operador Normal

O operador linear T : V → V invertı́vel é denominado operador normal (ON) quando comuta


com seu operador adjunto, isto é, T ∗ ◦ T = T ◦ T ∗ .

Exemplo 3.23

1. T : R2 → R2 tal que T (x, y) = (6x − 3y, 3x + 6y)

2. T : R3 → R3 tal que T (x, y, z) = (x + y, y + z, x + z)

Teorema 3.24 Seja T um operador normal. Então,

1. kT (v)k = kT ∗ (v)k, para todo v ∈ V .

2. Se λ é um autovalor de T então é também um autovalor de T ∗ .

3. T e T ∗ possuem os mesmos autovetores.

4. Ker T = Ker T ∗ .

5. Im T = Im T ∗ .

6. (Ker T )⊥ = Im T .

Prova:

1. kT (v)k2 = hT (v), T (v)i = hv, T ∗ (T (v))i = hv, T (T ∗ (v))i = hT ∗ (v), T ∗ (v)i = kT ∗ (v)k2

4. v ∈ Ker T ∴ kT (v)k2 = hT (v), T (v)i = h0V , 0V i = 0 = kT ∗ (v)k2 ∴ v ∈ Ker T ∗ .

6. Im T = Im T ∗ = (Ker T )⊥

31
3.7 Exercı́cios

1. Classifique os operadores:

(a) T (x, y) = (2x − 2y, −2x + 5y


(b) T (x, y, z) = (x cos θ − y sin θ, x sin θ + y cos θ, z)
(c) T (x, y, z) = (2x + y, x + y + z, y − 3z)

2. Considere T1 e T2 operadores lineares. Complete a tabela:

T1 e T2 T1 + T2 kT1 T1 ◦ T2
OAA
OO
ON

 
x y
3. Ache valores para x e y tais que seja ortogonal.
−1 0
4. Dê exemplo de um operador auto-adjunto não ortogonal e vice-versa.

5. Dê exemplo de um operador normal que não é nem auto-adjunto nem ortogonal.

6. Se hi e  são produtos internos sobre R2 e T um operador auto-adjunto em relação ao


primeiro produto interno então T também é auto-adjunto em relação ao segundo ?
 
1 4 2
7. Seja [T ] =  4 −5 −4 . Verifique que T é diagonalizável sem usar os critérios de diago-
2 −4 1
nalização.

8. Considere T e U operadores lineares que comutam entre si.

(a) Se λ é um autovalor de T então Vλ é um subespaço U -invariante.


(b) T e U possuem os mesmos autovalores.
(c) Existe um autovetor comum a T e a U .

9. Todo operador auto-adjunto é um operador normal.

10. Todo operador ortogonal é um operador normal.

11. Valem as recı́procas do Teorema 3.22

12. O operador linear T é ortogonal se e somente se [T ]α = ±1, para toda base ortonormal α?

13. Apresente operadores para cada uma das oito possibilidades.

32
L(V )

ON

OAA OO

OI

33
Capı́tulo 4

Formas Lineares, Bilineares e


Quadráticas

4.1 Formas Lineares

Considere V um R-espaço vetorial n dimensional. A transformação linear da forma f : V → R é


denominada funcional linear ou forma linear.

Exemplos 4.1

1. f : R2 → R tal que f (x, y) = x + y.

2. f : R3 → R tal que f (x, y, z) = 2x + y − z.

3. f : Rn → R tal que f (x1 , . . . , xn ) = xi com 1 ≤ i ≤ n.

O conjunto L(V, R) ou V ∗ , de todos os funcionais lineares de V em R, com as operações usuais de


adição de funções e de multiplicação de uma função por um escalar, definem um novo espaço vetorial
[V ∗ , R, +, ·] denominado espaço vetorial dual de V . A Representação de Riesz apresentada no
capı́tulo anterior relaciona funcional linear, produto interno e operador linear.

4.2 Formas Bilineares

A função f : V × V → R é denominada uma forma bilinear quando para quaisquer u, v, w ∈ V e


para todo k ∈ R,

FB1. f (u + v, w) = f (u, w) + f (v, w) e f (u, v + w) = f (u, v) + f (u, w).

FB2. f (ku, v) = k f (u, v) = f (u, kv).

Exemplos 4.2

1. f : R × R → R tal que f (x, y) = x.

2. f : R × R → R tal que f (x, y) = xy.

34
3. f : R2 × R2 → R tal que f (x, y), (z, t)) = xz − 2yt.
4. f : V × V → R tal que f (u, v) = hu, vi.

Teorema 4.3 Sejam f e g formas bilineares em V e k ∈ R. Então (f + g) e kf também são


formas bilineares em V .

Prova: Para quaisquer u, v, w ∈ V e para todo ` ∈ R,

FB1. (f + g)(u + v, w) = f (u + v, w) + g(u + v, w) = f (u, w) + f (v, w) + g(u, w) + g(v, w) =


= f (u, w) + g(u, w) + f (v, w) + g(v, w) = (f + g)(u, w) + (f + g)(v, w)
Analogamente, (f + g)(u, v + w) = (f + g)(u, v) + (f + g)(u, w).
FB2. (f + g)(ku, v) = f (ku, v) + g(ku, v) = k f (u, v) + k g(u, v) = k(f (u, v) + g(u, v)) = k (f + g)(u, v)
= f (u, kv) + g(u, kv) = (f + g)(u, kv)

FB1. (kf )(u + v, w) = kf (u + v, w) = k(f (u, w) + f (v, w)) = kf (u, w) + kf (v, w) =


= (kf )(u, w) + (kf )(v, w)
Analogamente, (kf )(u, v + w) = (kf )(u, v) + (kf )(u, w).
FB2. (kf )(`u, v) = kf (`u, v) = k(`f (u, v)) = (k`)f (u, v) = (`k)f (u, v) = `(kf (u, v)) = `(kf )(u, v)
= k(f (u, `v)) = (kf )(u, `v) 2

Corolário 4.4 Seja F B(V ) o conjunto de todas as formas bilineares sobre V . Então [F B(V ), R, +, ·]
é um espaço vetorial.

4.3 Formas Bilineares e Matrizes

Teorema 4.5 Considere A ∈ M atn (R) e α uma base de V . A função fA : V × V → R tal que
fA (u, v) = [u]tα A [v]α é uma forma bilinear.

Prova: Para quaisquer u, v, w ∈ V e para todo ` ∈ R,

FB1. fA (u + v, w) = [u + v]tα A [w]α = ([u]tα + [v]tα )A [w]α = [u]tα A [w]α + [v]tα A [w]α =
= fA (u, w) + fA (v, w)
Analogamente, fA (u, v + w) = fA (u, v) + fA (u, w).
FB2. fA (ku, v) = [ku]tα A [v]α = k [u]tα A [v]α = kfA (u, v)
= [u]tα Ak [v]α = [u]tα A [kv]α = fA (u, kv) 2

Teorema 4.6 Considere α uma base de V . Qualquer forma bilinear f em V é determinada pela
matriz  
f (v1 , v1 ) . . . f (v1 , vn )
 f (v2 , v1 ) . . . f (v2 , vn ) 
[f ]αα =  .
 
.. ..
 . . 
f (vn , v1 ) . . . f (vn , vn )
Além disso, para quaisquer u, v ∈ V , f (u, v) = [u]tα [f ]αα [v]α .

35
Prova: Considere α = {v1 , . . . , vn }.
u = k1 v1 + · · · + kn vn e v = `1 v1 + · · · + `n vn
f (u, v) = f (k1 v1 + · · · + kn vn , `1 v1 + · · · + `n vn )
= f (k1 v1 , `1 v1 ) + · · · + f (k1 v1 , `n vn ) + f (kn vn , `1 v1 ) · · · + f (kn vn , `n vn )
= k1 f (v1 , v1 )`1 + · · · + k1 f (v1 , vn )`n + kn f (k
n vn , v1 )`1 · · · + kn f (vn , vn )`n
f (v1 , v1 ) . . . f (v1 , vn ) `1

 f (v2 , v1 ) . . . f (v2 , vn )   2
  `2 
= (k1 k2 . . . kn ) 

.. .. 
. . .

 . .  
f (vn , v1 ) . . . f (vn , vn ) `n
t α
= [u]α [f ]α [v]α

Teorema 4.7 Considere α uma base de V . A função T : F B(V ) → M atn (R) tal que T (f ) = [f ]αα
é uma transformação linear injetora.

Corolário 4.8 F B(V ) é isomorfo a M atn (R).

Prova: T (fA ) = [fA ]αα = A ∴ T é sobrejetora. 2

4.4 Formas Bilineares Simétricas

Uma forma bilinear f : V × V → R é denominada forma bilinear simétrica quando para


quaisquer u, v ∈ V , f (u, v) = f (v, u).

Teorema 4.9 Considere F BS(V ) o conjunto das formas bilineares simétricas em V . Então
F BS(V ) ≤ F B(V ).

Teorema 4.10 Seja α uma base de V . Uma forma bilinear f é simétrica se e somente se [f ]αα é
uma matriz simétrica.

4.5 Formas Bilineares em Espaços Vetorias munidos de Produto


Interno

Considere V um R-espaço vetorial munido de um produto interno n dimensional.

Teorema 4.11 Seja f uma forma bilinear. Então existe um único operador linear U : V → V tal
que f (v, w) = hU (v), wi, para quaisquer v, w ∈ V .

Prova: Considere u ∈ V e o funcional linear fu : V → R tal que fu (v) = f (v, u). 2

Teorema 4.12 Υ : L(V ) → F B(V ) tal que Υ(T ) : V × V → R é um isomorfismo.


(u, v) 7→ hT (u), vi

Teorema 4.13 A forma bilinear é simétrica se e somente se o operador linear U é um operador


auto-adjunto.

Teorema 4.14 F BS(V ) é isomorfo ao espaço LOAA (V ) dos operadores lineares auto-adjuntos..

36
4.6 Formas Quadráticas

Uma forma bilinear f : V × V → R é denominada forma bilinear simétrica quando para


quaisquer u, v ∈ V , f (u, v) = f (v, u).
Notação matricial: Q(v) = [v]tα [f ]αα [v]α sendo α uma base de V .

Exemplos 4.15

1. Seja f : R2 × R2 → R tal que f (x, y), (z, t)) = xz − 5xt − 5yz + yt.
A forma quadrática associada é Q : R2 → R tal que Q(x, y) = f ((x, y), (x, y)) = x2 +y 2 −10xy.

2. Seja f uma forma bilinear simétrica e Q sua forma quadrática associada.

Q(u + v) = f (u + v, u + v)
= f (u, u) + f (u, v) + f (v, u) + f (v, v)
= f (u, u) + 2f (u, v) + f (v, v)
= Q(u) + 2f (u, v) + Q(v)

f (u, v) = 12 (Q(u + v) − Q(u) − Q(v)) é denominada de forma polar de f .

Uma forma quadrática é

• positiva definida quando para todo v ∈ V , v 6= 0V , Q(v) > 0.

• positiva semidefinida quando para todo v ∈ V , Q(v) ≥ 0.

• negativa definida quando para todo v ∈ V , v 6= 0V , Q(v) < 0.

• negativa semidefinida quando para todo v ∈ V , Q(v) ≤ 0.

• indefinida nos outros casos.

Teorema 4.16 (Teorema de Sylvester ou Lei da Inércia) Seja f uma forma bilinear simétrica.
Então existe uma base α de V tal que [f ]αα é uma matriz diagonal e qualquer outra representação
matricial diagonal de f possui a mesma quantidade p de elementos positivos e a mesma quantidade
q de elementos negativos na diagonal da matriz .

O posto da forma bilinear f é rank(f ) = p e a assinatura é sign(f ) = p − q.

Corolário 4.17 Toda forma quadrática Q admite representação na forma

Q(v) = x21 + · · · + xp − x2p+1 − · · · − x2p+q

com p + q ≤ n.


4 2 2
Exemplo 4.18 Considere a forma bilinear [f ] =  2 4 2  na base canoônica.
2 2 4
λ1 = 2 e V2 = {(−y − z, y, z), y, z ∈ R} = [(−1, 1, 0), (−1, 0, 1)]

37
λ2 = 8 e V8 = {(z, z, , z), z ∈ R} = [(1, 1, 1)]
α = {(−1, 1, 0), (−1, 0, 1), (1, 1, 1)} base de autovetores

4 2 2 −1 −1 1
2 4 2 1 0 1
2 2 4 0 1 1
−1 1 0 −2 2 0 4 2 0
−1 0 1 −2 0 2 2 4 0
1 1 1 8 8 8 0 0 24
 
4 2 0
Assim = [f ]αα =  2 4 0 .
0 0 24
V2 = V8⊥ mas os vetores (−1, 1, 0), (−1, 0, 1) ∈ V2 não são ortogonais.
Pelo processo de Gram-Schmidt, (−1, 1, 0), (− 21 , − 12 , 1) ∈ V2 são vetores ortogonais.
β = {(−1, 1, 0), (− 12 , − 21 , 1), (1, 1, 1)} base ortogonal de autovetores

4 2 2 −1 − 12 1
2 4 2 1 − 21 1
2 2 4 0 1 1
−1 1 0 −2 2 0 4 0 0
− 21 − 21 1 −1 −1 2 0 3 0
1 1 1 8 8 8 0 0 24
 
4 0 0
Assim = [f ]ββ =  0 3 0 .
0 0 24
γ = {(− √12 , √12 , 0), (− √16 , − √16 , √26 ), ( √13 , √13 , √13 )} base ortonormal de autovetores

4 2 2 − √12 − √16 √1
3
2 4 2 √1 − √16 √1
2 3
2 2 4 0 √2 √1
6 3
− √12 √1
2
0 − √22 √2
2
0 2 0 0
− √16 − √16 √2
6
− √26 − √26 √4
6
0 2 0
√1 √1 √1 √8 √8 √8
0 0 8
3 3 3 3 3 3
 
2 0 0
Assim = [f ]γγ =  0 2 0 .
0 0 8
Observe que, rank(f ) = sign(f ) = 3.
   1 2 1
    
2 0 0 −3 3 −3 4 2 2 −1 −1 1
 0 2 0  =  − 31 − 13 2  
3 · 2 4 2 · 1 0 1 , det P = 3
1 1 1
0 0 8 3 3 3 2 2 4 0 1 1

38
−1 − 12
     
−1 1 0 4 2 2 1
=  − 32 − 23 4
3
· 2 4 2  ·  1 − 12 1 , det P = 3
8 8 8
3 3 3 2 2 4 0 1 1
− √12 √1 − √12 − √16 √13
   
2
0 4 2 2

=  − √16 − √16 2
√  · 2 4 2 · √12 − √16 √13 
, P matriz ortogonal
 
6 
√1 √1 √1 2 2 4 0 √2 √1
3 3 3 6 3

A forma quadrática Q associada a forma bilinear simétrica f é

Q(x, y, z) = 4x2 + 4y 2 + 4z 2 + 4xy + 4xz + 4yz,

sua forma diagonalizada é


Q(x0 , y 0 , z 0 ) = 2x02 + 2y 02 + 8z 02 ,

e, pelo Teorema de Sylvester,


Q(X, Y, Z) = X 2 + Y 2 + Z 2 .

Observe que,
  √1 √1
    

1 0 0 2
0 0 2 0 0 2
0 0
 0 1 0 =
 0 √1 0 
· 0 2 0 ·
 0 √1 0 
.
2 2
0 0 1 0 0 √1 0 0 8 0 0 √1
2 2

4.7 Exercı́cios
1. Complete as demonstrações.
2. Seja f ∈ F B(V ) e u, v ∈ V .
(a) f (0V , v) = f (v, 0V ) = 0?
(b) Se f (u, v) = 0 então v = 0V ou u = 0V ?
3. Seja f ∈ F B(V ) e S ≤ V . Então R = {v ∈ V ; f (s, v) = 0, para todo s ∈ S} ≤ V ?
4. Sejam f1 , f2 ∈ V ∗ . A função f : V × V → R tal que f (u, v) = f1 (u)f2 (v) + f1 (v)f2 (u) é uma
forma bilinear? Simétrica?
5. Seja f ∈ F B(V ). A função f 0 : V × V → R tal que f 0 (u, v) = 21 (f (u, v) + f (v, u)) é uma
forma bilinear? Simétrica?
6. Indique uma base para F B(V ).
7. Seja f ∈ F BS(V ). Se f (v, v) = 0 então f é a forma bilinear nula?
8. Verifique e, nos casos afirmativos, apresente exemplos.

positiva definida autovalores todos positivos


positiva semidefinida autovalores não negativos
positiva definida autovalores todos negativos
positiva semidefinida autovalores não positivos
indefinida autovalores quaisquer

39
Capı́tulo 5

Introdução às Formas Canônicas

5.1 Matriz por Blocos

A matriz A ∈ M atn×m (R) é uma matriz por blocos quando consideramos sua partição em subma-
trizes, denominadas blocos.
Notação: A = [Aij ]

Exemplo 5.1 Blocagens de uma matriz.

3 −1 −1 3 −1
     
1 1 1 3 1 1 1

 2 4 1 0   2 4
  1 0 


 2 4 1 0 


 1 0 0 −1   1 0
 0 −1 


 1 0 0 −1 

 0 1 6 1   0 1 6 1   0 1 6 1 
−1 0 5 2 −1 −1 0 5 2
 0 5 2
  C11 C12
B11 B12  C21
 
 B21 B22   C22 
 D11 D12 D13
 C31 C32  D21 D22 D23
B31 B32
C41 C42

Observe que, A é uma matriz 5 × 4, a blocagem [Bij ] tem ordem 3 × 2, [Cij ] é 4 × 2 e [Dij ] é
2 × 3. Já cada um dos blocos tem diferentes ordens, por exemplo, B22 é 2 × 2, C32 é 2 × 2

Considere duas matrizes por blocos de mesma ordem [Aij ] e [Bij ] cujos blocos correspondentes
têm a mesma ordem. Assim,

k · [Aij ] = [k · Aij ]
[Aij ] + [Bij ] = [Aij + Bij ]

Sejam duas matrizes por blocos [Aij ] de ordem n × p e [Bij ] de ordem p × m, tais que o número
de colunas de cada bloco Aij é igual ao número de linhas de cada bloco Bij . Temos que,
Pp
[Aij ] · [Bij ] = [Cij ], com Cij = k=1 Aik Bkj

40
Considere a matriz quadrada A ∈ M atn (R) . Sua matriz por blocos [Aij ] é denominada matriz
quadrada por blocos quando os blocos formam uma matriz quadrada e os blocos da diagonal
são também matrizes quadradas.

Exemplo 5.2 A primeira blocagem não é uma matriz quadrada por blocos, já a segunda é.

3 −1 3 −1
   
1 1 2 1 1 2

 2 4 1 0 5 


 2 4 1 0 5 


 1 0 0 −1 0 


 1 0 0 −1 0 

 0 1 6 1 −1   0 1 6 1 −1 
−1 0 5 2 1 −1 0 5 2 1

A matriz quadrada por blocos [Aij ] é uma matriz diagonal por blocos quando os blocos que
não pertencem à diagonal são matrizes nulas.
Notação: Diag(A1 , . . . , Ak ), k ≤ n.



1 0 0
Exemplo 5.3  0 2 3  é uma matriz diagonal por blocos.
0 4 5

5.2 Formas Canônicas

5.2.1 Triangulares

Seja V um R-espaço vetorial n dimensional e T : V → V um operador linear. O operador T é


triangularizável quando existe uma base α de V tal que [T ]α é uma matriz triangular.

  
4 2 0 0 0 −2
Exemplo 5.4 Seja [T ] =  4 0 2 , α = {(1, −2, −2), (1, 1, 1), (1, 0, 0)} e [T ]α =  0 6 1 .
4 −6 8 0 0 6

Um leque (fan) de V é uma sequência de subespaços T -invariantes S1 ≤ · · · ≤ Sn = V com


dim Si = i, i = 1, . . . , n. O conjunto {v1 , . . . , vn } é uma base leque de V quando {v1 , . . . , vi } é
uma base de Si , i = 1, . . . , n.

Teorema 5.5 Se {v1 , . . . , vn } é uma base leque de V então T é triangularizável.

   
2 5 0 0 0 2 0 0 5 0

 0 2 0 0 0 


 0 2 0 0 3 

Exemplo 5.6 Considere [T ] = 
 0 0 4 2 0  e [T ] = 
 α  0 0 7 0 0  sendo

 0 0 3 5 0   0 0 0 2 0 
0 0 0 0 7 0 0 0 0 7

{(x, 0, 0, 0, 0), x ∈ R} ≤ {(x, 0, −t, t, 0), x, t ∈ R} ≤ {(x, 0, −t, t, w), x, t, w ∈ R} ≤ {(x, y, −t, t, w), x, y, t, w ∈ R} ≤ R5

a sequência de subespaços e α = {(1, 0, 0, 0, 0), (0, 0, −1, 1, 0), (0, 0, 0, 0, 1), (0, 1, 0, 0, 0), (0, 0, 1, 0, 0)}.

41
Teorema 5.7 (Forma  por Blocos) Seja S ≤ V T -invariante. Então existe uma base α
 Triangular
A B
de V tal que [T ]α = é uma matriz por blocos sendo A a matriz associada ao operador
0 C
T S : S → S.

   
2 −1 0 0 2 0 0 1
 0 3 −1 0 
  0 2 −1 0 
Exemplo 5.8 Considere [T ] = 
 0 e [T ]α =  ,
1 1 0   0 0 0 0 
0 −1 0 3 0 0 1 3

sendo S = {(x, t, t, t), x, t ∈ R} e α = {(1, 0, 0, 0), (0, 1, 1, 1), (0, 0, 1, 0)(0, 0, 0, 1)}.

5.2.2 Decomposição Primária

Lema 5.9 Sejam S1 ≤ · · · ≤ Sr ≤ V T -invariantes


Sr e B1 , . . . , Br suas respectivas bases, r ≤ n.
Então V = S1 ⊕ · · · ⊕ Sr se, e somente se, i=1 Bi é uma base de V .

Teorema 5.10 (Teorema da Decomposição em Soma Direta Invariante) Sejam S1 ≤ · · · ≤ Sr ≤ V


T -invariantes, r ≤ n tais que V = S1 ⊕ · · · ⊕ Sr . Então existe uma base α de V tal que [T ]α =
Diag(A1 , . . . , Ar ), sendo Ai = [T Si ], i = 1, . . . , r.

   3 1 
1 0 −1 0 2 −2 0 0
3 3
 0 1 0 1  
 e [T ] =  2 2 0 0 
Exemplo 5.11 Considere [T ] = 
 1 α
,
0 2 0   0 0 2 1 
0 0 0 1 0 0 −1 0

sendo R4 = {(x, 0, z, 0), x, z ∈ R}⊕{(0, y, 0, t), y, t ∈ R} e α = {(1, 0, 1, 0), (−1, 0, 1, 0), (0, 1, 0, 1)(0, 0, 0, 1)}.

Teorema 5.12 (Teorema da Decomposição Primária) Considere PT (λ) = p1 (λ)e1 . . . pr (λ)er e


mT (λ) = p1 (λ)d1 . . . pr (λ)dr sendo pi (λ) ∈ R [λ] um polinômios mônicos irredutı́veis, 1 ≤ di ≤ ei ,
i = 1, . . . , r. Então V = S1 ⊕ · · · ⊕ Sr onde Si = Ker(pi (T )di ), i = 1, . . . , r.

 
10 0 0 −7 1

 0 0 −1 0 0 

Exemplo 5.13 Considere [T ] = 
 0 1 0 0 0 .

 13 0 0 −9 1 
4 0 0 −3 1
PT (λ) = mT (λ) = λ(λ − 1)2 (λ2 + 1)
R5 = KerT ⊕ Ker(T − I)2 ⊕ Ker(T 2 + I)

KerT = {(2w, 0, 0, 3w, w), w ∈ R}


 2  
9 0 0 −7 1 −6 0 0 4 2
 0 −1 −1 0 0   0 0 0 0 0 
2
   
[T − I] = 
 0 1 −1 0 0  =
  0 −2 0 0 0 

 13 0 0 −10 1   −9 0 0 6 3 
4 0 0 −3 0 −3 0 0 2 1

42
Ker(T − I)2 = {(x, 0, 0, t, 3x − 2t), x, t ∈ R}
   
13 0 0 −10 4 14 0 0 −10 4

 0 −1 0 0 0 
  2

  0 0 0 0 0 

T2
 
=
 0 0 −1 0 0  e T +I =
  0 0 0 0 0 

 17 0 0 −13 5   17 0 0 −12 5 
5 0 0 −4 2 5 0 0 −4 3

Ker(T 2 + I) = {(0, y, z, 0, 0), y, z ∈ R}

α = {(2, 0, 0, 3, 1), (1, 0, 0, 0, 3), (0, 0, 0, 1, −2), (0, 1, 0, 0, 0), (0, 0, 1, 0, 0)}

T (2, 0, 0, 3, 1) = (0, 0, 0, 0, 0) = 0(2, 0, 0, 3, 1)


T (1, 0, 0, 0, 3) = (13, 0, 0, 16, 7) = 13(1, 0, 0, 0, 3) + 16(0, 0, 0, 1, −2)
T (0, 0, 0, 1, −2) = (−9, 0, 0, −11, −5) = (−9)(1, 0, 0, 0, 3) + (−11)(0, 0, 0, 1, −2)
T (0, 1, 0, 0, 0) = (0, 0, 1, 0, 0) = 1(0, 0, 1, 0, 0)
T (0, 0, 1, 0, 0) = (0, −1, 0, 0, 0) = (−1)(0, 1, 0, 0, 0)
 
0 0 0 0 0

 0 13 −9 0 0 

[T ]α = 
 0 16 −11 0 0 

 0 0 0 0 −1 
0 0 0 1 0

5.2.3 Jordan

Um operador linear T : V → V é nilpotente quando T k = 0, para algum k ∈ Z∗+ . Se T k−1 6= 0


então k é denominado ı́ndice de nilpotência de T .

Exemplo 5.14 T : R 4 → R4 tal que T (x, y, z, t) = (y, z, t, 0) é nilpotente de ı́ndice 4.


       
0 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0
 0 0 1 0  2
 0 0 0 1  3
 0 0 0 0  4
 0 0 0 0 
[T ] = 
 0
, [T ] =  , [T ] =   e [T ] =  .
0 0 1   0 0 0 0   0 0 0 0   0 0 0 0 
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

 
0 1 0 ... 0 0
 0 0 1 ... 0 0 
 
Considere as matrizes quadradas de ordem r, N = ... , denominada bloco

 0 0 0 ... 0 1 
0 0 0 ... 0 0
 
λ 1 0 ... 0 0
 0 λ 1 ... 0 0 
 
nilpotente de Jordan, e J(λ) = 
 ... ,
 denominada bloco de Jordan
 0 0 0 ... λ 1 
0 0 0 ... 0 λ
associado ao autovalor λ.

43
Teorema 5.15 (Teorema da Forma Canônica de Jordan) Seja T : V → V um operador linear,
λ1 , . . . , λr autovalores todos distintos, PT (λ) = (λ−λ1 )e1 . . . (λ−λr )er e mT (λ) = (λ−λ1 )d1 . . . (λ−
λr )dr , isto é, com todos os fatores lineares. Então existe uma base α de V tal que [T ]α = Diag(Jij )
sendo Jij = J(λi ), i = 1, . . . , r, um bloco de Jordan com as seguintes propriedades:

1. Existe pelo menos um bloco Jij de ordem di , todos os outros blocos têm ordem menor ou igual
a di .

2. A soma das ordens dos Jij é ei .

3. A quantidade dos blocos Jij é a multiplicidade geométrica de λi .

4. A quantidade dos blocos Jij de uma ordem qualquer possı́vel é unicamente determinada por
T.

Exemplos 5.16

1. Considere PT (λ) = (λ − 2)4 (λ − 5)3 e mT (λ) = (λ − 2)2 (λ − 5)3 .


As possı́veis formas de Jordan para o operador T são:
     
    5 1 0   5 1 0
2 1 2 1 2 1
Diag  , , 0
 5 1  ou Diag  , (2) , (2) ,  0 5 1 .
0 2 0 2 0 2
0 0 5 0 0 5

2. Para PT (λ) = (λ − 2)5 e mT (λ) = (λ − 2)2 , as formas de Jordan para o operador são:
       
2 1 2 1 2 1
Diag , , (2) ou Diag , (2) , (2) , (2) .
0 2 0 2 0 2

5.3 Exercı́cios

1. Analise a transposição de matrizes por blocos.

2. Definir matriz triangular superior por blocos e também matriz triangular inferior por blocos.
 
A 0
3. Mostre que det = detAdetB sendo A e B matrizes quadradas.
0 B

Considere A = Diag(A1 , . . . , Ar ). Mostre que:

4. Seja f (x) = an xn + · · · + a1 x + a0 um polinômio então f (A) = Diag(f (A1 ), . . . , f (Ar )).

5. A é invertı́vel se e somente se Ai é invertı́vel, i = 1, . . . , r.

6. A−1 = Diag(A−1 −1
1 , . . . , Ar )

7. Ak = Diag(Ak1 , . . . , Akr ), k ≥ 1.

Considere A = Diag(A1 , . . . , Ar ) e B = Diag(B1 , . . . , Br ) quadradas de mesma ordem.


Então:

8. A + B = Diag(A1 + B1 , . . . , Ar + Br )

44
9. A · B = Diag(A1 · B1 , . . . , Ar · Br )

Considere T um operador nilpotente com ı́ndice k e v ∈ V .

10. Se T k−1 (v) 6= 0V então {v, T (v), . . . , T k−1 (v)} é LI?

11. Se v 6= 0V então v, T (v), . . . , T k−1 (v) é T -invariante?


 

12. Considere A uma matriz nilpotente de ı́ndice k. Se B é semelhante a A então B é nilpotente


de ı́ndice k? Vale a recı́proca?

13. A soma de matrizes nilpotentes é nilpotente? E o produto?

14. Dado PT (λ) = (λ − 2)7 (λ − 5)9 escolha um polinômio minimal e indique as formas de Jordan
possı́veis.

15. Ker(T − λi I)ei = Vλi ?

45

Potrebbero piacerti anche