Sei sulla pagina 1di 286

Álgebra Linear no Rn

com Geometria Analítica Vetorial

Plácido Andrade
.

Universidade Federal do Cariri


Campus Juazeiro do Norte
Ceará Brasil

Agosto 2015
Sumário

1 Espaço vetorial 1
1.1 O espaço vetorial R . . .
n
. . . . . . . . . . . . . . . . . . . . . 1
1.2 Álgebra linear e Geometria euclidiana . . . . . . . . . . . . . . . 4
1.3 Combinação linear . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4 Bases do Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

2 Matrizes e determinantes 29
2.1 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.3 Matrizes invertíveis . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.4 Regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.5 Sobre determinante igual a zero . . . . . . . . . . . . . . . . . . 58

3 Escalonamento 63
3.1 Matrizes e Combinação linear . . . . . . . . . . . . . . . . . . . 64
3.2 Escalonamento de matrizes . . . . . . . . . . . . . . . . . . . . . 70
3.3 Invertendo matrizes . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.4 Resolução de sistemas . . . . . . . . . . . . . . . . . . . . . . . 79

4 Álgebra linear e Geometria 83


4.1 Produto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.2 Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.3 Medida de ângulo entre dois vetores . . . . . . . . . . . . . . . . 90
4.4 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
SUMÁRIO

4.5 Equações lineares em Geometria analítica . . . . . . . . . . . . . 99


4.6 Áreas em E2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
4.7 A¯eas e volumes em E3 . . . . . . . . . . . . . . . . . . . . . . . 112

5 Subespaço vetorial 117


5.1 Subespaço e sistemas lineares . . . . . . . . . . . . . . . . . . . 117
5.2 Subespaço e combinações lineares . . . . . . . . . . . . . . . . . 122
5.3 Geradores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
5.4 Base e dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
5.5 Base e produto interno . . . . . . . . . . . . . . . . . . . . . . . 141

6 Transformações lineares 147


6.1 Transformações lineares . . . . . . . . . . . . . . . . . . . . . . 147
6.2 Núcleo, imagem e sistema linear . . . . . . . . . . . . . . . . . . 152
6.3 Matriz de uma transformação linear . . . . . . . . . . . . . . . . 157
6.4 Teorema do núcleo e da imagem . . . . . . . . . . . . . . . . . . 163
6.5 Operações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166

7 Operadores lineares 171


7.1 Isomorsmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
7.2 Aplicação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
7.3 Autovalor e Autovetor . . . . . . . . . . . . . . . . . . . . . . . 183
7.4 Operador transposto . . . . . . . . . . . . . . . . . . . . . . . . 192
7.5 Operadores simétricos . . . . . . . . . . . . . . . . . . . . . . . 194

8 Operadores ortogonais 201


8.1 Operadores ortogonais . . . . . . . . . . . . . . . . . . . . . . . 201
8.2 Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
8.3 Classicação das isometrias . . . . . . . . . . . . . . . . . . . . 210
8.4 Operadores normais . . . . . . . . . . . . . . . . . . . . . . . . . 213

9 Representação matricial 215


9.1 Representação de vetores . . . . . . . . . . . . . . . . . . . . . . 215
SUMÁRIO

9.2 Representação de transformações . . . . . . . . . . . . . . . . . 218


9.3 Algoritmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
9.4 Mudança de coordenadas . . . . . . . . . . . . . . . . . . . . . . 226
9.5 Representação de operadores . . . . . . . . . . . . . . . . . . . . 230
9.6 Diagonalização de operadores . . . . . . . . . . . . . . . . . . . 235

10 Respostas e sugestões 241


Referências 277
Índice Remissivo 279
Prefácio
Este texto foi redigido para atender aos diversos cursos oferecidos pelas uni-
versidades brasileiras que possuem na sua integralização a disciplina semestral
Introdução à Álgebra Linear.
O ritmo da apresentação está baseado na experiência de sala de aula e
a redação levou em conta o estudante. Por isso, em alguns momentos, um
leitor mais familiarizado com Álgebra Linear pode considerar o texto lento e
simples. Não é o caso do leitor iniciante. A elegância no desenvolvimento dos
tópicos de Álgebra Linear esconde diversos conceitos aparentemente díspares,
tornando seu estudo uma descoberta constante para aqueles que nunca tiveram
a oportunidade de conhecê-la sistematicamente.
A diculdade de uma apresentação de Álgebra Linear para estudantes do
primeiro ano dos cursos de graduação é o uso dos seus conceitos por diver-
sas outras disciplinas, tais como, Cálculo, de uma ou mais variáveis, Cálculo
Vetorial, Mecânica, Eletricidade, Equações Diferenciais, Estatística, etc. Em
geral, numa integralização curricular essas disciplinas são colocadas posteriores
à Álgebra Linear, como é natural e conveniente. Portanto, a beleza de seu uso
ca prejudicada, pois as aplicações ainda não estão ao alcance da compreensão
imediata do estudante nem existe tempo curricular para apresentá-las.
Procurando contornar essa diculdade, optamos por colocar a Álgebra Li-
near como uma disciplina de transição entre a Matemática do Ensino Médio
e a Matemática do Ensino Superior. Por isso, o texto procura relacionar os
novos conceito com aqueles da Geometria Analítica, conteúdo já familiar ao
estudante calouro. Para evitar repetições, a Geometria Analítica terá um tra-
tamento vetorial.

Plácido Andrade
Juazeiro do Norte, 22 agosto de 2015
1
Espaço vetorial
O objetivo inicial deste capítulo é ressaltar como a Álgebra linear relaciona
e unica vários tópicos estudados dispersamente no Ensino Médio.
Utilizamos o conceito de combinação linear para mostrar que ele nos leva,
naturalmente, ao estudo de sistemas de equações lineares, matrizes e determi-
nantes. Para isto, assumiremos que o leitor tenha uma familiaridade mínima
com álgebra de matrizes (soma, multiplicação, determinantes, etc.). Nos capí-
tulos seguintes, estes tópicos serão abordados com maior profundidade.
Para relevar a Álgebra linear como uma teoria que unica muitos tópicos e
para fazer uma transição entre conteúdos do Ensino Médio e Ensino Superior,
utilizaremos o fato de R2 e R3 serem os modelos algébricos do plano euclidiano
e do espaço euclidiano, respectivamente, para explicitar as ideias geométricas
subjacentes ao conceito de vetor e suas operações. Não pretendemos desenvol-
ver a Geometria euclidiana, ela é utilizada, paralelamente, apenas como apoio
para facilitar a apreensão de alguns conceitos.
Neste texto, os termos função e aplicação possuem o mesmo signicado.

1.1 O espaço vetorial Rn


Denota-se por Rn o conjunto constituído pelas n-uplas ordenadas de nú-
meros reais, qual seja,
Rn = {(x1 , x2 , . . . , xn ); xi ∈ R para todo inteiro i, 1 ≤ i ≤ n}.

1
2 Espaço vetorial Cap. 1

Seus elementos são chamados vetores. Por simplicidade, muitas vezes in-
dicaremos por v um vetor de Rn . Esta notação está registrando que v =
(x1 , x2 , . . . , xn ). O número xi é chamado i−ésima coordenada do vetor.
Se v = (x1 , x2 , . . . , xn ) e w = (y1 , y2 , . . . , yn ) são dois vetores de Rn , esta-
belecemos que v = w quando xi = yi para todo i ∈ {1, 2, . . . , n}.
Na maior parte do texto abordaremos os conjunto R2 e R3 , por isso, reser-
varemos uma notação especial para indicar seus elementos. Para o primeiro
conjunto, muitas vezes, indicaremos um par ordenado por v = (x, y) e uma
tripla ordenada em R3 será registrada na forma v = (x, y, z).
O conjunto constituído pelas 1−uplas ordenadas, R1 = {(x); x ∈ R}, é
canonicamente identicado com o conjunto dos números reais R. Não dis-
tinguiremos uma 1−upla ordenada (x) ∈ R1 de um número real x ∈ R.
Exercício 1.1. Responda se a armação é falsa (F ) ou é verdadeira (V ).

( ) R ⊂ R2 . ( ) w = (x, y, 0) ∈ R2 . ( ) R2 ⊂ R3 . 3

Dene-se duas operações binárias envolvendo elementos de Rn :


i) soma de dois vetores ;

ii) multiplicação de um vetor por um escalar.

Aqui, o termo escalar signica número real. As operações são denidas pelas
seguintes regra, respectivamente. Se v = (x1 , x2 , . . . , xn ) e w = (y1 , y2 , . . . , yn )
são vetores de Rn e λ ∈ R estabelecemos que

v + w = (x1 + y1 , x2 + y2 , . . . , xn + yn )
.
λv = (λx1 , λx2 , . . . , λxn )
Exemplo 1.1. Sejam v = (2, −1, 0) e w = (−4, 7, 3) vetores de R3 . Pela
denição, a soma dos vetores é efetuada coordenada a coordenada,

v + w = (2, −1, 0) + (−4, 7, 3) = (−2, 6, 3).

Se λ = −3 então λv = −3 · (2, −1, 0) = (−6, 3, 0). 3


Ÿ1.1 O espaço vetorial Rn 3

Postas estas denições, surgem vetores e terminologias especiais.

1. Vetor nulo O vetor o = (0, 0, . . . , 0) do Rn é denominado vetor nulo.


Verica-se que, para todo v ∈ Rn , valem as igualdades v + o = v = o + v .

2. Para cada vetor v do Rn existe um vetor w em Rn , denominado inverso


adtivo de v , tal que w + v = o = v + w. É fácil identicar o inverso
aditivo, é suciente multiplicar v por λ = −1.

3. Dois vetores v, w ∈ Rn são colineares quando existe um escalar λ tal que


v = λw ou w = λv .

Diz-se que estas operações equipam Rn com uma estrutura de espaço veto-
rial. O termo espaço vetorial é aplicável, pois Rn é um dos inúmeros exemplos
de uma estrutura algébrica importante na Matemática e que, por isso, merece
ser xada numa denição.

Denição 1.1. Um espaço vetorial real consiste de um conjunto V, cujos


elementos são chamados de vetores, no qual estão denidas duas operações
binárias,  + e  ·, gozando das propriedades listadas abaixo.

I Se u, v ∈ V , então u+v ∈V e:

a) a adição é comutativa, u + v = v + u;
b) a adição é associativa, (u + v) + w = u + (v + w);
c) existe um único vetor o, chamado vetor nulo, tal que v+o = v =
o + v, para todo v ∈V;
d) para cada vetor v ∈ V existe um único vetor w ∈ V , chamado de
inverso aditivo de v , tal que v + w = o = w + v .

II Se v∈V e λ ∈ R, então λv ∈ V e:

a) 1·v =v para todo v ∈V;


b) a multiplicação por escalar é associativa, λ1 · (λ2 · v) = (λ1 λ2 ) · v ;
4 Espaço vetorial Cap. 1

c) a multiplicação por escalar é distributiva em relação à adição de


vetores, λ · (u + v) = λ · u + λ · v ;
d) multiplicação por escalar é distributiva em relação à adição de es-
calares, (λ1 + λ2 )v = λ1 v + λ2 v .

Não vericaremos, mas as duas operações acima denidas em Rn gozam


de todas as propriedades listadas na denição de espaço vetorial. Em geral,
omitimos o sinal da operação  ·, escrevendo λv em lugar de λ · v .

EXERCÍCIOS
1. Seja v ∈ Rn . Identique os vetores: (a) 0v ; (b) 1v ; (c) (−1)v .

2. Sejam o, v = (1, 2, −1), w = (−2, −4, 2) e u = (0, 2, 1) vetores do R3 . Deter-

mine os pares de vetores que são colineares.

1.2 Álgebra linear e Geometria euclidiana


Nesta seçãos apresentaremos alguns tópicos da Geometria euclidiana via
Geometria analítica. Os conteúdos vistos no Ensino Médio são sucientes para
o entendimento do texto. A Geometria servirá de apoio para compreensão de
conceitos de Álgebra linear. Geometria analítica é a disciplina que estuda a
Geometria euclidiana utilizando conceitos algébricos.
A Geometria euclidiana estuda dois conjuntos, o plano euclidiano e o espaço
euclidiano, conjuntos aqui denotados por E e E , respectivamente, conjuntos
2 3

não passíveis de denições. Seus elementos são chamados pontos e denotados


por letras maiúscula, P , Q, R, etc. Ressaltamos E2 não é subconjunto de E3 .
No espaço euclidiano existem objetos denominado planos que não devem ser
confundidos com o plano euclidiano. Para evitar ambiguidades, os planos de
E3 serão indicados por letras gregas maiúsculas, Π, Λ.
Um dos axiomas da Geometria euclidiana estabelece que por dois pontos P
e Q em En , n = 2, 3, incide uma única reta r. O segmento de reta determinado
Ÿ1.2 Álgebra linear e Geometria euclidiana 5

por P e Q, denotado por P Q, é o conjunto constituído pelos pontos que estão


entre1 P e Q acrescido dos extremos P e Q. Não importa se escrevemos P Q
ou QP , o conjunto considerado é o mesmo. A reta r que contém este segmento
é dita ser a reta suporte de P Q.

IE n ,n=2,3 IE n,n=2,3
r
Q Q

P P

Orientar o segmento P Q é escolher um dos pontos extremos como primeiro


elemento do segmento e o outro ponto extremo como último elemento do seg-
mento. Por exemplo, se P é escolhido como primeiro elemento e Q escolhido
−→
como último, indicamos a escolha por P Q e denominamos o segmento com
−→
esta orientação de segmento orientado 2 . O símbolo P P indicará o conjunto
constituído pelo ponto P e também será chamado segmento orientado.

IE n,n=2,3 IE n,n=2,3

Q Q

P P

1 Está entre é termo indenido no sistema axiomático da Geometria euclidiana.


2 Alguns textos utilizam o termo vetor localizado, outros vetor geométrico em lugar

de segmento orientado. Estas terminologias são usuais em textos de Engenharia, Física, etc.
6 Espaço vetorial Cap. 1

O conceito de segmento orientado permite agregar signicados geométricos


ao conjuntos algébricos R2 e R3 facilitando, muitas vezes, o raciocínio e a abor-
dagem de problemas. Para isto, precisamos algebrizar o estudo da Geometria.
Fixemos um sistema de coordenadas, ou seja, xamos um ponto O ∈ E2 ,
denominado origem, e consideramos duas retas numéricas perpendiculares e
concorrentes em O, chamadas eixos ox e oy .

IE 2 IE 2
P P(x,y)
y

O O(0,0) x

Com isto, a cada ponto P ∈ E2 associamos dois números reais, denominados


coordenadas do ponto, associação esta indicada por P (x, y), onde x é o ponto
correspondente ao número obtido pela interseção da reta que incide em P
e é perpendicular ao eixo ox e a determinação do número y segue o mesmo
procedimento, agora em relação eixo oy . Chamaremos plano cartesiano o plano
euclidiano E2 equipado com um sistema de eixos coordenados.
Com um sistema de eixos xados em E2 podemos denir uma distância
entre os ponto P (x1 , y1 ) e Q(x2 , y2 ) da seguinte forma
p
d(P, Q) = (x2 − x1 )2 + (y2 − y1 )2 .

Da mesma forma, para realizar o estudo analítico do espaço euclidiano E3


devemos xar um sistema de coordenadas.
Escolhemos um ponto O (origem do sistema de coordenadas) e três retas
numéricas mutuamente perpendiculares e concorrentes em O, denominadas
eixos ox, oy e oz . Cada ponto P de E3 ca associado a um terno ordenado
(x, y, z), denominada de coordenadas de P , onde x é o número obtido pela
Ÿ1.2 Álgebra linear e Geometria euclidiana 7

interseção de uma reta perpendicular ao eixo ox baixada de P , y é o número


obtido pela interseção de uma reta perpendicular ao eixo oy baixada de P ao
eixo oy . O número z é obtido de forma similar. Feito isto, indicamos o ponto
P com suas coordenadas (x, y, z) na forma P (x, y, z). O espaço euclidiano E3
equipado com um sistema de coordenadas será denominado espaço cartesiano.
z
P(x,y,z)

Com um sistema de eixos xados em E3 , podemos denir uma distância entre


os ponto P (x1 , y1 , z1 ) e Q(x2 , y2 , z2 ) da seguinte forma
p
d(P, Q) = (x2 − x1 )2 + (y2 − y1 )2 + (z2 − z1 )2 .

Denição 1.2. Sejam R(r1 , r2 ) e S(s1 , s2 ) pontos do plano cartesiano E2 e


2 −→
v = (x1 , y1 ) um vetor de R . Diz-se que o segmento orientado RS representa
o vetor v se

x1 = s1 − r1
.
x2 = s2 − r2
Denição 1.3. Sejam R(r1 , r2 , r3 )
e S(s1 , s2 , s3 ) pontos do espaço cartesiano
3 3 −→
E v = (x1 , y1 , z1 )
e um vetor de R . Diz-se que o segmento orientado RS
representa o vetor v se

 x1 = s1 − r1
x = s2 − r2 .
 2
x3 = s3 − r3
8 Espaço vetorial Cap. 1

Pictoricamente, registramos este fato na gura a seguir. Ressaltamos que


−→
não estamos armando que o segmento orientado P Q é o vetor v , apenas que
o segmento orientado está representando o vetor v .

IE n,n=2,3
P

v
Q

Exemplo 1.2. Um vetor pode ser representado por vários segmentos orien-
tados diferentes. Vejamos duas representações para o vetor v = (1, 2) ∈ R2 .
−→
Se escolhermos os pontos R(2, 0) e S(3, 2) em E2 , o segmento orientado RS
representa v = (1, 2), pois pela denição, temos as relações

1 = 3−2
.
2 = 2−0

2
IE

Q(5,3)
S(3,2) v
v P(4,1)
R(2,0)

v=(1,2)
Ÿ1.2 Álgebra linear e Geometria euclidiana 9

−→
Se escolhermos os pontos P (4, 1) e Q(5, 3) o segmento orientado P Q também
representa o mesmo vetor v = (1, 2), pois

1 = 2−1
.
2 = 3−1

Deixaremos duas questão para o leitor. Fixado o ponto T (a, b).


−→
a) Determine as coordenadas de U para que o segmento orientado T U seja
um representante de v = (1, 2).
−→
b) Determine as coordenadas de V para que o segmento orientado V T seja
um representante de v = (1, 2). 3

Exercício 1.2. Sejam P (3, −1) e Q(−4, 3) dois pontos do plano euclidiano
−→ −→ −→ −→
E . Esboce os segmentos orientados, P Q, QP , OP e OQ e calcule os vetores
2

do R2 representados pelos segmentos orientados. 3

Exemplo 1.3. Vejamos duas representações para o vetor v = (−1, 1, 2) ∈ R3 .


Se escolhermos os pontos R(0, 2, 0) e S(−1, 3, 2) em E3 , o segmento orientado
−→
RS representa v , pois pela denição, temos as relações:

 −1 = −1 − 0
1 = 3−2 .
2−0

2 =
−→
Se escolhermos os pontos P (2, 4, 1) e Q(1, 5, 3) o segmento orientado P Q tam-
bém representa o mesmo vetor v = (−1, 1, 2). 3
−→
Por denição, o comprimento de P Q em En , n ∈ {2, 3} é a distância entre
−→
seus pontos inicial e nal e será denotado por kP Qk.

Exercício 1.3. Sejam M (1, 0, −3) e N ( 5, 1, 1) pontos do espaço cartesiano
E3 e w = (−1, −1, 0) um vetor de R3 . Determine as coordenadas cartesianas
−−→ −−→ −−→
dos pontos W , P e Q tais que os segmentos orientados OW , M P e QN sejam
representantes do vetor w. Calcule os comprimentos dos segmentos. 3
10 Espaço vetorial Cap. 1

O segmento orientado canônico que representa o vetor v = (x1 , y1 ) do R2


é aquele que tem como ponto inicial a origem do plano cartesiano E2 , O(0, 0),
−−→
e ponto nal V (x1 , y1 ), ou seja, OV . Do mesmo modo, o segmento orientado
−−→
canônico para representar um vetor v = (x1 , y1 , z1 ) de R3 é OV , onde O(0, 0, 0)
e V (x1 , y1 , z1 ) são pontos do espaço cartesiano E3 .
Obtido um representante do vetor v de Rn , n ∈ {1, 2}, com ponto inicial
a origem O e ponto nal V , qualquer outro representante é obtido por trans-
−−→
porte paralelo do segmento orientado OV . As retas suportes dos segmentos
orientados que representam v são paralelas ou coincidentes.
n
IE ,n=2,3

V 1

v
v
O

Um quadrilátero com vértices A, B , C e D será indicado por ABCD. Esta


notação diz um pouco mais. Os lados do quadrilátero são AB , BC , CD e DA.
O quadrilátero ACBD, embora possua os mesmos vértices, os lados não são
iguais, o quadrilátero é diferente. Um quadrilátero é dito ser um paralelogramo
se seus lados opostos são paralelos.
B B
A A

C C
D D
ABCD ACBD
Ÿ1.2 Álgebra linear e Geometria euclidiana 11

Feito estas considerações mostremos que no plano cartesiano as retas suportes


dos segmentos orientados que representam o mesmo vetor u = (x1 , y1 ) do R2
−→
são paralelas. Seja P Q um segmento orientado que representa u. Se P (a, b),
−→
então Q(a + x1 , b + y1 ). Agora, se RS é outro segmento orientado que repre-
senta u e R(c, d), então S(c + x1 , d + y1 ). Considere o quadrilátero P RSQ.
−→ −→ −→ −→
É imediato vericar que kP Qk = kRSk e kP Rk = kQSk. Um fato bem co-
nhecido de Geometria euclidiana garante que um quadrilátero com medidas
de lados opostos iguais é um paralelegramo, ou seja, a reta suporte dos seus
lados opostos são paralelas. Tal resultado segue por congruência de triângulos.
Armação semelhante sobre representantes de vetores do R3 é válido em E3 .
Utilizando segmentos orientados é bastante simples determinar quando um
quadrilátero é um paralelogramo.

C B

A
D

Exemplo 1.4. Veriquemos se o quadrilátero ABCD em E2 é um paralelo-


gramo, onde A(0, 0) B(3, 1), C(2, 3) e D(−1, 2).
Fixemos, por exemplo, o lado AD e examinemos os segmentos orientados
com pontos iniciais em A e D, que são AB e DC . Ambos representam o mesmo
vetor v = (3, 1) de R2 . Portanto, os lados AB e DC são paralelos.
Fixemos o lado AB , Examinemos os segmentos orientados com pontos ini-
−−→ −−→
ciais nos vértices A e B , que são AD e BC . Ambos representam o vetor
w = (−1, 2). Portanto, os lados correspondente são paralelos. 3
Exercício 1.4. Verique se o quadrilátero ABCD em E3 é um paralelogramo,
onde:
12 Espaço vetorial Cap. 1

1. A(1, 0, 1), B(0, 2, 2), C(1, 3, 3) e D(2, 1, 2).

2. A(0, 0, 0), B(2, 1, −1), C(3, −3, 2) e D(3, 3, 1).

3. A(−1, −1, 0) e B(0, 1, 0), C(1, 2, 1) e D(0, 0, 1) 3

As duas operações algébricas (soma de dois vetores e multiplicação de um


vetor por um escalar) denidas em Rn podem ser concretizadas geometrica-
mente quando n = 2 ou n = 3, utilizando segmentos orientados.
Denimos a soma de segmentos orientados apenas quando o ponto nal do
−−→ −→ −→
primeiro é o ponto inicial do segundo: OV + V P = OP . Não importa se é o
plano cartesiano ou o espaço cartesiano, a denição é a mesma.
Examinemos a relação entre R2 e o E2 . Desejamos interpretar geometrica-
mente a operação v + w = (1, 2), onde v = (3, 1) e w = (−2, 1) são vetores de
R2 . Para representar o vetor v escolhemos o segmento orientado com pontos
iniciais e nais, digamos, P (0, 1) e Q(3, 2), respectivamente. Quanto ao vetor
w escolhemos para representante o segmento orientado com pontos iniciais e
nais Q(3, 2) e R(1, 3), respectivamente. Sendo assim, a soma v + w é re-
−→ −→ −→ −→
presentada por P R = P Q + QR. Vejamos. O vetor representado por P R é
v + w = (1, 2), pois

1 = 1−0
.
2 = 3−1

IE 2

R(1,3)
w
v+w

Q(3,2)
v
P(0,1)
Ÿ1.2 Álgebra linear e Geometria euclidiana 13

Os mesmos procedimentos seguem quando desejamos relacionar a soma de


vetores de R3 e soma de segmentos orientados em E3 .

Exercício 1.5. Sejam u = (x1 , y1 ) e v = (x2 , y2 ) vetores de R2 . Considere os


pontos do plano cartesiano, P (a, b), Q(a+x1 , b+y1 ) e R(a+x1 +x2 , b+y1 +y2 ).
−→ −→ −→
Verique que os segmentos orientados P Q, QR e P R representam os vetores
u, v e u + v , respectivamente. 3

Exercício 1.6. Faça um enunciado semelhante àquele do exercício anterior,


agora utilizando vetores do R3 , e verique a armação. 3

Esta representação é válida para a soma de três ou mais vetores. Se de-


sejarmos representar a soma u + v + w, consideramos representantes dos ve-
tores de tal forma que o ponto nal de um é o ponto inicial do seguinte,
−→ −→ −→ −→
P Q + QR + RS = P S .
Examinemos a representação geométrica da multiplicação de um vetor por
um escalar em E2 . A demonstração utiliza resultados básicos de Geometria.

IE 2

lv W
v V

Sejam v = (a, b) e λ 6= 0. Para facilitar a escrita evitando o estudo de


muitos casos particulares, assumiremos que a > 0, b > 0 e λ > 0. Sejam
V (a, b) e W (λa, λb). Mostremos que O, V e W são colineares. Denote por
−−→ −−→
r e s as retas suportes dos segmentos orientados OV e OW e por θr e θs as
medidas dos ângulos agudos que aquelas retas fazem com a semireta positiva
14 Espaço vetorial Cap. 1

do eixo ox, respectivamente. Claro, temos 0 < θr , θs < π2 . A tangente destes


ângulos são iguais, pois tg θs = ab e tg θs = λa
λb
. Como os ângulos são agudos,
então θr = θs , implicando que r = s e V (a, b) e W (λa, λb) pertencem à mesma
−−→ −−→
reta r. Calculando o comprimento dos segmentos obtemos kOW k = λkOV k.
Se examinássemos todos os casos, constataríamos que, se λ > 0 o ponto
W (λa, λb) está no lado3 de O em relação à reta r que contém V , ou no outro
lado de O, se λ < 0.

EXERCÍCIOS
1. Seguindo a notação xada, examine quais dos registros são válidos:

−−→
(a) v(2, 1) (i) P Q ∈ E2 (q) (2, 1) ∈ R2
−−→ −−→
(b) P (2, 1) (j) v = PQ (r) PQ = PQ
(c) v = (2, 1) (k) P ∈ E2 (s) AB ⊂ E3
(d) P = (2, 1) (l) P (2, 1) ∈ E2 (t) P +Q
(e) (2, 1) ∈ E2 (m) R2 ⊂ R3 (u) AB ⊂ E2
−−→ −−→
(f ) E2 = R2 (n) v ∈ R2 (v) |P Q| = P Q
−−→
(g) P (2, 1) ∈ R2 (o) kP Qk ⊂ E3 (w) E2 ⊂ E3
−−→
(h) P Q ∈ R2 (p) AB ∈ R3 (x) (2, 1) ∈ E2

2. Sejam v = (2, −1) e w = (3, −2) vetores em R2 . Calcule 3v − w e v + 2w e

represente gracamente os vetores por segmentos orientados com ponto inicial

O(0, 0). Represente-os com ponto inicial P (−2, 1).

3. Considere os pontos P (1, −1), Q(−3, 3) e R(2, 2) do plano cartesiano.

−−→ −−→ −−→


(a) Esboce os segmentos orientados PQ e QR e QQ.
(b) Determine os vetores u, v e w de R2 representados pelos segmentos ori-
−−→ −−→ −−→
entados P Q, QR e QQ. Qual a relação entre os vetores representados
−−→ −−→
por P Q e QP ?

3 Lado de um ponto em relação a uma reta é um conceito bem denido na Geometria.


Ÿ1.2 Álgebra linear e Geometria euclidiana 15

(c) Represente a soma u+v por um segmento orientado cujo ponto inicial é

o ponto P e represente o vetor 2u com ponto nal R(2, 2).


(d) Represente a diferença u−v por um segmento orientado cujo ponto inicial
é o ponto P e represente o vetor −2u com ponto nal R(2, 2).

4. A partir do esboço das representações dos vetores u, v , w, etc. determine quais

os outros vetores que estão sendo representados.

IE n,n=2,3 IE n,n=2,3 IE n,n=2,3

u u u
w w

IE n,n=2,3 IE n,n=2,3 IE n,n=2,3

u w

v v

w w

n
IE ,n=2,3 IE n,n=2,3

u w

v u

v
16 Espaço vetorial Cap. 1

1.3 Combinação linear


Fixaremos uma denição que nos acompanhará por todo o texto.

Denição 1.4. Um vetor w ∈ R é uma combinação linear dos vetores


n

v1 , v2 , . . . , vk ∈ Rn se existem escalares a1 , a2 , . . . , ak ∈ R, tais que

w = a1 v1 + a2 v2 + · · · + ak vk .

Os escalares a1 , a2 . . . , ak são chamados coecientes da combinação linear.

Exemplo 1.5. Considere os vetores v1 , v2 , v3 ∈ R2 , onde v1 = (1, 1), v2 = (1, 2)


e v3 = (−1, −4). O vetor w = (−1, 1) é uma combinação linear de v1 e v2 e v3 .
Verica-se que w = −v1 + 4v2 + v3 . Os coecientes dessa combinação linear
são a1 = −6, a2 = 4 e a3 = −1.

O vetor u = (0, −1) também é uma combinação linear de v1 , v2 e v3 , pois


u = v1 − v2 . Deveríamos escrever u = 1v1 + (−1)v2 + 0v3 , mas, como sempre,
simplicamos a escrita para tornar a leitura mais amena. 3

Para ilustrar o conceito de combinação linear, faremos uma analogia entre


ele e o conceito físico de trajetórias. Tal analogia não tem qualquer relevância
matemática, porém auxilia na compreenção do conceito abstrato.

Fixemos os vetores v1 = (3, 1) e v2 = (1, 1) em R2 . Tais vetores deter-


minam no plano cartesiano E2 , através de suas representações por segmentos
orientados, duas direções, indicadas gracamente na gura por retas paralelas,
e determinam dois sentidos de trajetória. Vamos supor que essas são as úni-
cas direções possíveis do plano cartesiano nas quais podemos percorrer para
ir de um ponto a outro (em várias cidades as ruas determinam reticulados
semelhantes).
Ÿ1.3 Combinação linear 17

IE 2

v2 v1

O(0,0)
W(3,-1)

Podemos estabelecer uma analogia entre a combinação linear

w = (3, −1) = 2v1 − 3v2

e a trajetória com início em O(0, 0) e nal em W (3, −1). Devemos percorrer


uma trajetória 2 vezes na direção e sentido de v1 e 3 vezes na direção de v2
mas em sentido oposto.
Se consideramos apenas um único vetor v1 ∈ R2 , ao dizermos que w ∈ R2 é
uma combinação linear de v1 estamos apenas armando que w é um múltiplo
de (ou colinear com) v1 .

IE 2

W
v1
O
18 Espaço vetorial Cap. 1

Como os segmentos orientados que representam v1 estabelecem uma coleção


de retas paralelas, nem todos pontos do plano podem ser atingidos através de
um percurso iniciando-se na origem e seguindo somente nesta direção. Apenas
aqueles pontos que estão sobre a reta suporte que passa pela origem podem ser
atingidos. Falta uma direção transversal às retas suportes de v1 para atingir
todos os pontos de E2 . em outras palavras, w = a1 v1 .

EXERCÍCIOS
1. Sejam v1 = (1, 2) e v2 = (1, 1) vetores de R2 . Calcule o vetor w nas combina-

ções lineares indicadas.

a) w = 3v1 − 4v2 . b) w = −v2 + v2 . c) w = − 31 v2 . d) w = 0v1 + v2 .

2. Sejam v1 = (−1, 2, 0) e v2 = (2, 1, −3) vetores de R3 . Calcule o vetor w nas

combinações lineares indicadas.

a) w = 3v1 − 4v2 b) w = −v2 + v2 . c) w = − 31 v2 . d) w = 0v1 + v2 .

1.4 Bases do Rn
Denição 1.5. Um subconjunto ordenado β = {v1 , v2 , . . . , vn } constituído por
n n n
n vetores de R é uma base de R se qualquer vetor w ∈ R é uma combinação
linear dos elementos de β.

A expressão subconjunto ordenado" signica que existe um primeiro ele-


mento, e ele está indexado por 1, um segundo elemento que está indexado por
2, etc. A denição de base dá origem a várias perguntas.

• Existe alguma base para o Rn ?

• Os coecientes a0i s da combinação linear w = a1 v1 + a2 v2 + · · · + an vn


são únicos, isto é, podemos expressar w = b1 v1 + b2 v2 + · · · + bn vn com
bi 6= ai para algum i, 1 ≤ i ≤ n?
Ÿ1.4 Bases do Rn 19

• Se w ∈ Rn e β é uma base, quais são e como podemos calcular os coe-


cientes ai 's da combinação linear w = a1 v1 + a2 v2 + · · · + an vn ?

• Quantas bases existem para o Rn ?

• Como saber quando um conjunto de n vetores de Rn é uma base?


A primeira pergunta tem resposta fácil. O conjunto ordenado de n vetores
Cn = {e1 , e2 , . . . , en } onde
e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), ... , en = (0, 0, . . . , 1),
é uma base denominada base canônica. Um vetor w = (x1 , x2 , . . . , xn ) ∈ Rn
escreve-se como uma combinação linear do vetores de C na forma
w = (x1 , x2 , . . . , xn ) = x1 e1 + x2 e2 + · · · + xn en .
Exemplo 1.6. A base canônica do R2 é um conjunto formado por

dois vetores,
C2 = {e1 , e2 }, onde e1 = (1, 0) e e2 = (0, 1). O vetor v = − 3, − 42 é uma


combinação linear dos vetores da base canônica e, facilmente, determinamos



os coecientes da combinação linear: v = − 3e1 − 42 e2 .
Considere o vetor w = (2, −2, 4) ∈ R3 . A base canônica C3 do R3 é formada
por três vetores e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1). Novamente, temos
w = 2e1 −2e2 +4e3 . Ressaltamos que as coordenadas do vetor são os coecientes
da combinação linear na base canônica. 3
Em relação à base canônica do Rn , a segunda e terceira perguntas têm
respostas rápidas. Ao escrevermos o vetor w ∈ Rn como uma combinação
linear dos elementos da base canônia Cn , os coecientes da combinação linear
são únicos. Se não, vejamos. Seja w = (w1 , w2 , . . . , wn ) ∈ Rn . Escrevamos a
combinação linear w = a1 e1 + a2 e2 + · · · + an en e examinemos a sequência de
igualdades,
(w1 , w2 , . . . , wn ) = w
= a1 e 1 + a2 e 2 + · · · + an e n
= (a1 , 0, . . . , 0) + (0, a2 , . . . , 0) + · · · + (0, 0, . . . , an )
= (a1 , a2 , . . . , an ).
20 Espaço vetorial Cap. 1

Sendo assim, ai = wi para todo i = 1, . . . , n. Portanto, somente existe um


único modo de escrever o vetor w = (x1 , x2 , . . . , xn ) como combinação linear
dos elementos da base canônica, qual seja, w = x1 e1 + x2 e2 + · · · + xn en .
Em particular, o vetor nulo, o = (0, 0, . . . , 0), somente pode ser expresso
por uma única combinação linear, a saber, o = 0e1 + 0e2 + · · · + 0en .
Passemos à quarta pergunta da lista. A resposta é Sim. O Rn possui um
número innito de bases ordenadas. Vejamos.
Exemplo 1.7. Seja β = {v1 , v2 } ⊂ R2 onde v1 = (1, 1) e v2 = (1, 2).
a) Para u = (−1, 1), temos a combinação linear u = −3v1 + 2v2 .
b) Para v = (0, −1), temos a combinação linear v = v1 − v2 .
c) Para um vetor arbitrário w = (x, y) ∈ R2 , temos a combinação linear
w = (2x − y)v1 + (y − x)v2 .
O item c) diz que o conjunto β é uma base de R2 , pois β é constituído por
dois vetores e qualquer vetor w = (x, y) ∈ R2 é uma combinação linear de v1 e
v2 onde os coecientes da combinação linear dependem, claro, das coordenadas
do vetor, a1 = 2x − y e a2 = y − x. Com isto surge a seguinte questão: como
determinar os coecientes da combinação linear para um vetor.
Uma estratégia para solucionar esta questão nos leva, naturalmente, a um
sistema de equações lineares. Ilustremos esta estratégia, ela será utilizada
inúmeras vezes ao longo do texto. Seja w = (x, y) um vetor arbitrário de R2 .
Desejamos determinar a1 e a2 tais que w = a1 v2 + a2 v2 . Sendo assim, temos
(x, y) = a1 v1 + a2 v2
= a1 (1, 1) + a2 (1, 2)
= (a1 + a2 , a1 + 2a2 ).
Sabendo-se que dois vetores são iguais quando suas coordenadas são iguais,
obtemos o sistema de equações lineares

a1 + a2 = x
.
a1 + 2a2 = y
Ÿ1.4 Bases do Rn 21

Ressaltamos que as incógnitas são a1 e a2 . Utilizando uma técnica qualquer


de resolução de sistemas conhecida desde o Ensino Médio (regra de Cramer,
escalonamento, substituição, etc.) obtemos os valores a1 = 2x − y e a2 = y − x.
Para continuarmos, será útil reescrever o sistema linear na forma matricial:
    
1 1 a1 x
= .
1 2 a2 y
Note que ao efetuarmos o produto matricial obtemos
   
a + a2 x
= .
a1 + 2a2 y
Como as duas matrizes são iguais se, e somente se, suas entradas são iguais,
recuperamos o sistema de equaçãos lineares original. Esta é a forma matricial
de apresentação de um sistema de equações lineares. Um fato crucial. As
entradas das colunas da matriz quadrada são as coordenadas dos vetores da
base β , v1 = (1, 1) e v2 = (1, 2) e o termo independente é uma matriz coluna
cujas entradas são as coordenadas de w. 3

Vericar a existência de outras bases ordenadas está relacionada com:


 resoluções de sistemas de equações lineares n × n;

determinantes de matrizes quadradas n × n.


Apresentemos esta relação. Neste texto, matrizes serão indicadas pelo sím-
bolo [A], [B], [C], etc. Assumiremos que o leitor recorda a denição de deter-
minante de matrizes quadradas 2 × 2 e 3 × 3. Caso contrário, aconselhamos
rever a denição em algum texto de Matemática do Ensino Médio ou solicitar
esta revisão ao seu professor. De qualquer modo, faremos uma apresentação
de determinante no Capítulo 2.
Com um conjunto ordenado de n vetores β = {v1 , v2 , . . . , vn } de Rn , con-
truímos uma matriz quadrada n × n, matriz que denotaremos por

[A] = [v1 , v2 , . . . , vn ].
22 Espaço vetorial Cap. 1

A notação sinaliza que as entradas da primeira coluna da matriz são as coorde-


nadas do vetor v1 , as entradas da segunda coluna são as coordenadas do vetor
v2 , etc. Sendo [A] = [v1 , v2 , . . . , vn ] uma matriz quadrada, podemos calcular o
seu determinante.

Exemplo 1.8. Seja β = {v1 , v2 } ⊂ R2 , onde v1 = (3, 1) e v2 = (5, 2). Esse


conjunto de dois vetores do R2 dá origem à matriz quadrada 2 × 2, a saber,
 
3 5
[A] = [v1 , v2 ] = .
1 2

Vejamos a relação desta matriz com o nosso problema de combinação linear.


Suponha que desejemos escrever w = (−2, 3) como combinação linear de v1 e
v2 , ou seja, determinar escalares a1 e a2 tais que w = a1 v1 + a2 v2 . Isto nos dá
o seguinte sistema de equações lineares,
     
3 5 a1 −2
= .
1 2 a2 3

As entradas das colunas da matriz são as coordenadas dos vetores v1 e v2 e o


termo independente é uma matriz coluna cujas entradas são as coordenadas
de w. As incógnitas são a1 e a2 . Na notação usual temos

3a1 + 5a2 = −2
.
a1 + 2a2 = 3

Utilizando alguma técnica de resolução, encontramos a1 = −19 e a2 = 11.


Logo, w = −19v1 + 11v2 . A informação relevante deste sistema é sobre o
determinante da matriz dos coecientes do sistema que não é zero,
 
3 5
det = 1.
1 2

Veremos adiante que o fato do determinante não ser zero implica que o sistema
é possível e determinado. Na linguagem de Álgebra linear, diremos que a
combinação linear existe e os coecientes a1 e a2 são únicos.
Ÿ1.4 Bases do Rn 23

Na verdade β = {v1 , v2 } é uma base do R2 , pois é um conjunto constituído


por dois vetores e um vetor arbitrário w = (x, y) pode ser escrito como w =
a1 v2 + a2 v2 . Para determinar as incógnita a1 e a2 devemos resolver o sistema
     
3 5 a1 x
= .
1 2 a2 y

Feito isto, encontramos w = (2x − 5y)v1 + (−x + 3y)v2 . 3

Exemplo 1.9. Seja β = {v1 , v2 , v3 } ⊂ R3 , onde v1 = (1, −1, 3), v2 = (0, 1, −2)
e v3 = (2, −3, 9). Com esse conjunto de três vetores do R3 construímos a
matriz quadrada 3 × 3
 
1 0 2
[B] = [v1 , v2 , v3 ] =  −1 1 −3  ,
3 −2 9

Para vericar que β é uma base, é suciente mostrar que um vetor arbitrário
w = (x, y, z) do R3 , pode ser escrito na forma w = a1 v1 + a2 v2 + a3 v3 . Como
vimos, isto é equivalente a resolver o sistema
    
1 0 2 a1 x
 −1 1 −3   a2  =  y 
3 −2 9 a3 z

cujas incógnitas são a1 , a2 e a3 . Feito isto, obtemos a combinação linear

w = (3x + 4y − 2z)v1 + (3x + 5y − z)v2 + (−x + 2y + z)v3 .

Portanto, determinar os coecientes da combinação linear resume-se na reso-


lução de um sistema de equações lineares especíco. Por isto, mais à frente
abordaremos as técnicas de resolução. Veremos que o fato do determinante
da matriz [A] = [v1 , v2 , v3 ] ser ou não igual a zero são fatos cruciais. Neste
exemplo, det[A] não é zero. 3
24 Espaço vetorial Cap. 1

Ao longo do texto, sistemas de equação lineares surgirão frequentemente na


teoria e na prática. Entretanto, alguns signicados serão diferentes daqueles
apresentados no Ensino Médio. No momento estamos fazendo a seguinte leitura
de um sistema com o número de equações igual ao número de incógnitas.
A solicitação, resolva o sistema

2a1 + 3a2 = 2
,
4a1 − a2 = 0

signica responder a uma questão relacionada ao R2 : expresse o vetor w =


(2, 0) como combinação linear de v1 = (2, 4) e v2 = (3, −1). Podemos perceber
esta relação ao apesentarmos o sistema na forma matricial:
    
2 3 a1 2
=
4 −1 a2 0
.
Do mesmo modo, para um sistema 3 × 3, a solicitação resolva o sistema

 2a1 + 3a2 − 4z = 2
4a − a2 = 0 ,
 1
a1 − a2 + a3 = 3

signica responder a questão relacionada ao R3 : expresse o vetor w = (2, 0, 3)


como combinação linear de v1 = (2, 4, 1), v2 = (3, −1, −1) e v3 = (3, 0, 1), pois
esta combinação linear nos leva ao sistema

2 −4
    
3 a1 2
 4 −1 0   a2 = 0  .
 
1 −1 1 a3 3
A próxima questão é saber se um conjunto β de n vetores do Rn é uma
base. A regra de Cramer4 nos dá uma resposta. Exempliquemos.
4 Gabriel Cramer (? 31/07/1704 Suíça, † 4/01/1752 França). Professor de matemática em
Geneva (hoje Suíça), escreveu trabalhos de Física, Geometria, Curvas algébricas e História
da Matemática.
Ÿ1.4 Bases do Rn 25

Exemplo 1.10. Seja β = {v1 , v2 } onde v1 = (2, 1) e v2 = (1, 1) são vetores


do R . Este conjunto é uma base de R2 ? A primeira condição para ser uma
2

base está satisfeita, o conjunto ordenado β tem dois vetores. Resta vericar
se um vetor arbitrário w = (x, y) ∈ R2 pode ser combinação linear do tipo
w = a1 v1 + a2 v2 . Pelo visto anteriormente, devemos resolver o sistema cujas
incógnitas são a1 e a2 :
    
2 1 a1 x
= .
1 1 a2 y
A matriz principal do sistema (ou a matriz dos coecientes do sistema) é pre-
cisamente [v1 , v2 ] e as matrizes auxiliares são [w, v2 ] e [v1 , w]. Explicitamente:
     
1 1 x 1 1 x
[v1 , v2 ] = ; [w, v2 ] = ; [v1 , w] = .
1 2 y 2 1 y
Como a matriz principal é quadrada com determinante diferente de zero, po-
demos utilizar a Regra de Cramer para determinar as incógnitas a1 e a2 ,
det[w, v2 ] det[v1 , w]
a1 = = 2x − y e a2 = = y − x.
det[v1 , v2 ] det[v1 , v2 ]
Logo, w = (2x − y)v1 + (y − x)v2 e os coecientes são únicos, pois são as únicas
soluções do sistema. Observe que só existe uma combinação linear possível
para expressar o vetor nulo, qual seja, o = 0v1 + 0v2 . 3
A regra de Cramer é um processo para resolução de sistemas de equações li-
neares n×n, sendo bastante útil nas demonstrações. Entretanto, ela é eciente
para resolução de sistemas pequenos, 2 × 2 ou 3 × 3. Caso contrário, outros
processos de resolução, como substituição e escalonamento, são mais práticos
e computacionalmente mais rápidos. Antes de enunciarmos e demonstrarmos
a regra de Cramer, vejamos um exemplo 3 × 3.
Exemplo 1.11. Veriquemos que o conjunto de três vetores β = {v1 , v2 , v3 } ⊂
R3 é uma base, onde

v1 = (1, 1, 0), v2 = (1, 0, 1) e v3 = (0, 1, 1).


26 Espaço vetorial Cap. 1

Para isso, é suciente considerar a matriz


 
1 1 0
[v1 , v2 , v3 ] =  1 0 1  ,
0 1 1

e calcular seu determinante det[v1 , v2 , v3 ] = −2. Como o determinante não é


zero, segue que β = {v1 , v2 , v3 } é uma base do R3 .
A regra de Cramer indica como calcular os coecientes de uma combinação
linear. Expressemos o vetor arbitrário w = (x, y, z) como combinação linear
dos vetores de β : w = a1 v1 + a2 v2 + a3 v3 . Isto nos leva ao sistema
    
1 1 0 a1 x
 1 0 1   a2  =  y  .
0 1 1 a3 z

Para calcular os coecientes a01 s, precisaremos das matrizes auxiliares:


     
x 1 0 1 x 0 1 1 x
[w, v2 , v3 ] =  y 0 1  ; [v1 , w, v3 ] =  1 y 1  ; [v1 , v2 , w] =  1 0 y  .
     
z 1 1 0 z 1 0 1 z

Pela regra de Cramer. os coecientes procurados são:

det[w, v2 , v3 ] det[v1 , w, v2 ] det[v1 , v2 , w]


a1 = ; a2 = ; a3 = .
det[v1 , v2 , v3 ] det[v1 , v2 , v3 ] det[v1 , v2 , v3 ]

Portanto, w = (−y + z)v1 + (−x + y − z)v2 + (x − y − z)v3 . 3

Os teoremas a seguir são centrais no estudo de bases do Rn . As provas


encontram-se no próximo capítulo. O primeiro deles inclui a regra de Cramer.

Teorema 1.1. Seja β = {v1 , v2 , . . . , vn } um conjunto ordenado de n vetores


n
em R . Se det[v1 , v2 , . . . , vn ] 6= 0, então:

1. β é uma base do Rn ;
Ÿ1.4 Bases do Rn 27

2. cada vetor w ∈ Rn expressa-se como única combinação linear da forma


w = a1 v1 + a2 v2 + · · · + an vn onde os coecientes são

det[w, v2 , . . . , vn ] det[v1 , w, . . . , vn ] det[v1 , v2 , . . . , w]


a1 = , a2 = , · · · , an = .
det[v1 , v2 , . . . , vn ] det[v1 , v2 , . . . , vn ] det[v1 , v2 , . . . , vn ]

O teorema abaixo completa o estudo de bases do Rn . O determinante


fornece uma resposta completa para esta questão.

Teorema 1.2. Seja β = {v1 , v2 , . . . , vn } um conjunto ordenado de n vetores


n
em R . O conjunto β é uma base se, e somente se, det[v1 , v2 , . . . , vn ] 6= 0.

EXERCÍCIOS
1. Calcule as combinações lineares indicadas onde v1 = (1, 2, 3), v2 = (0, 1, 2) e

v3 = (0, 0, 1) são vetores do R3 .

(a) w = 3v1 + 0v2 − v3 .


(b) w = xv1 + (y − 2x)v2 + (x − 2y + z)v3 .
(c) w = 0v1 + 0v2 + 0v3 .
(d) w = 0v1 + 1v2 + 0v3 .

2. Verique se conjunto ordenado β = {v1 , v2 } ⊂ R2 é uma base. Caso seja,

expresse w = (x, y) por uma combinação linear dos vetores de β.

(a) v1 = (3, −1) e v2 = (1, 2). (c) v1 = (−1, 2) e v2 = (2, −4).


(b) v1 = (2, 1) e v2 = (1, 2). (d) v1 = (1, 0) e v2 = (1, −1).

3. Verique se o conjunto ordenado β = {v1 , v2 , v3 } ⊂ R3 é uma base. Caso seja,

expresse w = (x, y, z) por uma combinação linear dos vetores de β.

(a) v1 = (0, 3, −1), (d) v1 = (1, 1, 1), v2 = (2, 0, 0),


(b) v1 = (2, 1, 1), v2 = (1, 1, 2), v2 = (3, −2, 1),
(c) v1 = (1, 1, 2), v2 = (3, −1, 2), v3 = (1, 1, 1).
28 Espaço vetorial Cap. 1

v3 = (0, 0, 0). v3 = (0, 1, 1). v3 = 2v1 − v2 .

4. Complete o conjunto de vetores para obter uma base do espaço indicado.

(a) α = {v1 , v2 } ⊂ R2 , onde v1 = (3, 4).


(b) β = {v1 , v2 , v3 } ⊂ R3 , onde v1 = (2, 2, 2).

5. Seja β = {v1 , v2 , . . . , vn } uma base de Rn .

(a) Escreva vi como combinação linear dos vetores de β.


(b) Escreva o como combinação linear dos vetores de β.

6. Considere o conjunto de vetores α = {v1 , v2 , v3 } de R2 , onde v1 = (1, 1),


v2 = (3, 2) e v3 = (−1, 1).

(a) Escolha dois vetores de α para construir uma base β de R2 .


(b) Expresse vi , i ∈ {1, 2, 3} como combinação linear de vetores de β.
(c) Expresse w = (x, y) como combinação linear dos vetores de β.
(d) Quantas bases distintas de R2 podemos extrair de α?

7. Resolva cada sistema com duas equações e duas incógnitas, escreva-o em forma

matricial e dê o signicado desta resolução em termos de combinação linear.

( (
2a1 − 3a2 = 5 3a1 − 2a2 = 0
(a) (b)
−a1 + 4a2 = 0 −a2 = 3

8. Resolva cada sistema com três equações e três incógnitas, escreva-o em forma

matricial e dê o signicado desta resolução em termos de combinação linear.

 
 2a1 − 3a2 + a3 = 5
  3a1 −
 2a2 + a3 = 0
(a) −a1 + 4a2 = 0 (b) −a2 + a3 = 0
 
 a +
1 − a3 = 1  a3 = 0
2
Matrizes e determinantes
Neste capítulo aprofundaremos o estudo da relação entre sistemas lineares, com-

binações lineares e determinantes. São diversos os métodos de resolução de sistemas

lineares: escalonamento; substituição; regra de Cramer, etc. Muitas vezes, utilizare-

mos a regra de Cramer, principalmente quando o sistema tem duas ou três variáveis.

Nestes casos, a resolução por regra de Cramer é tão prática quanto qualquer outro

método. De qualquer forma, apresentaremos o método de escalonamento.

A experiência em sala de aula com alunos neótos em Álgebra linear, tem mos-

trado que as demonstrações de muitas propriedades matriciais são infrutíferas. Com-

preender a complexidade de algumas argumentações combinatórias necessitam de um

maior amadurecimento matemático por parte do aluno. Uma apresentação desta-

cando os fatos principais e os algoritmos envolvendo determinantes têm se revelados

mais úteis. Seja qual for a opção para a apresentação deste capítulo em sala de aula,

leitura extensa ou resumo de alguns fatos, os teoremas devem ser destacados, pois

serão utilizados inúmeras vezes.

2.1 Matrizes
Uma matriz de ordem n × m é uma sequência de números reais, (vij ), 1 ≤ i ≤ n

e1 ≤ j ≤ m indicada por [A]. Por simplicidade, muitas vezes escrevemos [A] = [vij ].
O escalar vij é denominado a ij−ésima entrada da matriz. É de imensa utilidade

apresentar uma matriz na forma de tabela:

29
30 Matrizes e determinantes Cap. 2

 
v11 v12 · · · v1m
 v21 v22 · · · v2m 
 
 . . .

 .. .
.
.
.

[A] = 
 
· · · vim 

 vi1 vi2
 .. . .
 
. . 
 . . . 
vn1 vn2 · · · vnm
Sendo assim, índice i indica a linha da matriz e o índice j indica a coluna nas quais

a entrada vij se encontra. Portanto, uma matriz de ordem n×m tem n linhas e m
colunas. Sejam [A] = [vij ] e [B] = [wij ] duas matrizes de mesma ordem. Diz-se que

[A] = [B] se vij = wij , para todos os índices ij .


Para relacionar matriz e combinação linear, é conveniente utilizar uma notação

mais simples. Por exemplo, uma matriz será apresentada na forma

[A] = [v1 , v2 , . . . , vm ].

Esta notação indica que as entradas da j−ésima coluna de [A] é constituída pelas

coordenadas do vetor vj ∈ Rn , onde

vj = (v1j , v2j , . . . , vnj ).

Algumas matrizes são especiais e muitas serão apresentadas ao longo do texto. A

primeira a ser destaca é a matriz nula de ordem n × m que, por denição é a matriz

com todas as entradas iguais a zero e denotada por [0].


Indica-se por M(n, m) o conjunto das matrizes de ordem n × m. Neste conjunto

denimos duas operações binárias, a adição de matrizes e a multiplicação de uma

matriz por um escalar do seguinte modo, respectivamente. Se [A] = [vij ] e [B] = [wij ]
são duas matrizes de ordem n × m e λ um escalar, então
(
[A] + [B] = [vij + wij ]
.
λ[A] = [λ vij ]

É simples vericar que estas operações equipam o conjunto M(n, m) com a estrutura
de espaço vetorial, ver Denição 1.1, p. 3. O elemento neutro é a matriz nula.
Ÿ2.1 Matrizes 31

Além destas duas operações, dene-se o produto de matrizes. Se [A] = [vij ] é


uma matriz de ordem n × m e [B] = [wij ] é uma de ordem m × p denimos [A] · [B]
como sendo a matriz [C] = [uij ] de ordem n × p onde

uij = vi1 w1j + vi2 w2j + · · · + vim wmj .

O produto matricial merece algumas observações.

Exemplo 2.1. O produto matricial pode ser uma matriz nula sem que nenhuma

matriz seja nula. Por exemplo,

 
1 1 " #
2 −2
[A] =  1 1  e [B] = .
 
−2 2
1 1

Efetuando o produto obtemos

 
0 0
[A] · [B] =  0 0  . 3
 
0 0

Exemplo 2.2. Não podemos efetuar o produto matricial entre quaisquer duas ma-

trizes. As matrizes devem ter ordens n×m e m × p. Por exemplo, consideremos as

matrizes com ordens 3×3 e 3 × 2, respectivamente,

   
0 3 −1 2 3
[A] =  2 1 1  e [B] =  0 −2  .
   
−2 0 4 2 0

Podemos efetuar o produto [A] · [B], e obter uma matriz de ordem 3 × 2,


    
0 3 −1 2 3 −2 −6
[A] · [B] =  2 1 1   0 −2  =  6 4 ,
    
−2 0 4 2 0 4 −6

mas não podemos efetuar o produto [B] · [A], conforme a denição xada, pois a

matriz [A] deve ter tantas colunas quantas são as linhas de [B]. 3
32 Matrizes e determinantes Cap. 2

Para efetuar os produtos [A] · [B] e [B] · [A] devemos ter em mãos duas matrizes

quadradas de mesma ordem. Se não vejamos. Se a primeira matriz tem ordem n×m
e a segunda tem ordem m × p, o produto [A] · [B] pode ser efetuado. Caso possamos
efetuar o produto [B] · [A], então o números de colunas de [B] deve ser igual ao

número de linhas de [A], ou seja p = n. Logo, as matrizes são de ordem n × n.

Uma matriz de ordem n × n é denominada matriz quadrada de ordem n. Quando

as matrizes [A] e [B] são de mesma ordem, embora possamos efetuar o produto

[A] · [B] e [B] · [A], em geral, [A] · [B] 6= [B] · [A].

Exemplo 2.3. Consideremos as matrizes quadradas de ordem 2


" # " #
2 −4 0 4
[A] = e [B] = .
1 −2 2 2

Efetuando os produtos vericamos que [A] · [B] 6= [B] · [A], pois

" # " #
−8 0 4 −8
[A] · [B] = e [B] · [A] = . 3
−4 0 6 −12

SejaCn = {e1 , e2 , . . . , en } a base canônica do Rn . A matriz identidade de ordem


n, denotada por [Id]n , ou simplesmente por [Id] quando não causar ambiguidades
quanto à ordem, é a matriz denida por [Id] = [e1 , e2 , . . . , en ]. Se [Id] = [eij ], então

eii = 1 e eij = 0 quando i 6= j . Sendo assim, a matriz identidade tem a seguinte


conguração,
 
1 0 ··· 0 0
 0 1 ··· 0 0 
 
 . . . . 

 .. ..
[Id]n =  .
.
.
. 

 0 0 ··· 1 0 
 

0 0 ··· 0 1

Uma particularidade da matriz identidade de ordem n é comutar com qualquer

matriz [A] = [vij ] de ordem n e ser neutra em relação ao produto matricial:

[A] · [Id] = [A] = [A] · [Id],


Ÿ2.2 Determinantes 33

Vejamos. Seja cij a ij−ésima entrada do produto [A] · [Id]. Por denição, temos

n
X
cij = vjk ekj .
k=1

Como ej = (e1j , e2j , . . . , enj ), então


(
0 se i 6= k
eik =
1 se i=k

Daí segue que cij = vij , ou seja, [A] · [Id] = [A]. Os mesmos argumentos mostram

que [Id] · [A] = [A].

EXERCÍCIOS

1. Efetue o produto, quando possível, das matrizes.


" # " #
2 −4 −1 5 1
(a) [A] = . (d) [D] = .
1 −2 0 1 0
h i
(e) [E] = 0 −1 .
 
−1 4
(b) [B] =  1 −2 .
   
0
0 1 (f ) [F ] =  2 .
 
  −1
−1 0 −2 " #
(c) [C] = 

3 −2 1 .
 0
(g) [G] = .
0 1 1 2

2. Sejam [M ], [N ] matrizes n × m. Mostre que se [M ][P ] = [N ][P ], para toda

matriz coluna [P ], então [M ] = [N ].

2.2 Determinantes
Determinante é denido para matrizes quadradas de ordem n. Para não ser
repetitivo, ao escrevermos determinante de uma matriz estaremos assumindo
que a matriz é quadrada, mesmo que o fato não esteja explicitado.
34 Matrizes e determinantes Cap. 2

Denição 2.1. O determinante é uma função do espaço das matrizes quadra-


das de ordem n com valores reais possuindo as seguintes propriedades:

D1 det[Id] = 1;

D2 se vi = vi+1 , então det[v1 , . . . , vi , vi+1 , . . . , vn ] = 0;

D3 para qualquer w ∈ Rn e qualquer λ∈R vale a igualdade

det[v1 , . . . , vi +λw, . . . , vn ] = det[v1 , . . . , vi , . . . , vn ]+λdet[v1 , . . . , w, . . . vn ].

Posta a denição, precisamos mostrar que, de fato, determinantes existem.


Mas assumamos, por um momento, este fato. Da denição decorrem várias
propriedades úteis nos cálculos envolvendo determinantes.

Proposição 2.1. Valem as seguintes armações sobre o determinante de uma


matriz quadrada [A] = [v1 , v2 , . . . , vn ].

1. det[v1 , . . . , vi , vi+1 , . . . , vn ] = −det[v1 , . . . vi+1 , vi , . . . vn ].

2. Se algum vi é o vetor nulo, então det[v1 , v2 , . . . , vn ] = 0.

3. Se vi = vj , i 6= j , então det[v1 , . . . , vi , . . . , vj , . . . , vn ] = 0.

4. Somando-se a uma coluna da matriz [v1 , v2 , . . . , vn ] uma combinação li-


near de outros vetores colunas o determinante não se altera.

5. det[v1 , . . . , λvi , . . . , vn ] = λdet[v1 , . . . ., vi , . . . , vn ], para todo escalar λ.

Prova 1. Observe que det[v1 , . . . , vi + vi+1 , vi + vi+1 , . . . , vn ] = 0, pois duas


colunas adjacentes são iguais, propriedade D2 . Por D3 , obtemos

0 = det[v1 , . . . , vi + vi+1 , vi + vi+1 , . . . , vn ]


= det[v , . . . , v 
1
: 0, . . . , v ] + det[v , . . . , v , v
, v
i i n 1 i i+1 , . . . , vn ] +
:0
det[v1 , . . . , vi+1 , vi , . . . , vn ] + det[v1 , . . . , 
vi+1
 , v 

i+1 , . . . , vn ].
Ÿ2.2 Determinantes 35

De onde segue a armação.


2. Se vi = o, ele é uma combinação linear dos vetores colunas, digamos,

vi = 0v1 + · · · + 0vi−1 + 0vi+1 + · · · + 0vn .

Pela propriedade D3 , seguem as igualdades,

det[v1 , . . . , vi , vi+1 , . . . , vn ] = 0 det[v1 , . . . , v1 , vi+1 , . . . , vn ] +


0 det[v1 , . . . , v2 , vi+1 , . . . , vn ] +
+··· +
0 det[v1 , . . . , vn , vi+1 , . . . , vn ]
= 0.

3. Exercício. Sugestão: efetue permutações de colunas e utilize D2 .


4. Suponha que o vetor w = a1 v1 + a2 v2 + · · · + an−1 vn−1 seja adicionado à
última coluna de [A] = [v1 , . . . , vi , . . . , vj , . . . , vn ]. Calculemos,
n−1
det[v1 , . . . , vn−1 , vn + w] = det[v1 , . . . , vn−1 , vn + Σi=1 ai vi ]
= det[v1 , . . . , vn−1 , vn ] +
Σn−1 ai det[v1 , 
i=1 . 0, vn−1 , vi ]
. .
:
= det[v1 , . . . , vn−1 , vn ].

Cada parcela do somatório possui o determinante de uma matriz com duas


colunas iguais, portanto, são iguais a zero.
5. Observe as igualdades,

det[v1 , . . . , λvi , . . . , vn ] = det[v1 , . . . , vi + (λ − 1)vi , . . . , vn ]


= det[v1 , . . . , vi , . . . , vn ] +
(λ − 1)det[v1 , . . . , vi , . . . , vn ]
= λdet[v1 , . . . , vi , . . . vn ].

A igualdades são justicadas por D3 . 2


36 Matrizes e determinantes Cap. 2

Exercício 2.1. Seja [A] = [v1 , v2 , . . . , vn ], onde vi ∈ Rn . Mostre que se algum


vi é combinação linear dos outros vetores, então det[A] = 0. 3

Passemos à construção do determinante de uma matriz n × n.


Seja [A] uma matriz quadrada n × n. Indicaremos por [A]jib a ji−ésima
matriz reduzida de [A]. Isto signica que a matriz [A]ijb é a matriz (n − 1) ×
(n − 1) obtida de [A] por supressão da i−ésima linha e da j−ésima coluna:
 
v11 v12 ··· H
v
1j
H · · · v1m
 v21 v22 ··· H
vH
2j
 · · · v2m 
.. .. ..
  
. . .
 
 
[A]ijb =  Z

Z .
 vH
H
 vH
i1 
H i2 v
Zij
 v
Him 
.. .. .. .. 
 Z

Z  Z Z

Z  H 
. . . . 

 Z
Z
vn1 vn2 ··· H · · · vnm
vnj
H

Para xar ideias, examinemos as matrizes reduzidas de



2 3 0
[A] =  0 1 3  .
1 1 2

Temos 9 matrizes reduzidas, quatro delas são:


   
1 3 3 0
[A]c
11 = ; [A]c
21 = ;
1 2 1 2

   
2 0 2 3
[A]c
32 = ; [A]c
33 = .
0 3 0 1

Uma matriz quadrada de ordem n dá origem a n2 matrizes reduzidas.


A denição de determinante de uma matriz 1 × 1, [A] = [v11 ] será igual à
única entrada da matriz: det[A] = v11 .
Ÿ2.2 Determinantes 37

Denamos o determinante de uma matriz 2 × 2. Sejam v1 = (v11 , v21 ) e


v2 = (v12 , v22 ) vetores do R2 . Denimos o determinante pelo desenvolvimento
de Laplace pela primeira linha:
 
v11 v12
det[v1 , v2 ] = det = (−1)1+1 v11 det[A]c
11 + (−1)
1+2
v12 det[A]c
12 .
v21 v22

Aqui, as matrizes reduzidas são as matrizes 1 × 1

11 = [v22 ]
[A]c e 12 = [v21 ].
[A]c

Portanto, reescrevendo o determinante temos


 
v11 v12
det = v11 v22 − v21 v12 .
v21 v22

Deixaremos aos cuidados do leitor a vericação das propriedades D1 , D2 e D3 .

Exemplo 2.4. Sejam v1 = (2, 5) e v1 = (2, −3). Pela denição,


 
2 2
det[A] = det[v1 , v2 ] = det = −16. 3
5 −3

Posto o determinante de uma matriz 2 × 2, o determinante de uma matriz


3 × 3 é denido pelo desenvolvimento de Laplace pela primeira linha. Sejam

v1 = (v11 , v21 , v31 ), v2 = (v12 , v22 , v32 ) e v3 = (v13 , v23 , v33 )

vetores do R3 , então
 
v11 v12 v13
det[v1 , v2 , v3 ] = det  v21 v22 v23 
v31 v32 v33

= (−1)1+1 v11 det[A]c


11 + (−1)
1+2
v12 det[A]c
12 + (−1)
1+3
v13 det[A]c
13

     
v22 v23 v21 v23 v21 v22
= v11 det − v12 det + v13 det .
v32 v33 v31 v33 v31 v32
38 Matrizes e determinantes Cap. 2

Certamente o leitor conhece algum algoritmo para calcular o determinante de


uma matriz 3 × 3, utilize aquele que achar mais confortável. Embora seja
simples, mas enfadonho, também é rotina vericar que o determinante de
matrizes 3 × 3 goza das propriedades D1 , D2 e D3 .

Exemplo 2.5. Calculemos o determinante de uma matriz 3 × 3:


 
2 3 0      
1 3 0 3 0 1
det  0 1 3  = 2 · det − 3 · det + 0 · det
1 2 −1 2 −1 1
−1 1 2
= 2 · (−1) − 3 · 3
= −11. 3

Teorema 2.1. Para todo inteiro n≥2 a aplicação det : M (n, n) → R,

det[A] = (−1)1+1 v11 det[A]c


11 + (−1)
1+2
12 + · · · + (−1)
v12 det[A]c 1+m
v1n det[A]1n
c,

é um determinante, onde [A] = [v1 , v2 , . . . , vn ].

Prova Já vimos que existe um determinante para o espaço das matrizes


M(1, 1). Vamos supor, por indução, que já tenhamos mostrado a existência
de um determinante nos espaços de matrizes M(n − 1, n − 1).
Seja [A] = [vij ] uma matriz quadrada de ordem n, Dena a aplicação
det : M(n, n) → R pelo desenvolvimento de Laplace pela primeira linha:
n
X
det [A] = (−1)1+j a1j det[A]1jb .
j=1

Mostremos que esta aplicação satisfaz as condições da Denição 2.1, p. 34.


1.) Seja [Id] = [δij ] é a matriz identidade de ordem n, onde δij é o delta de
Kronecker,
0 se i 6= j

δij = .
1 se i = j
Ÿ2.2 Determinantes 39

É evidente que [Id]c


11 é a matriz identidade de ordem (n − 1). Portanto,
n
X 0
1+1
det[Id] = (−1) δ11 det[Id]c
11 + (−1)1+j δ1j
 det[Id] b
1j
j=2
= det[Id]n−1
= 1.

2.) Seja [A] = [v1 , v2 , . . . , vn ] uma matriz em M(n, n) na qual vj0 = vj0 +1 .
Sendo assim, quando j ∈ {1, 2, . . . , jb0 , j\ 0 + 1, . . . n} as 1j−ésimas matrizes
reduzidas de [A] possuem duas colunas iguais, implicando, por hipótese de
indução, que det[A]1j b = 0. Agora, quando j = j0 ou j = j0 + 1 temos a
igualdade das matrizes reduzidas [A]1j c0 = [A]1,j
\ 0 +1
e a igualdade das entradas
v1j0 = v1,j0 +1 . Portanto,

det [A] = (−1)1+j0 v1j0 det[A]1j


c0 + (−1)
1+j0 +1
v1,j0 +1 det[A]1,j
\ 0 +1

0
 
= (−1)1+j0 +
 (−1)1+j0 +1 v1j0 det[A]1j c0

= 0.

3.) Sejam [A] = [v1 , v2 , . . . , vn ] uma matriz de M(n, n), λ um escalar, w =


(w11 , w12 , . . . , w1n ) um vetor de Rn , [W ] = [o1 , . . . , oj0 −1 , w, oj0 +1 , . . . , on ], onde
oi é o vetor nulo indexado pela coluna que ocupa, e

[B] = [v1 , v2 , . . . , vj−1 , w, vj+1 . . . , vn ].

Desejamos mostrar que det[C] = det[A] + λdet[B], onde [C] = ([A] + λ[W ]).
Na notação aqui utilizada, [C] = [v1 , v2 , . . . , vj0 + λw, . . . , vn ]. Observamos que
(
[C]1jb = [A]ijb + λ[W ]1jb , se j 6= j0
.
[C]1j
c0 = [A]1j c0

Por hipótese de indução temos


(
det[C]1jb = det[A]ijb + λdet[B]1jb , se j 6= j0
.
det[C]1j
c0 = det[A]1jc0 = det[B]1j
c0
40 Matrizes e determinantes Cap. 2

Se [C] = [cij ], calculemos:


n
X
det[C] = (−1)1+j c1j det[C]1jb
j=1
X  
= (−1)1+j v1j det [A]1jb + λ[B]1jb + (−1)1+j0 (v1j0 + λw1j0 )det[A]1j
c0
j6=j0
X
= (−1)1+j v1j det[A]ijb + (−1)1+j0 v1j0 det[A]1j
c0
j6=j0
!
X
+ λ (−1)1+j det[B]1jb + (−1)1+j0 w1j0 det[B]1j
c0
j6=j0
= det[A] + λdet[B]. 2

Exemplo 2.6. Calculemos o determinante de uma matriz 4 × 4.


 
0 2 3 0
−1 −1
   
1 3 4 3
 −1 4 1 3 
 
det   = −2 det  2 1 2  + 3 det  2 −1 2 
 2 −1 1 2 
0 1 1 0 1 1
0 1 1 1
= −7. 3

Proposição 2.2. Existe uma única função determinante no espaço M(n, n).
Prova Mostraremos que qualquer determinante de uma matriz quadrada de
ordem n pode ser expresso por uma única forma padrão.
Uma permutação do conjunto In = {1, 2, . . . , n} é uma aplicação bijetora
σ : In → In . Por simplicidade, escreveremos σ(k) = ik e indicamos por Sn o
conjunto1 das permutações de In .
Seja [A] = [v1 , v2 , . . . , vn ] uma matriz quadrada de ordem n. Escrevamos
n
X
vj = vij ei
i=1

1 A operação de composição de funções equipa Sn com uma estrutura de grupo.


Ÿ2.2 Determinantes 41

Como o índice i é apenas uma etiqueta, pelo mostrado acima, podemos escrever
a avaliação da seguinte forma:
" n n n
#
X X X
det[v1 , v2 , . . . , vn ] = det vi1 1 ei1 , vi2 2 ei2 , . . . , vin n ei
i1 =1 i2 =1 in =1
n X
X n n
X
= ··· vi1 1 vi2 2 · · · vin n det[ei1 , ei2 , . . . , ein ]
i1 =1 i2 =1 in =1

Quando duas colunas de [ei1 , ei2 , . . . , ein ] são iguais, já sabemos que

det[ei1 , ei2 , . . . , ein ] = 0.

Portanto, o somatório pode ser reduzido a uma soma sobre índices nos quais a
matriz [ei1 , ei2 , . . . , ein ] não tem colunas iguais. Com isto podemos denir uma
permutação σ : In → In , onde cada índice de coluna j associamos ao índice
σ(j) = ij . Reescrevendo o somatório utilizando o grupo das permutações:
X
det[v1 , v2 , . . . , vn ] = vσ(1)1 vσ(2)2 · · · vσ(n)n det[eσ(1) , eσ(2) , . . . , eσ(n) ].
σ∈Sn

Agora, [eσ(1) , eσ(2) , . . . , eσ(n) ] é uma matriz obtida por permutações das colunas
da matriz identidade, portanto de seu valor é igual a 1 ou −1.
Para continuar, utilizaremos a Teoria das Permutações, ver detalhes em [7].
Uma transposição k−elementar, 1 ≤ k ≤ n − 1, é a permutação τk : In → In ,

se i ∈

 i / {k, k + 1}
τk (i) = k + 1 se i = k .
se i = k + 1

k

Toda permutação σ é uma composição de um número nito de transposições


k−elementares, σ = τkr ◦ · · · ◦ τk2 ◦ τk1 . Tal decomposição não é única, mas
existe uma paridade entre duas decomposições, isto é, se

τk1 ◦ τk2 ◦ · · · ◦ τkr = τl1 ◦ τl2 ◦ · · · ◦ τls


42 Matrizes e determinantes Cap. 2

então r e s são pares ou (exclusivo) r e s são ímpares. Isto permite denir o


sinal de uma permutação σ pondo (σ) = (−1)r , onde r é o número de parcelas
de uma decomposição de σ por transposições k−elementares.
Finalmente, uma permutação σ : In → In é uma função invertível. Por-
tanto, se σ = τk1 ◦ τk2 ◦ · · · ◦ τkr , segue que σ −1 = τk−1
r
◦ · · · ◦ τk−1
2
◦ τk−1
1
. Logo,
uma permutação e sua inversa têm a mesma paridade, (σ) = (σ ). −1

A matriz [eσ(1) , eσ(2) , . . . , eσ(n) ] é obtida por permutações das colunas da


matriz identidade. Ou seja, é obtida por uma sequência de transposições
k−elementares de colunas da matriz identidade. Como cada transposição
k−elementar permuta o sinal do determinante, e o determinante da matriz
identidade é igual a 1, temos
det[eσ(1) , eσ(2) , . . . , eσ(n) ] = (σ).
Portanto, X
det[v1 , v2 , . . . , vn ] = (σ)vσ(1)1 vσ(2)2 · · · vσ(n)n .
σ∈Sn
Observe que ao longo da construção acima não foi utilizado a denição de
determinante por desenvolvimento de Laplace, apenas as propriedades exigi-
das na Denição 2.1, p. 34 e as consequências citadas na Proposição 2.1, p.
34. Como qualquer determinante expressa-se desta forma, somente existe um
determinante. 2
Seja [A] = [v1 , v2 , . . . , vn ] = [vij ] é uma matriz n × m, como sabemos
vj = (v1j , v2j , . . . , vnj ).
A matriz transposta de [A] é a matriz m × n indicada pos [A]t e denida por
[A]t = [w1 , w2 , . . . , wn ]
cujos vetores colunas são wj = (vj1 , vj2 , . . . , vjn ), isto é, o j−ésimo vetor coluna
de [A]t é igual ao j−ésimo vetor linha de [A]. Por exemplo,
 √  √
2 −3 0 2 −1 π
 

[A] =  −1 1 53  e [A]t =  −3 1 1 .
3
π 1 3 0 5
3
Ÿ2.2 Determinantes 43

Lema 2.1. ([A] [B])t = [B]t [A]t para qualquer produto matricial.

Prova Sejam [A] = [vij ], [B] = [bij ]. Denote [A]t = [vij t


], [B]t = [btij ], onde
atij = aji e btij = bji . Calculemos a entrada cij de [B]t [A]t .

cij = bti1 v1j


t
+ bti2 v2j
t
+ · · · + btin vnj
t

= b1i vj1 + b2i vj2 + · · · + bni vjn


= vj1 b1i + vj2 b2i + · · · + vjn bni

Calculemos a entrada dtij de ([A] [B])t . Como sempre, dtij = dji e dji é uma
entrada de [A] [B].

dtij = dji
= vj1 b1i + vj2 b2i + · · · + vjn bni .

Como cij = dtij , temos mostrado que ([A] [B])t = [B]t [A]t 2
Proposição 2.3. Se [A] uma matriz quadrada, então det[A]t = det[A].
Prova Se [A] = [vij ], pelo visto temos
X
det[A] = (σ)aσ(1)1 aσ(2)2 ...aσ(n)n .
σ∈Sn

Se σ −1 é a permutação inversa de σ e σ(i) = j , então aσ(i)i = ajσ−1 (j) . Portanto,


valem as igualdades dos produtos

aσ(1)1 aσ(2)2 · · · aσ(n)n = a1σ−1 (1) a2σ−1 (2) · · · anσ−1 (n) .

Desde que o sinal de uma permutação é igual ao sinal de sua permutação


inversa podemos escrever
X
det[A] = (σ −1 )a1σ−1 (1) a2σ−1 (2) · · · anσ−1 (n)
σ −1
X
= (σ)a1σ(1) a2σ(2) · · · anσ(n)
σ
= det[A]t . 2
44 Matrizes e determinantes Cap. 2

Este último resultado diz um pouco mais. O desenvolvimento de Laplace


pela primeira linha de [A] é igual ao desenvolvimento de Laplace pela primeira
coluna de [A]. Isto implica que podemos fazer o desenvolvimento de Laplace
por qualquer coluna, desde que respeitemos o sinal das transposições de colunas
que foram feitas. Em outras palavras, se zermos o desenvolvimento de Laplace
pela j−ésima coluna temos a relação

det[v1 , . . . , vj−1 , vj , vj+1 . . . , vn ] = (−1)j−1 det[vj , v1 , . . . , vj−1 , vj+1 , . . . , vn ].

Relação similar é válida para o desenvolvimento pela i−ésima linha.

Proposição 2.4. Se [A] e [B] são duas matrizes quadradas de ordem n, então

det ([A] · [B]) = det[A] · det[B].

Prova Fixemos notações: [A] = [vij ], [B] = [bij ] e [C] = [A] · [B] = [cij ].
A j−ésima matriz coluna de [C] = [A] · [B] é uma combinação linear das
colunas de [A] cujos coecientes são as j−ésimas entradas de [B], mais preci-
samente,
cj = b1j v1 + b2j v2 + · · · + bnj vn .
Calculemos o determinante:

det ([A] · [B]) = det [c1 , c2 , . . . , cn ]


" n n n
#
X X X
= det bk1 1 vk1 , bk2 2 vk2 . . . , bkn n vkn
k1 =1 k2 =1 kn =1
n
X Xn n
X
= ··· bk1 1 bk2 2 · · · bkn n det[vk1 , vk2 , . . . , vkn ].
k1 =1 k2 =1 kn =1

Quando duas colunas de [vk1 , vk2 , . . . , vkn ] são iguais, sabemos que

det[vk1 , vk2 , . . . , vkn ] = 0.

Portanto, o somatório pode ser reduzido a uma soma sobre índices nos quais
a matriz [vk1 , vk2 , . . . , vkn ] não tem colunas iguais. Com isto, podemos denir
Ÿ2.2 Determinantes 45

uma permutação σ : In → In , onde cada índice de coluna j associamos ao índice


σ(j) = kj . Reescrevendo o somatório utilizando o grupo das permutações:

X
det ([A] · [B]) = bσ(1)1 bσ(2)2 · · · bσ(n)n det[vσ(1) , vσ(2) , . . . , vσ(n) ].
σ∈Sn

A matriz [vσ(1) , vσ(2) , . . . , vσ(n) ] é obtida de [A] = [v1 , v2 , . . . , vn ] por permu-


tação de colunas. Com o argumento de transposição k−elementar, temos

det[vσ(1) , vσ(2) , . . . , vσ(n) ] = (σ)det[A].

Por substituição, chegamos a


!
X
det ([A] · [B]) = (σ)bσ(1)1 bσ(2)2 · · · bσ(n)n det[v1 , v2 , . . . , vn ]
σ∈Sn
= det[B] · det[A]. 2

EXERCÍCIOS
1. Calcule o determinante de cada matriz.

" #  
2 −2 1 0 0 1
(a) [A] = .
4 1
 2 1 −1 2 
(d) [D] =  .
 
   0 −2 0 −2 
2 0 2 1 0 2 3
(b) [B] =  −1 3 1 .
 
−1 2 0  
  1 2 3 0
−1 3 4  1 2 1 0 
(e) [E] =  .
 
(c) [C] =  1 −1 0 . 1 0 1 0
 
 
1 −2 −1 1 −2 3 −4

2. Sejam v1 = (1, −2) e v2 = (4, 5) vetores de R2 . Verique as igualdades.


46 Matrizes e determinantes Cap. 2

(a) det[e1 , e2 ] = 1. (b) det[v1 , v2 ] = 13. (c) det[vi , vi ] = 0.

3. Sejam v e w vetores do R2 . Sabendo-se que det[v, w] = −2, calcule:

(a) det[2v, w]. (d) det[v + w, w].


(b) det[−v, −4w]. (e) det[3v, −4w].
(c) det[w, v]. (f ) det[2v − 3w, 4v + 5w].

4. Seja w = (−3, 1) em R2 . Verique as igualdades onde os vetores v1 e v2 são

aqueles do item anterior.

(a) det[v1 , v2 + 3w] = det[v1 , v2 ] + 3det[v1 , w].


(b) det[v1 − 2w, v2 ] = det[v1 , v2 ] − 2det[w, v2 ].

5. Sejam v1 = (0, −2, 1) e v2 = (1, 1, 0) e v3 = (3, 1, 1) vetores de R3 . Verique:

(a) det[e1 , e2 , e3 ] = 1; (c) det[v1 , v1 , v3 ] = 0;


(b) det[v1 , v2 , v3 ] = 1; (d) det[v1 , v2 , v2 ] = 0.

6. Considere o vetor w = (1, 1, 2) em R3 . Verique as igualdades calculando os

determinantes. Os vetores v1 , v2 e v3 são aqueles do item anterior.

(a) det[v1 , 3v2 − w, v3 ] = 3det[v1 , v2 , v3 ] − det[v1 , w, v3 ].


(b) det[v1 , v2 , v3 + 2w] = det[v1 , v2 , v3 ] + 2det[v1 , v2 , w].

7. Sejam [A] e [B] matrizes n × n. Responda se a armação é falsa ou verdadeira.

(a) det ([A] + [B]) = det[A] + det[B].


(b) det[λA] = λdet[A].
(c) det ([A]n ) = (det [A])n , para todo inteiro positivo n.

8. Verique a identidade
 
1 1 1
det  a b c  = (b − a)(c − a)(c − b).
 
a2 b2 c2
Ÿ2.3 Matrizes invertíveis 47

2.3 Matrizes invertíveis


Uma matriz quadrada [A] de ordem n é dita invertível se existe uma matriz
quadrada [B] de ordem n tal que

[A] [B] = [Id] = [B] [A],

onde [Id] é a matriz identidade de ordem n.

Exemplo 2.7. A matriz quadrada de ordem 2


 
1 1
[A] =
1 2

é invertível, pois se  
2 −1
[B] =
−1 1
verica-se que
       
2 1 1 −1 1 0 1 −1 2 1
= = .
1 1 −1 2 0 1 −1 2 1 1

Mas nem toda matriz tem inversa. Por exemplo, a matriz


 
1 1
[A] =
−1 −1

não tem inversa. Vejamos. Suponha, por absurdo, que a matriz


 
a c
[B] =
b d

seja a inversa de [A]. Por denição de matriz inversa segue que [Id] = [A] · [B].
Calculando temos
       
1 0 1 1 a c a+b c+d
= · =
0 1 −1 −1 b d −a − b −c − d
48 Matrizes e determinantes Cap. 2

Da igualdade de matrizes obtemos um sistema de equações lineares,



a + b = 1
.
−a − b = 0

Daí segue que 0 = 1! Uma contradição. 3

Caso exista uma matriz [B], tal que [A] · [B] = [Id] = [A] · [B] chamaremos
[B] de inversa de [A] e denotamos a inversa por [A]−1 .

Exercício 2.2. Sejam [A] e [B] matrizes quadradas de ordem n e invertíveis.


Mostre as armações.
−1
1. [A]−1 é invertível e ([A]−1 ) = [A].

2. [A] · [B] é invertível e ([A] · [B])−1 = [B]−1 · [A]−1 .

3. A inversa de [A] é única. 3

Uma condição necessária para uma matriz [A] ser invertível é seu determi-
nante não ser zero, pois pela Proposição 2.4, p. 44, temos

1 = det[Id] = det [A] · [A]−1 = det[A] det [A]−1 .


 

Como o porduto det[A] e det ([A]−1 ) é igual a 1, podemos concluir dois fatos.

1o Se [A] é invertível, então det[A] 6= 0.

2o Se [A] é invertível, então det ([A]−1 ) = (det[A])−1 .

Veremos que primeira condição é suciente: se det[A] 6= 0, então [A] é


invertível. Para isto, apresentaremos um procedimento para inverter matrizes.
No capítulo seguinte mostraremos outro método mais eciente, em termos de
rapidez quando a ordem da matriz quadrada for n > 3.
Ÿ2.3 Matrizes invertíveis 49

Exemplo 2.8. Concluir que uma matriz quadrada de ordem 2 é invertível é


simples e o algoritmo envolvido é de fácil memorização. Consideremos
 
a b
[A] = .
c d
A matriz adjunta clássica de [A] é a matriz denotada e denida por
 
d −b
ad([A]) = .
−c a
Efetuemos a multiplicação das duas matrizes obtemos
 
ad − bc 0
[A] ad([A]) = = (ad − bc) [Id] = det[A] [Id].
0 ad − bc
Obteremos o mesmo resultado se efetuarmos o produto adj ([A]) [A]. Estes
cálculos mostram a armação: uma matriz quadrada com ordem 2 é invertível
se, e somente se, det[A] 6= 0, e mais, se ela é invertível, então
1
[A]−1 = ad([A]) e det[A]−1 = (det[A])−1 . 3
det[A]
Para generalizar tal procedimento, deniremos a adjunta clássica de uma
matriz [A] de ordem n. Para isto, lançaremos mão das suas reduzidas [A]ijb .
O ij -ésimo cofator da matriz [A] = [vij ] é o escalar
cij = (−1)i+j det[A]ijb .
A adjunta clássica de [A] é a matriz transposta da matriz dos cofatores,
ad([A]) = [cij ]t .
Exemplo 2.9. Exempliquemos. Considere a matriz
 
1 2 0
[A] =  1 4 3  .
−1 0 2
[A] dá origem a nove matrizes reduzidas, uma para cada índice ij . Explicitemos
três delas:
50 Matrizes e determinantes Cap. 2

     
4 3 1 0 2 0
[A]c
11 = ; [A]c
32 = ; [A]c
21 = ;
0 2 1 3 0 2

Para calcular a adjunta clássica da matriz [A], calculamos a transposta da


matriz dos cofatores,
t 
11 −det[A]c 8 −4
 
det[A]c 12 det[A]c13 6
ad([A]) =  −det[A]c 21 det[A]c22 −det[A]c23
 =  −5 2 −3  .
31 −det[A]c
det[A]c 32 det[A]c33 4 −2 2
Observe que det[A] = −2 6= 0. Calculando o produto matricial ad([A]) [A],
obtemos
8 −4 −2
    
1 2 0 6 0 0
 1 4 3   −5 2 −3  =  0 −2 0  = −2 · [Id],
−1 0 2 4 −2 2 0 0 −2
ou seja, ad([A]) [A] = det[A] [Id]. Portanto, se
1
[B] = ad [A],
det[A]
então [A] [B] = [Id]. Do mesmo modo verica-se que [B] [A] = [Id]. Isso
signica que [A] é invertível e sua inversa é [A]−1 = det[A]
1
ad [A]. 3
Proposição 2.5. Se [A] é uma matriz quadrada de ordem n, então

ad([A]) [A] = det[A][Id] = [A] ad([A]).

Prova Escrevamos [A] = [vij ] e ad ([A]) = [cij ].


Calculemos ij -ésima entrada
do produto ad([A])[A] = [dij ]. Recordando que cij = (−1)i+j det[A]jib , temos
n
X n
X
dij = cik vkj = (−1)i+k vkj det[A]ki
b.
k=1 k=1

Para i = j , segue que


n
X
djj = (−1)k+j vkj det[A]kj
c.
k=1
Ÿ2.3 Matrizes invertíveis 51

é o desenvolvimento de Laplace de det[A] pela j−ésima coluna de det[A]. Por-


tanto, djj = det[A] para 1 ≤ j ≤ n. Avaliemos as outras entradas dij .
Seja [B] = [bij ] a matriz obtida de [A] = [v1 , v2 , . . . , vn ] por substituição de
vj0 por vi0 , com j0 6= i0 . Sendo assim,

det[B] = 0, [B]kj
c0 = [A]kj
c0 e bkj0 = vki0 .

Avaliemos det[B] = 0 com o desenvolvimento de Laplace pela j0 −ésima coluna.


n
X
0 = (−1)k+j0 bkj0 det[B]kj
c0
k=1
n
X
= (−1)k+j0 vki0 det[A]kj
c0
k=1
n
X
= cj0 k vki0
k=1
= di0 j0

Isto mostra que ad([A]) [A] = det[A] [Id].


Para nalizar, veriquemos que ad([A])[A] = det[A] [Id]. Utilizaremos a
identidade ad([A]t ) = ad([A])t e a regra de transpor produto de matrizes,

[A] ad([A]) = (ad([A])t [A]t )t


= 0(ad([A]t ) [A]t )t
= (det[A]t [Id])t
= det[A] [Id]. 2

Corolário 2.1. As seguintes armações são equivalentes.

1. [A] é uma matriz invertível.

2. det[A] 6= 0.

Em particular, se [A] é uma matriz invertível, então det ([A]−1 ) = (det[A])−1 .


52 Matrizes e determinantes Cap. 2

Prova ⇒) Se [A] é invertível, pela Proposição 2.4, p. 44, temos

1 = det[Id] = det [A] [A]−1 = det[A] det[A]−1 .




Como o produto de det[A] e det[A]−1 é igual a 1, nenhum destes determinantes


pode ser zero. Isso mostra o item 2 e que det[A]−1 = (det[A])−1 .
⇐) Suponha que det[A] 6= 0. Pela Proposição 2.5, a inversa de A é a matriz
1
[A]−1 = ad([A]) 2
det[A]
Finalizaremos com um corolário que evita cálculos. Quando uma matriz
tem uma `inversa à direita, ou à esquerda, então ela é a inversa de [A].
Corolário 2.2. Se [A] e [B] são matrizes quadradas de ordem n tais que
[A][B] = [Id], então [A] é invertível e [B] = [A]−1 .
Prova As igualdades
1 = det[Id] = det([B] [A]) = det[B] det[A]
implicam que det[B] 6= 0. Portanto, [B] é invertível. Calculemos,

[A] [B] = [B]−1 [B][A] [B] = [B] [B]−1 = [Id].


| {z }
[Id]

Sendo assim, [B] também é a inversa à direita de [A]. Logo, [A] é invertível
e [B] = [A]−1 . 2
Exercício 2.3. Mostre que se [A] e [B] são matrizes quadradas de ordem n
tais que [A][B] = [Id], então [A] é invertível e [B] = [A]−1 . 3

EXERCÍCIOS
1. Calcule a inversa da matriz, se existir.
   
" # 2 10 3 1 −1 −1
1 1
(a) [A] = . (b) [B] =  0 1 3  . (c) [C] =  4 2 8 .
   
1 2
0 0 2 5 1 7
Ÿ2.4 Regra de Cramer 53

2. Calcule det[A], ad([A]) e [A]−1 onde


 
0 0 1
[A] =  0 2 0  .
 
3 0 0

3. Calcule a potência k das matrizes e verique que todas são invertíveis. Calcule

a inversa da potência k.
 
" # 1 1 1 " #
1 1 cos t −sent
a) [A] = . b) [B] =  0 1 1 . c) [C] = .
 
0 1 sent cos t
0 0 1
4. Prove que o determinante é invariante por conjugação de matrizes, ou seja, se

[R] e [N ] são matrizes quadradas n×n e [R] é invertível, então

det ([R]−1 [N ][R]) = det [N ].

2.4 Regra de Cramer


Fixemos o conjunto de n vetores β = {v1 , v2 , . . . , vn } ⊂ Rn . Seja w =
(w1 , w2 , . . . , wn ), um vetor arbitrário de Rn . Desejamos saber se w é uma
combinação linear de vetores de β , isto é, se existem escalares a1 , a2 , . . . , an
tais que w = a1 v1 + a2 v2 + · · · + an vn . Tal pergunta dá origem ao sistema linear
de n equações com n incógnitas,


 v11 a1 + v12 a2 + · · · + v1n an = w1

v21 a1 + v22 a2 + · · · + v2n an = w2

,

 ···

 v a + v a + ··· + v a = w
n1 1 n2 2 nn n n

onde os coecientes são as coordenadas dos vetores vj = (v1j , v2j , . . . , vnj ), e


as incógnitas são a1 , a2 , . . . , an . Em termos matriciais temos
    
v11 v12 . . . v1n a1 w1
 v21 v22 . . . v2n   a2   w2 
    
= .
 ... ... ... ...  :   : 
 
vn1 vn2 . . . vnn an wn
54 Matrizes e determinantes Cap. 2

Se a matriz [A] = [v1 , v2 , . . . , vn ] for invertível, podemos determinar as incóg-


nitas ai 's multiplicando ambos membros desta identidade matricial por [A]−1
e temos resolvido o sistema,
   −1  
a1 v11 v12 . . . v1n w1
 a2   v21 v22 . . . v2n   w2 
     
= .
 :   ... ... ... ...   : 
  
an vn1 vn2 . . . vnn wn
Portanto, se det[A] 6= 0, qualquer vetor w ∈ Rn pode ser escrito como com-
binação dos vetores de β = {v1 , v2 , . . . , vn }. Assim ca mostrado a primeira
parte do Teorema 1.1, p. 26 que cará registrado no seguinte lema.
Lema 2.2. Se det[v1 , v2 , . . . , vn ] 6= 0, então β = {v1 , v2 , . . . , vn } é uma base
n
ordenada de R .

Exemplo 2.10. Considere β = {v1 , v2 } onde v1 = (3, −1) e v2 = (1, 1) são ve-
tores do R . Desejamos escrever w = (x, y), um vetor de R2 , como combinação
2

linear da forma w = a1 v1 + a2 v2 . Isto dá origem ao sistema


    
3 1 a1 x
= .
−1 1 a2 y
A condição det[v1 , v2 ] 6= 0, implica que: β é uma base de R2 ; [A] é invertível;
os valores das incógnitas são
   −1        x−y 
a1 3 1 x 1 1 −1 x 4
= = = x+3y .
a2 −1 1 y 4 1 3 y 4

Portanto, w = x−y
4
v1 + x+3y
4
v2 . 3
Mostremos a segunda parte do Teorema Teorema 1.1, p. 26.
Lema 2.3. det[v1 , v2 , . . . , vn ] 6= 0, então
Se qualquer vetor w ∈ Rn é expresso
como w = a2 v1 + a2 v2 + · · · + an vn , onde
det [v1 , . . . , vj−1 , w, vj+1 , . . . , vn ]
aj = ,
det[A]
para todo j ∈ {1, . . . , n}.
Ÿ2.4 Regra de Cramer 55

Prova Como β = {v1 , v2 , . . . , vn } é uma base, um vetor arbitrário w é expresso


por w = a1 v1 + a2 v2 + · · · + an vn . Calculemos o determinante da matriz obtida
por substituição do j0 -ésimo vetor coluna de [A] = [v1 , v2 , . . . , vn ] por w,
" #
X
det [v1 , . . . , vj0 −1 , w, vj0 +1 , . . . , vn ] = det v1 , . . . , vj0 −1 , ak vk , vj0 +1 , . . . , vn
k
X
= ak det [v1 , . . . , vj0 −1 , vk , vj0 +1 , . . . , vn ] .
k

Quando k 6= j0 temos det [v1 , . . . , vj0 −1 , ak vk , vj0 +1 , . . . , vn ] = 0, pois dois veto-


res são iguais. O resultado segue da igualdade

det [v1 , . . . , vj0 −1 , w, vj0 +1 , . . . , vn ] = aj0 det[v1 , . . . , vj . . . , vn ]. 2

A demonstração do Teorema 1.1 não está completa, resta mostrar que os


coecientes determinados pela regra de Cramer são únicos.

Lema 2.4. Se det[v1 , v2 , . . . , vn ] 6= 0, então para cada vetor w ∈ Rn existe


uma, e somente uma, coleção de escalares {a1 , a2 , . . . , an } tal que

w = a1 v1 + a2 v2 + · · · + an vn .

Prova A regra de Cramer explicita uma coleção de escalares tais que w =


a1 v1 + a2 v2 + · · · + an vn . Suponha, por absurdo, que exista outra combinação
linear w = b1 v1 + b2 w2 + · · · + bn vn com algum ai 6= bi . Por subtração obtemos

(a1 − b1 )v1 + (a2 − b2 )v2 + · · · + (ai − bi )vi + · · · + (an − bn )vn = o.

Como ai − bi 6= 0, podemos escrever


a1 − b 1 ai−1 − bi−1 ai+1 − bi+1 an − b n
vi = − v1 − · · · − vi−1 − vi+1 − · · · − vn .
ai − b i ai − b i ai − b i ai − b i
A igualdade acima mostra vi é combinação linear dos outros vetores, logo
det[v1 , v2 , . . . , vn ] = 0, uma contradição. 2
Prova do Teorema 1.2, p. 27 Já sabemos que se det[v1 , v2 , . . . , vn ] 6= 0 o
conjunto β = {v1 , v2 , . . . , vn } é uma base de Rn . Vejamos a recíproca.
56 Matrizes e determinantes Cap. 2

Seja β = {v1 , v2 , . . . , vn } uma base do Rn . Como antes, seguiremos a


notação vj = (v1j , v2j , . . . , vnj ).
Considere a base canônica Cn = {e1 , e2 , . . . , en }. A hipótese sobre β garante
que cada vetor da base canônica escreve-se como combinação linear dos vetores
de β , digamos,
ej = a1j v1 + a2j v2 + · · · + anj vn .
Matricialmente temos
    
0 v11 v12 ... v1n a1j
 0   v21 v22 ... v2n  a2j 
 ..   .. .. .. ..
    
 .   . . . .
 
   ··· 



 1 =
[ej ] =    vj1 vj2 ... vjn   aij .
 ..   .. .. ..   ..
 
 .   . . .  .

   ... 


 0   vn−1,i vn−1,2 . . . vn−1,n   an−1,j 
0 v1n vn2 . . . vnn anj
Sejam
 
a11 a12 ... a1n
 a21 a22 ... a2n 
.. .. ..
 
. . .
 

 ··· 

[B] = 
 aj1 aj2 ... ajn ,
 .. .. ..

 . . .

 ... 

 an−1,i an−1,2 . . . an−1,n 
a1n an2 . . . ann
[A] = [v1 , v2 , . . . , vn ] e [Id] = [e1 , e2 , . . . en ]. Sendo assim, [Id] = [A]·[B]. Como
det[Id] = 1, pela Proposiçãp 2.4, p. 44, concluímos que

det[A] · det[B] = 1

Logo, det[A] 6= 0. 2
Em muitos cálculos, utilizaremos a seguinte versão da regra de Cramer. A
demonstração em tudo é semelhante à anterior, por isto será omitida.
Ÿ2.4 Regra de Cramer 57

Proposição 2.6. Seja [A] = [v1 , v2 , . . . , vn ] a matriz dos coecientes do sis-


tema de equações lineares



 v11 a1 + v12 a2 + · · · + v1n an = w1

v21 a1 + v22 a2 + · · · + v2n an = w2

.

 ···

 v a + v a + ··· + v a = w
n1 1 n2 2 nn n n

Se det[A] 6= 0, então o sistema tem um único conjunto solução {a1 , a2 , . . . , an },


a saber,
det [v1 , . . . , vj−1 , w, vj+1 , . . . , vn ]
aj = ,
det[A]
para todo j ∈ {1, . . . , n}.

EXERCÍCIOS
1. Considere o sistema de equações lineares 3 × 3,

 2a1 + 2a2 + a3 = 5

6a1 − a2 + 2a3 = 1 .

 2a − 4a
1 2 = 0

(a) Relacione as soluções do sistema com uma combinação linear.

(b) Resolva o sistema.

2. Considere o sistema de equações lineares 2 × 2,


(
2a1 + 9a2 = 1
.
a1 + 5a2 = −1

(a) Relacione as soluções do sistema com uma combinação linear.

(b) Resolva o sistema.


58 Matrizes e determinantes Cap. 2

2.5 Sobre determinante igual a zero


Para completar o estudo da relação entre combinações lineares e determi-
nantes, encerraremos o capítulo com um teorema cuja demonstração pode ser
omitida numa primeira leitura.
Teorema 2.2. Seja [A] = [v1 , v2 , . . . , vn ] uma matriz quadrada de ordem n.
As seguintes armações são equivalentes.

1. Existe um vetor vi que é combinação linear dos outros vetores colunas.

2. det[A] = 0.
Prova ⇒) Para simplicar a escrita, vamos supor que
vn = a1 v1 + a2 v2 + · · · + an−1 vn−1 .
Calculemos,
n−1
det[v1 , . . . , vn−1 , vn ] = det[v1 , . . . , vn−1 , Σi=1 ai v i ]
= Σn−1 ai det[v1 , 
i=1 . 0, vn−1 , vi ]
. .
:
= 0.
Cada parcela do somatório é igual zero, pois existem duas colunas iguais.
⇐) Vamos supor que det[A] = det[v1 , v2 , . . . , vn ] = 0.
A demonstração será por indução em n.
Seja [A] = [v1 , v2 ] uma matriz 2 × 2. Suponhamos que
 
v11 v12
det[A] = det = v11 v22 − v12 v21 = 0,
v21 v22
Se v1 = 0, então v1 = 0 · v2 e terminamos. Suponha que v1 = (v11 , v21 ) 6= (0, 0).
Sem perda de generalidade, podemos supor que v11 6= 0. Sendo assim, como o
determinante é zero, temos v22 = vv1112
v21 e
" #
v12
v11 v11 v11
[A] = .
v21 vv12
11
v21
Ÿ2.5 Sobre determinante igual a zero 59

Logo, v2 = v12
v,
v11 1
ou seja, v2 é uma combinação linear de v1 .
Vamos supor que a armação seja verdadeira para matrizes n × n.
Seja [A] = [v1 , v2 , . . . , vn , vn+1 ] uma matriz (n + 1) × (n + 1) com det[A] = 0.
A demonstração seguirá do estudo de casos. Escrevamos a matriz [A]:
 
v1,1 v1,2 · · · v1,i0 v1,i0 +1 · · · v1,n+1
 v2,1 v2,2 · · · v2,i0 v2,i0 +1 · · · v2,n+1 
[A] =  . . . . . .
 
 .. .. .. .. .. 
vn+1,1 vn+1,2 · · · vn+1,i0 vn+1,i0 +1 · · · vn+1,n+1

1o caso A primeira linha da matriz é identicamente nula.


Sendo assim, a matriz reduzida [A]c 11 é uma matriz n × n na forma,
 
v2,2 · · · v2,i0 v2,i0 +1 · · · v2,n+1
[A]c v2 , vb3 , . . . , vbn+1 ] =  ...
11 = [b
..
.
..
.
..
. .
 

vn+1,2 · · · vn+1,i0 vn+1,i0 +1 · · · vn+1,n+1

11 = 0, por hipótese de indução, algum vetor coluna v


Se det[A]c bi0 ∈ Rn ,
2 ≤ i0 ≤ n + 1, é uma combinação linear dos outros vetores colunas,

vbi0 = a2 vb2 + · · · + ai0 −1 vbi0 −1 + ai0 +1 vbi0 +1 + · · · + an+1 vbn+1 .

Observe que o vetor vi0 também é escrito como

vi0 = a2 v2 + · · · + ai0 −1 vi0 −1 + ai0 +1 vi0 +1 + · · · + an+1 vn+1 ,

desde que a primeira coordenada de cada vetor vj é zero e as outras coordenadas


são iguais às coordenadas de vbj . Logo, o 1o caso ca provado quando impomos
a condição det[A]c11 = 0.

Se det[A]c11 6= 0, a regra de Cramer garante que os vetores v


bi 's, para 2 ≤
i ≤ n + 1, constituem uma base do R , portanto,
n

vb1 = a2 vb2 + a3 vb3 + · · · + an+1 vbn+1 .


60 Matrizes e determinantes Cap. 2

Pelos mesmos motivos, o vetor v1 também é expresso como

v1 = a2 v2 + a3 v3 + · · · + an+1 vn+1 .

2o caso A primeira linha da matriz [A] é nula, exceto a entrada v11 .


Escrevamos,
 
v1,1 0 ··· 0 0 ··· 0
 v2,1 v2,2 · v2,i0 v2,i0 +1 ··· v2,n+1 
[A] =  .. .. .. .. .. .
 
 . . . . . 
vn+1,1 vn+1,2 · · · vn+1,i0 vn+1,i0 +1 · · · vn+1,n+1

Calculando o determinante pelo desenvolvimento de Laplace obtemos

0 = det[A] = v11 det[A]c


11 .

Como, v1,1 6= 0, concluímos que det[A]iib = 0. Com os mesmos argumentos


utilizados no 1o caso, garantimos que algum vetor coluna vbi0 de [A]iib , com
2 ≤ i0 ≤ n + 1, é uma combinação linear dos outros vetores colunas,

vbi0 = a2 vb2 + · · · + ai0 −1 vbi0 −1 + ai0 +1 vbi0 +1 + · · · + an+1 vbn+1 .

Como as primeiras coordenadas dos vetores vi0 's são nulas, para 2 ≤ i0 ≤ n+1,
então vale também a combinação linear

vi0 = a2 v2 + · · · + ai0 −1 vi0 −1 + ai0 +1 vi0 +1 + · · · + an+1 vn+1 .

3o caso Existe um vetor vi cuja primeira coordenada não é zero.


A menos de uma permutação dos vetores, que não altera o valor do deter-
minante, pois ele é nulo, podemos assumir que a coordenada v11 6= 0. Seja
 
v1,2 vn+1,2
[B] = v1 , v2 − v1 , . . . , vn+1 − v1 .
v1,1 v1,1
Ÿ2.5 Sobre determinante igual a zero 61

Observamos que det [B] = det [A] = 0, pois somamos a cada vetor coluna um
múltiplo do primeiro vetor coluna. A matriz [B] tem a seguinte forma,
 
v1,1 0 ··· 0 0 ··· 0
 v2,1 u2,2 ··· u2,i0 u2,i0 +1 ··· u2,n+1 
[B] =  .. .. .. .. .. .
 
 . . . . . 
vn+1,1 un+1,2 · · · un+1,i0 un+1,i0 +1 · · · un+1,n+1
v
onde ui = vi − v1,1
i,2
v1 para 2 ≤ i ≤ n + 1. Pelo 2o caso, sabemos que algum
vetor ui0 é combinação dos outros vetores ui 's,

ui0 = a2 u2 + · · · + ai0 −1 ui0 −1 + ai0 +1 ui0 +1 + · · · + an+1 un+1 ,

Substituindo, obtemos
!
vi0 ,2 X vi,2 X
v i0 = − ai v1 + ai vi . 2
v1,1 i6=i
v1,1
0 i∈{1,i
/ 0}

Utilize a Proposição 2.3, p. 43, para mostrar o corolário a seguir.

Corolário 2.3. Seja [A] = [v1 , v2 , . . . , vn ] uma matriz quadrada n × n. As


seguintes armações são equivalentes.

1. Existe um vetor linha que é combinação linear dos outros vetores linhas.

2. det[A] = 0.

Embora o teorema acima não explicite qual coluna é combinação linear das
outras, podemos determiná-la com a resolução de um sistema de equações.

Exemplo 2.11. A matriz [A] = [v1 , v2 , v3 ] tem determinante igual a zero, onde
 
1 2 3
[A] =  0 1 1 
1 0 1
62 Matrizes e determinantes Cap. 2

Para determinar uma coluna que seja combinação linear das outras, resolvamos
o sistema homogêneo associado,

 a1 + 2a2 + 3a3 = 0
a2 + a3 = 0 .

a1 + a3 = 0

Não podemos utilizar a regra de Cramaer, precisamos escolher uma submatriz


com determinante não igual a zero, suprimir, por um momento, uma linha e
resolver o sistema. Por exemplo, eliminando a última linha, temos

a1 + 2a2 = −3a3
.
a2 = −a3

Feito isto, obtemos a1 = −a3 e a2 = −a3 . Estas soluções a1 , a2 e a3 satisfazem


a equação eliminada. Isto signica que o = a3 (−v1 − v2 + v3 ). Para a3 = 1,
segue que o = −v1 − v2 + v3 . Daí concluímos que, por exemplo, v1 = −v2 + v3 .
Neste caso, qualquer coluna é combinação linear das demais 3

EXERCÍCIOS
1. Mostre que cada matriz tem determinante nulo e determine um vetor coluna

que seja combinação linear dos outros vetores colunas.

   
" # 2 1 3 1 0 2
1 3
(a) . (b)  −1 3 2  . (c)  1 −1 3  .
   
2 6
1 3 4 3 −2 8
3
Escalonamento
Um sistema de equações lineares é classicado de acordo com o número de solu-

ções que admite:

 
 
 determinado (uma única solução)


possível


 
 indeterminado (innitas soluções) .






impossível (não tem solução)

O primeiro objetivo deste capítulo é estudar combinações lineares de k vetores


n
do R , (não necessariamente k = n como feito nos capítulos anteriores). Mais

precisamente. Fixado uma conjunto ordenado de vetores do Rn , digamos, γ =


{v1 , v2 , . . . , vk }, desejamos examinar para quais vetores w ∈ Rn existe uma com-
binação linear do tipo w = a1 v1 + a2 v2 + · · · + ak vk . Veremos que existem três

possibilidade, todas elas relacionadas com os tipos de soluções de um sistema.

 
 
 é única (uma única combinação)


existe


 
 não é única (innitas combinações) .






não existe

O segundo objetivo do capítulo é apresentar o processo de escalonamento para

resolver sistemas de equações lineares e inverter matrizes.

63
64 Escalonamento Cap. 3

3.1 Matrizes e Combinação linear


Um sistema com n equações lineares e n incógnitas cuja matriz dos coecientes

tem determinante diferente de zero, foi estudado no capítulo anterior e está associado

ao conceito de base de Rn e a combinações lineares de vetores nesta base.

Nesta seção estudaremos sistemas de equações lineares onde o número de equa-

ções não é igual ao número de incógnitas ou quando o número de equações é igual ao

número de incógnitas mas o determinante da matriz dos coecientes é igual a zero.

Exemplo 3.1. Considere o sistema 2×3


(
a1 + 2a2 = 2
S: .
a1 + 2a2 + a3 = −1
Apresentando o sistema em forma matricial temos
    
1 2 0 a1 2
  a2  =  .
    

1 2 1 a3 −1
A questão sobre o termo resolver o sistema é idêntica. Seja w = (2, −1) ∈ R2 .
Desejamos determinar escalares a1 , a2 e a3 tais que w = a1 v1 + a2 v2 + a3 v3 , onde os
vetores vi0 s são os vetores colunas da matriz dos coecientes,

v1 = (1, 1), v2 = (2, 2) e v3 = (0, 1).


Não podemos utilizar imediatamente a regra de Cramer, pois a matriz dos coe-

cientes do sistema, [A] = [v1 , v2 , v3 ], não é quadrada. É necessário uma adaptação.

Escolhemos a maior submatriz quadrada de [A] com determinante diferente de zero

e resolvemos o subsistema correspondente. Expliquemos melhor o procedimento.

Existem três submatrizes quadradas:


" # " # " #
1 2 1 0 2 0
[v1 , v2 ] = ; [v1 , v3 ] = ; [v2 , v3 ] = .
1 2 1 1 2 1
As duas últimas matrizes têm determinantes não nulos. Resolvamos o subsistema

correspondente à segunda submatriz cujo determinante é det[v1 , v3 ] = 1,


(
a1 + = 2 − 2a2
.
a1 + a3 = −1 − 2a2
Ÿ3.1 Matrizes e Combinação linear 65

Matricialmente temos
" #" # " #
1 0 a1 2 − 2a2
= .
1 1 a3 −1 − 2a2

Para calcular os coecientes pela regra de Cramer, precisamos das matrizes auxiliares,

" # " #
2 − 2a2 0 1 2 − 2a2
[w − a2 v2 , v3 ] = , [v1 , w − a2 v2 ] = ,
−1 − 2a2 1 1 −1 − 2a2

e de seus determinantes,

det[w − a2 v2 , v3 ] = 2 − 2a2 , det[v1 , w − a2 v2 ] = −3.

Agora, calculando os coecientes, encontramos

det[w − a2 v2 , v3 ] det[v1 , w − a2 v2 ]
a1 = = 2 − 2a2 , a3 = = −3.
det[v1 , v3 ] det[v1 , v3 ]

Portanto, w = (2 − 2a2 )v1 + a2 v2 − 3v3 , signicando que w pode ser expresso como
combinação linear de v1 , v2 e v3 , entretanto e não existe unicidade de combinação
linear. Para cada valor a2 , a combinação linear é diferente. Na linguagem de sistemas,

diz-se que o sistema é possível e indeterminado (innitas soluções).

Exemplo 3.2. Examinemos um caso no qual o número de equações é maior que o

número de incógnitas. Sejam v1 = (1, 1, 2), v2 = (2, 1, −3) e w = (1, −1, 2) vetores de
3
R . Pergunta: existem escalares a1 e a2 tais que w = a1 v1 + a2 v2 ? Esta combinação
linear dá origem ao sistema 3 × 2,

 a1 + 2a2 =
 1
a1 + a2 = −1 ,

 2a − 3a =
1 2 2

cuja apresentação matricial é

    
1 2 a1 1
 1 1   =  −1  .
    
2 −3 a2 2
66 Escalonamento Cap. 3

Não podemos utilizar a regra de Cramer, pois a matriz dos coecientes [A] =
[v1 , v2 ], não é quadrada. Procedemos da mesma forma, escolhemos a maior subma-

triz quadrada de [A] com determinante diferente de zero e resolvemos o subsistema

correspondente. Existem tês submatrizes quadradas 2 × 2, a saber,


" # " # " #
1 2 1 2 1 1
[A]1 = , [A]2 = , [A]3 = ,
1 1 2 −3 2 −3

todas elas com determinantes diferentes de zero. Resolvamos o subsistema corres-

pondente à primeira submatriz cujo determinante é det[A]1 = −1, (a última equação


ca, por enquanto, suprimida)
(
a1 + 2a2 = 1
a1 + a2 = −1

Matricialmente temos " #" # " #


1 2 a1 1
= .
1 1 a2 −1
Resolvendo o sistema obtemos a1 = −3 e a2 = 2. Resta vericar se estes valores

satisfazem a equação que foi suprimida. Se substituirmos estes escalares na equação

suprimida chegamos aa absurdo 0 = 2! Logo, w não é combinação linear de v1 e v2 .


Equivalentemente, o sistema é impossível.

Agora, se a questão é saber se u = (1, −1, 0) é uma combinação linear dos vetores
v1 e v2 , a resposta é sim. O sistema linear que devemos examinar ca sendo

 a1 + 2a2 =
 1
a1 + a2 = −1

 2a − 3a =
1 2 0

A resolução é idêntica. Os valores são a1 = −3 e a2 = 2 . Ao substituirmos estes

valores na equação que foi suprimida não obtemos contradição alguma, 0 = 0! Logo,

u = a1 v1 + a2 v2 e esta combinação linear é única.

Para perceber, geométrica e sicamente, a diferença entre u e w, podemos es-


tabelecer uma analogia com trajetórias no espaço cartesiano E3 . Embora, matema-
ticamente, esta analogia nada acrescente ao nosso estudo, é bastante útil para nos

familiarizar com o conceito de combinação linear.


Ÿ3.1 Matrizes e Combinação linear 67

Cada vetor vi , i ∈ {1, 2}, determina um coleção de retas paralelas que são as

retas suportes dos segmentos orientados que os representam. Considere o plano que

contém as retas suporte de v1 e v2 e que incidem na origem O(0, 0, 0).

U
v2
O v1

O fato de u = (1, −1, 0) ser uma combinação linear de v1 e v2 , signica que o ponto

U (1, −1, 0) é o ponto nal de uma trajetória com início em O onde o percurso é

feito apenas seguindo as direções das retas suportes. Enquanto w = (1, −1, 2) não
ser combinação linear de v1 e v2 , interpreta o fato de W (1, −1, 2) não pertencer ao

plano, isto é, não existe trajetória com início em O e nal W seguindo as direções

determinadas por v1 e v2 . 3

Exemplo 3.3. Examinemos um sistema linear cujo determinante da matriz dos

coecientes é zero. Por exemplo,



 a1 + a2
 = 1
a1 + a3 = 2 .

 2a + a + a = 3
1 2 3

Na versão vetorial, estamos examinando se w = (1, 2, −4) é combinação linear de


v1 = (1, 1, 2), v2 = (1, 0, 1) e v3 = (0, 1, 1), ou seja, se existem escalares a1 , a2 e a3
tais que w = a1 v1 + a2 v2 + a3 v3 . Matricialmente temos

    
1 1 0 a1 1
1 0 1  2   2 .
a =
    

2 1 1 a3 3
Neste exemplo, det[v1 , v2 , v3 ] = 0. Também não podemos utilizar diretamente

a regra de Cramer. Como sabemos, deve existir um vetor linha da matriz que
68 Escalonamento Cap. 3

é combinação linear dos outros vetores linhas, ver Corolário 2.3, p. 61. Aqui, o

terceiro vetor linha é uma soma dos dois primeiros. Resolvemos o subsistema obtido

por supressão da terceira equação, dependendo de uma incógnita, digamos, a3 ,


(
a1 + a2 = 1
a1 = 2 − a3

obtemos a1 = 2 − a3 e a2 = a3 − 1. Substituindo estes valores na equação que foi

suprimida vericamos que não existe contradição: 2(2 − a3 ) + (a3 − 1) + a3 = 3.


Logo,w = (a3 − 1)v1 + (2 − a3 )v2 + a3 v3 , ou seja, w pode ser expresso de innitas
maneiras como combinação linear de v1 , v2 e v3 . 3

Um caso particular são os sistemas lineares homogêneos, ou seja quanto os termos

independentes são iguais a zero. Para qualquer coleção γ = {v1 , v2 , . . . , vk } de vetores


de Rn , o vetor nulo o pode ser escrito como o = 0 v1 +0 v2 +· · ·+0 vk . Portanto, todo
sistema de equações lineares homogêneo, tem, pelo menos, a solução trivial, ai = 0,

i ∈ {1, 2, . . . , k}. Resta estudar a unicidade da combinação linear.

EXERCÍCIOS

1. Resolva os sistemas em duas incógnitas, coloque o problema em linguagem de

combinação linear e estude a unicidade da combinação linear.

( 
2a1 + 2a2 = 5  2a1 − 6a2 = 0

(a) .
6a1 − a2 = 1 (c) 4a1 + 5a2 = 4 .
 
 3a + 4a = 1
1 2
 2a1 − 6a2 = 0

(b) 4a1 + 5a2 = 0 .

 3a + 4a = 0
1 2

2. Resolva os sistemas em três incógnitas, coloque o problema em linguagem de

combinação linear e estude a unicidade da combinação linear.

 
 2a1 + 2a2 + a3 = 5
  2a1 − a2 + a3 = 0

(a) 6a1 − a2 + 2a3 = 1 . (c) a1 − a3 = 0 .

 2a − 4a 
 2a − a + a = 0
1 2 =0 1 2 3
(
2a1 − 6a2 − a3 = 0
(b) .
4a1 + 5a2 + 3a3 = 11
Ÿ3.1 Matrizes e Combinação linear 69

3. Se possível, escreva o vetor w ∈ R2 como combinação linear de v1 = (1, 1),


v2 = (2, 1) e v3 = (1, −1) e estude se existe, ou não, unicidade de combinação.

(a) w = (0, 0). (c) w = (2, −3). (e) w = (−1, 1).


(b) w = (0, 1). (d) w = v1 .

4. Se possível, escreva o vetor w ∈ R3 como combinação linear de v1 = (1, 1, 1),


v2 = (2, 1, 0) e estude se existe, ou não, unicidade de combinação.

(a) w = (0, 0, 0). (c) w = (1, 2, 3). (e) w = (4, 2, −1).


(b) w = (1, 2, 1). (d) w = v2 .

5. Se possível, escreva cada vetor w ∈ R3 como combinação linear de v1 = (1, 1, 1),


v2 = (2, 1, 0), v3 = (0, 1, 1) e estude se existe, ou não, unicidade de combinação.

(a) w = (1, 2, 3). (c) w = (0, 0, 0). (e) w = (4, 2, −1).


(b) w = (1, 2, 1). (d) w = v3 .

6. Sejam v1 = (3, 1), v2 = (−1, 2) e v3 = (0, 7) vetores do R2 .

(a) Mostre que β = {v1 , v2 } é uma base do R2 .


(b) Mostre que todo vetor (x, y) ∈ R2 é uma combinação linear dos vetores

de γ = {v1 , v2 , v3 }, mas não existe unicidade de combinação.

(c) Mostre que existem vetores de R2 que não são escritos como combinação

linear do vetor de α = {v1 }.

7. Determine os valores de k para os quais o sistema 3×3 tem solução e faça a

discussão do sistema.

 a1
 + a2 + a3 = 4
a2 + a3 = 2 .

 2a
1 + a2 + ka3 = 6
70 Escalonamento Cap. 3

8. Considere o sistema 2×2 em a1 e a2 ,


(
ka1 + 2a2 = 2k + 2
.
2a1 + a2 = 5

(a) Quais os valores de k para que o sistema seja possível e determinado?

(b) Quais os valores de k para que o sistema seja possível?

9. Quais das armações são verdadeiras?

(a) Todo sistema linear tem solução.

(b) Todo sistema linear homogêneo tem no máximo uma solução.

(c) Todo sistema linear homogêneo com duas solução tem innitas soluções.

(d) Todo sistema linear não homogêneo tem pelo menos uma solução.

3.2 Escalonamento de matrizes


Escalonamento é um método de resolução de sistemas de equações lineares.
A ideia é construir um segundo sistema que possua as mesmas soluções do
sistema original mas cujas soluções sejam mais simples de determinar.

Denição 3.1. Uma matriz [A] = [v1 , v2 , . . . , vm ] de ordem n×m é uma


matriz na forma escada se satisfaz as seguintes condições.

1. Se a linha li é nula, então a linha lk é nula para todo k com i < k ≤ n.

2. Se a linha li não é nula e vi0 j0 é a sua primeira entrada não nula, então
vj0 = ei0 .

Por simplicidade, muitas vezes utiliza-se o termo matriz escada em lugar


de matriz na forma escada. Na denição, ei indica o i−ésimo vetor da base
Ÿ3.2 Escalonamento de matrizes 71

canônica de Rn . Uma matriz escada é uma matriz do tipo

∗ 0 ∗ 0 ∗ ∗ 0 ∗ ∗
 
0 0 1
 0 0 0
 0 1 ∗ 0 ∗ ∗ 0 ∗ ∗  
 0 0 0 0 0 0 1 ∗ ∗ 0 ∗ ∗ 
 . . . .. .. .. .. ..
 
 .. .. .. . . . . . 0 1 ∗ ∗ 

 
 0 0 0 0 0 0 0 0 0 0 0 0 
 . . . .. .. .. .. .. .. .. .. .. 
 
 .. .. .. . . . . . . . . . 
0 0 0 0 0 0 0 0 0 0 0 0

Dene-se três operaração elementares com as linha de uma matriz.

1. Permutação da linha li com a linha lj : li ↔ lj .

2. Multiplicação de uma linha por um escalar λ não nulo: li → λli ;

3. Adição à linha li de um múltiplo não nulo da linha lj : li → li + λlj .

O objetivo é operar com as linhas de uma matriz para transformá-la numa


matriz escada. Posteriormente, aplicaremos estas ideias na resolução de siste-
mas de equações lineares e inversão de matrizes.

Exemplo 3.4. Ilustremos o processo de escalonamento com a matriz


 
4 −2 0 2 −6
 2 1 3 5 0 
 
[A] =  .
 0 3 2 3 −3 
2 −1 0 1 −3

Por economia de tempo e espaço, realizaremos duas ou mais operações por


linha, simultaneamente. Para evitar erros, as linhas envolvidas em duas ope-
rações sumultâneas serão distintas.
4 −2 −1 2 −6 4 −2 −1 2 −6
   
 2
 1 3 5 0 
 l2 ↔ l3  0
 3 2 3 −3 
 l3 → l3 − 21 l1
 0 3 2 3 −3  l4 → l4 − 21 l1  2 1 3 5 0  l2 → 13 l2
2 −1 0 1 −3 0 0 0 0 0
72 Escalonamento Cap. 3

4 −2 −1 2 −6 4 −2 −1 2 −6
   

 0 1 1 1 −1 
 l3 → l3 − 2l1

 0 1 1 1 −1  l1 → l1 + 2l2
 0 2 3 4 3   0 0 1 2 5 
0 0 0 0 0 0 0 0 0 0
4 0 1 4 −8 4 0 0 2 −13
   

 0 1 1 1 −1 
 l1 → l1 − l3

 0 1 1 1 −1  l2 → l2 − l3
 0 0 1 2 5   0 0 1 2 5  l1 → 41 l1
0 0 0 0 0 0 0 0 0 0
1
1 0 0 − 13
 
2 4
 0 1 0 −1 −5 

 0
 = [B]. 3
0 1 2 5 
0 0 0 0 0

Uma operação elementar dene uma aplicação no espaço das matrizes  :


M(n, m) → M(n, m) do seguinte modo: o ([A]) é uma matriz obtida de [A]
por uma operação elementar. Diz-se que uma matriz [A] é equivalente a uma
matriz [B] quando [B] pode ser obtida de [A] efetuando-se um número nito
operações elementares.

Proposição 3.1. Toda matriz é equivalente a uma matriz escada.

Não faremos detalhes da demonstração, mas apresentaremos o algoritmo


que produz uma matriz equivalente na forma escada. Seja [A] = [v1 , v2 , . . . , vm ]
uma matriz de ordem n × m. Por simplicidade de escrita, continuaremos a
denotar por [A] a matriz obtida por alguma operação elementar.

1o Seja j1 o índice da primeira coluna de [A] com uma entrada não nula.
Digamos que uma entrada não nula seja vi1 j1 . Para obter a coluna j1
constituídas pelas entradas de e1 = (1, 0, . . . , 0), aplicamos uma sequên-
cia de operações elementares, sucessivamente.

(a) Permutar todas as linhas nulas para as últimas posições.


(b) Normalizar a entrada vi1 j1 , li1 → 1
l .
vi1 j1 i1

(c) Anular cada entrada ij1 da coluna j1 , exceto a entrada normalizada


vi1 j1 = 1, pela operação elementar li → li − vij1 li1 , i 6= i1 .
Ÿ3.3 Invertendo matrizes 73

(d) Permutar a linha li1 com l1 , li1 ↔ l1 .

Caso a matriz obtida esteja na forma escada, terminamos. Caso contrá-


rio, continuamos.

2o Seja j2 o índice da primeira coluna de [A] com uma entrada vi2 j2 6= 0 tal
que i2 ≥ 2. Esta entrada será normalizada. Repetimos os passos (a), (b)
(c) e permutamos li2 ↔ l2 .

3o Indutivamente, seja jk o índice da primeira coluna de [A] com uma en-


trada vik jk 6= 0 tal que ik ≥ k . Seguindo os mesmos passos, operacio-
nalizamos para obtermos vjk = ek . Como existe um número nito de
colunas, o processo termina num número nito de passos.

Exercício 3.1. Mostre que o escalonamento de uma matriz quadrada de ordem


n produz uma matriz quadrada [B] = [bij ] triangular inferior, ou seja, bij = 0
quando i > j . Mostre também que det[B] = b11 b22 · · · bnn . 3

3.3 Invertendo matrizes


Inverter matrizes via adjunta clássica, ver p. 50, tem um inconveniente,
a falta de praticidade quando a matriz tem ordem superior a 3. Por isso,
apresentaremos outro método de inversão conhecido por método Gauss-Jordan.
Ilustremos o método. Sejam [A] uma matriz invertível e [Id] a matriz
identidade, ambas de ordem n. Considere a matriz [A|Id] de ordem n × 2n
(ver notação no exemplo a seguir). Por operações elementares com linhas de
[A|Id] obtemos uma matriz do tipo [Id|B]. A matriz [B] é a inversa de [A].

Exemplo 3.5. Considere as seguintes matrizes:


   
2 1 0 2 1 0 1 0 0
[A] =  1 1 1 ; [A|Id] =  1 1 1 0 1 0 .
2 1 −1 2 1 −1 0 0 1
74 Escalonamento Cap. 3

A barra é apenas referência. A matriz [A] é invertível. Para determinar [A]−1 ,


efetuaremos operações elementares nas linhas de [A|Id] para obter uma matriz
do tipo [Id|B].
   
2 1 0 1 0 0 2 1 0 1 0 0
 1 1 1 0 1 0  l3 → l3 − l1  1 1 1 0 1 0  l1 ↔ l2
   
2 1 −1 0 0 1 0 0 −1 −1 0 1
   
1 1 1 0 1 0 1 1 1 0 1 0
l2 → l2 − 2l1
2 1 0 1 0 0  0 −1 −2 1 −2 0  l1 → l1 + l2
   
l3 → −l3
0 0 −1 −1 0 1 0 0 1 1 0 −1
   
1 0 −1 1 −1 0 1 0 0 2 −1 −1
 l1 → l1 + l3
 0 −1 −2 1 −2 0   0 1 2 −1 2 0  l2 → l2 − 2l3
  
l2 → −l2
0 0 1 1 0 −1 0 0 1 1 0 −1
 
1 0 0 2 −1 −1
 0 1 0 −3 2 2  = [Id|B]
 
0 0 1 1 0 −1

Se o leitor desejar, pode vericar que [B] · [A] = [Id]. Pela Proposição 2.2,
p. 52, segue que [B] = [A]−1 . 3

Para justicar o algoritmo, examinemos as operações elementares quando


efetuadas na matiz identidade. Uma matriz elementar [E] é uma matriz obtida
por alguma operação com linhas da matriz identidade, ou seja, [E] =  ([Id]).

Proposição 3.2. Se [A] é uma matriz n × m, [Id] é a matriz identidade n×n


e [E] = ([Id]), então

([A]) = [E] · [A].

Prova Fixemos notações: [A] = [vij ], ([Id]) = [E]; E = [aij ].


Comparemos as entradas de E · [A] e ([A]). Seja [C]ij , a matriz 1 × 1 cuja
Ÿ3.3 Invertendo matrizes 75

única entrada é precisamente a ij−ésima entrada de E · [A]:


 
v1j
 v2j 
 
[C]ij = ai1 ai2 · · · ain  . 
 .. 
vnj
1.) Seja  a operação elementar li1 ↔ li2 . Note que para i 6= i1 e i 6= i2 , as
i−ésimas linhas de [E] e [Id] são iguais. Logo, para todo j , com 1 ≤ j ≤ m,
valem as igualdades,
 
v1j
 v2j 
 
· · · · · ·

0 1 0
[C]ij =  ..  = [vij ].
 . 
|{z}
entr. i

vnj
Sendo assim, a i−ésima linha de [E] · [A] é igual a i−ésima linha de [A] que é
igual a i−ésima linha de ([A]). Agora, a i1 −ésima linha de [E] é a i2 −ésima
linha da identidade. Portanto,
 
v1j
· · · 0  v2j 
 
0 · · · |{z}
1

[C]i1 j =  ..  = [vi2 j ].
entr. i2  . 
vnj
Como a igualdade vale para todo j , com 1 ≤ j ≤ m, a i1 −ésima linha de
[E] · [A] é igual a i2 −ésima linha de [A], que por sua vez é a i1 −ésima linha de
([A]). Do mesmo modo, podemos mostrar que a i2 −ésima linha de [E] · [A] é
a i2 −ésima linha de ([A]). Logo, [E] · [A] = ([A]).
2.) Seja  a operação elementar li1 → λli1 . Agora, se i 6= i1 as i−ésimas
linhas de [E] e de [Id] são iguais. Logo, para todo j , com 1 ≤ j ≤ m, temos
 
v1j
 v2j 
 
· · · · · ·

0 1 0
[C]ij =  ..  = [vij ].
 . 
|{z}
ent. i

vnj
76 Escalonamento Cap. 3

Assim, a i−ésima linha de [E] · [A] é igual a i−ésima linha de [A] que por sua
vez é igual a i−ésima linha de ([A]). Quando i = i1 a i1 −ésima linha de [E]
é λei . Logo, para todo j , com 1 ≤ j ≤ m, temos
 
v1j
· · · 0  v2j 
 
0 · · · |{z}
λ

[C]i1 j =  ..  = [λvij ].
ent. i1  . 
vnj

Portanto, a i1 −ésima linha de [E] · [A] é igual a i1 −ésima linha de ([A]). De


onde segue que ([A]) = [E] · [A].
3.) Seja  a operação elementar li1 → li1 + λli2 . Neste caso, se i 6= i1 , as
i−ésimas linhas de [E] e [Id] são iguais. Logo, para j , com 1 ≤ j ≤ m, temos
 
v1j
 v2j 
 
· · · · · ·

0 1 0
[C]ij =  ..  = [vij ].
 . 
|{z}
entr. i

vnj

Isto implica que a i−ésima linha de [E] · [A] é igual a i−ésima linha de [A] que
por sua vez, é igual a i−ésima linha de ([A]). Se i = i1 , temos as igualdades
para todo j , com 1 ≤ j ≤ m,
 
v1j
· · · 0  v2j 
 
0 · · · |{z}
1 . . . |{z}
λ

[C]i1 j =  ..  = [vij + λvi2 j ].
ent. i1 entr. i2  . 
vnj

Portanto, a i1 −ésima linha de [E] · [A] é i1 −ésima linha de ([A]). Isto mostra
que ([A]) = [E] · [A]. 2
Cada operação elementar  tem uma operação elementar inversa do mesmo
tipo, 0 : M(n, m) → M(n, m), isto signica que podemos reverter a operação
realizada: 0 (([A])) = [A]. São elas:
Ÿ3.3 Invertendo matrizes 77

1. a inversa de li ↔ lj é a própria.

2. a inversa de li → λli é a operação elementar li → λ1 li .

3. a inversa de l1 → li + λlj é a operação elementar li → li − λlj .

Isto implica que se [A] é equivalente a [B], então [B] é equivalente a [A].

Corolário 3.1. Qualquer matriz elementar é invertível e sua inversa é uma


matriz elementar.

Prova Se [E] = ([Id]), 0 a operação inversa de  e 0 ([Id]) = [E 0 ], então


[Id] = 0 (([Id])) = [E 0 ]·e([Id]) = [E 0 ]·[E]. 2

O resultado a seguir garante que o escalonamento de uma matriz pode ser


executado com produtos de matrizes elementares.

Corolário 3.2. A matriz [A] é equivalente a [B] se existem matrizes elemen-


tares [E1 ], [E2 ], . . . , [Ek ] tais que

[Ek ] · · · · [E2 ] · [E1 ] · [A] = [B].

Em particular, se [A] é invertível, então [B] é invertível.

Prova Se [A] é equivalente a [B], por denição de equivalência, existem ope-


rações elementares 1 , 2 , . . . , k tais que [B] = k (· · · 2 (1 ([A])) · · · ). Pela pro-
posição anterior, temos [B] = [Ek ] · · · [E2 ] · [E1 ] · [A].
Se [A] é invertível, então det [A] 6= 0. Pelo Corolário 3.1, det [Ei ] 6= 0, para
todo i, 1 ≤ i ≤ k . Como o determinante do produto de matrizes é o produto
dos determinantes, segue que

det [B] = det [Ek ] · · · det[E2 ] · det[E1 ] · det[A] 6= 0. 2

Proposição 3.3. Uma matriz invertível é equivalente à matriz identidade.


78 Escalonamento Cap. 3

Prova Sejam [A] uma matriz invertível e [B] a matriz na forma escada obtida
por escalonamento de [A]. Pelo visto, [B] é invertível. O processo de escalo-
namento produz uma matriz triangular inferior, ou seja, se [B] = [bij ], bij = 0
quando i > j . Sendo assim, det[B] = b11 b22 · · · bnn 6= 0, fato que implica que
bii 6= 0, para todo i, 1 ≤ i ≤ n. A entrada bii é a primeira entrada não nula
da linha li , logo, bii = 1. Sendo uma matriz escalonada a coluna i de [B] tem
todas as entradas iguais a zero, exceto bii = 1. Isto mostra que [B] = [Id]. 2
Finalizemos a seção provando o método de Gauss-Jordan.
Seja [A] uma matriz invertível. Considere a matriz [A|Id]. Por operações
elementares com linhas de [A|Id] podemos obter uma matriz do tipo [Id|B].
Portanto, existem matrizes elementares [E1 ], [E2 ], . . . [Ek ] tais que
(
[B] = [Ek ] · · · [E2 ] · [E1 ] · [Id]
.
[Id] = [Ek ] · · · [E2 ] · [E1 ] · [A]

Como [A] = ([Ek ] · · · [E2 ] · [E1 ])−1 , valem as igualdades,


 −1
[B] · [A] = [Ek ] · · · [E2 ] · [E1 ] · [Ek ] · · · [E2 ] · [E1 ] = [Id].

Logo, a matriz [B] é a inversa de [A].

EXERCÍCIOS
1. Verique se a matriz é invertível e inverta-a pelo método de Gauss-Jordan.

   
1 2 3 0 0 0 1
(a) [A] =  0 1 2  0 0 1 0
   
(c) [C] = 
 

0 0 1  0 1 0 0 
1 0 0 0
   
2 3 0 0 1 1 0 1
 1 1 0 0   2 2 1 0 
(b) [B] = 
 
(d) [D] = 
  
 0 0 2 1   1 2 0 1


0 0 1 0 1 1 0 0
Ÿ3.4 Resolução de sistemas 79

3.4 Resolução de sistemas


Considere um sistema n × k , n equações e k incógnitas a1 , a2 . . . , ak ,


 v11 a1 + v12 a2 + · · · + v1k ak = w1
 v21 a1 + v22 a2 + · · · + v2k ak = w2

S: .. .. .. .. .


 . . . .
vn1 a1 + vn2 a2 + · · · + vnk ak = wn

Uma solução do sistema é uma sequência de k escalares (s1 , s2 , . . . , sk ) que


satisfaz a cada uma das equações do sistema. O conjunto solução do sistema
S , é o conjunto Γ denido como segue:

Γ = {(s1 , . . . , sk ) ∈ Rk ; vi1 s1 + vi2 s2 + · · · + vik sk = wi , ∀i, 1 ≤ i ≤ n}.

Dene-se três operação elementares com as linha de um sistema.

1. Permutação da linha li com a linha lj : li ↔ lj .

2. Multiplicação de uma linha por um escalar λ não nulo: li → λli .

3. Adição à linha li de um múltiplo não nulo da linha lj : li → li + λlj .

Diz-se que o sistema S é equivalente ao sistema S 0 se este pode ser ob-


tido daquele por um número nito de operações elementares. Para não ser
repetitivo, apenas citaremos que cada operação elementar tem uma inversa.
Portanto, se S é equivalente a S 0 , então S 0 é equivalente a S .

Proposição 3.4. Dois sistemas equivalentes têm conjuntos soluções iguais.

Prova Sejam S um sistema, S 0 um sistema equivalente obtido por alguma


operação elementar com as linhas do primeiro, Γ e Γ0 os seus conjuntos soluções,
respetivamente. É suciente mostrar que uma operação elementar não altera
o conjunto solução.
li ↔ lj ). Γ = Γ0 , pois as n sentenças que denem os conjuntos são iguais.
80 Escalonamento Cap. 3

li → λli ) As sentenças que denem Γ e Γ0 são as mesmas, exceto a i−ésima


que são, respectivamente,
(
vi1 a1 + vi2 a2 + · · · + vik ak = wi
.
λvi1 a1 + λvi2 a2 + · · · + λvik ak = λwi

Mostremos a inclusão Γ ⊂ Γ0 . Se (s1 , s2 , . . . , sn ) ∈ Γ, então

vi1 s1 + vi2 s2 + · · · + vik sk = wi .

Isto implica que λvi1 s1 +λvi2 s2 +· · ·+λvik sk = λwi , ou seja, (s1 , s2 , . . . , sn ) ∈ Γ0 ,


pois as outras sentenças são iguais. Portanto, Γ ⊂ Γ0 . A inclusão oposta,
Γ0 ⊂ Γ é semelhante, basta recordar que λ 6= 0.
li → li + λlj ) As sentenças que denem Γ e Γ0 são as mesmas, exceto a
i−ésima linha que foi modicada, logo, a prova ca resumida a uma vericação
sobre esta linha. Mostremos a inclusão Γ ⊂ Γ0 . Se (s1 , s2 , . . . , sk ) ∈ Γ, então

(vi1 + λvj1 )s1 + · · · + (vik + λvjk )sk = vi1 s1 + vi2 s2 + · · · + vik sk


+λvj1 s1 + λvi2 si + · · · + λvjk sk
wi + λwj .

Portanto, (s1 , s2 , . . . , sk ) ∈ Γ0 . Fica mostrado a inclusão Γ ⊂ Γ0 . A inclusão


oposta segue também facilmente. 2
Denomina-se matriz ampliada do sistema n × k


 v11 a1 + v12 a2 + · · · + v1k ak = w1
 v21 a1 + v22 a2 + · · · + v2k ak = w2

S: .. .. .. .. ,


 . . . .
vn1 a1 + vn2 a2 + · · · + vnk ak = wn

a matriz [Sa ] de ordem n × (k + 1) denida pela matriz principal do sistema


Ÿ3.4 Resolução de sistemas 81

acrescida de uma coluna nal cujas entradas são os termos independentes,


 
v11 v12 ··· v1k w1
 v21 v22 ··· v2k w2 
[Sa ] =  . . .. ..  .
 
 .. .. . . 
vn1 vn2 ··· vnk wn

O importante no estudo de um sistema são os coecientes e os termos


independentes. Portanto, podemos registrar matricialmente todas as operações
elementares nas suas linhas para obter um sistema equivalente no qual as
soluções são mais fáceis de determinar.

Exemplo 3.6. Considere o sistema 3 × 3,



 2a1 + 3a2 + 2a3 = 4
S: a + 2a2 + 3a3 = 7 .
 1
a2 − 2a3 = 0

A seguir estão indicadas matricialmente as operações nas linhas do sistema


a partir da sua matriz ampliada [Sa ].
   
2 3 2 4 0 −1 −1 −10
 1 2 3 7  l1 → l1 − 2l2  1 1 3 7  . l1 ↔ l2 :
   
0 1 −2 0 0 1 −2 0

   
1 1 3 7 1 1 3 7
 0 −1 −1 −10  . l2 → −l2 :  0 1 1 10  . l3 → l3 − l2
   
0 1 −2 0 0 1 −2 0

   
1 1 3 7 1 1 0 −3
 0 1 1 10  . l1 → l1 + l3  0 1 1 10  = [Sa0 ].
   
0 0 −3 −10 0 0 −3 −10
82 Escalonamento Cap. 3

Não precisamos obter a matriz escada, o sistema equivalente determinado


pela última matriz já é suciente: a3 = 10
3
, a2 = 20
3
e a1 = − 29
3
. 3
EXERCÍCIOS
1. A matriz  
1 −1 1 2
[Sa ] =  0 2 c−1 4 
 
−1 3 1 d
é a matriz aumentada de um sistema S. Quais os valores de c e d:

(a) para os quais o sistema é possível e determinado?

(b) para os quais o sistema é possível e indeterminado?

(c) para os quais o sistema não é possível?

2. Um proprietário de granja comprou três produtos A1 , A2 e A3 para produzir

uma ração balanceada para suas aves. A quantidade (unidade por kg) de

carbohidrato, proteína e gordura em cada produto está listada a seguir.

produto carbohidrato proteína gordura

A1 2 2 2

A2 2 3 1

A3 1 1 1

Quantos quilogramas de cada componente são necessários para produzir uma

ração balanceada que contenha 180 unidades de carbohidrato, 180 unidades

de proteína e 200 unidades de gordura?

3. Completar o quadrado com inteiros positivos distintos entre 1 e 9, inclusive,

tal que as adições dos inteiros ao longo de uma linha, de uma coluna ou de

uma diagonal sejam iguais a 15.

4 8
4
Álgebra linear e Geometria
Na Geometria euclidiana são denidas medidas de comprimento, ângulo,
área e volume. Nesse capítulo, veremos como estas medidas podem ser vis-
tas vetorialmente. Para isso, denimos uma função chamada produto interno
que servirá como régua e transferidor algébrico e veremos também como o
determinante pode ser interpretado como uma medida.

4.1 Produto interno


Sejam v = (x1 , x2 , . . . , xn ) e w = (y1 , y2 , . . . , yn ) vetores de Rn . A aplicação

h , i : Rn × Rn → R, hv, wi = x1 y1 + x2 y2 + · · · + xn yn ,

é chamada produto interno canônico do Rn . Por simplicidade, diremos apenas


1
produto interno .

Exemplo 4.1. O produto interno dos vetores v = (1, −3), w = (−1, 1) e


u = (−2, −2) de R2 , pela denição, assume os seguintes valores:

hv, wi = −4; hv, ui = 4; hw, ui = 0.

O produto interno, dependendo dos vetores envolvidos, pode ser um escalar


positivo, negativo ou zero e pode ser zero sem que algum vetor seja nulo.
1 Alguns textos também referem-se ao produto interno como produto escalar.

83
84 Álgebra linear e Geometria Cap. 4

Um exemplo em R3 . Avalando o produto interno dos vetores v = (2, 1, −3)


e w = (0, −1, 1), obtemos hv, wi = −4. 3

Listaremos a seguir quatro propriedades básicas do produto interno que


facilitam os cálculos e auxiliam argumentações demonstrativas. Note a seme-
lhança com propriedades do produto de números reais.
Proposição 4.1. O produto interno h , i : Rn × Rn → R possui as seguintes
propriedades para quaisquer vetores u, v, w ∈ Rn e qualquer escalar λ ∈ R:
P1 hv, vi ≥ 0 e hv, vi = 0 ⇔ v = 0; (positiva denida)

P2 hv, wi = hw, vi; (simétrica)

P3 hv + w, ui = hv, ui + hw, ui; (linear)

P4 hλv, wi = λhv, wi. (linear)

Prova Façamos a vericação de P3 . Considere os vetores v = (v1 , . . . , vn ),


w = (w1 , . . . , wn ) e u = (u1 , . . . , un ). Avaliemos o produto interno:
hv + w, ui = (v1 + w1 )u1 + · · · + (vn + wn )un
= v1 u1 + w1 u1 + · · · + vn un + wn un
= v1 u1 + · · · + vn un + w1 u1 + · · · + wn un
= hv, ui + hw, ui.
Os outros ítens seguem utilizando coordenadas. 2
Exercício 4.1. Sejam v, w ∈ Rn . Mostre que:
1. hu, vi = 0 para todo vetor u ∈ Rn se, e somente se, v = o;

2. hu, vi = hu, wi para todo u ∈ Rn se, e somente se, w = v .

3. hu, vi = −hu, wi para todo u ∈ Rn se, e somente se, w = −v .

4. hv, w + ui = hv, wi + hv, ui.

5. v = hv, e1 ie1 + · · · + hv, en ien . 3


Ÿ4.2 Norma 85

4.2 Norma
Embora algébrica, o produto interno contém muitas informações geomé-
tricas. Para iniciar o estudo deste aspecto geométrico, denimos a aplicação
norma associada ao produto interno:
p
k k : Rn → [0, +∞), kvk = hv, vi.

O seu valor num vetor será chamado norma do vetor. Se desejarmos escrevê-la
utilizando coordenadas, v = (x1 , x2 , . . . , xn ), obtemos a expressão
p
kvk = (x1 )2 + (x2 )2 + · · · + (xn )2 .

Pelo primeiro item Proposição 4.1, p. 84, garantimos que a função norma
está bem denida. Sabemos que hv, vi ≥ 0 para qualquer vetor v ∈ Rn , logo,
podemos calcular a raiz quadrada desse número. Pela mesma proposição,
concluímos que kvk = 0 se, e somente se, v = o.

Exemplo 4.2. Calcular a norma de um vetor é tarefa simples. Por exemplo,


se v = (3, −5) é um vetor em R2 , então

3
p p
kvk = hv, vi = (3)2 + (−5)2 = 34.

Recordamos que |λ| indica o valor absoluto de um número real:

λ se λ ≥ 0

|λ| =
−λ se λ < 0

Podemos agregar um conteúdo geométrico à norma de um vetor v . Para


isso, utilizaremos o conceito de segmentos orientados. Seja v = (x1 , y1 ) um
−→
vetor de R2 . O segmento orientado P Q é um representante de v , onde P (a, b)
e Q(a + x1 , b + y1 ) são pontos do plano cartesiano E2 .
86 Álgebra linear e Geometria Cap. 4

IE 2
Q(a+x1,b+y1)

v |y1|
|x1|
P(a,b) R(a+x1,b)

Seja R(a + x1 , b) o ponto na interseção das retas paralelas aos eixos ox e oy que
incidem em P e Q, respectivamente. O triângulo P QR é retângulo com ângulo
−→ −→ −→
reto em R. Pelo Teorema de Pitágoras, temos, kP Qk2 = kP Rk2 +kRQk2 , onde,
neste caso de segmentos orientados, o símbolo k k indica o comprimento do
−→ −→
segmento. Como kP Rk = |x1 | e kRQk = |y1 |, temos

−→ −→ −→
q
kP Qk = kP Rk2 + kRQk2
p
= |x1 |2 + |y1 |2
p
= hv, vi
= kvk.

Portanto, o valor kvk é o comprimento de qualquer segmento orientado que o


representa.
Vale o mesmo signicado para kvk quando v é um vetor de R3 . Agora, o
signicado geométrico é obtido via Teorema de Pitágoras no espaço cartesiano
E3 que relaciona comprimento da diagonal de um paralelepípedo retângulo
com o comprimento dos seus lados.
−→
O segmento orientado P Q é um representante de v = (x1 , y1 , z1 ), onde
P (a, b, c) e Q(a + x1 , b + y1 , c + z1 ) são pontos do espaço cartesiano E3 . Pode-se
−→ −→
mostrar que kP Qk2 = |x21 + |y1 |2 + |z1 |2 de onde segue que kvk = kP Qk. Esta
armação que cará como exercício.
Ÿ4.2 Norma 87

Q(a+x1,b+y1,c+z1)

|z 1|
v

|y1 |
P(a,b,c) |x1|

Proposição 4.2.
p
Seja k k : Rn → R, kvk = hv, vi. Para quaisquer vetores
n
v, w ∈ R e qualquer escalar λ ∈ R valem as seguintes propriedades:

N1 kvk = 0 e kvk = 0 ⇔ v = 0; (positiva denida)

N2 kλvk = |λ| kvk;

N3 kv + wk ≤ kvk + kwk. (desigualdade triangular)

Observe que kvk ≥ 0, pois a norma é a raiz quadrada de um número. O


restante da armação N1 segue do primeiro item da Proposição 4.1, p. 84:

kvk2 = hv, vi = 0 se, e somente se,


v = o.

A propriedade N2 cará como exercício. Lembre-se que λ2 = |λ|.
A desigualdade triangular decorre de uma importante desigualdade associ-
ada a um produto interno, a desigualdade de Cauchy-Schwarz.

Teorema 4.1. Seh , i é o produto interno do Rn e k k a norma associada,


n
então para quaisquer v, w ∈ R vale a desigualdade

| hv, wi |≤ kvkkwk.

Mais ainda, a igualdade ocorre se, e somente se, v e w são colineares.

Prova Se um dos vetores, v ou w, é o vetor nulo, eles são colineares e a


demonstração reduz-se a vericar a igualdade, zero igual a zero.
88 Álgebra linear e Geometria Cap. 4

Suponha que v e w sejam vetores não nulos. Pela da Proposição 4.1, p. 84,
para qualquer escalar t e qualquer w ∈ Rn , temos

htv − w, tv − wi ≥ 0,

e ocorre a igualdade se, e somente se, w = t0 v , para algum escalar t0 . Desen-


volvendo o produto interno acima obtemos uma func cão polinomial em t de
grau 2 e não negativa,

p(t) = htv − w, tv − wi = t2 kvk2 − 2thv, wi + kwk2 ≥ 0.

Isso implica que o seu discriminante ∆ é menor ou igual a zero. Como

∆ = 4hv, wi2 − 4kvk2 kwk2 ≤ 0,

segue que hv, wi2 ≤ kvk2 kwk2 . Portanto, |hv, wi| ≤ kvkkwk.
Se vale a igualdade, então p(t) possui uma única raiz real λ com multipli-
cidade dois, ou seja p(λ) = hλv − w, λv − wi = 0. Isso ocorre se, e somente se,
w − λv = 0, isto é, v e w são colineares. 2
Mostrada a desigualdade de Cauchy-Schwarz, veriquemos a desigualdade
triangular, N3 . Esse título é sugestivo. A interpretação da norma de um vetor
como sendo o comprimento de um segmento orientado permite relacionar a
desigualdade triangular com um teorema bem conhecido da Geometria eucli-
diana: a medida de um lado de um triângulo é menor que a soma das medidas
dos outros dois lados.

IEn, n=2,3
w
v+w

v
Ÿ4.2 Norma 89

Observemos inicialmente as igualdades,

kv + wk2 = hv + w, v + wi
= kvk2 + kwk2 + 2hv, wi.

Por Cauchy-Schwarz podemos escrever hv, wi ≤ kvkkwk. Sendo assim,

kv + wk2 = kvk2 + kwk2 + 2hv, wi


≤ kvk2 + kwk2 + 2kvkkwk
= (kvk + kwk)2 .

Como ambos membros da desigualdade são quadrados de números positivos,


ao extraírmos a raiz quadrada concluímos a demonstração da propriedade N3 .
Exercício 4.2. Mostre que para quaisquer v, w ∈ R vale a segunda desi-
n

gualdade triangular: kvk − kwk ≤ kv − wk. Qual o teorema da Geometria


euclidiana está relacionado com tal desigualdade? 3
Diz-se que um vetor u ∈ Rn é unitário quando kuk = 1. Por exemplo, os
vetores a seguir são unitários,
√ !  
2 5 1 −3
u= , ∈R 2
e v = √ , 0, √ ∈ R3 .
3 3 10 10

Para construir vetores unitários em Rn , é suciente normalizar um vetor


não nulo v , isto é, dividir o vetor por sua norma, u = kvk
1
v . Esse foi o método
utilizado para construir os exemplos acima. Para obter o vetor unitário v ∈ R3 ,
consideramos o vetor w = (1, 0, −3), calculamos sua norma,
p p √
kwk = hw, wi = (1)2 + (0)2 + (−3)2 = 10,

e dividimos o vetor por sua norma, v = √110 (1, 0, −3). De fato, o processo de
normalização produz um vetor unitário, pois se λ = kwk 1
> 0, o valor absoluto
é |λk = λ e
1 1
kvk = w = ||w|| = 1.
kwk kwk
90 Álgebra linear e Geometria Cap. 4

EXERCÍCIOS
1. Calcule a norma e identique os vetores unitários:

(a) se v = (1, 2), w = (−2, 3) e u = (1, 0) são vetores de R2 ;


(b) se v = (0, −2, 1), w = √1 (2, −1, 3) e u = (0, 1, 0) são vetores de R3 ;
14

(c) se v = (0, 2, 21 , 1), w = (− 2, −1, 3, 1) e u = (0, 0, 0, 1) são vetores de R4 .
−−→
2. Determine o comprimento do segmento orientado P Q. Os pontos da primeira

coluna estão no plano Cartesiano e os da segunda coluna, no espaço Cartesiano.

(a) P (1, 2) e Q(4, 6). (d) P (−1, 0, 2) e Q(3, −2, 0).


(b) P (1, 0) e Q(0, 1). (e) P (0, 0, 0) e Q(0, 1, 0).
(c) P (1, 1) e Q(−1, −1). (f ) P (0, 0, 0) e Q(1, 1, 1).

−−→
3. Represente por um segmento orientado u = (cos θ, sen θ) ∈ R2 .
OU o vetor

Qual a norma de u? Esboce no plano cartesiano todos os pontos U (cos θ, sen θ).

4. (Lei do paralelogramo) Mostre que para quaisquer dois vetores v e w em

Rn vale a identidade kv + wk2 + kv − wk = 2kvk2 + 2kwk2 Dê uma justicativa


para tal nome.

4.3 Medida de ângulo entre dois vetores


A desigualdade de Cauchy-Schwarz também permite transpor o conceito
de medida de ângulo para o Rn . A informação extra necessária vem da trigo-
nometria: para cada t ∈ [−1, 1] existe um único θ ∈ [0, π] tal que cos θ = t.
Sejam v e w vetores em Rn . Se kvk 6= 0 e kwk 6= 0, a desigualdade de
Cauchy-Schwarz pode ser reescrita na forma

hv, wi
−1 ≤ ≤ 1.
kvk kwk
Ÿ4.3 Medida de ângulo entre dois vetores 91

Denição 4.1. A medida do ângulo entre dois vetores não nulos v e w de Rn


é o único θ ∈ [0, π], tal que

hv, wi
cos θ = .
kvk kwk
Muitas vezes, diz-se que θ é o ângulo entre os vetores, em lugar do termo
medida do ângulo entre os vetores. Em termos de segmentos orientados, θ
é a medida do ângulo do plano ou do espaço cartesiano determinado pelos
raios suportes de dois segmentos orientados que representam v e w com pontos
iniciais em um mesmo ponto P .
R

w Q

q v

As denições postas, estabelecem uma relação entre um conceito algébrico,


produto interno, e dois conceitos geométricos, comprimento e ângulo:

hv, wi = kvk kwkcos θ ,

Algumas vezes, para deixar claro que o ângulo considerado é aquele relacionado
aos vetores v e w, escrevemos θ(v, w).

Exemplo 4.3. Para calcular a medida do ângulo entre os vetores v = (2, −1, −1)
e w = (−1, −1, 2) do R3 precisados dos valores
√ √
hv, wi = −3, kvk = 6 e kwk = 6.
√ √
Da igualdade −3 = 6 6cos θ, obtemos cos θ = − 21 , portanto, θ = 2π
3
. 3
92 Álgebra linear e Geometria Cap. 4

Exemplo 4.4. Em geral, não é possível precisar a medida do ângulo entre


dois vetores, mas podemos fazer uma aproximação com uso de calculadoras.
Se v = (−1, 2, 1) e w = (3, −1, 3) são vetores do R3 , a identidade hv, wi =
kvk kwkcos θ nos dá indiretamente o ângulo entre os vetores, pois substi-
√ √
tuindo os valores obtemos −2 = 6 19cos θ de onde segue que cos θ = √−2 114
.
Feito isto,
 devemos
 vericar numa calculadora o valor aproximado de θ =
arccos √114 com θ ∈ [0, π].
−2
3

Denição 4.2. Dois vetores v e w em Rn são ortogonais quando hv, wi = 0.

O vetor o ∈ Rn é ortogonal a qualquer vetor v , pois hv, oi = 0. Convém


observar que quando dois vetores não nulos são ortogonais estamos armando
que o ângulo entre eles mede θ = π2 , pois se kvk =
6 0 e kwk =
6 0, as igualdades

0 = hv, wi = kvkkwk cos θ

implicam que cos θ = 0. Como θ ∈ [0, π], concluímos que θ = π/2.


Em R2 , um processo prático para construir um vetor perpendicular a um
vetor não nulo v = (a, b) é considerar o vetor v ⊥ = (−b, a) ∈ R2 .

Exemplo 4.5. Os vetores v = (1, 2) e w = (−4, 2) de R2 são ortogonais pois


o produto interno é zero. Em E2 , quaisquer dois segmentos orientados com
mesmo ponto inicial representando esses vetores são perpendiculares. 3

EXERCÍCIOS
1. Calcule o ângulo entre os vetores u e v.

(a) u = (−3, −3), v = (0, 4) ∈ R2 .


(b) u = (2, 2, 2), v = (1, −1, 0) ∈ R3 .
(c) u = (10, −3), v = (3, 10) ∈ R2 .
√ √ √ √
(d) u = ( 2, 2, 2), v = ( 3, 0, 3), ∈ R3 .
Ÿ4.3 Medida de ângulo entre dois vetores 93

2. Determine o valor da coordenada para que os ângulos entre os vetores do R3


seja o ângulo pedido.

π
(a) v = (−1, 2, 1), w = (x, 1, 2), θ(v, w) = 3.

(b) v = (0, 1, 0), w = (1, y, 4), θ(v, w) = − π4 .

3. Determine um vetor ortogonal ao vetor η ∈ R2 .

(a) η = (−2, 3). (b) η = (3, 3). (c) η = (1, −1).

4. Calcule um vetor unitário u ∈ R3 simultaneamente ortogonal aos vetores v=


(2, 1, 0) e w = (1, −1, 2).

5. Determine a medida do ângulo entre o vetor v e cada um dos vetores da base

canônica C3 (ângulos diretores).

(a) v = (−3, 2, 3) ∈ R3 . (b) v = (1, 1, 1).

6. Calcule o produto interno entre os vetores unitários u1 = (cos θ, sen θ) e u2 =


(cos α, sen α) e verique a fórmula do cosseno da diferença de ângulos.

7. Seja v = (1, 1) ∈ R2 . Determine um vetor w ∈ R2 tal que β = {v, w} seja uma


2
base de R e mais, hv, wi = 0.

8. Seja v = (1, 1, 1) ∈ R3 . Determine dois vetores w1 , w2 ∈ R3 tal que β =


{v, w1 , w2 } seja uma base 3
de R e mais, hv, wi i = 0, i = 1, 2.

9. Verique que os pontos P , Q e R do espaço Cartesiano E3 são vértices de um

triângulo retângulo, onde P (3, 0, 2), Q(4, 3, 0) e R(8, 1, −1).

10. (Teorema de Pitágoras) Sejam v, w ∈ Rn tal que hv, wi = 0. Mostre que

kvk2 + kwk2 = kv + wk2 .

11. Sejam v, w ∈ Rn . Mostre que kvk2 + kwk2 = kv + wk2 ⇔ hv, wi = 0.

12. Mostre que v, w ∈ Rn são ortogonais se, e somente se, kv + wk2 = kv − wk.
94 Álgebra linear e Geometria Cap. 4

4.4 Ortogonalidade
Como denido anteriormente, dois vetores v e w de Rn são ortogonais
quando hv, wi = 0. O símbolo v ⊥ w indicará a ortogonalidade de v e w.
Vejamos algumas aplicações deste conceito.
Sejam v e w vetores não nulos de Rn . A projeção ortogonal de v sobre w
é um vetor denotado por pw (v) e denido como sendo o vetor colinear com w
tal que v − pw (v) ⊥ w.

v v-pw(v)

q pw(v) w

Explicitemos o vetor projetado. Sendo pw (v) = λw e hv − pw (v), wi = 0, temos


hv, wi−λhw, wi = 0. Daí segue que λ = kwk1
2 hv, wi. Utilizando as propriedades

do produto interno podemos escrever,


 
1 1
pw (v) = v, w .w.
kwk kwk
Se u = kwk1
w é o unitário obtido por normalização de w, o vetor projeção
ortogonal de v sobre w ca reescrito como pw (v) = hv, uiu.

||v||

q
||pw(v)||

Logo, projetar ortogonalmente sobre w ou sobre seu normalizado u é indife-


rente, o vetor projeção é o mesmo. Com isto, fazemos uma releitura de uma
Ÿ4.4 Ortogonalidade 95

fórmula de projeção da Geometria euclidiana, agora com vetores. Como u é


unitário temos hv, ui = kvkcos θ. Portanto, pu (v) = kvkcos θ u implica que
kpw (v)k = kvkcos θ.

Exemplo 4.6. 1. Sejam v = (2, 1, 4) e w = (1, −1, 1) vetores de R3 . Cal-


culemos a projeção ortogonal de v sobre w. Normalizando w temos u =
√1 (1, −1, 1) e pelo visto
3
 
1 5
pw (v) = (2, 1, 4), √ (1, −1, 1) u = u.
3 3

2. A base canônica C3 = {e1 , e2 , e3 } de R3 . é constituída por vetores uni-


tários e ortogonais dois a dois, ei ⊥ ej se i 6= j e kei k = 1. A relação
entre as coordenadas de um vetor nesta base e ortogonalidade é simples. Se
w = a1 e1 +a2 e2 +a3 e3 , então pei (w) = hw, ei iei = ai , para 1 ≤ i ≤ 3. Portanto,

w = hw, e1 ie1 + hw, e2 ie2 + hw, e3 ie3 . 3

No espaço R3 existe uma operação denominada produto vetorial no qual o


conceito de ortogonalidade está presente.

Denição 4.3. 3
Sejam v e w vetores de R . O produto vetorial de v por w é
3 3
o vetor v∧w de R tal que para qualquer vetor u ∈ R , vale a identidade

hu, v ∧ wi = det[u, v, w].

Proposição 4.3. Sejam v = (a, b, c) e w = (d, e, f ) vetores de R3 . Valem as


seguintes armações sobre o produto vetorial.

1. O vetor v ∧ w é ortogonal aos vetores v e w, simultaneamente.


 
2. v ∧ w = det[e1 , v, w], det[e2 , v, w], det[e3 , v, w] .

3. kv ∧ wk2 = det[v, w, v ∧ w] ≥ 0.

4. v ∧ w = −w ∧ v .
96 Álgebra linear e Geometria Cap. 4

Prova 1. Por denição, temos hv, v ∧ wi = det[v, v, w].


Como a matriz [v, v, w]
tem duas colunas iguais, hv, v ∧ wi = 0. O mesmo vale para w e v ∧ w.

v w w

2. Pelo Exemplo 4.6, p. 95, e pela denição de produto vetorial segue que

v ∧ w = he1 , v ∧ wie1 + he2 , v ∧ wie2 + he3 , v ∧ wie3

= det[e1 , v, w]e1 + det[e2 , v, w]e2 + det[e3 , v, w]e3


 
= det[e1 , v, w], det[e2 , v, w], det[e3 , v, w] .

3. Sejam v = (a, b, c) e w = (d, e, f ) vetores em R3 . Efetuando o desenvol-


vimento de Laplace pela terceira coluna e utilizando o item 2 temos

a d bf − ce
 

det[u, v, v ∧ w] = det  b e cd − af 
c f ae − bd
= (ae − bd)2 + (af − cd)2 + (bf − ce)2
= kv ∧ wk2
≥ 0.

4. Deixaremos aos cuidados do leitor. 2


Apresentaremos um algoritmo para avaliar mais rapidamente o produto
vetorial e diminuir erros de cálculo. Observando a expressão obtida no item 2.
da proposição acima, podemos induzir um algoritmo semelhante ao cálculo de
um determinante de matriz 3 × 3. Sejam v = (a, b, c) e w = (a, b, c) vetores do
Ÿ4.4 Ortogonalidade 97

R3 . Calculando o determinante da matriz a seguir temos


 
e1 a d     
b e a d a d
det  e2 b e  = det e1 − det e2 + det e3
c f c f b e
e3 c f
     !
b e a d a d
= det , −det , det
c f c f b e
= (det[e1 , v, w]), −det[e2 , v, w], det[e3 , vw])
= v ∧ w.

Exemplo 4.7. Sejam v = (3, 1, −4) e w = (0, 2, 1), vetores do R3 :


 
e1 3 0
v ∧ w = det  e2 1 2  = 9e1 − 3e2 + 6e3 = (9, −3, 6). 3
e3 −4 1

A relação descrita a seguir é conhecida por Fórmula de Lagrange.

Proposição 4.4. Para quaisquer dois vetores v e w do R3 vale a identidade:

kv ∧ wk = kvk kwksen θ(v, w).

Prova Sejam v = (a, b, c) e w = (d, e, f ). A demonstração é uma vericação.

kvk2 kwk2 − hv, wi2 = a2 + b 2 + c 2 d2 + e2 + f 2 − (ad + be + cf )2


 

= (ae)2 + (af )2 + (bd)2 + (bf )2 + (cd)2 + (ce)2

−2 (abde + acdf + bcef )

= (ae − bd)2 + (af − cd)2 + (bf − ce)2 .

O último membro das igualdades é precisamente kv ∧ wk2 . Portanto,

kv ∧ wk2 = kvk2 kwk2 − hv, wi2 .


98 Álgebra linear e Geometria Cap. 4

Finalmente,

kv ∧ wk2 = kvk2 kwk2 − hv, wi2


= kvk2 kwk2 − kvk2 kwk2 cos θ
= kvk2 kwk2 1 − cos2 θ


= kvk2 kwk2 sen2 θ.

Daí segue que kv ∧ wk = kvk kwk sen θ. 2

Corolário 4.1. Dois vetores não nulos v e w em R3 são colineares se, e


somente se, kv ∧ wk = 0.

Prova Pela fórmula de Lagrange, kv ∧ wk = 0 se, e somente se θ(v, w) for


igual a 0 ou π . 2

Corolário 4.2. Se os vetores v e w de R3 não são colineares, então β =


3
{v, w, v ∧ w} é uma base de R .

Prova Suponha, por absurdo, que β não seja uma base. Sendo assim, pelo
Teorema 1.2, p. 27, temos det[v, w, v ∧ w] = 0. Pelo item 3 da Proposição 4.3,
p. 95, segue que kv ∧ wk = 0, e pelo corolário anterior, concluímos que v e w
são colineares, uma contradição. 2

EXERCÍCIOS
1. Mostre que o triângulo ABC em E3 é um triângulo retângulo, onde A(7, −4, 1),
B(3, −1, 0) e C(5, 2, 1). Identique a hipotenusa.

2. Mostre que o quadrilátero ABCD em E2 é um quadrado, onde A(0, 7), B(−3, 5)


e C(−1, 2) e D(2, 4).

3. Seja C3 a base canônica do R3 . Verique as identidades.

(a) e1 ∧ e2 = e3 . (b) e2 ∧ e3 = e1 . (c) e3 ∧ e1 = e2 .

4. Sejam v e w vetores em R3 . Simplique as expressões.


Ÿ4.5 Equações lineares em Geometria analítica 99

(a) v1 = v ∧ (v − w). (c) v3 = (3v − 2w) ∧ (2v + 3w).


(b) v2 = (v ∧ w) ∧ (w ∧ v). (d) v3 = hv, v ∧ wi.

5. Sejam u, v e w vetores em R3 . Quais das expressões a seguir faz sentido.

(a) u + hv, wi. (d) kuk ∧ v .


(b) u ∧ hv, wi. (e) hu, vihu ∧ wi.
(c) hv, wiu. (f ) hλu, vi = hu, λ ∧ vi.

6. Demonstre as relações entre os produtos vetorial e interno.

(a) (u ∧ v) ∧ w = hu, wiv − hv, wiu. (Produto vetorial duplo)

(b) hu, v ∧ wi = hw, u ∧ vi = hv, w ∧ ui. (Identidade cíclica)

4.5 Equações lineares em Geometria analítica


Existem muitos modos de determinar uma reta no plano. Um teorema bem
conhecido arma que pelo ponto P do segmento P Q incide uma única reta r
perpendicular a P Q.

Como vimos, o conceito de ortogonalidade entre vetores é a versão algébrica


do conceito de perpendicularismo na Geometria euclidiana. Iremos explorar
esta proximidade. Para fazer a leitura vetorial do problema, vamos considerar
que estejamos no plano cartesiano.

r
r
Q h Q(x2,y2)
P(x 1,y1 )
P w A(x,y)
100 Álgebra linear e Geometria Cap. 4

−→
Se P (x1 , y1 ) e Q(x2 , y2 ), o segmento orientado P Q representa o vetor η =
(η1 , η2 ). Por força de expressão, o vetor η é denominado vetor normal à reta
r. Seja A(x, y) um ponto arbitrário de E2 . A reta ca determina pela seguinte
condição: r é o lugar geométrico de todos os ponto A(x, y) tal que o segmento
−→ −→
orientado P A é perpendicular ao segmento orientado P Q. Portanto, w =
(x − x1 , y − y1 ) é ortogonal a η . Disto segue a equação da reta: r : hw, ηi = 0.
Em termos de coordenadas:

r : η1 x + η2 y − η1 x1 − η2 y1 = 0.

O fato útil nesta formulação é que o vetor normal está implícito na equação.
Suas coordenadas são os coecientes das variáveis x e y , nesta ordem.

Exercício 4.3. Determinemos a equação da reta r do plano cartesiano que


incide em P (2, 1) e tem vetor normal η = (2, −3).
Como vimos, r : hw, ηi = 0, onde w = (x − 2, y − 1). Logo, efetuando o
produto interno obtemos r : 2x − 3y − 1 = 0. É usual escrever a equação na
forma r : 2x − 3y = 1.
Reciprocamente, conhecida uma equação linear nas variáveis x e y , diga-
mos, −x + 4y = 5, podemos associá-la a uma equação de uma reta s. É a reta
que incide em P (3, 2) e tem vetor normal η = (−1, 4). Observe que as coorde-
nadas de P (3, 2) satisfaz a equação linear. A mesma reta também poderia ser
descrita como aquela que incide em Q(−5, 0) e tem vetor normal η . 3

Examinemos o axioma da Geometria euclidiana: dois pontos P (x1 , y1 ) e


R(x2 , y2 ) determinam uma única reta r. Para deduzir uma equação para a
reta determinada por esta condição, nos valemos da construção anterior. O
−→
segmento orientado P R representa o vetor v = (x2 − x1 , y2 − y1 ). Se rotacio-
narmos o vetor de π2 no sentido anti-horário, obtemos o vetor η que é normal
a r. O problema, agora, está colocado nas condições anteriores: determinar a
equação da reta r com vetor normal η que incide no ponto P (x1 , y1 ).
Ÿ4.5 Equações lineares em Geometria analítica 101

r h

P(x1,y1 ) v

R(x 2,y2)

Exemplo 4.8. Determinemos a equação da reta r do plano cartesiano que


−→
incide em P (1, 2) e Q(3, 1). O segmento orientado P R representa v = (2, −1).
Portanto, um vetor normal a r é η = (1, 2). Logo , se w = (x − 1, y − 2), temos
r : hw, ηi = 0. Efetuando o produto interno obtemos r : x + 2y = 5. 3

Exemplo 4.9. Calculemos a distância d0 do ponto Q(1, 2) à reta r : x−3y = 2.


Para isto, escolhamos um ponto P qualquer sobre r, digamos, P (2, 0). A
−→ −→
distância de P a r será o comprimento da projeção de P Q sobre P R, onde
−→
P R é o segmento que representa o vetor normal η = (1, −3). Portanto, se
v = (−1, 2), distância é
1 7
d0 = |hv, ηi| = √ . 3
kηk 10
Acrescentemos mais uma leitura para sistemas lineares. Cada linha de um
sistema de n equações lineares com incógnitas x e y ,


 η11 x + η12 y = k1
 η21 x + η22 y = k2

S: .. .. .. ,


 . . .
ηn1 x + ηn2 y = kn

pode ser lida como a equação de uma reta do plano, ri : ηi1 x+ηi2 y = ki . Sendo
assim, resolver o sistema é encontrar as coordenadas dos pontos P (x0 , y0 ) que
estão na interseção de todas as retas, simultaneamente.
102 Álgebra linear e Geometria Cap. 4

As mesmas ideias são aplicáveis ao espaço euclidiano E3 . Planos no espaço


euclidiano podem ser determinados de vários modo. Um teorema garante
que pelo ponto P do segmento P Q incide um único plano Π perpendicular
ao segmento P Q.

P P Q(x2,y2 ,z2)
h
w
A(x,y,z)
P(x 1,y1 ,z1)

Esta condição determina uma equação cartesiana para Π. Se P (x1 , y1 , z1 ) e


−→
Q(x2 , y2 , z2 ), o segmento orientado P Q representa o vetor η = (η1 , η2 , η3 ). O
vetor η é denominado vetor normal ao plano Π. Seja A(x, y, z) um ponto arbi-
trário de E2 . O plano ca determinoda pela condição: Π é o lugar geométrico
−→
de todos os ponto A(x, y, z) tal que o segmento orientado P A é perpendicular
−→
ao segmento orientado P Q. Logo, w = (x − x1 , y − y1 , z − z1 ) é ortogonal a η .
Sendo assim, a equação do plano ca sendo: Π : hw, ηi = 0. Em termos de
coordenadas:
r : η1 x + η2 y + η3 z = η1 x1 − η2 y1 + η3 z1 .
Note que vetor normal está implícito na equação. Suas coordenadas são os
coecientes das variáveis x, y e z .
Exemplo 4.10. Determinemos a equação do plano Γ do espaço cartesiano que
incide em P (2, 1, −3) e tem vetor normal η = (2, −3, 1).
Uma equação é Π : hw, ηi = 0, onde w = (x − 2, y − 1, z + 3). Efetuando o
produto interno obtemos Π : 2x − 3y − 3z = −4.
Uma equação linear em três variáveis, x, y e z , digamos, −x + 4y + z = 0,
pode ser associada a um plano Π do espaço cartesiano. O plano Π é aquele
com vetor normal η = (−1, 4, 1) que incide em P (1, 1, −3). 3
Ÿ4.5 Equações lineares em Geometria analítica 103

Um axioma da Geometria euclidiana estabelece que três pontos P (x1 , y1 , z1 ),


Q(x2 , y2 , z2 ) e R(x3 , y3 , z3 ) não colineares determinam um único plano Π. Para
deduzir uma equação cartesiana para Π, aplicamos a construção anterior. Os
−→ −→
segmentos orientados P Q e P R representam os vetores

u = (x2 − x1 , y2 − y1 , z2 − z1 ) e v = (x3 − x1 , y3 − y1 , z3 − x1 ),

respectivamente. Como os pontos não são colineares, os vetores u e v também


não o são. Logo, η = u ∧ v pode ser representado por um segmento orientado
−→ −→ −→
P S perpendicular aos segmentos P Q e P R. Sendo assim, o plano Π pode ser
descrito como aquele que tem vetor normal η e incide em P .
S
h=u v

u Q
P A
P v R

Vejamos a relação entre sistemas de equações lineares e planos em E3 . Cada


linha de um sistema de n equações linear e três incógnitas, que são x, y e z ,


 η11 x + η12 y + η13 z = k1
 η21 x + η22 y + η23 z = k2

S: .. .. .. .. ,


 . . . .
ηn1 x + ηn2 y + ηn3 z = kn

pode ser lida como a equação de um plano Πi : ηi1 x + ηi2 y + ηi3 z = ki no


espaço cartesiano. Resolver o sistema é encontrar as coordenadas dos pontos
P (x0 , y0 , z0 ) que estão na interseção de todos os planos, simultaneamente.
Para nalizar a seção, precisamos estudar equações de retas em E3 . Para
isto, lançamos mão do axioma da Geometria euclidiana que estabelece: a in-
terseção de dois planos é uma reta. Sabendo-se disto, uma reta no espaço
104 Álgebra linear e Geometria Cap. 4

cartesiano não é descrita por uma equação, mas por duas equações lineares,
uma para cada plano cuja interseção é a reta. Por exemplo,

x − 2y − z = 0
r: .
2x − 3y + z = 5

esta notação está indicando que r é a interseção dos planos



Π : x − 2y − z = 0
.
Λ : 2x − 3y + z = 5

Claro, a reta é o conjunto dos pontos P (x0 , y0 , z0 ) cujas coordenadas são as


soluções do sistema correspondente.

EXERCÍCIOS
1. Determine a equação da reta em E2 que incide em P e tem vetor normal η.

(a) P (1, 1) e η = (1, 1). (c) P (0, 0) e η = (−1, 1).


(b) P (2, 1) e η = (1, 3). (d) P (1, 0) e η = (−2, −3).

2. Determine a equação da reta em E2 que incide nos pontos P e Q.

(a) P (1, 1), Q(0, 3). (c) P (1, 1), Q(1, 5). (e) P (0, 0), Q(1, 1).
(b) P (−1, 2), Q(2, −1). (d) P (−3, 4), Q(3, 4). (f ) P (0, 0), Q(−2, 1).

3. Mostre que os pontos A, B e C do plano Cartesiano são colineares.

(a) A(1, 1), B(−2, 0) e C(0, 32 ). (b) A(−1, 2), B(2, −1) e C(3, −2).

4. Determine a medida dos ângulos formados pelas retas r e s de E2 .

(a) r : x − 2y = 0 e s : 2x + y = 3. (b) r :x−y =0 e s : y = −6.

5. Determine a equação cartesiano do plano denido pelos pontos de E3 :


Ÿ4.5 Equações lineares em Geometria analítica 105

(a) P (1, 0, 1); Q(0, 3, 2); R(1, 1, 1). (c) P (1, −2, 1); Q(0, 1, 5); R(1, 0, 0).
(b) P (0, −1, 2); Q(1, 2, −1); O. (d) O; Q(1, 1, 1); R(1, 1, 0).

6. Esboce o gráco das equações em duas variáveis e depois esboce o gráco das

equações considerando-as em três variáveis.

(a) 3x − y + 6 = 0. (b) y = x − 4. (c) x = 2y + 1.

7. Verique se os pontos P , Q, R e S de E3 são coplanares.

(a) P (1, 0, 1), Q(0, 3, 2), R(1, −1, 1) e S(0, 0, 0).


(b) P (0, −1, 2), Q(1, 1, −1), R(0, 0, 0) e S(1, 0, 1).

8. São sugeridas várias posições relativas entre planos no espaço cartesiano E3 .


Em cada item, considere o sistema constituído pelas equações dos planos e

estude o sistema: possível e determinado; possível e indeterminado; impossível.

(a) (c)

(b) (d)

9. Determine equações para a reta denidas pelos pontos P e Q de E3 .


106 Álgebra linear e Geometria Cap. 4

(a) P (1, 0, 1) e Q(0, 3, 2). (d) P (0, 0, 0) e Q(1, 1, 1).


(b) P (0, −1, 2) e Q(1, 2, −1). (e) P (0, 0, 1) e Q(0, 1, 0).
(c) P (1, −2, 1) e Q(0, 1, 5). (f ) P (1, 1, 0) e Q(1, 1, 2)

10. Determine equações para a reta r em E3 que contém os pontos P e Q, onde

as equações têm um dos coecientes de uma das variáveis igual a zero.

(a) P (1, 0, 1) e Q(0, 3, 2). (c) P (1, −2, 1) e Q(1, −2, 5).
(b) P (0, −1, 2) e Q(1, 2, −1). (d) P (0, 0, 0) e Q(0, 0, 1).

11. Calcule a distância do ponto P à reta r em E2 .

(a) P (0, 0) e Π : 3x − 2y = 4. (b) P (1, 1) e Π : x − +2y = 0.

12. Calcule a distância do ponto P ao plano Π em E3 .

(a) P (0, 0, 1) e Π : x − y + 2z = 0. (b) P (1, 1, 1) e Π : x − z = 0.

13. Calcule a distância do ponto P à reta r em E3 .

(a) P (0, 0, 0) e r é a interseção de Π : x − y + 2z = 2 e Λ : x + 2y − z = 4.


(b) P (1, 1, 1) e r é a interseção de Π :: x + y + 2z = 0 e Λ : x + 2y − z = 4.

14. Existe interseção entre a reta r e o plano Π de E3 , onde

(
x − 2y − z = 0
r: e Π : x + y − z = 4?
2x − 3y + z = 5

4.6 Áreas em E2
Sejam u = (a, b) e v = (c, d) vetores de R . Iremos agregar ao número
2

det[u, v] um conteúdo geométrico que será a medida de área de um parale-


logramo em E2 . O módulo do determinante se faz necessário necessário, pois
Ÿ4.6 Áreas em E2 107

como sabemos, se trocarmos as colunas o determinante muda de sinal e o


conceito de área, na geometria, não é negativa.
Ao par de vetores u e v , associamos um paralelogramo em E2 cujos vértices
são O(0, 0), U (a, b), V (c, d) e W (a + c, b + d). Observe que os segmentos orien-
−→ −−→ −−→
tados OU , OV , e OW são representantes de u, v e w = u + v , respectivamente.

V
h

v
U altura h
u base ||u||
O

Sem perda de generalidade, assumiremos que u = (a, b) não é um vetor


vertical, ou seja, a 6= 0. Sendo assim, podemos modicar o paralelogramo
e construir outro paralelogramo preservando os valores da base e da altura,
portanto, mantendo a área. Para isto, seja v 0 = v − ac u. Note que v 0 = (0, c0 ).
Os pontos O(0, 0), U (a, b), V 0 (0, d0 ) e W (a, b+d0 ) são vértices do paralelogramo
procurado. Ele está associado aos vetores u e v 0 .

W’

h
V’

v’ U altura h
u base ||u||
O
108 Álgebra linear e Geometria Cap. 4

Este paralelogramo tem a mesma área do paralelogramo anterior e



det[u, v] =
det[u, v 0 ] , pois somamos à segunda coluna um múltiplo da primeira.

Iremos modicar o último paralelogramo para um retângulo mas mantendo


a mesma área. Considere agora como base do último paralelogramo o segmento
OV 0 e seja h0 a altura em relação a esta base.

W’

V’ h’

v’ U altura h’
u base ||v’||
O

Considere o vetor horizontal u0 = u − db0 v 0 . Note que u0 = (a0 , 0). Os pontos


O(0, 0), U 0 (a0 , 0), V 0 (0, d0 ) e W 00 (a0 , d0 ) são vértices do retângulo associado aos
vetores u0 e v 0 .

V’ W’’
h’ altura h’
v’ base ||v’||

O u U’

O valor da área do retângulo é igual a ku0 k · kv 0 k = |a0 | · |d0 | e é igual ao valor


da área do paralelogramo original, por construção. Por outro lado,
 0 
det[u, v] = det[u, v 0 ] = det[u0 , v 0 ] = det a 0 = |a0 | · |d0 |.

0
0 d
Ÿ4.6 Áreas em E2 109

A apresentação acima levou em conta um paralelogramo associado a um


par de vetores com um dos vértices na origem. Se escolhermos um outro
ponto P (x1 , y1 ) como ponto inicial dos representantes dos vetores u e v , a
argumentação é semelhante.
Se u e v são colineares, digamos v = λu, o paralelogramo associado aos
vetores é degenerado, está contido na reta suporte de u e v que incide na
origem. Logo, a área do paralelogramo é zero e det[u, v] = 0, pois uma coluna
é múltipla da outra. Registremos estes fatos numa proposição.
Proposição 4.5. A área de qualquer paralelogramo em
E2 associados aos ve-
2
tores u e v do R é igual a det[u, v] .

Exercício 4.4. Considere os pontos O(0, 0), V (2, −1) e W (3, 3) de E2 .


1. Quantos paralelogramos existem tendo estes três pontos como vértices?

2. Calcule a área de cada paralelogramos encontrado no item 1.

3. Seja Q(1, −2). Determine os vértices do paralelogramo QRST tal que


−→ −→
os segmentos orientados QR e QS representam os vetores, v = (3, −1) e
w = (1, 2), respectivamente, e calcule a área do paralelogramo. 3
Voltemos para a Geometria analítica. Como aplicação destas ideias, pode-
mos utilizá-las para calcular equações cartesianas de retas em E2 .
Seja r a reta do plano cartesiano determinado pelos pontos P (x1 , y2 ) e
Q(x2 , y2 ). Seja A(x, y) um ponto arbitrário de E2 .

A(x,y)
Q(x2,y2 )
P(x1,y1 )

O
110 Álgebra linear e Geometria Cap. 4

A retar pode ser descrita como o conjunto dos pontos A(x, y) ∈ E2 tais que
−→ −→
os vetores u e v do R2 representados pelos segmentos orientados P Q e P A,
respectivamente, são colineares. Isto implica que det[u, v] = 0. Como u =
(x2 − x1 , y2 − y1 ) e v = (x − x1 , y − y1 ), uma equação da reta ca sendo
 
x 2 − x1 x − x1
r : det =0
y2 − y1 y − y1
Exemplo 4.11. Se desejarmos calcular uma equação cartesiana da reta r que
incide nos pontos P (2, 1) e Q(−3, −2), consideramos um ponto genérico A(x, y)
−→
da reta e os vetores u e v do R2 representados pelos segmentos orientados P Q
−→
e P A. Tais vetores são u = (5, 3) e v = (x + 3, y + 2), respectivamente. Logo,

r : det[u, v] = 0.

Calculando temos
 
x+3 5
r : det = 3x − 5y − 1. 3
y+2 3
Note qu epodemos calcular, utilizando vetores, todas medidas básicas da
Geometria euclidiana plana: medida de comprimento, medida de ângulo e me-
dida de área. Para isto, é suciente calcular produtos internos e determinantes.

EXERCÍCIOS
1. Verique que P QRS é um paralelogramo em E2 , calcule sua área, os compri-

mentos dos lados e as medidas dos ângulos, onde:

(a) P (0, 0); Q(1, 2); R(1, 3); S(2, 5). (b) P (1, 1); Q(3, 2); R(5, 6); S(7, 7).

2. Calcule a área do triângulo P QR em E2 quando:

(a) P (0, 0); Q(1, 2); R(1, 3). (b) P (1, 1); Q(3, 2); R(7, 7).

3. Esboce e calcule a área do paralelogramo no plano Cartesiano associado aos

vetores v, w ∈ R2 , onde v = (1, 2) e w = (1, 3) com um dos vértices em O(0, 0).


Ÿ4.6 Áreas em E2 111

4. Sejam v, w ∈ R2 , ondev = (−1, 2) e w = 2v . Calcule e interprete, geometri-

camente, o valor do determinante det[v, w].

5. Considere os pontos do plano Cartesiano P (1, 1), Q(3, −3) e R(5, −2).
−−→ −−→
(a) Determine os vetores uev representados por P Q e QR, respectivamente.
(b) Determine um ponto S(a, b) tal que P QRS seja um paralelogramo e

calcule sua área.

(c) Dê as coordenadas dos pontos A e B sobre o segmento QR tal que estes

pontos dividem o segmento QR em três partes iguais.

6. Determine a equação da reta que incide nos pontos P e Q de E2 .

(a) P (1, 1), Q(0, 3). (b) P (−1, 2), Q(2, −1). (c) P (−3, 4), Q(3, 4).

7. Mostre que os pontos A, B e C do plano Cartesiano são colineares onde:

(a) A(1, 1), B(−2, 0) e C(0, 23 ); (b) A(−1, 2), B(2, −1) e C(3, −2).

8. Esboce o gráco cartesiano das equações em duas variáveis.

(a) 3x − y + 6 = 0. (b) y = x − 4. (c) x = 2y + 1.

9. Calcule as áreas e os perímetros dos seguintes polígonos do plano cartesiano.

B(2,4) E(0,6)

D(8,4)
B(3,3)
(a)
O(0,0)
(b)

D(1,-3) C(5,-2) C(5,0)


O(0,0)
112 Álgebra linear e Geometria Cap. 4

4.7 A¯eas e volumes em E3


Sejam u = (x1 , y1 , z1 ) e v = (x2 , y2 , z2 ) e w = (x3 , y3 , z3 ) vetores de R3 .
Iremos agregar ao número det[u, v, w] um conteúdo geométrico que será o
volume de um paralepípedo em E3 .
A origem O(0, 0, 0) será o vértices básico do paralelepípedo que será asso-
ciado aos vetores u, v e w. Considere os pontos U (x1 , y1 , z1 ), V (x2 , y2 , z2 ) e
−→ −−→
W (x3 , y3 , z3 ) no espaço cartesiano. Claro, os segmentos orientados OU , OV e
−−→
OW representam os vetores u, v e w, respectivamente. O leitor pode vericar
que os pontos nais dos representantes de u + v , u + w, v + w e u + v + w em
conjunto com os pontos O, U , V e W são vértices de um paralelepípedo. Este
é o paralelepípedo básico associado aos vetores u, v e w.

W
V
w
v
u U
O

Não o faremos, mas com procedimentos semelhantes aos executados para pa-
ralelogramos, embora mais longos e laboriosos, modicamos cada vetor u, v e
w para vetores do tipo u0 = (a, 0, 0), v 0 = (0, b, 0) e w0 = (0, 0, c), respectiva-
mente, de modo que det[u, v, w] = det[u0 , v 0 , w0 ] e o volume do paralelepídedo
retangular associado aos vetores u0 , v 0 e w0 tem o mesmo volume do paralele-
pípedo original.
Como o volume do paralelepípedo associado aos vetores u0 , v 0 e w0 é igual
Ÿ4.7 A¯eas e volumes em E3 113

a ku0 k · kv 0 k · kw0 k = |a| · |b| · |c| e

 
a 0 0
0 0 0

det[u , v , w ] = det  0 b 0  = |a| · |b| · |c|,

0 0 c

vericamos que |det[u, v, w]| corresponde ao volume do paralelepípedo associ-


ado aos vetores u, v e w.

W’(0,0,c)

V’(0,b,0)

U’(a,0,0)

Se escolhermos um ponto P (x0 , y0 , z0 ) como ponto inicial dos representantes


dos vetores u, v e w outro que não a origem, a argumentação é semelhante.
Se os pontos O, U , V e W são coplanares, o paralelogramo associado aos
vetores é degenerados, está contido no plano e não tem volume. Registremos
estes fatos numa proposição.

Proposição 4.6. O volume de qualquer paralelepípedo em


E3 associados aos
3
vetores u, v e w do R é igual a det[u, v, w] .

Utilizemos estas ideias para determinar uma equação cartesiana de um


plano Π determinado por três pontos não colineares, digamos, P (x1 , y1 , z1 ),
Q(x2 , y2 , z2 ) e R(x3 , y3 , z3 ). Fixemos P como ponto base para um vértice de
um paralelepípedo.
114 Álgebra linear e Geometria Cap. 4

P Q
A
u w

P v
R

Seja A(x, y, z) um ponto arbitrário de E3 . O plano pode ser descrito como o


−→ −→ −→
conjunto dos pontos A(x, y, z) tais os segmentos orientados P Q, P A e P R estão
contidos em Π. Isto implica que os vetores u, v e w do R3 representados por
estes segmentos orientados, respectivamente, tem um paralelepípedo associado
com volume zero, det[u, v, w] = 0. Como u = (x2 − x1 , y2 − y1 , z2 − z1 ),
v = (x3 − x1 , y3 − y1 , z3 − z1 ) e w = (x − x1 , y − y1 , z − z1 ) uma equação do
plano ca sendo

x2 − x 1 x3 − x1 x − x1
 

Π : det  y2 − y1 y3 − y1 y − y1  = 0.
z2 − z1 z3 − z1 z − z1

Pelo visto até o momento, em E3 , podemos medir comprimentos de seg-


mentos, ângulos, e volumes de paralelepípedos. Para nalizar, vejamos como
podemos medir área de paralelogramos.
Sejam v = (x1 , y1 , z1 ) e w = (x2 , y2 , z2 ) vetores de R3 . O paralelogramo
básico P associado a este par de vetores é aquele cujos vértices são a origem
−−→ −−→ −→
O em conjunto com os pontos nais dos segmentos orientados OV , OW e OU
representantes de v , w e v + w, respectivamente.

W U

w P

O v V
Ÿ4.7 A¯eas e volumes em E3 115

Como sabemos, v ∧ w é ortogonal a v e w. Considere o paralelepípedo asso-


ciado aos vetores v , w e v ∧ w. Observamos que a altura deste paralelepípedo
em relação á base P mede kv ∧ wk.

v w W
w U
P

O v V

Levando em conta os resultados da Proposição 4.3, p. 95 e o volume V


deste paralelepípedo, podemos escrever

area(P)kv
´ ∧ wk = V
= det[v, w, v ∧ w]
= kv ∧ wk2 .

Daí segue que área(P) = kv ∧ wk.


No reciocínio acima foi assumido que v e w não são colineares. Quando v
e w são colineares a conclusão é trivial. A área é zero e o produto vetorial é
nulo, portanto vale a relação demonstrada.

Proposição 4.7. A área de qualquer paralelogramo em E3 associados aos ve-


3
tores v e w do R é igual a kv ∧ wk.

EXERCÍCIOS
1. Calcule a área (total) do paralelepípedo em R3 cujos lados são segmentos

orientados que representam os vetores v, w e v ∧ w.


116 Álgebra linear e Geometria Cap. 4

(a) v = (1, −1, 1) e w = (2, 0, −1). (c) v = (−1, 1, 0) e w = (−2, 2, 0).


(b) v = (−2, 1, 3) e w = (0, 0, 1). (d) v = (3, 1, 1) e w = (1, 0, 0).

2. Calcule a equação cartesiana do plano em E3 que incide no ponto O(0, 0, 0) e

contém a reta r, onde

(
x + y + z = 3
r: .
2x + y + 4z = 0
5
Subespaço vetorial
Dentre todos os subconjuntos de Rn alguns são especiais, não apenas para a
compreensão do texto, mas para a Álgebra linear como um todo. São chamados
subespaços vetoriais, subconjunto que são, eles próprios, espaço vetoriais. Para
melhor entendimento sobre Rn é conveniente estudá-los.

5.1 Subespaço e sistemas lineares


Diz-se que um subconjunto Γ ⊂ Rn é um subespaço vetorial quando:

1. Γ é um conjunto não vazio;

2. se v, w ∈ Γ, então v + w ∈ Γ;

3. se v ∈ Γ e λ ∈ R, então λv ∈ Γ.

O item 2. estabelece que Γ é fechado em relação à soma de vetores e o item


3. estabelece que ele é fechado em relação ao produto por escalar. Algumas
vezes diremos que Γ é um subespaço em lugar de subespaço vetorial.
O termo subespaço vetorial está bem empregado. O leitor pode vericar
que Γ satisfaz todas as condições exigidas na denição de espaço vetorial, ver
p. 3, cando o termo subespaço por conta de Γ ser um subconjunto de Rn .
Na denição de espaço vetorial é exigido que o conjunto tenha um elemento
neutro em relação à soma de vetores. De fato, um subespaço Γ contém o vetor

117
118 Subespaço vetorial Cap. 5

nulo de Rn , pois como Γ é não vazio, escolhemos um vetor qualquer v ∈ Γ e o


escalar λ = 0. Pelo item 3, podemos garantir que o produto λv = o ∈ Γ.
Destacamos dois exemplos de subespaços de Rn , a saber:

1o o subespaço trivial constituído apenas pelo vetor nulo, Γ = {o};

2o todo o espaço, Γ = Rn .

Claro, estaremos também interessados em estudar os subespaços próprios,


aqueles que satisfazem a condição {o} Γ Rn . O símbolo signica que o
subconjunto está contido mas não é igual. Preferencialmente, empregaremos
duas técnicas para descrever subespaços, a saber,

equações lineares homogêneas



.
combinações lineares

Ilustremos como um subespaço pode ser denido por uma equação linear
homogênea. Consider o subconjunto Γ de R2 ,

Γ = {(x, y, z) ∈ R3 ; x − 2y + 3z = 0}.

A sentença que dene o conjunto, x − 2y + 3z = 0, é uma equação linear


homogênea nas variáveis x, y e z . Isto signica que um vetor de R3 pertence a
Γ se, e somente se, suas coordenadas satisfazem a equação. Por simplicidade,
em lugar de utilizar a notação de conjunto muitas vezes registraremos apenas

Γ : x − 2y + 3z = 0,

desde que esteja claro que a equação tem três variáveis para sabermos que Γ é
um subconjunto do R3 .

Exemplo 5.1. Vericaremos que o conjunto é um subespaço mostrando que


Γ satisfaz as três condições enumeradas na denição de subespaço.
1. Γ não é vazio, pois o pertence a Γ.
Ÿ5.1 Subespaço e sistemas lineares 119

2. Sejam v = (x1 , y1 , z1 ) e w = (x2 , y2 , z2 ) vetores em Γ. Sendo assim,

x1 − 2y1 + 3z1 = 0 e x2 − 2y2 + 3z2 = 0.

Considere a soma v + w = (x1 + x2 , y1 + y2 , z1 + z2 ). Fazendo a substituição


na equação linear homogênea obtemos
0 0
x1 + x2 − 2(y1 + y2 ) + 3(z1 + z2 ) = (x1 −  > + 3z ) + (x − 2y
2y
1 1 2 
> + 3z )
2 2

= 0.

Portanto, v + w ∈ Γ.
3. Sejam v = (x1 , y1 , z1 ) ∈ Γ e λ ∈ R. Substituindo λv = (λx1 , λy1 , λz1 ) na
equação linear homogênea temos

λx1 − 2λy1 + 3λz1 = λ(x1 


−2y: 0 + 3z ) = 0.

1 1

Isso mostra que λv ∈ Γ.


Podemos armar algo mais. O subespaço Γ é próprio. Temos {o} Γ,
desde que (4, 2, 0) ∈ Γ, bem como, Γ R3 , pois o vetor η = (1, 1, 1) ∈
/ Γ. 3
Exercício 5.1. Mostre que o subconjunto:

1. Γ = {(x, y) ∈ R2 ; 2x − 3y = 0} é um subespaço do R2 .

2. Λ = {(x, y, z) ∈ R3 ; 2x − 3y = 0} é um subespaço do R3 . 3
Voltemos ao subespaço do R3 , Γ : x − 2y + 3z = 0. A sentença que dene
esse subespaço pode ser reescrita com o produto interno. Se η = (1, −2, 3), Γ
é constituído pelos vetores v = (x, y, z) de R3 que são ortogonais ao vetor η :

Γ = {(x, y, z) ∈ R3 ; hη, vi = 0}.

Proposição 5.1. Se η é um vetor não nulo de Rn , então

Γ = {v ∈ R3 ; hv, ηi = 0}

é um subespaço próprio do Rn .
120 Subespaço vetorial Cap. 5

Prova 1. Como ho, ηi = 0, segue que o ∈ Γ. Logo, Γ não é vazio.


2. Sejam v e w vetores em Γ. A soma v + w pertence a Γ por que

*0 *0

hv + w, ηi = 
hv,ηi hw,


+ ηi

= 0,

3. Seja v ∈ Γ e λ um escalar. O vetor λ ∈ Γ pois

0
hλv, ηi = λ 
hv,ηi
*

= 0,

O subespaço é próprio, pois hη, ηi = kηk2 > 0, ou seja, η ∈


/ Γ. 2
Dentre os modos de contruírmos subespaços, um deles é fazer interseções.

Proposição 5.2. Se Γ1 e Γ2 são dois subespaços de Rn , então a interseção


Γ1 ∩ Γ2 também o é.

Prova 1. Γ1 ∩Γ2 é não vazio, pois o pertence a Γ1 e Γ2 , logo, pertence à Γ1 ∩Γ2 .


2. Sejam v, w ∈ Γ1 ∩ Γ2 . Sendo assim, v, w ∈ Γ1 e v, w ∈ Γ2 . Como Γ1 e Γ2
são subespaços, temos v + w ∈ Γ1 e v + w ∈ Γ2 . Portanto, v + w ∈ Γ1 ∩ Γ2 .
3. Sejam λ ∈ R e v ∈ Γ1 ∩ Γ2 . Como Γ1 e Γ2 são subespaços, então que
λv ∈ Γ1 e λv ∈ Γ2 . Logo, λv ∈ Γ1 ∩ Γ2 . 2

Exercício 5.2.Mostre que Γ = {(x, y, z) ∈ R3 ; x − z = 0 e 2x − y + z = 0} é


um subespaço. 3

Exercício 5.3. Seja v0 = (1, −1) ∈ R2 .

1. Mostre que o conjunto Π = {λv0 ; λ ∈ R} é um subespaço próprio de R2 .

2. Descreva Π utilizando equação linear homogênea.

3. Sejam w0 = (−2, 2) ∈ R2 e Υ = {λw0 ; λ ∈ R}. Mostre que Π = Υ. 3

Exercício 5.4. Sejam Γ e Λ subespaços do Rn . Mostre que o conjunto Γ + Λ


é um subespaço, onde Γ + Λ = {u ∈ Rn ; u = v + w, v ∈ Γ e w ∈ Λ}. 3
Ÿ5.1 Subespaço e sistemas lineares 121

EXERCÍCIOS
1. Verique quais dos vetores, u = (2, 0, 2), v = (8, −2, 4) e w = (1, 1, 6), perten-

cem ao subespaço Γ = {(x, y, z) ∈ R3 ; x + 2y − z = 0}.

2. Considere o subespaço Γ = {(x, y, z) ∈ R3 ; −x + 4y + z = 0}. Escolhidos três


vetores distintos, u, v e w , nesse subespaço, como você justica, geometrica-

mente, que det[u, v, w] = 0?

3. Quais dos subconjunto é um subespaço próprio? Esboce-os.

(a) Γ = {(x, y) ∈ R2 ; x = 0}. (c) Γ = {(x, y) ∈ R2 ; 0x + 0y = 0}.


(b) Γ = {(x, y, z) ∈ R3 ; y = 0}. (d) Γ = {(x, y, z) ∈ R3 ; y = 0 e z = 0}.

4. Mostre que o conjunto Υ = {t(1, 2, 1) ∈ R3 , t ∈ R} é um subespaço.

5. Mostre que os subespaços Γ = {(x, y, z) ∈ R3 ; x − 2y + 3z = 0 e x − y + z = 0}


e Υ = {t(1, 2, 1), t ∈ R} são iguais.

6. Identique o subespaço Γ = {(x, y) ∈ R2 ; x − 2y = 0 e 2x − 3y = 0}.

7. Um subespaço pode ser denido por várias equações lineares homogêneas.

Mostre que o subconjunto Γ ⊂ R3 é um subespaço, onde

Γ = {(x, y, z) ∈ R3 ; x − 2y + 3z = 0 e x − y + z = 0}.

Verique que esse subespaço é representado no espaço Cartesiano por uma reta

que contém a origem. Quais dos vetores, v = (1, 2, 1) e w = (0, 2, 2) pertencem


a Γ? Expresse o subespaço como uma interseção de subespaços, Γ = Γ1 ∩ Γ2 .

8. Mostre que os subconjuntos não são um subespaços.

(a) Π = {(x, y) ∈ R2 ; x2 − y = 0}.

(b) Λ = {(x, y) ∈ R2 ; 2x − y = 4}
122 Subespaço vetorial Cap. 5

5.2 Subespaço e combinações lineares


Outro modo de descrever um subespaço é utilizar combinações lineares.
O conjunto constituído por todos os vetores que são combinações lineares
de v1 , v2 , . . . , vk ∈ Rn será indicado por [[v1 , v2 , . . . , vk ]]. Claro, tal conjunto
está contido em Rn . Formalmente,

[[v1 , v2 , . . . , vk ]] = {w ∈ Rn ; w = a1 v1 + a2 v2 + · · · + ak vk , ai ∈ R}.

Note que [[v1 ]] = {a1 v1 ; a1 ∈ R} é o conjunto constituído por múltiplos de v1 .

Exemplo 5.2. Sejam v1 = (1, −2, 1) e v2 = (1, 0, 1) vetores em R3 .

1. u = (−1, −2, −1) ∈ [[v1 , v2 ]], pois u = v1 − 2v2 ;

2. v = (4, −6, 4) ∈ [[v1 , v2 ]], pois v = 3v1 + v2 ;

3. w = (a1 + a2 , −a2 , a1 + a2 ) ∈ [[v1 , v2 ]], pois w = a1 v1 + a2 v2 ;

A questão é saber se um vetor pertence, ou não, ao conjunto [[v1 , v2 ]]. Para


isso, necessitaremos de um pouco mais de teoria. 3

Proposição 5.3. Sejam v1 , v2 , . . . , vk ∈ Rn .


O conjunto das combinações
n
lineares [[v1 , v2 , . . . , vk ]] é um subespaço vetorial de R .

Prova 1. O conjunto não é vazio. O vetor vi ∈ [[v1 , v2 , . . . , vk ]] pois

vi = 0v1 + · · · + 0vi−1 + 1 · vi + 0vi+1 + · · · + 0vk .

2. Sejam v, w ∈ [[v1 , v2 , . . . , vk ]]. Por denição, existem duas coleções de


escalares a1 , a2 , . . . , ak e b1 , b2 , . . . , bk tais que

v = a1 v1 + a2 v2 + · · · + ak vk e w = b1 v1 + b2 v2 + · · · + bk vk .
Ÿ5.2 Subespaço e combinações lineares 123

Sendo assim, a soma v + w pertence ao conjunto [[v1 , v2 , . . . , vk ]], posto que


v + w = (a1 + b1 )v1 + (a2 + b2 )v2 + · · · + (ak + bk )vk .
3. Sejam λ um escalar e v ∈ [[v1 , v2 , . . . , vk ]]. O vetor λv pertence ao
conjunto [[v1 , v2 , . . . , vk ]], visto que λv = (λa1 )v1 + (λa2 )v2 + · · · + (λak )vk . 2
A proposição ensina um pouco mais. É simples construir subespaços, para
isto, é suciente escolher uma coleção não vazia de vetores e considerar o
conjunto das suas combinações lineares. Ilustremos com um exemplo a relação
entre esta apresentação e aquela por equações lineares homogêneas.
Exemplo 5.3. Seja Γ = {(x, y, z) ∈ R3 ; x − y + 3z = 0}.
Um vetor w = (a1 , a2 , a3 ) pertence a Γ se, e somente se, a1 − a2 + 3a3 = 0.
Explicitando a1 em função de a2 e a3 , temos que w ∈ Γ, se, e somente se,
w = (a2 − 3a3 , a2 , a3 )
= (a2 , a2 , 0) + (−3a3 , 0, a3 )
= a2 (1, 1, 0) + a3 (−3, 0, 1).
Portanto, w ∈ Γ se, e somente se, w é uma combinação linear dos vetores
v1 = (1, 1, 0) e v2 = (−3, 0, 1). Logo, Γ = [[v1 , v2 ]]. Observe que os dois vetores
encontrados pertencem ao subespaço Γ. Para o primeiro tomamos a2 = 1 e
a3 = 0 e para o segundo tomamos a2 = 0 e a1 = 1.
Entretanto, poderíamos ter decidido explicitar a2 , a2 = a1 + 3a3 . Feito a
escolha, o mesmo roteiro nos dá Γ = [[w1 , w2 ]], onde w1 = (1, 1, 0) e w2 =
(0, 3, 1). A dupla de vetores não é igual à dupla anterior. Este exemplo mostra
que um subespaço pode ser descrito como o subespaço de combinações lineares
de várias coleções distintas de vetores. 3
Exemplo 5.4. Seja Γ = {(x, y, z) ∈ R2 , x − y + 2z = 0 e x + y + z = 0}.
Mostraremos que Γ = [[v1 ]], onde v1 = (−3, 1, 2). O vetor w = (a1 , a2 , a3 ) ∈
Γ se, e somente se, 
a1 − a2 + 2a3 = 0
.
a1 + a2 + a3 = 0
124 Subespaço vetorial Cap. 5

Não podemos utilizar regra de Cramer para resolver o sistema pois a matriz
principal não é quadrada. Devemos escolher uma maior submatriz quadrada
com determinante diferente de zero, e resolver o sistema cuja matriz principal
é a submatriz escolhida. As submatrizes 2 × 2 do sistema são
     
1 −1 1 2 −1 2
, e .
1 1 1 1 1 1

Como qualquer uma delas tem determinante diferente de zero, escolhamos


uma, por exemplo, a segunda. O sistema que devemos resolver ca sendo

a1 + 2a3 = a2
,
a1 + a3 = −a2

de onde obtemos a1 = −3a2 e a3 = 2a2 . Portanto, w ∈ Γ se, e somente se,


w = (−3a2 , a2 , 2a2 ) = a2 (−3, 1, 2), ou seja, Γ = [[v1 ]], onde v1 = (−3, 1, 2).
Caso escolhamos a primeira submatriz teremos outro subsistema

− a2 + 2a3 = −a1
a2 + a3 = −a1

cuja solução é a2 = − 31 a1 e a3 = − 32 a1 . Isso mostra que Γ = [[w1 ]], onde w1 =


(1, − 31 , − 23 ). Observe que v1 = −3w1 , portanto, armar que Γ é constituído
pelos múltiplo de v1 ou pelos múltiplos de w1 não faz diferença. 3

A notação para o subespaço de combinações lineares de vetores é extrema-


mente compacta, ela possui uma série de informações agregadas e não explici-

tadas. Por exemplo, escrevendo [[(1, 0), (1, 1), (− 2, 1)]] já sabemos que ele é
um subespaço do R2 , enquanto [[(2, 21 , −5)]] sinaliza um subespaço do R3 .
Algumas vezes, podemos identicar imediatamente qual é o conjunto das
combinações lineares que estamos considerando.

Exemplo 5.5. Mostemos que [[(1, −1), (2, 4)]] = R2 . Claro vale a inclu-
são [[(1, −1), (2, 4)]] ⊂ R2 . Precisamos mostrar a inclusão inversa, R2 ⊂
[[(1, −1), (2, 4)]], de onde seguirá a igualdade dos conjuntos.
Ÿ5.2 Subespaço e combinações lineares 125

Uma vez que det[v1 , v2 ] 6= 0, o conjunto β = {v1 , v2 } é uma base de R2 .


Portanto, qualquer vetor w ∈ R2 é expresso como uma combinação linear de
v1 e v2 , signicando que w ∈ [[(1, −1), (2, 4)]]. 3

Exercício 5.5. Seja {v1 , v2 , · · · , vn , 1 ≤ i ≤ n é uma coleção de vetores do


R . Mostre que se det[v1 , v2 , . . . , vn ] 6= 0, então Rn = [[v1 , v2 , . . . , vn ]].
n
3

O próximo exemplo ilustra como devemos redenir um subespaço de com-


binações lineares utilizando equações lineares homogêneas.

Exemplo 5.6. Seja Γ = [[v1 , v2 ]], onde v1 = (1, 2, 1, −2) e v2 = (1, 1, −1, 1).
Por denição, um vetor w = (t, x, y, z) ∈ Γ se, e somente se, existem escalares
a1 e a2 tais que (t, x, y, z) = a1 v1 + a2 v2 . Desejamos determinar a1 e a2 em
função de t, x, y e z . A igualdade acima nos leva ao sistema linear 4 × 2,


 a1 + a2 = t

2a1 + a2 = x

.

 a1 − a2 = y

 −2a + a = z
1 2

Para resolver por regra de Cramer, podemos considerar somente as duas pri-
meiras equações, suprimindo, por um momento, as duas últimas,

a1 + a2 = t
.
2a1 + a2 = x

Obtemos os valores a1 = −t+x e a2 = 2t−x. Mas esses valores devem satisfazer


também as duas equações suprimidas, logo por substituição devemos ter

(−t + x) − (2t − x) = y
.
−2(−t + x) + (2t − x) = z

Portanto, um vetor (t, x, y, z) ∈ Γ se, e somente se, suas coordenadas satisfazem


as equações, −3t + 2x − y = 0 e 4t − 3x − z = 0. Logo, o subespaço pode ser
redenido como Γ = {(t, x, y, z) ∈ R4 ; −3t + 2x − y = 0 e 4t − 3x − z = 0}. 3
126 Subespaço vetorial Cap. 5

EXERCÍCIOS
1. Mostre a igualdade dos subespaços.

(a) {(x, y) ∈ R2 , 3x − y = 0} = [[(1, 3)]].


(b) {(x, y, z) ∈ R3 ; x − 2y + z = 0} = [[(2, 1, 0), (−1, 0, 1)]].
(c) {(t, x, y, z) ∈ R4 ; t + 2y = 0} = [[(−2, 0, 1, 0), e2 , e4 ]].
(d) {(x, y) ∈ R2 , 3x + 4y = 0 e x − y = 0} = [[o]].
(e) {(x, y, z) ∈ R3 ; 2x − 2y − z = 0 e y = 0} = [[(1, 0, 2)]].
(f ) {(t, x, y, z) ∈ R4 ; t + 2y = 0 e 2x + 3y + z = 0} = [[v1 , v2 ]], onde v1 =
(−2, 0, 1, 0) e v2 = (0, 1, 0, −3).

2. Considere os seguintes subespaços de R3 :

i) Γ = {(x, y, z) ∈ R3 ; x − 2y = 0};
ii) Λ = {(x, y, z) ∈ R3 , x − 2y − z = 0};
iii) Φ = {(x, y, z) ∈ R3 ; x − 2y = 0 e x − 2y − z = 0}.

Responda se a armação é falsa ou verdadeira.

( ) Γ ⊂ Φ. ( ) Φ ⊂ Γ. ( ) Φ Λ. ( ) Γ ⊂ Λ.

3. Para cada subespaço, redena-o utilizando equações lineares homogêneas.

(a) [[(−2, 5)]]. (e) [[(−2, 1, 0)]].


(b) [[(−2, 1, 0), (1, 1, 1)]]. (f ) [[(1, 1, 1), (2, 2, 2)]].
(c) [[(0, 1, −2), (1, 0, 1)]]. (g) [[(0, 1, −3, 2) (1, −1, 1, 3)]]
(d) [[(−1, 2, −1)]]. (h) [[(2, 1, 1, −3)]]

4. Expresse os vetores de R2 como combinação linear de v1 = (1, 4) e v2 = (1, 5).


Ÿ5.3 Geradores 127

(a) u = (4, 1). (b) v = (2, 3). (c) w = (−1, 2). (d) t = (1, 4).

5. Expresse os vetores do R3 como combinação linear de v1 = (1, 0, 2), v2 =


(−2, −1, 0) e v3 = (−1, 2, 1).

(a) u = (−8, 4, 1). (b) v = (0, 2, 3). (c) w = (−1, 2, 1).

6. Quais dos vetores pertencem ao subespaço [[(1, −1, 1), (0, 2, 1)]]?

(a) u = (2, 0, 3). (b) v = (3, 7, 8). (c) t = (1, 0, 0).

7. Sejam v1 , v2 , . . . , vk de Rn . Mostre que o menor subespaço que contém esses

vetores é o subespaço das combinações lineares [[v1 , v2 , . . . , vk ]].

5.3 Geradores
Um ponto importante da teoria é mostrar que seja qual for o subespaço
Γ ⊂ Rn ele sempre pode ser descrito como o espaço de combinações lineares
de vetores. Esse é um dos nosso objetivo.

Denição 5.1. Um conjunto β = {v1 , v2 , . . . , vk } de vetores de Rn é um con-


junto de geradores do subespaço Γ quando Γ = [[v1 , v2 , . . . , vk ]].

Neste caso, diz-se que β gera Γ.

Exemplo 5.7. O conceito de geradores não é, exatamente, novo. Qualquer


base ordenada β = {v1 , v2 , . . . , vn } de Rn é um conjunto de geradores para Rn .
Vimos e revimos que Rn = [[v1 , v2 , . . . , vn ]]. 3

Ao descrevermos o subespaço na forma Γ = [[v1 , v2 , . . . , vk ]], é supéruo


perguntar por geradores, ele já está denido por geradores. Com outro tipo
de denição, por exemplo, por equações lineares homogêneas, faz sentido per-
guntar por geradores do subespaço.
128 Subespaço vetorial Cap. 5

Já vimos que Γ = [[v1 , v2 , . . . , vk ]] = [[w1 , w2 , . . . , wl ]], onde os vetores e o


número deles não são iguais. Veremos que aumentar o número de geradores,
ou diminuir, sem modicar o subespaço diz respeito apenas ao conceito de
combinação linear. Notação: ao sobrepormos o símbolo  b  sobre um vetor
de uma lista de vetores, signica que ele foi suprimido.

Lema 5.1. [[v1 , . . . , vbi , . . . , vn−1 ]] ⊂ [[v1 , . . . , vi , . . . , vn−1 , vn ]].


Prova Seja w ∈ [[v1 , . . . , vbi , . . . , vn−1 ]].
Por denição, existem escalares a1 , a2 ,
. . . , ak tais que w = a1 v1 + · · · + ai−1 vi−1 + ai+1 vi+1 + · · · + an−1 vn . Portanto,

w = a1 v1 + · · · + ai−1 vi−1 + 0vi + ai+1 vi+1 + · · · + an−1 vn .

Isto implica que w ∈ [[v1 , . . . , vi , . . . , vn−1 , vn ]]. Isto mostra a inclusão. 2


Não podemos concluir, em geral, que vale a inclusão própria, isto é,

[[v1 , v2 , . . . , vbi , . . . , vn ]] [[v1 , v2 , . . . , vi , . . . , vn ]].

Algumas vezes, ao eliminarmos um vetor da lista, continuamos com o mesmo


subespaço, enquanto, outras vezes, obtemos um subespaço próprio. Tal com-
portamento será estudado no próximo teorema.

Exemplo 5.8. Seja Γ = [[v1 , v2 , v3 ]] ⊂ R3 , onde v1 = (5, −1, 0), v2 = (2, 2, −2)
e v3 = (−1, −7, 6). Mostremos que, neste exemplo, [[v1 , v2 , vb3 ]] = [[v1 , v2 , v3 ]].
Pelo lema acima, temos a inclusão [[v1 , v2 , vb3 ]] ⊂ [[v1 , v2 , v3 ]]. Vejamos a
inclusão oposta. Seja w ∈ [[v1 , v2 , v3 ]]. Por denição, existem escalares a1 ,
a2 e a3 tais que w = a1 v1 + a2 v2 + a3 v3 . O fato do terceiro vetor v3 ser
uma combinação linear dos dois primeiros vetores, v3 = v1 − 3v2 , nos permite
escrever as igualdades

w = a1 v1 + a2 v2 + a3 (v1 − 3v2 )
= (a1 + 3)v1 + (a2 − 9)v2 .

Se a01 = a1 + 3 e a02 = a2 − 9, podemos reescrever a combinação linear como


w = a01 v1 + a01 v2 . Isto mostra que w ∈ [[v1 , v2 ]]. 3
Ÿ5.3 Geradores 129

Para evitar inúmeros casos particulares, deste ponto em diante, a menos


que seja dito explicitamente o contrário, assumiremos que os subespaço não
são triviais e que conjuntos de vetores são constituídos por vetores não nulos.

Teorema 5.1. Considere o subespaço [[v1 , v2 , . . . , vk ]] ⊂ Rn . As seguintes as


armações são equivalentes.

1. Algum vetor vi é uma combinação linear dos outros vetores da lista.

2. [[v1 , . . . , vbi , . . . vk ]] = [[v1 , . . . , vi , . . . vk ]].

3. O conjunto de vetores {v1 , . . . , vi , . . . vk } é linearmente dependente (l.d.),


isto é, o vetor nulo pode ser expresso por uma combinação linear

o = a1 v1 + a2 v2 + · · · + ak vk ,

na qual os coecientes ai 's não são todos iguais a zero.

Prova 1. ⇒ 2.) Sem perder a generalidade, podemos supor que seja vk o vetor
que é uma combinação linear dos outros vetores da lista,

vk = c1 v1 + c2 v2 + · · · + ck−1 vk−1 .

Já sabemos que [[v1 , . . . , vk−1 , vbk ]] ⊂ [[v1 , . . . , vk−1 , vk ]], ver Lema 5.1, p.
128. Vejamos a inclusão oposta. Considere um vetor w ∈ [[v1 , v2 , . . . , vk ]]. Por
denição, existem escalares a1 , a2 , . . . , ak tais que w = a1 v1 + a2 v2 + · · · + ak vk .
Substituíndo vk pela sua combinação linear e reagrupando as parcelas obtemos

w = (ak c1 + a1 )v1 + (ak c2 + a2 )v2 + · · · + (ak ck−1 + ak−1 )vk−1 ,

de onde segue que w ∈ [[v1 , v2 , . . . , vbk ]].


2. ⇒ 3.) A hipótese [[v1 , . . . , vk−1 , vbk ]] = [[v1 , . . . , vi , . . . , vk ]] implica que o
vetor vk ∈ [[v1 , v2 , . . . , vk−1 ]]. Logo, existem coecientes ai 's não todos iguais
a zero (por hipótese vk não é o vetor nulo) tais que

vk = a1 v1 + a2 v2 + · · · + ak−1 vk−1 .
130 Subespaço vetorial Cap. 5

Portanto, o vetor nulo expressa-se como o = a1 v1 + · · · + ak−1 vk−1 − vk , onde


os coecientes não são todos iguais a zero ou seja, {v1 , . . . , vi , . . . vk } é l. d.
3. ⇒ 1.) Suponha que o conjunto de geradores {v1 , . . . , vi , . . . vk } seja
linearmente dependente. Sendo assim, existem escalares não todos nulos,
a1 , a2 . . . . , ak tais que o = a1 v1 + a2 v2 + · · · + ak vk . Sem perda de genera-
lidade, assumamos que ak 6= 0. Sendo assim, o vetor vk é uma combinação
linear dos outro vetores do conjunto de geradores, a saber,
a1 a2 ak−1
vk = − v1 − v2 − · · · − vk−1 . 2
ak ak ak

Este teorema estabelece um critério para detetar quando o subespaço Γ =


[[v1 , v2 , . . . , vk ]] está sendo gerado com excesso de geradores. Basta examinar
se o vetor nulo também tem excesso de combinações lineares para descrevê-lo,
ou, falando tecnicamente, examinar se o conjunto β = {v1 , v2 , . . . , vk } é l. d.

Exercício 5.6. Seja {v1 , v2 , . . . , vk } um conjunto de vetores do Rn . Mostre


que se o conjunto é l. d., então existem innitas combinações lineares para
expressar o vetor nulo. 3

O teorema acima tem uma versão na forma contrapositiva (negando todas


as armações).

Teorema 5.2. Considere o subespaço [[v1 , v2 , . . . , vk ]] ⊂ Rn . As seguintes as


armações são equivalentes.

1. Nenhum vetor vi é uma combinação linear dos outros vetores da lista.

2. [[v1 , . . . , vbi , . . . , vk ]] [[v1 , . . . , vi , . . . , vk ]], para qualquer vetor vi .

3. O conjunto {v1 , . . . , vi , . . . , vk } é linearmente independente, (l.i) isso é,


a única combinação para expressar o vetor nulo é aquela na qual todos
os coecientes são iguais a zero, o = 0v1 + 0v2 + · · · + 0vk .
Ÿ5.3 Geradores 131

Corolário 5.1. Seja Γ = [[v1 , v2 , . . . , vk ]] ⊂ Rn . Se o conjunto de geradores


{v1 , v2 , . . . , vk } é l.i., então para cada vetor w ∈ Γ existem únicos escalares
a1 , a2 , . . . , ak tais que w = a1 v1 + a2 v2 + · · · + ak vk .

Prova Seja w ∈ Γ. Por denição, existem escalares a1 , a2 , . . . , ak tais que

w = a1 v1 + a2 v2 + · · · + ak vk .

Suponha, por absurdo, que exista outra coleção b1 , b2 , . . . , bk tal que bi0 6= ai0 ,
para algum i0 , e que w = b1 v1 + b2 v2 + · · · + bk vk . Por subtração obtemos

o = (a1 − b1 )v1 + (a2 − b2 )v2 + · · · + (ai0 − bi0 ) + · · · + (ak − bk )vk .


| {z }
6=0

Logo, o vetor nulo é expresso por uma combinação linear onde nem todos os
coecientes são nulos. Portanto, {v1 , v2 , . . . , vk } é l. d. Uma contradição. 2

Exercício 5.7. Seja β = {v1 , v2 , . . . , vn } um conjunto de n vetores de Rn .


Mostre as seguintes armações equivalentes.

1. det[v1 , v2 , . . . , vn ] = 0 se, e somente se, β é l. d.

2. det[v1 , v2 , . . . , vn ] 6= 0 se, e somente se, β é l. i. 3

Exercício 5.8.Seja β = {v1 , v2 , . . . , vk } um conjunto constituído de vetores


de R . Responda se a armação é falsa ou verdadeira e justique a resposta.
n

1. Se β é l. i. então qualquer subconjunto não vazio de β é l. i.

2. Se β é l. d. então qualquer subconjunto não vazio de β é l. d. 3

Como segunda aplicação dos teoremas acima, veremos que um subespaço


de Rn não necessita de um número grande de geradores. Antes de mostrar este
fato, vejamos exemplos.
132 Subespaço vetorial Cap. 5

Exemplo 5.9. Considere o subespaço Γ = [[v1 , v2 , v3 ]] ⊂ R2 , onde

v1 = (1, 1), v2 = (1, 2) e v3 = (−1, 1).

Vericamos que det[v1 , v2 ] 6= 0. Logo, esses dois vetores formam uma base para
o R2 e o vetor v3 é uma combinação linear dos dois primeiros, implicando que o
conjunto {v1 , v2 , v3 } é l. d. Com um cálculo simples obtemos w = −3v1 + 2v2 .
Pelo Teorema 5.1, p. 129, podemos eliminar v3 do conjunto gerador e continuar
gerando o mesmo subespaço, Γ = [[v1 , v2 ]]. Na verdade, Γ = R2 , pois qualquer
vetor de R2 é uma combinação linear de v1 e v2 .
Como o conjunto de três vetores em R2 não é linearmente independente, o
vetor nulo o = (0, 0) não tem unicidade de combinação linear,

o = −3a3 v1 + 2a3 v2 − a3 v3 .

Se o vetor nulo não se expressa de maneira única como combinação linear, o


mesmo ocorre com qualquer vetor. Vejamos esse fato. Um vetor w = (x, y) ∈
R2 , expressa-se como a combinação linear dos dois primeiros vetores como

w = (2x − y)v1 + (y − x)v2 .

Somando o vetor nulo a ambos os membros, obtemos as igualdades

w + o = w = (2x − y − 3a3 )v1 + (y − x + 2a3 )v2 − a3 v3 . 2

Exemplo 5.10. Considere o subespaço Γ = [[v1 , v2 , v3 , v4 , v5 ]] ⊂ R3 onde:

v1 = (1, 0, 1); v3 = (1, 1, −1); v5 = (2, 2, −2).


v2 = (−2, −1, 0); v4 = (4, 2, 0);

Vejamos um processo para diminuir o número de geradores de Γ até obter


um conjunto de geradores l.i.
O fato det[v1 , v2 , v3 ] = 0 implica que um desses vetores é combinação linear
dos outro dois vetores. A questão é saber qual deles pode ser eliminado.
Ÿ5.3 Geradores 133

Para saber, observamos que o conjunto {v1 , v2 , v3 } é l. d. Logo, o vetor nulo


tem uma outra combinação linear para expressá-lo, além da combinação linear
trivial, o = 0v1 + 0v2 + 0v3 . Encontremos as outras combinações lineares para
o, pois ela nos dirá qual o vetor que podemos eliminar da lista. Escrevendo
o = a1 v1 + a2 v2 + a3 v3 , obtemos o sistema linear

 a1 − 2a2 + a3 = 0
− a2 + a3 = 0 .
− a3 = 0

a1

Não podemos utilizar a regra de Cramer, pois sabemos que a matriz dos coeci-
entes tem determinante igual a zero. Devemos suprimir uma equação resolver o
subsistema obtido e vericar se a solução satisfaz a equação suprimida. Quando
suprimimos a última equação, obtemos duas equações com três incógnitas,

a1 − 2a2 + a3 = 0
.
− a2 + a3 = 0

Como sempre, devemos escolher uma maior submatriz quadrada com determi-
nante diferente de zero e resolver o sistema que dependerá de um coeciente,

a1 − 2a2 = −a3
− a2 = −a3

É imediato concluir que a1 = a3 e a2 = a3 e a solução satisfaz a equação


suprimida. Portanto, o = a3 v1 + a3 v2 + a3 v3 . Para a3 = 1, segue que v1 é a
combinação linear dos outros vetores, v1 = −v2 − v3 . Logo, podemos eliminar
v1 do conjunto de geradores do subespaço. Portanto, temos Γ = [[v2 , v3 , v4 , v5 ]].

Como det[v2 , v3 , v4 ] = 0, um dos vetores é combinação linear dos outros


dois. Com os mesmos procedimentos concluímos que o = 2a4 v2 + 0v3 + a4 v4 .
Logo, como v4 = −2v2 + 0v3 , podemos eliminá-lo, e teremos Γ = [[v2 , v3 , v5 ]].
Finalmente, é visível que v5 = 2v3 , ou seja, ele é a combinação linear dos
outros dois vetores, v5 = 0v2 + 2v3 . Logo, Γ = [[v2 , v3 ]].
134 Subespaço vetorial Cap. 5

Não podemos reduzir este conjunto de geradores, pois ele é l. i. Para


mostrar esse fato, não existe mais o critério do determinante, pois não podemos
formar uma matriz quadrada 3 × 3 utilizando dois vetores do R3 . Devemos
mostrar que são l.i. pela denição. Escrevendo a combinação linear o =
a2 v2 +a3 v3 e resolvendo o sistema correspondente, vericamos que a2 = a3 = 0.
Portanto, só existe a combinação linear o = 0v2 + 0v3 . Segue pelo Teorema
5.2, p. 130, que o conjunto formado por v2 e v3 é l. i. 3

Proposição 5.4. Seja β = {v2 , v2 , . . . , vk } um conjunto de k vetores em Rn .


Se k > n, então β é l. d.

Prova Por hipótese k > n. Sendo assim podemos formar matrizes n × n cujos
vetores colunas são elementos do conjunto de geradores.
Se o determinante de alguma matriz formada por n vetores de β for di-
ferente de zero, os vetores colunas formam uma base para o Rn e os outros
vetores da lista são combinações lineares dos vetores encontrados. Isto signica
que β é l. d. e terminamos a demonstração.
Se o determinante de qualquer matriz formada por n vetores de β for igual
a zero, em particular, temos det[v1 , v2 , . . . , vn ] = 0. Sendo assim, algum vetor
coluna é combinação linear de outros. Novamente, isto implica que β é l. d.2

Corolário 5.2. Para qualquer conjunto de geradores {v1 , v2 , . . . , vk } de um


n
subespaço Γ de R podemos extrair um subconjunto l. i. {vi1 , vi2 , . . . , vim } de
n
geradores de Γ, com m ≤ n. E mais, se m = n, então Γ = R .

Prova Se k > n, pela proposição anterior e pelo Teorema 5.1, p. 129, é possível
reduzir a lista de geradores até obtermos uma lista de geradores para Γ com
n vetores. Sem perda de generalidade, vamos supor que a lista obtida seja
{v1 , v2 , . . . , vn }. Caso este conjunto seja l. i. ele é uma base de Rn , Γ = Rn e
terminamos a demostração.
Caso este conjunto de n vetores seja l. d., eliminamos o vetor que seja
combinação linear dos outros e construímos uma lista com n − 1 vetores. Se a
nova lista de n − 1 vetores for l. i. terminamos a demostração. Caso contrário,
Ÿ5.3 Geradores 135

se for l. d. continuamos a eliminar vetores que são combinações lineares dos


outros. Este processo tem um m, pois a lista inicial é nita. 2
Chamamos a atenção para um caso particular. Quando o conjunto orde-
nado é constituído de um único vetor não nulo, β = {v1 }, ele é l. i.

EXERCÍCIOS
1. Expresse os vetores o = (0, 0, 0) e w = (2, 3, 1) por duas combinações lineares

distintas dos vetores v1 = (1, 1, 1), v2 = (1, 2, 0) e v3 = (2, 3, 1).

2. Considere o subespaço Γ = [[v1 , v2 , v3 ]] ⊂ R2 , onde v1 = (1, 1), v2 = (3, −1)


e v3 = (2, 1). Verique quais dos vetores pertence ao subespaço e estude a

unicidade da combinação linear.

(a) e1 = (1, 0). (b) u = (−2, 1). (c) w = (1, 1).

3. Considere o subespaço Γ = [[v1 , v2 , v3 ]] ⊂ R3 , onde v1 = (1, 0, 1), v2 = (3, 2, 3)


e v3 = (0, 1, 0). Determine quais dos vetores pertencem ao subespaço e estude

a unicidade da combinação linear.

(a) e1 = (1, 0, 0). (b) u = (−3, 4, 3). (c) w = (1, 1, 1).

4. Seja Γ = [[v1 , v2 , v3 ]]. Extraia um conjunto de geradores l.i. da lista.

(a) v1 = (−2, 3), v2 = (−1, 1), v3 = (0, 1).


(b) v1 = (2, 2), v2 = (1, 1), v3 = (−2, −2).
(c) v1 = (−1, 4), v2 = (3, 2), v3 = (1, 0).

5. Seja Γ = [[v1 , v2 , v3 ]]. Extraia um conjunto de geradores l.i. para Γ e identique


3
quais dos subespaço são iguais a R .

(a) v1 = (1, 1, 0), v2 = (−1, 1, 1), v3 = (0, 1, 0).


(b) v1 = (2, 1, −1), v2 = (1, 0, 1), v3 = (3, 2, 0).
(c) v1 = (2, 1, −1), v2 = (−2, 1, −1), v3 = (2, 3, −3).
136 Subespaço vetorial Cap. 5

6. Sejamv, w ∈ Rn . Mostre que v e w são linearmente independentes se, e

somente se, v + w e v − w são linearmente independentes.

7. Sejam v e w veores de Rn . Responda se a armação é verdadeira ou falsa.

(a) Os dois vetores são l.d. implica que um deles é múltiplo do outro.

(b) Os dois vetores são l.d. implica que a soma dos dois é o vetor nulo.

(c) Os dois vetores são l.d. implica que um deles é o vetor nulo.

8. Determine um conjunto de geradores l.i. para cada subespaço.

(a) Γ = {(x, y) ∈ R2 ; 2x − 5y = 0}.


(b) Γ = {(x, y, z) ∈ R3 ; 2x − 5y = 0 e y = 0}.
(c) Γ = {(x, y, z) ∈ R3 ; y − z = 0}.
(d) Γ = {(x, y, z) ∈ R3 ; x + 2y − z = 0}.

5.4 Base e dimensão


Denição 5.2. Um conjunto ordenado β = {v1 , v2 , . . . , vk } ⊂ Rn é uma base
ordenada para o subespaço Γ se

1. Γ = [[v1 , v2 , . . . , vk ]]; (geradores)

2. β é linearmente independente. (l.i.)

Quando o subespaço está denido por um conjunto de geradores, desse


conjunto podemos extrair uma base, ver Corolário 5.2, p. 134. Mas ainda
não provamos que todo subespaço possui um conjunto de geradores. Agora
mostraremos este fato. Feito isto, segue que todo subespaço admite uma base.
Determinar uma base para um subespaço Γ ⊂ Rn é um processo constru-
tivo. Inicialmente escolhemos um vetor não nulo v1 ∈ Γ, depois um vetor
v2 ∈ Γ, etc. para obter uma sequência de subespaços da forma

[[v1 ]] [[v1 , v2 ]] ··· [[v1 , v2 , . . . , vk ]] = Γ.


Ÿ5.4 Base e dimensão 137

Lema 5.2. {v1 , v2 , . . . , vk } uma base do subespaço Γk = [[v1 , v2 , . . . , vk ]].


Seja
Se vk+1 ∈/ Γk = [[v1 , v2 , . . . , vk ]], então {v1 , v2 , . . . , vk , vk+1 } é uma base do
subespaço Γk+1 = [[v1 , v2 , . . . , vk , vk+1 ]].

Prova Seja vk+1 ∈/ Γk = [[v1 , v2 , . . . , vk ]], claro, vk+1 6= 0.Considere o subes-


paço Γk+1 = [[v1 , v2 , . . . , vk , vk+1 ]]. Suponha, por absurdo, que estes geradores
de Γk+1 sejam l. d. Então o vetor nulo tem uma expressão do tipo

o = a1 v1 + a2 v2 + · · · + vk vk + ak+1 vk+1 ,

onde os coecientes ai 's não são todos iguais a zero. Claro, ak+1 6= 0, caso
contrário o conjunto {v1 , v2 , . . . , vk } seria l. d., contrariando a hipótese. Logo,
a1 a2 ak
vk+1 = v1 + v2 + · · · + vk .
ak+1 ak+1 ak+1
Isso implica que vk+1 ∈ Γk = [[v1 , v2 , . . . , vk ]], uma contradição. 2

Exercício 5.9. Ilustremos o processo para construírmos uma base para um


subespaço. Considere o subespaço próprio

Γ = {(t, x, y, z) ∈ R4 ; 2t − x − 3y + z = 0} ⊂ R4 .

Escolhamos um vetor, por exemplo não nulo, v1 = (1, 2, 0, 0) ∈ Γ, e consi-


deremos o subespaço Γ1 = [[v1 ]] ⊂ Γ.
Escolhamos outro vetor não nulo v2 ∈ Γ, mas v2 ∈ / Γ1 = [[v1 ]], por exemplo,
v2 = (0, −1, 3, 0). Para isto, basta não ser múltiplo de v1 e pertencer a Γ.
Consideremos o subespaço Γ2 = [[v1 , v2 ]] ⊂ Γ. Observe que Γ1 Γ2 Γ.
Escolhamos um vetor v3 ∈ Γ mas com v3 ∈ / Γ2 = [[v1 , v2 ]], por exemplo v3 =
(0, 1, 0, 1) (pertence a Γ mas não é combinação linear dos outros dois primeiros
desde que sua última coordenada não é igual a zero e a última coordenada de
v1 e de v2 são iguais a zero). Consideremos Γ3 = [[v1 , v2 , v3 ]] ⊂ Γ.
O processo termina aqui, isto é, Γ3 = Γ. Deixemos essa armação para o
próximo teorema. 3
138 Subespaço vetorial Cap. 5

Teorema 5.3. Todo subespaço não trivial Γ do R3 possui uma base. Mais
ainda:

1. o número de elementos de uma base de Γ é menor ou igual a n;

2. se o número de elementos de uma base de Γ é igual a n então Γ = Rn .

3. se k < n, então uma base α = {v1 , v2 , . . . , vk } pode ser estendida a uma


n
base β = {v1 , . . . , vk , vk+1 , . . . , vn } de R .

Prova Iniciemos com a construção de uma base ordenada para Γ.


Como Γ é não trivial podemos escolher um vetor não nulo v1 ∈ Γ e conside-
rar o subespaço Γ1 = [[v1 ]] ⊂ Γ. Se vale a igualdade dos conjuntos terminamos,
pois α1 = {v1 } é l. i.
Se não vale a igualdade, existe um vetor não nulo v2 ∈ Γ e v2 ∈ / [[v1 ]].
Pelo Lema 5.2, p.137, α2 = {v1 , v2 } é l. i. Consideramos então o subespaço
Γ2 = [[v1 , v2 ]] ⊂ Γ. Se vale a igualdade, terminamos.
Se não, continuamos com o mesmo procedimento. O processo termina após
um número de etapas menor ou igual a n, pois sendo αk um conjunto l. i. ele
não pode conter mais de n vetores, ver Proposição 5.2, p.134. Fica assim
demonstrado que Γ tem uma base. Pela mesma proposição segue o item 1.
Mostremos o item 2. Seja αn = {v1 , v2 , . . . , vn } é uma base ordenada de Γ.
O critério det[v1 , v2 , . . . , vn ] 6= 0 garante que α é uma base de Rn .
A prova do item 3. cará aos cuidados do leitor. 2

Corolário 5.3. As bases de um subespaço não trivial Γ ⊂ Rn têm o mesmo


número de elementos.

Prova Suponha que α = {v1 , v2 , . . . , vk } e β = {w1 , w2 , . . . , wl } sejam duas


bases de Γ. Pelo Teorema 5.3, p.138, sabemos que k ≤ n e l ≤ n. Vamos
supor, por absurdo, que k 6= l, digamos, k < l. Por hipótese,

Γ = [[v1 , v2 . . . , vk ]] = [[w1 , w2 , . . . , wl ]].


Ÿ5.4 Base e dimensão 139

Se acrescentarmos um vetor vk+1 ∈ / Γ à lista de geradores teremos duas bases


de um subespaço contendo Γ, [[v1 , v2 . . . , vk , vk+1 ]] = [[w1 , w2 , . . . , wl , vk+1 ]].
Por esse processo, escolhendo sucessivamente vetores não pertencente ao novo
subespaço construído, obtemos após n − k etapas uma base para o Rn ,

Rn = [[v1 , v2 . . . , vk , vk+1 , . . . , vn ]] = [[w1 , w2 , . . . , wl , vk+1 , . . . , vn ]].

Uma contradição, pois o conjunto de geradores {w1 , . . . , wl , vk+1 , . . . , vn } é l.


i. e tem mais de n vetores. Logo, logo, l = k . 2
O corolário acima permite a seguinte denição.

Denição 5.3. A dimensão de um subespaço não trivial Γ ⊂ Rn é o número


de elementos de uma de suas bases. A dimensão do espaço trivial é zero, por
denição.

Exercício 5.10. Se um subespaço Γ de Rn tem dimensão n, então Γ = Rn .


Esta armação é verdadeira ou falsa? 3

Exemplo 5.11. As dimensões possíveis para subespaços não triviais Γ ⊂ R2 ,


são poucas. Como todo subespaço possui uma base ordenada β , ela poderá
ter, no máximo, dois vetores.

1. Quando β = {v1 } a dimensão de Γ = [[v1 ]] é igual a um.

2. Caso β = {v1 , v2 }, então Γ = R2 e sua dimensão é igual a 2.

As dimensões possíveis para os subespaços não triviais Γ ⊂ R3 são 3. Se β


é uma base ordenada de Γ, ela terá no máximo três vetores.

1. Quando β = {v1 }, Γ = [[v1 ]] tem dimensão um.

2. Quando β = {v1 , v2 }, o subespaço Γ = [[v1 , v2 ]] tem dimensão dois.

3. Quando β tem três elementos temos Γ = R3 . 3


140 Subespaço vetorial Cap. 5

Exemplo 5.12. Considere os subespaços de dimensão dois do R3 ,

{(x, y, z) ∈ R3 ; x − y + z = 0}

 Γ1 =
.
3
Γ2 = {(x, y, z) ∈ R ; 2x + y + z = 0}

Como sabemos, eles são constituídos por vetores ortogonais aos vetores η1 =
(1, −1, 1) e η2 = (2, 1, 1), respectivamente. A interseção Γ1 ∩ Γ2 também é um
subespaço e tem dimensão um e seus vetores são simultaneamente ortogonais
aos vetores normais η1 e η2 . Logo, qualquer vetor na interseção é colinear com
o produto vetorial η1 × η2 = (−2, 1, 3). Portanto, Γ1 ∩ Γ2 = [[η1 × η2 ]]. 3

EXERCÍCIOS
1. Seja β = {v1 , v2 , . . . , vk } uma base do subespaço Γ ⊂ Rn . Responda as per-

guntas com justicativas.

(a) β pode ter dois vetores iguais?

(b) β pode conter o vetor nulo?

2. Extraia um subconjunto l. i. do conjunto.

(a) β = {(4, 1, 0), (−2, 1, 2), (1, −3, 2), (2, 0, 1)} ⊂ R3 .
(b) β = {(1, −1, 0), (0, −3, 4), (1, −4, 4)} ⊂ R3 .

3. Para cada subespaço, descreva-o como subespaço de combinações lineares de

uma base. Encontrado a base de Γ estenda-a a uma base do espaço.

(a) Γ = {(x, y) ∈ R2 ; x − 2y = 0}.


(b) Γ = {(x, y, z) ∈ R3 ; x − 2y + z = 0}.
(c) Γ = {(t, x, y, z) ∈ R4 ; x − 2y = 0, 2x − 3y = 0}.
(d) Γ = {(s, t, x, y, z) ∈ R5 ; x = 0}.

4. Encontre uma base para Γ e estenda-a a uma base do espaço.


Ÿ5.5 Base e produto interno 141

(a) Γ = [[(−4, 8), (2, −4), (−1, 2)]]. (e) Γ = [[(−2, 1, 0)]].
(b) Γ = [[(−2, 1, 0), (1, 1, 1)]]. (f ) Γ = [[(1, 1, 1), (2, 2, 2)]].
(c) Γ = [[(0, 1, −2), (−3, 2, −7), (1, 0, 1)]]. (g) Γ = [[(−2, 2, 0), (1, −1, 0), (1, 1, 1)]].
(d) Γ = [[(−1, 2, −1)]].

5. Calcule as dimensões dos subespaços.

(a) Γ = {(t, x, y, z) ∈ R4 ; x − 2y + z = 0}.


(b) Γ = {(t, x, y, z) ∈ R4 ; x − 2y + z = 0 e t − x + z = 0}.
(c) Γ = {(t, x, y, z) ∈ R4 ; x − 2y + z = 0, t − x + z = 0 e t − z = 0}.
(d) Γ = {(t, x, y, z) ∈ R4 ; x − 2y + z = 0, t − x + z = 0 e z = 0}.
(e) [[(1, 0, 0, 1), (1, 1, 0, 1), (2, 1, 0, 2)]].
(f ) [[(1, 1, 1, 1) (2, 2, 2, 2), (3, 3, 3, 3)]].

6. Se β = {v1 , v2 , v3 } é uma base do R3 , mostre que γ = {w1 , w2 , w3 } também é


3
uma base do R , onde w1 = v1 , w2 = v2 + v1 e w3 = v3 + v2 + v1 .

7. Sejam Γ e Λ subespaços de Rn . Quais das seguintes armações são verdadeiras?

(a) dim(Γ ∩ Λ) = dimΓ + dim Λ.


(b) dim(Γ ∩ Λ) = |dimΓ − dim Λ|.
(c) dim(Γ ∩ Λ) ≤ dimΓ + dim Λ.

8. Determine um conjunto com innitos vetores S contido em Rn tal que qualquer


escolha de n vetores de S são l.d.

5.5 Base e produto interno


Uma base ordenada β = {v1 , v2 , . . . , vk } de um subespaço Γ do Rn é dita ser
uma base ortogonal se seus elementos são ortogonais dois a dois. Quando, além
disto, os vetores são unitários, diz-se que a base é ortonormal. Sucintamente,
β é ortonormal se hvi , vj i = δij , onde δij é o delta de Kronecker.
A base canônica Cn = {e1 , e2 , . . . , en } do Rn é uma base ortonormal.
142 Subespaço vetorial Cap. 5

Exemplo 5.13. Descrevamos todas as bases ortonormais de R2 . Seja u1 =


(a, b) um vetor unitário de R2 . Como ku1 k = a2 + b2 = 1, pela trigonometria
plana, existe θ, 0 ≤ θ < 2π , tal que a = cos θ e b = sen θ. Portanto, todo
vetor unitário de R2 é da forma u1 = (cos θ, sen θ). Um vetor perpendicular
a ele é, por exemplo, u2 = (−sen θ, cos θ), e este vetor também é unitário. O
conjunto ordenado β = {u1 , u2 } é uma base ortonormal, pois det[u1 , u2 ] = 1 e
u1 e u2 são vetores unitários ortogonais.
Fixado u1 , a segunda possibilidade de escolher um vetor unitário ortogonal
a u1 é escolher −u2 . Da mesma forma, α = {u1 , −u2 } é uma base ortonormal.
Neste último caso, det[u1 , −u2 ] = −1. 3

Exemplo 5.14. Bases ortonormais de R3 são fáceis de construir. Sejam e u1


o seu vetor normalizado, v = (−1, 2, 2)
 
1 2 2
u1 = − , , − .
3 3 3
Para construir uma base ortonormal β = {u1 , u2 , u3 } existem innitas maneira
de escolher um segundo vetor u2 = (a, b, c), visto que suas coordenadas devem
satisfazer às equações hu1 , u2 i = 0 e ku2 k = 1,
( 1
− 3 a + 32 b − 23 c = 0
.
a2 + b 2 + c 2 = 1

Escolhamos um vetor v = (a0 , b0 , c0 ) cujas coordenadas satisfazem a primeira


equação e depois normatizemos, digamos, v = (0, 1, 1). Seja
 
1 1
u2 = 0, √ , √ .
2 2
Para escolher o terceiro vetor ortogonal aos anteriores, temos, apenas, duas
escolhas. Uma delas é considerar o produto vetorial u3 = u1 ∧ u2 . De fato,
u3 é unitário. Sendo vetores ortogonais e unitários, pela fórmula de Lagrange
segue que
ku3 k = ku1 ∧ u2 k = ku1 k ku2 ksen θ = sen θ = 1,
Ÿ5.5 Base e produto interno 143

Calculando o vetor u3 obtemos


 
4 1 1
u3 = √ , √ , − √ .
18 18 18
A outra escolha possível para u3 é u3 = −u1 ∧ u2 . Esse processo descreve todas
as possibilidade de construírmos bases ortonormais em R3 . 3
Proposição 5.5. Seja β = {u1 , u2 , . . . , un } um conjunto de n vetores do Rn .
n
Se hui , uj i = δij , então β é uma base. Em particular, um vetor v ∈ R é
expresso pela combinação linear

v = hv, u1 iu1 + hv, u2 iu2 + · · · + hv, un iun .

Prova Suponha, por absurdo, que o conjunto β não seja uma base do Rn .
Sendo assim, det[u1 , u2 , . . . , un ] = 0 existe um vetor coluna que é uma com-
binação linear dos outros vetores colunas. Sem perda de generalidade, iremos
assumir que esse vetor coluna seja un ,

un = a1 u1 + a2 u2 + · · · + an−1 un−1 .

Efetuando o produto interno com un em ambos os membros da igualdade e


lembrando-se que hui , uj i = δij obtemos

1 = hun , un i
:0 :0 : 0i
= a1 h
un i + a2 h
, u1 un i + · · · + an−1 h
, u2 un
, un−1


= 0.

Uma contradição, logo, β é uma base. Agora, um vetor v ∈ Rn é expresso por

v = a1 u1 + a2 u2 + · · · + an un

Para determinar os valores dos coecientes da combinação linear efetuamos o


produto interno com ui em cada membro da igualdade,
:0 :1 :0
hv, ui i = a1 h
u1 i + · · · + ai h
, ui ui ii
, u
+ · · · + an h
un i
, ui
= ai . 2
144 Subespaço vetorial Cap. 5

Exercício 5.11. Seja β = {v1 , v2 , . . . , vk } um conjunto ortogonal de k vetores


de um subespaço Γ ⊂ Rn de dimensão k , ou seja, β é um conjunto de vetores
não nulos e dois a dois ortogonais.

1. Mostre que β é uma base de Γ.

2. Se v = a1 u1 + a2 v2 + · · · + an vk , mostre que a parcela ai vi é a projeção


ortogonal de v sobre vi . 3

Bases ortonormais de subespaços existem. O método de construção utili-


zado para mostrar a existência é chamado de processo de ortogonalização de
Gram-Schmidt e baseia-se nessa idéia de projeção ortogonal.

Proposição 5.6. Todo subespaço não trivial do Rn possui uma base ortogonal.
Prova Sejam Γ um subespaço de Rn de dimensão k e γ = {w1 , w2 , . . . , wk }
uma base ordenada de Γ. Denote por Γi o subespaço de dimensão i gerado
pelos i-ésimos primeiros vetores dessa base, γi = {w1 , w2 , . . . , wi }. Sendo assim,
valem as inclusões próprias de subespaços

Γ0 = {0} Γ1 Γ2 ··· Γk = Γ.

Feitos essas preliminares iniciemos a construção indutiva de uma base or-


togonal pelo processo de ortogonalização de Gram-Schmidt. A base ortogonal
de Γ1 será β1 = {v1 } em que v1 = w1 . Para construir uma base ortogonal para
Γ2 consideramos o conjunto ordenado β2 = β1 ∪ {v2 } onde

hw2 , v1 i
v2 = w2 − v1 .
hv1 , v1 i

O vetor v2 está bem denido pois v1 não sendo nulo temos que hv1 , v1 i > 0.
Note que também o vetor v2 não é nulo, caso contrário concluímos que w1 e
w2 são vetores linearmente dependentes contrariando o fato de γ ser uma base
de Γ. Por outro lado, vericamos facilmente que hv1 , v2 i = 0 de onde segue
que β2 ⊂ Γ2 é um conjunto linearmente independente num espaço vetorial de
Ÿ5.5 Base e produto interno 145

dimensão dois, implicando que β2 = β1 ∪ {v2 } é uma base ortogonal de Γ2 . Por


hipótese de indução, vamos assumir que já construímos uma base ortogonal
βi = {v1 , v2 , . . . , vi } para o subespaço Γi . Seja βi+1 = βi ∪ {vi+1 }, onde
hwi+1 , v1 i hwi+1 , v2 i hwi+1 , vi i
vi+1 = wi+1 − v1 − v2 − · · · − vi .
hv1 , v1 i hv2 , v2 i hvi , vi i
Novamente, vi+1 está bem denido e é um vetor em Γi+1 . O vetor vi+1 não
é nulo, caso contrário teremos wi+1 ∈ Γi contrariando a hipótese de γ ser
linearmente independente, desde que cada vi é combinação linear de γi . Uma
simples vericação mostra que βi+1 é um conjunto de vetores não nulos dois
a dois ortogonais no subespaço Γi+1 cuja dimensão é i + 1. Segue que βi+1
é uma base ortogonal desse espaço. Continuando o processo um número de
vezes igual à dim Γ, obtemos uma base ortogonal de Γ. 2
Corolário 5.4. n
Todo subespaço não trivial Γ ⊂ R possui uma base ortonor-
n
mal. Em particular, R possui uma base ortonormal.

Demonstração Pelo processo de Gram-Schmdit podemos construir uma base


ortogonal γ = {v1 , v2 , . . . , vk } de Γ. O conjunto ordenado β = {u1 , u2 , . . . , un },
onde ui = kv1i k vi , é formado por vetores unitários dois a dois ortogonais, logo,
β é uma base ortonormal de Γ. 2
Exemplo 5.15. Apliquemos o processo de ortonormalização de Gram-Schmidt
à base β = {w1 , w2 , w3 } do R3 , onde

w1 = (1, 1, 1), w2 = (1, 2, 0) e w3 = (2, 0, 0)

De fato, β é uma base, pois det[w1 , w2 , w3 ] = 2. Primeiro construímos uma


base ortogonal. Seja v1 = w1 = (1, 1, 1). O segundo vetor será
1
v2 = w2 − hw1 , v1 iv1 = (0, 1, −1).
kv1 k2
Ressaltamos que hv2 , v1 i = 0 e [[w1 , w2 ]] = [[v1 , v2 ]]. Calculemos v3 ,
1 1
v3 = w3 − hw 3 , v1 iv 1 − hw3 , v2 iv2 = (2, −1, −1).
kv1 k2 kv2 k2
146 Subespaço vetorial Cap. 5

A base α = {v1 , v2 , v3 } é orotogonal. Para obter a base ortonormal, basta


normalizar os vetores de α,
     
1 1 1 1 1 2 1 1
u1 = √ , √ , √ , u2 = 0, √ , − √ e u3 = √ , − √ , − √ .
3 3 3 2 2 6 6 6
A base obtida pelo processo de ortonormalização é β = {u1 , u2 , u3 } 3

EXERCÍCIOS
1. Projete ortogonalmente o vetor u sobre o vetor v.

(a) u = (1, 1) e v = (2, 1) são vetores de R2 .


(b) u = (1, 0, 1) e v = (1, 3, −1) são vetores de R3

2. Ortonormalize pelo processo de Gram-Schmidt as bases ordenadas de R2 .

(a) β = {(1, 1), (2, 1)}. (b) β = {(2, 1), (−1, 2)}

3. Ortonormalize pelo processo de Gram-Schmidt as bases ordenadas de R3 .

(a) β = {(1, 1, 1), (0, 2, 1), 0, 1, 1)}. (b) β = {(1, 0, 0), (1, 1, 0), (1, 1, 1)}.
6
Transformações lineares
Estudaremos funções chamadas transformações lineares. Uma transforma-
ção linear ca determinada denindo o seu valor em cada vetor da base canô-
nica do domínio, valores estes, que serão guardados numa matriz, procedimento
que possibilita detetar importantes propriedades deste tipo de aplicação.

6.1 Transformações lineares


Diz-se que uma aplicação A : Rm → Rn é uma transformação linear se
para quaisquer vetores v, w ∈ Rm e para qualquer escalar λ ∈ R as seguintes
condições são vericadas:

tl1 A(v + w) = A(v) + A(w);

tl1 A(λv) = λA(w).

Mostrar que transformações lineares existem, como construí-las ou como


identicá-las são tarefas simples. Como sabemos, um vetor v = (x1 , x2 , . . . , xm )
do domínio é uma combinação linear dos elementos da base canônica,

v = x1 e1 + x2 e2 + · · · + xm em .

Pela denição de transformação linear seguem as igualdades,

147
148 Transformações lineares Cap. 6

A(x1 , x2 , . . . , xm ) = A(x1 e1 + x2 e2 + · · · + xm em )
= A(x1 e1 ) + A(x2 e2 ) + · · · + A(xm en )
= x1 A(e1 ) + x2 A(e2 ) + · · · + xm A(em ).
Várias informações podem ser obtidas da expressão

A(x1 , x2 , . . . , xm ) = x1 A(e1 ) + x2 A(e2 ) + · · · + xm A(em ).

1o Para construir uma transformação linear basta especicar quais são seus
valores nos vetores e0i s da base canônica do domínio e denir a transfor-
mação linear pela combinação linear à direita da igualdade.

2o Para saber se uma função é uma transformação linear é suciente que


a imagem de um vetor v = (x1 , x2 , . . . , xm ) seja uma combinação linear
como descrito acima.

3o Quando duas transformações lineares A, B : Rm → Rn assumem os mes-


mos valores na base canônica elas são idênticas.

4o Como veremos logo a seguir, da igualdade obteremos informações, sobre


a injetividade e sobrejetividade da transformação linear.

5o Com os valores A(ei ), i = 1, . . . , m, construiremos uma matriz que será


chamada de matriz canônica da transformação linear da qual podemos
obter muitas outras informaçes sobre a transformação linear.

Exercício 6.1. Para construir uma transformação linear A : R2 → R2 , esco-


lhemos os valores de A nos vetores da base canônica do dimínio. Digamos que
a escolha foi A(e1 ) = (−1, 0) e A(e2 ) = (0, 3). Expressemos a transformação
linear em coordenadas:

A(x, y) = xA(e1 ) + yA(e2 )


= x(−1, 0) + y(0, 3)
= (−x, 3y)
Ÿ6.1 Transformações lineares 149

Falta vericar que essa aplicação A é uma transformação linear, isto é, ela
verica as condições tl1 e tl2 listadas na denição. Para isso, efetuamos os
seguintes cálculos que são procedimentos de rotina. Considere dois vetores
v = (x1 , y1 ) e w = (x2 , y2 ) em R2 e um escalar λ ∈ R. Calculemos,
A(v + w) = A(x1 + x2 , y1 + y2 )
= (−x1 − x2 , 3y1 + 3y2 )
= (−x1 , 3y1 ) + (−x2 , 3y2 )
= A(v) + A(w),

A(λv) = A(λx, λy)


= (−λx, 3λy)
= λ(−x, 3y)
= λA(x, y). 3
Exemplo 6.1. Para construir uma transformação linear A : R2 → R3 especi-
camos os valores de A na base canônica do domínio C = {e1 , e2 }. Se desejarmos
que A(1, 0) = (1, −1, 2) e A(0, 1) = (2, 0, 3), construímos a transformação li-
near como indicado,
A(x, y) = xA(1, 0) + yA(0, 1)
= x(1, −1, 2) + y(2, 0, 3)
= (x + 2y, −x, 2x + 3y).
Portanto, em coordenadas temos A(x, y) = (x + 2y, −x, 2x + 3y). 3
Exemplo 6.2. A aplicação A : R3 → R3 ,
A(x, y, z) = (2x − y + 3z, 4y + 2z, 2x − y),
é uma transformação linear. Se não vejamos,
A(x, y, z) = (2x − y + 3z, 4y + 2z, 2x − y)
= (2x, 0, 2x) + (−y, 4y, −y) + (3z, 2z, 0)
= x(2, 0, 2) + y(−1, 4, −1) + z(3, 2, 0).
150 Transformações lineares Cap. 6

Verica-se que A(e1 ) = (2, 0, 2), A(e2 ) = (−1, 4, −1) e A(e3 ) = (3, 2, 0). 3
É conveniente ter um critério mais rápido para vericarmos se uma aplica-
ção é uma transformação linear.
Exercício 6.2. Uma aplicação A : Rm → Rm é uma transformação linear
se, e somente se, para quaisquer v, w ∈ Rm e qualquer escalar λ cumpre-se
A(v + λw) = A(v) + λA(w) 3
Proposição 6.1. Sejam v1 , v2 , . . . , vm vetores do Rn . A aplicação

A : Rm → Rn , A(x1 , x2 , . . . , xm ) = x1 v1 + x2 v2 + · · · + xm vm
é uma transformação linear. Mais ainda, esta é a única transformação linear
que assume tais valores na base canônica.

Prova Claro, A(ei ) = vi , para 1 ≤ i ≤ m. Sejam v = (x1 , x2 , . . . , xm ) e


w = (y1 , y2 , . . . , ym ) vetores de Rm e λ um escalar. Mostremos que A é uma
transformação linear utilizando o critério do exercício anterior:
A(v + λw) = A(x1 + λy1 , x2 + λy2 , . . . , xm + λym )
= (x1 + λy1 )v1 + (x2 + λy2 )v2 + · · · + (xm + λym )vm
= x1 v1 + x2 v2 + · · · + xm vm +
λy1 v1 + λy2 v2 + · · · + λym vm
= A(v) + λA(w).
Agora suponha que B : Rm → Rn , seja uma transformação linear tal que
B(ei ) = vi = A(e1 ), para i ∈ {1, 2, . . . , m}. Mostremos que B(v) = A(v) para
todo v ∈ Rm .

B(v) = B(x1 , x2 , . . . , xm )
= x1 B(e1 ) + x2 B(e2 ) + · · · + xn B(em )
= x1 A(e1 ) + x2 A(e2 ) + · · · + xn A(em )
= A(x1 , x2 , . . . , xm )
= A(v). 2
Ÿ6.1 Transformações lineares 151

Exercício 6.3. Seja A : Rn → Rm é uma transformação linear. Mostre que


A(o) = o e A(−v) = −A(v). 3

A aplicação Id : Rn → Rn , Id(v) = v , chamada aplicação identidade, é


uma transformação linear. Em termos de coordenadas, temos

Id(x1 , x2 , . . . , xn ) = (x1 , x2 , . . . , xn ).

Observe que Id(x1 , x2 , . . . , xn ) = x1 e1 + x2 e2 + · · · + xn en .


A aplicação A : Rm → Rn , A(v) = o, é uma transformação linear. Em
termos de coordenadas, temos A(x1 , x2 , . . . , xm ) = (0, 0, . . . , 0). Nesse caso,
A(x1 , x2 , . . . , xn ) = x1 o + x2 o + · · · + xn o.

EXERCÍCIOS
1. Verique quais das aplicações são transformações lineares.

(a) A : R2 → R3 , A(x, y) = (3x + y + xy, x − y, x + y)


(b) A : R2 → R2 , A(x, y) = (xy, y).
(c) A : R3 → R2 , A(x, y, z) = 3(x − y, x + 2y + z).
(d) A : R2 → R2 , A(x, y) = (3 − x + y − 1, x − 3y + 2).
(e) A : R3 → R2 , A(x, y, z) = (x − 3z, y + 2z − 3x).
(f ) A : R2 → R3 , A(x, y) = (3x2 + y, x − y, x + y)

2. Considere o conjunto γ = {w1 , w2 , w3 } ⊂ Rn . Para cada item encontre a

transformação linear A : R3 → Rn satisfazendo as condições A(ei ) = wi .

(a) γ = {(1, 1), (1, −1), (2, 1)} ⊂ R2 .


(b) γ = {(2, −3, 1), (0, 1, 0), (1, −1, 4)} ⊂ R3 .
(c) γ = {(1, 1, 0, 1), (0, 1, 0, 1), (1, 2, 0, 2)} ⊂ R4 .

3. Fixado λ 0 ∈ R. A aplicação A : Rn → Rn , A(v) = λ0 v , é chamada de

homotetia. Mostre que ela é uma transformação linear e descreva-a utilizando

coordenadas.
152 Transformações lineares Cap. 6

4. Fixado o vetor v0 = (1, 1, 2) ∈ R3 . Mostre que a aplicação A : R3 → R3 é uma

transformação linear e determine A(e1 ), A(e2 ) e A(e3 ), onde

hv, v0 i
A(v) = v − v0 .
hv0 , v0 i

6.2 Núcleo, imagem e sistema linear


No estudo de funções é conveniente saber duas informações básicas. Se ela
é, ou não, injetiva e/ou sobrejetiva. No caso de uma transformação linear,
A : Rm → Rn , tais informações são obtidas examinando-se dois subconjuntos,
um no contradomínio e outro no domínio, chamados de imagem e núcleo da
transformação linear. São eles, respectivamente:

1. Im (A) = {w ∈ Rn ; w = A(v) para algum v ∈ Rm };

2. N uc (A) = {v ∈ Rm ; A(v) = o}.

Observe que o núcleo contém o vetor nulo. Mostraremos que esses subcon-
juntos são subespaços do contradomínio e do domínio, respectivamente, mas,
antes, discutamos estes conceitos com uma transformação linear especíca.

Exemplo 6.3. Seja A : R3 → R2 , A(x, y, z) = (x + y − z, 3x − 2y). Como


sabemos, podemos escrevê-la na forma

A(x, y, z) = xA(e1 ) + yA(e2 ) + zA(e3 ),

onde A(e1 ) = (1, 3), A(e2 ) = (1, −2) e A(e3 ) = (−1, 0).
Examinemos a imagem. A combinação linear acima nos sugere que a ima-
gem Im(A) é o subespaço das combinações lineares [[A(e1 ), A(e2 ), A(e3 )]]. De
fato. Mostremos a inclusão Im(A) ⊂ [[A(e1 ), A(e2 ), A(e3 )]]. Seja w ∈ Im(A).
Por denição de imagem, existe um elemento do domínio v = (x, y, z) ∈ R3
tal que A(v) = w. Portanto, w = xA(e1 ) + yA(e2 ) + zA(e3 ). Isso mostra que
w ∈ [[A(e1 ), A(e2 ), A(e3 )]].
Ÿ6.2 Núcleo, imagem e sistema linear 153

Vejamos a inclusão oposta. Se w ∈ [[A(e1 ), A(e2 ), A(e3 )]], por denição


de subespaço das combinações lineares, existem escalares a1 , a2 e a3 tais que
w = a1 A(e1 ) + a2 A(e2 ) + a3 A(e3 ). Claro, A(v) = w onde v = (a1 , a2 , a3 ). Isso
mostra que w ∈ [[A(e1 ), A(e2 ), A(e3 )]].
Neste exemplo, por causa da condição det[A(e1 ), A(e2 )] 6= 0 podemos ar-
mar um pouco mais. O conjunto β = {A(e1 ), A(e2 )} é um conjunto de gera-
dores linearmente independente de Im(A) e também uma base de R2 . Logo,
Im(A) = R2 . Isso signica que a transformação linear é sobrejetiva.
Examinemos o núcleo. A apresentação da transformação linear em coorde-
nadas nos dá a descrição do núcleo utilizando equações lineares homogêneas.
O vetor v = (x, y, z) está no núcleo se, e somente se,

A(x, y, x) = (x + y − z, 3x − 2y) = (0, 0),

ou equivalentemente, e somente se, suas coordenadas é solução do sistema de


equações lineares homogêneas nas variáveis x, y e z ,

x + y − z = 0
.
3x − 2y = 0

Sendo assim, podemos descrever o núcleo por equações lineares homogêneas,

N uc(A) = {(x, y, z) ∈ R3 ; x + y − z = 0 e 3x − 2y = 0}.

Desse fato, segue que o núcleo é um subespaço do domínio. Estudando o


sistema, podemos descrever o núcleo como N uc(A) = [[(2, 3, 5)]]. 3

Proposição 6.2. O núcleo e a imagem de uma transformação linear A :


m n
R →R são subespaços do domínio e contradomínio, respectivamente. Em
particular, Im(A) = [[A(e1 ), A(e2 ), . . . , A(em )]].

Prova Mostremos que o núcleo é um subespaço do domínio.


1. O conjunto N uc(A) não é vazio pois o ∈ N uc(A).
154 Transformações lineares Cap. 6

2. Se v e w dois vetores de N uc(A), a soma v + w ∈ N uc(A) pois

A(v + w) = A(v) + A(w) = o + o = o.

3. Sejam v ∈ N uc(A) e λ um escalar. Como A(λv) = λA(v) = λo = o,


conclui-se que λv ∈ N uc(A).
Ficará como exercício provar que Im(A) = [[A(e1 ), A(e2 ), . . . , A(em )]]. 2

Proposição 6.3. Se A : Rm → Rn uma transformação linear, então:

1. A é injetiva se, e somente se, N uc(A) = {o};

2. A é sobrejetiva se, e somente se, Im(A) = Rn .

Prova 1. (⇒) Suponha que A é injetiva. Como A(o) = o, somente o vetor


nulo, e nenhum outro vetor, pode assumir o valor o ∈ Rn , mostrando que
N uc(A) = {o}.
(⇐) Vamos supor que N uc(A) = {o}. Sejam v, w ∈ V vetores tais que
A(v) = A(w). Por linearidade obtemos A(v − w) = o. Como o núcleo é trivial
concluimos que v − w = o, isto é, v = w.
2. Essa é a própria denição de função sobrejetiva. 2
A discussão de sistemas de equações lineares está estreitamente relacio-
nada com os conceitos de núcleo e imagem de uma transformação linear. Por
exemplo, considere o seguinte sistema 4 × 3 nas variáveis x, y , z ,


 x − 2y + 3z = 2

2x − y + z = 0

.

 y + z = 2

 x − y + z = −1

Imediatamente, podemos construir uma transformação linear utilizando as ex-


pressões do membro esquerdo das equações,

A : R3 → R4 , A(x, y, z) = (x − 2y + 3z, 2x − y + z, y + z, 2x − y + z),


Ÿ6.2 Núcleo, imagem e sistema linear 155

e considerar o vetor do contradomínio w0 = (2, 0, 2, −1) ∈ R4 . Com essa


construção, o sistema é reescrito na forma compacta

A(x, y, z) = w0 .

O sistema somente terá solução se o vetor w0 estiver no subespaço Im(A), ou


equivalentemente, caso exista um vetor v0 ∈ R3 tal que A(v0 ) = w0 . Agora,
podemos discutir o sistema utilizando esses novos conceitos.

1. O sistema é possível se, e somente se, w0 ∈ Im(A).

(a) O sistema é determinado se, e somente se, {o} = N uc(A).


(b) O sistema é indeterminado se, e somente se, {o} N uc(A).

2. O sistema é impossível se, e somente se, w0 ∈


/ Im(A).

Suponha que o sistema é possível, ou seja, A(v0 ) = w0 para algum v0 ∈ R3 .

Se N uc(A) = {o}, pela Proposição 6.3, p.154, segue que A é injetiva,


portanto, somente esta solução v0 é possível.
O item 1.(b) é o ponto a ser ressaltado. Armar que {o} N uc(A) é
equivalente a armar que o núcleo tem dimensão pelo menos igual a 1, logo,
o núcleo possui innitos vetores. Vamos supor que esse seja o caso. Seja
u0 ∈ N uc(A) onde u0 6= o. Observe que vo + u0 é uma solução do sistema, pois

A(v0 + u0 ) = A(v0 ) + A(u0 ) = A(vo ) + o = A(v0 ) = w0 .

Temos um sistema linear possível e indeterminado.


O sistema acima não tem solução, ou seja, w0 ∈
/ Im(A).

EXERCÍCIOS
1. Determine uma base para o núcleo da transformação linear, caso ela não seja

injetiva e uma base para a imagem.


156 Transformações lineares Cap. 6

(a) A : R2 → R2 , A(x, y) = (x + y, y).


(b) A : R2 → R3 , A(x, y) = (2x + y, 4y + 2y, x − y).
(c) A : R3 → R2 , A(x, y, z) = (x + y, y − z).

2. Construa uma transformação linear A : R2 → R2 com a propriedade pedida.

(a) A reete cada vetor em relação ao eixo ox.


(b) A reete cada vetor em relação ao eixo oy .
(c) A reete cada vetor em relacão ao subespaço Γ = {(x, y) ∈ R2 ; x−y = 0}.
π
(d) A rotaciona cada vetor no sentido anti-horário por um ângulo de
2.

3. Construa uma transformação linear com a propriedades pedida.

(a) A : R3 → R2 tal que Im (A) = [[v1 , v2 ]], onde v1 = (1, 2) e v2 = (1, 1).
(b) A : R2 → R3 tal que Im (A) = [[v1 ]], onde v1 = (0, 3, −1).
(c) A : R3 → R2 tal que Im (A) = {(x, y) ∈ R2 ; 2x − y = 0}.
(d) A : R3 → R3 tal que Im (A) = {(x, y, z) ∈ R3 ; 2x + 3y + z = 0}.
(e) A : R3 → R2 tal que Im(A) = {(x, y) ∈ R2 ; x − y = 0}.

4. Construa uma transformação linear com a propriedades pedida.

(a) A : R3 → R2 tal que N uc (A) = {(x, y, z) ∈ R3 ; x − y + 2z = 0}.


(b) A : R2 → R3 tal que N uc (A) = {(x, y) ∈ R2 ; x = 0}.
(c) A : R3 → R2 tal que N uc (A) = {(x, y, z) ∈ R3 ; 2x − y = 0}.
(d) A : R3 → R2 tal que N uc (A) = {(x, y, z) ∈ R3 ; x + y = 0 e z = 0}.
(e) A : R2 → R2 tal que N uc (A) = {o}.

5. Fixados v1 , v2 ∈ R2 dena a aplicação A : R2 → R2 , A(x, y) = xv1 + yv2 .

(a) Verique que A é uma transformação linear.

(b) Demonstre que u e v são linearmente independente ⇔A é injetiva.


Ÿ6.3 Matriz de uma transformação linear 157

6. Fixado v0 = (1, 1, −1) ∈ R3 , considere a transformação linear A : R3 → R3 ,


hv, v0 i
A(v) = v − v0 .
hv0 , v0 i
Determine uma base para o núcleo e uma base para a imagem de A.

7. Prove que uma transformação linear A : R2 → R3 não pode ser sobrejetiva.

8. Discuta o sistema linear utilizando núcleo e imagem.



(  x − y = 0
x − y + z = 1 
(a) . (b) x + y − 2z = 1 .
2x + y − 2z = −1 
 2x − 2z = 2

6.3 Matriz de uma transformação linear


Como visto, uma transformação linear A : Rm → Rn ca determinada
quando conhecemos os valores de A na base canônica, A(e1 ), A(e2 ),. . . ,A(em ).
Por este e outros motivos, guardamos os valores A(ei ) na matriz [A] assim
denida,
[A] = [A(e1 ), A(e2 ), . . . , A(em )].
A matriz [A] é chamada matriz canônica de A ou, simplesmente, matriz de A.

Exemplo 6.4. Seja A : R3 → R3 , A(x, y, z) = (x − z, −2x + 2y + 4z, −y + 2z).


A matriz 3 × 3 da transformação linear é obtida avaliando

 A(1, 0, 0) = (1, −2, 0)
A(0, 1, 0) = (0, 2, −1) .

A(0, 0, 1) = (1, 4, 2)
Feito isto, a matriz de A ca sendo
 
1 0 1
[A] = [A(e1 ), A(e2 ), A(e3 )] =  −2 2 4 . 3
0 −1 2
158 Transformações lineares Cap. 6

Exemplo 6.5. Se a matriz da transformação linear é conhecida, digamos,

10 −1
 

[A] =  −2 31  ,
0 5

recuperamos totalmente a transformação linear A : Rm → Rn .

1o A matriz tem duas colunas, A = [A(e1 ), A(e2 )]. Isso nos diz que o domí-
nio de A é o R2 .

2o Os valores A(e1 ) = (10, −2, 0) e A(e2 ) = (−1, 31, 5) são vetores de R3 .


Isto nos diz que o contradomínio é R3 .

Dessas informações concluímos que A : R2 → R3 ,

A(x, y) = xA(e1 ) + yA(e2 ) = (10x − y, −2x + 31y, 5y). 3

Exercício 6.4. Explicite a matriz das seguintes transformações lineares.

1. A : R3 → R2 , A(x, y, z) = (x − 2y + 5z, 2x − z).

2. Id : Rn → Rn , Id(v) = v .

3. A : R2 → R3 , A(x, y) = xv1 + (y − 3x)v2 , onde v1 = (1, −1, 0) e v2 =


(0, 1, −2). 3.

Exemplo 6.6. Seja [A] = [vij ] a matriz da transformação linear A : Rm → Rn .


Mostre que aij = hei , A(ej )i. 3

Existem informações contidas na matriz de uma transformação linear. Exa-


minemos A : R3 → R3 , A(x, y, z) = (2x − 3y, x + y − z, y − 4z),

2 −3
 
0
[A] =  1 1 −1  .
0 1 −4
Ÿ6.3 Matriz de uma transformação linear 159

Do produto matricial

2 −3 2x − 3y
    
0 x
 1 1 −1   y  =  x + y + z  ,
0 1 −4 z y − 4z

obtemos as funções coordenadas da transformação A. Isto permite fazer ava-


liações matricialmente. Por exemplo, A(1, 1, 0) = (−1, 2, 1) e

2 −3 −1
    
0 1
[A][u] =  1 1 −1   1  =  2  ,
0 1 −4 0 1

onde u = (1, 1, 0). Agora, considere os vetores u, v e w e suas avaliações,

1. u = (1, 1, 0), A(u) = (−1, 2, 1);

2. v = (−1, 2, 1), A(v) = (−8, 0, −2);

3. w = (0, 3, −2), A(w) = (−9, 5, 11).

Matricialmente temos:

−1 −8 −9
     

[A][u] =  2  ; [A][v] =  0  ; [A][w] =  5  .


1 2 11

As três matrizes [A(u), A(v), A(w)], [A(e1 ), A(e2 , A(e3 )] e [u, v, w] estão relaci-
onadas pelo produto de matricial,
160 Transformações lineares Cap. 6

−1 −8 −9
 

[A(u), A(v), A(w)] =  2 0 5 .


1 −2 11
2 −3 1 −1
  
0 0
=  1 1 −1   1 2 3 
0 1 −4 0 1 −2

= [A][u, v, w].

Com isso vericamos que as colunas de [A(u), A(v), A(w)] são as entra-
das das matrizes colunas [A][u], [A][v] e [A][w], respectivamente. Este é um
algorítmo que será explorado inúmeras vezes.

Proposição 6.4. Sejam A : Rm → Rn uma transformação linear e u1 , . . . , u m


m
vetores de R . Valem as seguintes armações.

1. [A(u1 ), A(u2 ), . . . , A(um )] = [A][u1 , u2 , . . . , um ].

2. Se m=n então as matrizes descritas no item anterior são quadradas e

det [A(u1 ), A(u2 ), . . . , A(un )] = det [A] det[u1 , u2 , . . . , un ].

Prova 1.) Seja [A] = [vij ]. Escrevamos, uj = u1j e1 + u2j e2 + · · · + umj em . Por
linearidade de A, temos

A(uj ) = u1j A(e1 ) + u2j A(e2 ) + · · · + umj A(em ).

A ij−ésima entrada de [A(u1 ), A(u2 ), . . . , A(um )], aqui denotada por aij , é
obtida efetuando-se o produto interno dos vetores ei e A(uj ). Sendo assim,

aij = u1j hei , A(e1 )i + u2j hei , A(e2 )i + · · · + umj hei , A(em )i
= u1j vi1 + u2j vi2 + · · · + umj vim
= vi1 u1j + vi2 u2j + · · · + vim umj .
Ÿ6.3 Matriz de uma transformação linear 161

Ou seja, a entrada aij é o produto da i−ésima linha de [A] com a j−ésima


coluna de [u1 , u2 , . . . , um ]. Isto mostra o desejado.
2.) Este item é uma consequência da Proposição 2.4, p.44. 2
O item 2. da proposição acima tem uma interpretação geométrica bastante
útil. Vamos supor que A : R2 → R2 seja uma transformação linear. Denote
por P e Q os paralelogramos do plano cartesiano associado aos vetores u e v
e aos vetores A(u) e A(v), respectivamente.

v P
A(v) Q
u

A(u)

Sabemos que

e

área (P) = det[u, v] área (Q) = det[A(u), A(v)] .

O item 2. estabelece que det[A] o fator que relaciona as duas áreas:



área (Q) = det[A] · área (P) .

Para transformações lineares A : R3 → R3 a interpretação do item 2. é


similar. Denote por P e Q os paralelepípedos do espaço cartesiano associado
aos vetores u, v e w e aos vetores A(u), A(v) e A(w), respectivamente. A
relação entre os volumes dos paralelepípedo é

3

vol (Q) = det[A] · vol (P) .

Exercício 6.5. Seja A : R3 → R3 uma transformação linear. Sejam P e Q os


paralelogramos em R3 associados aos vetores v e w e aos vetores A(v) e A(w),
respectivamente. É verdade que área (Q) = det[A] · área (P)? 3
162 Transformações lineares Cap. 6

EXERCÍCIOS
1. Determine as matrizes das seguintes transformações lineares.

(a) A : R3 → R3 , A(x, y, z) = (6x + y − 3z, z − y, 2x − z).


(b) A : R2 → R3 , A(x, y) = (x + y, 2x − y, y − 2x).
(c) A : R3 → R2 , A(x, y, z) = (x + y + z, x + y + z).
(d) Id : R3 → R3 , Id(x, y, z) = (x, y, z). (Identidade)

(e) A : R2 → R4 , A(x, y) = (0, 0, 0, 0). (identicamente nula)

(f ) A : R3 → R3 , A(x, y, z) = (0, y, 0). (projeção sobre o eixo y)

2. Sabendo a matriz de uma transformação linear, descreva-a e dê uma base para

a imagem e uma base para o núcleo (se não for trivial).


   
−2 −4 1 −1 " #
1 −1 0
(a) [A] =  1 2 . b) [A] =  2 −2 . c) [A] = .
   
1 2 3
1 2 −1 0

A : R2 → R3 , A(v) = hv, v1 iw1 + hv, v2 iw2 , onde w1 = (1, 0, −2)


3. Seja e

w2 = (1, −2, 2). Mostre que A é uma transformação linear e calcule [A].

4. SejaA : R2 → R2 , A(x, y) = (x − 2y, −x + y). Fixados v1 = (1, 1) e v2 =


(−2, 1), dena B : R2 → R2 , B(v) = hA(v), v1 iv1 + hA(v), v2 iv2 . Mostre que
B é uma transformação linear e calcule [B].

5. Dena A : R3 → R3 , A(v) = (hv, w1 i, 0, hv, w1 i), onde w1 = (1, 0, −2) e

w2 = (1, −2, 2). Mostre que A é uma transformação linear e calcule [A].
hv, v0 i
6. Dena A : R3 → R3 , A(v) = v − v0 , onde v0 = (2, 1, 1) ∈ R3
hv0 , v0 i
(a) Mostre que A é uma transformação linear e calcule sua matriz.

(b) Calcule todos os vetores w0 ∈ R3 tais que A(w0 ) seja um múltiplo de w0 .

7. Sejam A : R3 → R3 , A(x, y, z) = (z, x, y) e v0 = (3, 1, 1) ∈ R3 . Dena uma


2 2
aplicação B : R → R , B(v) = A(v) ∧ v0 .
Ÿ6.4 Teorema do núcleo e da imagem 163

(a) Mostre que B é uma transformação linear e calcule [B].


(b) Determine uma base para o núcleo e uma base para a imagem de B.

6.4 Teorema do núcleo e da imagem


Para conhecer melhor uma transformação linear apresentamos um resul-
tado nomeado Teorema do núcleo e da imagem. Intuitivamente falando, a
dimensão do núcleo de A : Rm → Rn mensura quanto de dimensão foi perdida
ao transformamos linearmente o espaço Rm no subespaço Im(A) ⊂ Rn .

Teorema 6.1. Se A : Rm → Rn é uma transformação linear, então

dim Rm = dim N uc(A) + dim Im(A).

Prova Vamos assumir que dim N uc(A) = k. Claro, k ≤ m, pois o núcleo é um


subespaço de R . Considere uma base ordenada β = {v1 , . . . , vk , vk+1, . . . , vm }
m

de Rm na qual os k primeiros elementos formam uma base para o núcleo de A.

Armação 1 Im(A) = [[A(vk+1 ), A(vk+2 ), . . . , A(vm )]].


De fato. Sabemos que Im(A) = [[A(v1 ), . . . , A(vk ), A(vk+1 ), . . . A(vm )]].
Tendo em vista que, A(vi ) = o para todo i ∈ {1, 2, . . . , k}, podemos eliminar es-
tes vetores da listagem de geradores, Im(A) = [[A(vk+1 ), A(vk+2 ), . . . , A(vm )]].
α = {A(vk+1 ), A(vk+2 ), . . . , A(vm )} é um conjunto linear-
Armação 2:
mente independente. Em particular, dim Im(A) = n − k .
Consideremos a combinação linear

o = yk+1 A(vk+1 ) + yk+2 A(vk+2 ) + · · · + ym A(vm ).

Por linearidade de A, podemos reescrever esta equação vetorial como

o = A(yk+1 vk+1 + yk+2 vk+2 + · · · + ym vm ).


164 Transformações lineares Cap. 6

Isto signica que

yk+1 vk+1 + yk+2 vk+2 + · · · + ym vm ∈ N uc(A).

Este último vetor também é uma combinação linear dos k primeiros vetores
da base ordenada β , pois tais vetores formam uma base para o núcleo,

yk+1 vk+1 + yk+2 vk+2 + · · · + ym vm = x1 v1 + x2 v2 + · · · + xk v,

ou equivalentemente,

x1 v1 + x2 v2 + · · · + xk vk − yk+1 vk+1 − yk+2 vk+2 − · · · − ym vm = 0.

Como β é linearmente independente, todos os coecientes dessa combinação


linear são nulos, em particular, yk+1 = yk+2 = · · · = ym = 0, mostrando que o
conjunto α é linearmente independente.
Desde que α é um conjunto de geradores l. i. para Im(A) ele é uma base de
Im(A), de onde segue que dim Im(A) = n − k , cando provado a Armação.
Sendo assim, dim Rm = k + (m − k) = dim N uc(A) + dim Im (A) 2

EXERCÍCIOS
1. Determine bases para a imagem e núcleo, quando este for não trivial, das

transformações lineares. Verique o Teorema do núcleo e da imagem.

(a) A : R3 → R3 , A(x, y, z) = (6x + y − 3z, z − y, 2x − z).


(b) A : R2 → R3 , A(x, y) = (x + y, 2x − y, y − 2x).
(c) A : R3 → R2 , A(x, y, z) = (x + y + z, x + y + z).
(d) Id : R3 → R3 , Id(x, y, z) = (x, y, z).
(e) A : R3 → R3 , A(x, y, z) = (0, z − y, 0).
(f ) A : R2 → R4 , A(x, y) = (x + y, x + y, x + y, x + y).

2. Para cada item, determine a transformação linear A : R3 → Rn satisfazendo


as condições A(ei ) = wi , em que γ = {w1 , w2 , w3 } ⊂ Rn e encontre uma base
para o núcleo e uma base para a imagem.
Ÿ6.4 Teorema do núcleo e da imagem 165

(a) γ = {(1, 1), (1, −1), (2, 1)} ⊂ R2 .


(b) γ = {(2, −3, 1), (0, 1, 0), (1, −1, 4)} ⊂ R3 .
(c) γ = {(1, 1, 0, 1), (0, 1, 0, 1), (1, 2, 0, 2)} ⊂ R4 .

3. Construa uma transformação linear A : R3 → R3 com a condição imposta.

(a) Im (A) é gerado por ε = {(2, −1, 1), (1, 0, 1)}.


(b) N uc(A) é gerado por ε = {(2, −1, 1), (1, 0, 1)}.
(c) Im(A) ⊂ N uc(A).

4. Seja A : Rm → Rn uma transformação linear. Prove as armações.

(a) Se m < n, então A não é sobrejetiva.

(b) Se m > n, então A não é injetiva.

5. Existe uma transformação linear A : R11 → R11 tal que Im(A) = N uc(A)?

6. Sejam w1 , w2 e w3 vetores não nulos de R3 tais que

2w1 − w2 + w3 = o e w1 = 4w2 .

Considere a transformação linear A : R3 → R3 tal que A(e1 ) = w1 , A(e2 ) = w2


e A(e3 ) = w3 . Calcule uma base para N uc(A) e uma base para Im(A).

7. Fixado v0 = (1, 1, 1) ∈ R3 , dena A : R3 → R3 , A(v) = v ∧ v0 .

(a) Verique que A é uma transformação linear e calcule sua matriz.

(b) Encontre uma base para o núcleo e uma base para a imagem.

8. Fixados v1 = (1, −1) ∈ R2 e w1 = (−2, 0, 3) ∈ R3 , dena A : R3 → R2 ,


A(v) = hv, w1 iv1 .

(a) Verique que A é uma transformação linear e calcule [A].


(b) Encontre uma base para o núcleo e uma base para a imagem.
166 Transformações lineares Cap. 6

9. Fixados w1 = (1, 0, 1), w2 = (2, 1, 0), vetores de R3 , dena A : R3 → R3 ,

A(v) = (hv, w1 i, 0, hv, w2 i).

(a) Mostre que A é uma transformação linear.

(b) Determine uma base para o núcleo e uma base para a imagem de A.

10. Fixados w1 = (1, 0, −2) e w2 = (1, −2, 2), vetores do R3 e os vetores v1 =


(−2, 1) e v2 = (1, 1) do R2 . Dena uma aplicação A : R2 → R3 ,

A(v) = hv, v1 iw1 + hv, v2 iw2 .

(a) Mostre que A é uma transformação linear e calcule [A].


(b) Determine uma base para Im(A).

11. Seja A : R2 → R2 , A(x, y) = (x + y, x + y). Fixados os vetores v1 = (1, 1) e

v2 = (−1, 1), dena B : R2 → R2 , B(v) = hA(v), v1 iv1 + hA(v), v2 iv2 .

(a) Mostre que B é uma transformação linear e calcule [A].


(b) Determine uma base para o núcleo e uma base para a imagem de B.

12. Seja A : Rm → Rn uma transformação linear. Quais armações são verdadei-

ras?

(a) m ≤ dim Im(A) ≤ n.


(b) m ≤ dim N uc(A).
(c) dim N uc(A) ≤ m.

6.5 Operações
Nessa seção deniremos três operações envolvendo transformações lineares:
soma de transformações lineares; multiplicação de uma transformação linear
por um escalar; composição de transformações lineares.
Ÿ6.5 Operações 167

Se duas transformações lineares têm iguais domínio e contradomínio, diga-


mos, A, B : Rm → Rn , denimos a soma das transformações lineares como

A + B : Rm → Rn , (A + B)(v) = A(v) + B(v).

A soma é também uma transformação linear:

(A + B)(v + λw) = A(v + λw) + B(v + λw)


= A(v) + λA(w) + B(v) + λB(w)
= (A + B)(v) + (A + B)(λw).

Denimos a multiplicação de uma transformação por um escalar µ como

µA : Rm → Rn , (µA)(v) = µA(v).

É rotina vericar que µA é uma transformação linear.

Exemplo 6.7. Sejam A, B : R3 →R2 as transformações lineares

A(x, y, z) = (2y, z − x) e B(x, y, z) = (x − z, z).

Calculemos A − 2B : R3 → R3 . Pelas denições, obtemos

(A − 2B)(x, y, z) = (2y, z − x) − 2(x − z, z) = (2y − 2x + 2z, −z − x).

Esse cálculo ca bastante simplicado com matrizes. Calculemos a matriz de


A − 2B tendo em mente as regras para a soma de matrizes e a multiplicação
de uma matriz por um escalar,

[A − 2B] = [(A − 2B)(e1 ), (A − 2B)(e2 )]


= [A(e1 ) − 2B(e1 ), A(e2 ) − 2B(e2 )]
= [A(e1 ), A(e2 )] − 2[B(e1 ), B(e2 )]
= [A] − 2[B].

Estes comentários justicam o enunciado da proposição abaixo cuja demons-


tração será deixada como exercício. 3
168 Transformações lineares Cap. 6

Proposição 6.5. Se A, B : Rm → Rn são transformações lineares e λ ∈ R,


então [A + λB] = [A] + λ[B].
Outra operação que efetuamos com transformações lineares é a composição.
Sejam A : Rm → Rn e C : Rn → Rk transformações lineares. Construímos
uma função, chamada composta de A com B , denotada e denida por
C ◦ A : Rm → Rk , C ◦ A(v) = C(A(v)),
esquematicamente,
A / B /
Rm Rn 8 Rk .
C=B◦A

Para efetuar a operação de composição é necessário que o contradomínio de A


seja o domínio de C . A composta é também uma transformação linear, pois
se u, v ∈ Rm e λ ∈ R temos
C ◦ A(u + λv) = C(A(u + λv))
= C(A(u) + λA(v))
= C(A(u)) + λC(A(v))
= C ◦ A(u) + λC ◦ A(v).
Exemplo 6.8. Calculemos a composta R3 − → R3 −
A C
→ R2 onde A(x, y, z) =
(y, z) e C(x, y) = (y, x − y). Primeiro, observe que C ◦ A : R3 → R2 ,
C ◦ A(x, y, z) = C(A(x, y, z))
= C(y, z)
= (z, y − z).
Levando em conta a Proposição 6.4, p. 160, a matriz da composta é
[C ◦ A] = [C(A(e1 )), C(A(e2 )), C(A(e3 ))]
= [C][A(e1 ), A(e2 ), A(e3 )]
= [C][A].
Isto é, a matriz da composta é o produto das matrizes. 3
Ÿ6.5 Operações 169

Proposição 6.6. A : Rm → Rn e C : Rn → Rk duas transformações


Se
m
lineares, então a composta C ◦ A : R → Rk é uma transformação linear e
vale a identidade matricial [C ◦ A] = [C][A].

Prova A demonstração é uma aplicação da Proposição 6.4, p. 160, e em nada


difere daquela argumentação feita no último exercício. 2

EXERCÍCIOS
1. Para cada item, efetue, quando possível, as operações 2A − B , A ◦ B , B ◦ A,
A2 e B 2 . Efetue as operações explícita e matricialmente.

(a) A : R2 → R2 , A(x, y) = (2x, y − x),


B : R2 → R2 , B(x, y) = (x − y, −y).
(b) A : R2 → R3 , A(x, y) = (3y, y − 2x, y − x)
B : R3 → R3 , B(x, y, z) = (x − y, y, 2x).
(c) A : R2 → R2 , A(x, y) = (2x + 2y, y − x)
B : R2 → R2 , B(x, y) = (x − y, y).

2. Efetue o produto das seguintes matrizes na ordem possível e descreva a trans-

formação linear que elas denem.

 
1 2 " #
1 1
[A] =  0 −1  e [B] = .
 
2 0
3 0

3. Calcule A2 = A ◦ A, onde A : R2 → R2 , A(x, y) = (−2x + 4y, −x + 2y). Qual

a relação de inclusão entre N uc(A) e Im(A)?

4. Seja A : R2 → R2 , A(x, y) = (3x + 9y, −x − 3y). Construa uma transformação


2 2
linear não identicamente nula B : R → R tal que A ◦ B(v) = o para v ∈ R .
2

5. Sejam A : Rn → Rn e B : Rm → Rk transformações lineares. Responda quais

das armações são falsas ou verdadeiras.

(a) B◦A sobrejetiva ⇒B sobrejetiva.


170 Transformações lineares Cap. 6

(b) B◦A injetiva ⇒A injetiva.

(c) B◦A invertível ⇒A injetiva e B sobrejetiva.

(d) A sobrejetiva e B◦A injetiva ⇒B injetiva.

(e) B◦A sobrejetiva e B injetiva ⇒A sobrejetiva.


7
Operadores lineares
Uma transformação linear cujo domínio e contradomínio são iguais é cha-
mada operador linear. Esse capítulo é dedicado aos operadores lineares e tem
como objetivo nal apresentar o Teorema espectral. Como aplicação, veremos
como construir transformações lineares especicando seus valores numa base,
outra que não seja a base canônica.

7.1 Isomorsmos
Um operador linear A em Rn é uma transformação linear A : Rn → Rn .
Por simplicidade, diremos que A é um operador em Rn . O seu estudo pode
ser mais detalhado, pois sua matriz [A] é quadrada, possibilitando avaliar o
determinante. Transformações lineares ivertíveis são operadores, vejamos.

Denição 7.1. Uma transformação linear A : Rm → Rn é invertível quando


n m
existe uma aplicação B : R → R tal que

m m

 B ◦ A = Idm : R → R
.
n n
A ◦ B = Idn : R → R

Como sempre Idm e Idn sinalizam o operador identidade em Rm e Rn ,


respectivamente. A função B é dita ser a inversa de A e, pela denição, segue
que A é a inversa de B . Por simplicidade, quando A tem inversa, denotamos

171
172 Operadores lineares Cap. 7

esta inversa por A−1 em lugar de B . Uma transformação linear invertível


também é chamada de isomorsmo linear, ou, simplesmente, isomorsmo.
Antes de tudo, é conveniente citar informações básicas sobre transformações
lineares invertíveis. Pela Teoria elementar de conjuntos, sabemos que uma
função entre dois conjuntos é invertível se, e somente se, a função é injetiva
e sobrejetiva. Logo, pela Proposição 6.3, p.154, podemos armar que uma
transformação linear

A : Rm → Rn é invertível ⇔ Im(A) = Rn e N uc(A) = {o}.

Pelo Teorema do núcleo e da imagem, pg.163, temos

:0

m = dim Rm = 
dim
Nuc(A)
 + dim Im(A) = dim Rn = n.

Com isso, concluímos que A é um operador linear, ou seja, o domínio e o contra-


domínio são iguais e sua matriz [A] é uma matriz quadrada n × n. Registremos
esta informação numa proposição.

Proposição 7.1. Se A : Rm → Rn é uma transformação linear invertível,


então m = n.

Exemplo 7.1. Claro, a identidade Id : Rn → Rn é um operador linear inver-


tível e a sua inversa é ela própria. Apresentemos um exemplo não trivial.
A transformação linear A : R2 → R2 , A(x, y) = (x−y, y), é um isomorsmo
e tem como aplicação inversa A−1 : R2 → R2 , A−1 (x, y) = (x + y, y). Vejamos,

A ◦ A−1 (x, y) = A(x + y, y) = (x + y − y, y) = (x, y).

Por outro lado,

A−1 ◦ A(x, y) = A−1 (x − y, y) = (x − y + y, y) = (x, y). 3

Proposição 7.2. Se A é um operador linear invertível em Rn , então a inversa


A−1 é um operador e A só admite uma única inversa.
Ÿ7.1 Isomorsmos 173

Prova Mostremos a linearidade de A−1 . Sejam v e w vetores do Rn e λ um


escalar. Sendo A sobrejetiva, existem vetores v 0 e w0 de Rn tais que A(v 0 ) = v
e A(w0 ) = w. Observe que A−1 (v) = v 0 e A−1 (w) = w0 . Calculemos

A−1 (v + λw) = A−1 (A(v 0 ) + λA(w0 ))


= A−1 (A(v 0 + λw0 ))
= v 0 + λw0
= A−1 (v) + λA−1 (w).

Suponha que C 0 : Rn → Rm seja um operador tal que C ◦ A = Id e


A ◦ C = Id. Mostremos que C ≡ A−1 . Seja w ∈ Rn . Então

C(w) = Id ◦ C(w)
= A−1 ◦ A ◦ C(w)


= A−1 ◦ (A ◦ C) (w)
= A−1 ◦ Id(w)
= A−1 (w). 2

No que segue, relacionaremos operadores invertíveis, isomorsmos, com


matrizes quadradas invertíveis. Com isso, teremos em mãos um algoritmo para
detetar quando um operador linear é invertível e como construir sua inversa.
Proposição 7.3. Um operador A : Rn → Rn é invertível se, e somente se, a
−1 −1
matriz [A] é invertível. Nesse caso, quando A é invertível temos [A ] = [A] .

Prova ⇒) Assuma que A é invertível. Calculemos a matriz da composta


A −1
◦ A = Id. Pela Proposição 6.4, p. 160, temos

[Id] = [A−1 ◦ A] = [A−1 ][A] e [A][A−1 ] = [A−1 ◦ A] = [Id].

Portanto, [A] é invertível e [A−1 ] = [A]−1 .


⇐) Suponha que [A] seja invertível. Seja B : Rn → Rn o operador linear
tal que [B] = [A]−1 . Calculemos a matriz da composta B ◦ A,

[B ◦ A] = [B] [A] = [A]−1 [A] = [Id].


174 Operadores lineares Cap. 7

Logo, B ◦ A = Id. Da mesma forma, mostramos que A ◦ B = Id. Portanto, o


operador A é invertível e B = A−1 . 2
A proposição acima indica como explicitar a inversa de um operador inver-
tível. Devemos seguir a sequência de procedimentos:
1o calcular a matriz do operador [A];

2o inverter a matriz, [A]−1 ;

3o denir o operador linear A−1 cuja matriz seja [A]−1 .


Exemplo 7.2. Invertamos A : R2 → R2 , A(x, y) = (3x+5y, x+2y). Considere
 
3 5
[A] = .
1 2
Como det[A] 6= 0, a matriz [A] é invertível e sua inversa é
 
−1 2 −5
[A] = .
−1 3
Pela última proposição, sabemos que [A−1 ] = [A]−1 . Portanto
A−1 : R2 → R2 , A−1 (x, y) = (2x−5y, −1+3y). 3
Relacionando o Corólario 2.1, p. 51, e a última proposição temos um
critério de invertibilidade para operadores.
Proposição 7.4. Um operador linear A em Rn é invertível se, e somente se,
det [A] 6= 0.
Exemplo 7.3. Um fato útil é relacionar operadores invertíveis com bases.
Considere o operador linear A : R2 → R2 , A(x, y) = (3x + y, 2x − 7y) e a base
canônica C2 = {e1 , e2 } do R2 . O conjunto A(C) = {A(e1 ), A(e2 )} é uma base
de R2 , pois
 
3 2
det[A(e1 ), A(e2 )] = det[A] = = −25 6= 0.
2 −7
Mas det[A] 6= 0 é equivalentemente ao operador A ser invertível. 2
Ÿ7.1 Isomorsmos 175

Listaremos numa única proposição critérios sobre invertibilidade de opera-


dores lineares. Dependendo do contexto, um critério será mais útil que outro.

Proposição 7.5. Seja A um operador linear em Rn . As seguintes armações


são equivalentes.

1. A é invertível.

2. N uc(A) = {o}.

3. Im(A) = Rn .

4. A imagem por A de qualquer base de Rn é uma base de Rn .

5. A imagem por A da base canônica de Rn é uma base de Rn .

Prova 1. ⇒ 2.) Se A é invertível, então A é injetiva. Portanto, N uc(A) = {o},


2. ⇒ 3.) Suponha que N uc(A) = {o}. Pelo Teorema do núcleo e da imagem
segue que dim Im(A) = dim Rn . Desde que Im(A) ⊂ Rn é um subespaço com
a mesma dimensão de Rn , concluímos que Im(A) = Rn .
3. ⇒ 4) Assuma que Im(A) = Rn . Considere uma base ordenada β =
{v1 , v2 , . . . , vn } de Rn . O conjunto ordenado

A(β) = {A(v1 ), A(v2 ), . . . , A(vn )}

é um conjunto com n elementos que geram Im(A) = Rn . Portanto, A(β) é


uma base de Rn = Im(A), ver Teorema 5.3, p. 138.
4. ⇒ 5.) Se a imagem por A de qualquer base é uma base, em particular,
a base canônica é aplicada numa base.
5. ⇒ 1.) Assumamos que A(Cn ) = {A(e1 ), A(e2 ), . . . , A(en )} é uma base.
Considere um vetor v = (a1 , a2 , . . . , an ) ∈ N uc(A). Sendo assim,

A(v) = a1 A(e1 ) + a2 A(e2 ) + · · · + an A(en ) = o.


176 Operadores lineares Cap. 7

Como A(Cn ) é um conjunto l.i. então a1 = a2 = · · · = an = 0. Isso mostra que


N uc(A) = {o}, ou seja, A é um operador injetivo.
Pelo Teorema do núcleo e da imagem temos n = dim Rn = dim Im(A).
Como o subespaço imagem de A tem a mesma dimensão do contradomínio,
obtemos que Im(A) = Rn , isto é, A é sobrejetiva. Em resumo, A é injetiva e
sobrejetiva, portanto, A é invertível. 2
Exercício 7.1. Sejam A e B dois operadores lineares invertíveis em Rn . Mos-
tre que a composta B ◦ A é invertível e que (B ◦ A)−1 = A−1 ◦ B −1 . 3
Encerramos a seção com um corolário que evita cálculos. A existência de
um inversa à esquerda para o operador implica que ele é invertível. O mesmo
é válido quando existe uma inversa à direita.
Corolário 7.1. Sejam A e B operadores lineares em Rn . Se B ◦ A = Id então
−1
A é invertível e B=A
Prova As igualdades
1 = det[Id] = det([B ◦ A]) = det([B] [A]) = det[B] det[A]

implicam que det[B] 6= 0, logo, o operador linear B é invertível. Para concluir,


é suciente mostrar que B é a inversa à direita de A:

A ◦ B = B −1 ◦ |B {z
◦ A} ◦B = B −1 ◦ B = Id. 2
Id

EXERCÍCIOS
1. Apenas uma das condições exigidas na denição de uma transformação linear

invertível não é suciente para garantir a invertibilidade. Sejam

A : R2 → R3 , A(x, y) = (x, y, 0), e B : R3 → R2 , B(x, y, z) = (x, y).

Verique que B ◦ A = Id : R2 → R2 mas A◦B não é a identidade do R3 . Isto

é um contraexemplo para o Corolário 7.1?

2. Se A : R2 → R2 for invertível, calcule sua inversa.


Ÿ7.1 Isomorsmos 177

(a) A(x, y) = (2x, y − x). (c) A(x, y) = (2x + 4y, x + 2y)


(b) A(x, y) = (2x − 4y, x + 2y). (d) A(x, y) = (x + y, x − y).

3. Se A : R3 → R3 , for invertível, calcule a sua inversa.

(a) A(x, y, z) = (x + y + z, 3x + 4y + 3z, 3x + 3y + 4z).


(b) A(x, y, z) = (2x + y + z, x + 2z, 3x + y + 2z).
(c) A(x, y, z) = (2x − 3y + 7z, x + 3z, 2y − z).
(d) A(x, y, z) = (x, x + y, x + y + z).

4. Mostre que um operador A em Rn com inversa à direita é invertível.

5. Seja β = {v1 , v2 } uma base de R2 . Dena A : R2 → R2 , A(x, y) = xv1 + yv2 .


Mostre que A é um operador invertível.

6. Seja A : R3 → R3 denida por A(x, y, z) = (y, z, x).

(a) Calcule A3 = A ◦ A ◦ A.
(b) A é invertível? Caso seja invertível, calcule sua inversa.

7. Seja A : R2 → R2 , A(x, y) = (3x + 9y, −x − 3y). Calcule A◦A e conclua que

A não é invertível.

8. Considere o operador A : R3 → R3 , A(x, y, z) = (0, x, y).

(a) Verique que A3 (x, y, z) = (0, 0, 0). (identicamente nula)

(b) Justique a armação:A não é invertível.

9. Seja A um operador em Rn tal que Ak (v) ≡ o para algum inteiro k>0 e todo

v ∈ Rn .

(a) Mostre que A não é invertível.

(b) Mostre que Id−A é invertível e que (Id−A)−1 = Id+A+A2 +· · ·+Ak−1 .

10. Sejam A e B operadores em Rn . As armações são falsas ou verdadeiras?


178 Operadores lineares Cap. 7

(a) A e B invertíveis ⇒ A+B invertível.

(b) A e B invertíveis ⇒ A◦B invertível.


3 −1
(c) A3 invertível ⇔A invertível e A−1 = A3 .

7.2 Aplicação
Como vimos, para construir uma transformação linear A : Rm → Rn basta
estabelecer quais são os valores de A nos vetores da base canônica. Generali-
zaremos essa construção. Veremos que para denir uma transformação linear
é suciente explicitar os valores da transformação numa base qualquer, não
precisa ser, necessariamente, a base canônica.
Sejam A : Rm → Rn uma transformação linear e β = {v1 , v2 , . . . , vm } uma
base ordenada de Rm . Qualquer vetor v ∈ Rn é expresso por uma combinação
linear única do tipo

v = a1 v1 + a2 v2 + · · · + am vm .

Fazendo a avaliação A(v), levando que A é uma transformação linear, temos

A(v) = a1 A(v1 ) + a2 A(v2 ) + · · · + an A(vn ).

Como antes, escolhendo valores para A(vi ) construímos uma transformação


linear. A questão que se coloca é calcular a matriz da transformação linear,
pois os escalares ai 's não são as coordenadas do vetor na base canônica! A
seguir ilustraremos a construção de A com um exemplos.

Exemplo 7.4. Sejam β = {v1 , v2 } uma base do R2 e {w1 , w2 } um conjunto


de vetores do R3 . Desejamos construir uma transformação linear A : R2 → R3
tal que A(v1 ) = w1 e A(v2 ) = w2 .
Para exemplicar numericamente, digamos que v1 = (3, 1), v2 = (2, 1),
w1 = (1, −1, −1) e w2 = (−1, 2, 3). Segue um roteiro para a construção de A.

1o Fixemos um espaço auxiliar igual ao domínio de A, neste exemplo, R2 .


Ÿ7.2 Aplicação 179

2o Denimos um operador C do espaço auxiliar para o domínio de A, C :


R2 → R2 , tal que C(e1 ) = v1 e C(e2 ) = v2 . Sabemos construir C e como
ele aplica base em base ele é invertível. Sua matriz é
 
3 2
[C] = [C(e1 ), C(e2 )] = [v1 , v2 ] = .
1 1

3o Denimos uma transformação linear do espaço auxiliar para o contrado-


mínio de A, B : R2 → R2 , tal que B(e1 ) = w1 e B(e2 ) = w2 .

A = B ◦ C −1 /
C(ei ) = vi wi = B(vi )
c ;

C B

ei

Sabemos construir B e sua matriz é

1 −1
 

[B] = [B(e1 ), B(e2 )] = [w1 , w2 ] =  −1 2 .


−1 3

4o A transformação linear A : R2 → R3 , A(v) = B ◦ C −1 (v) é a transforma-


ção procurada.

A = B ◦ C −1 /
2
R > R3

C −1 B

R2
180 Operadores lineares Cap. 7

Se não, vejamos. Calculemos


(
A(v1 ) = B (C −1 (v1 )) = B(e1 ) = w1
.
A(v2 ) = B (C −1 (v2 )) = B(e2 ) = w2

Para explicitar A, utilizamos nosso conhecimento matricial:

[A] = [B ◦ C −1 ] = [B] · [C −1 ] = [B] · [C]−1 .

Portanto, a matriz de A é

1 −1 2 −5
   
 
1 −2
[A] =  −1 2 · =  −3 8 .
−1 3
−1 3 −4 11

Em termos de coordenadas temos A(x, y)(2x − 5y, −3x + 8y, −4x + 11y). 3

Exemplo 7.5. O conjunto ordenado α = {v1 , v2 , v3 }, onde

v1 = (0, 1, 1), v2 = (1, 0, −1), v3 = (2, 1, 0),

é uma base de R3 . Desejamos construir uma transformação linear A : R3 → R2


que aplica esta base, na ordem apresentada, no conjunto ordenado de três
vetores β = {w1 , w2 , w3 } de R2 , onde

w1 = (2, 0), w2 = (1, 2), w3 = (2, 1).

Considere um espaço auxiliar igual ao domínio de A. Neste caso será R3 . O


operador C : R3 → R3 que aplica e1 , e2 e e3 nos vetores v1 , v2 e v3 é invertível
e sua matriz e a matriz de sua inversa são, respectivamente,

−1 2 −1
   
0 1 2
[C] =  1 0 1  e [C]−1 =  −1 2 −2  .
1 −1 0 1 −1 1
Ÿ7.2 Aplicação 181

A transformação linear B : R3 → R2 que aplica e1 , e2 e e3 em w1 , w2 e w3 tem


como matriz  
2 1 2
[B] = .
0 2 1
A transformação linear procurada é A : R3 → R3 , A(v) = B ◦ C −1 (v). Sua
matriz é [A] = [B][C]−1 . Um cálculo nos dá

−1 2 −1
 
   
2 1 2 −1 4 −2
[A] = [B][C]−1 =  −1 2 −2  = ,
0 2 1 −1 3 −3
1 −1 1

ou seja, A(x, y, z) = (−x + 4y − 2z, −x + 3y − 3z, 4x − 6y + 5z). 3

Exemplo 7.6. Considere o subespaço do R2 , Γ : 2x − y = 0. Explicitemos


o operador A : R2 → R2 tal que A(v) é o vetor simétrico a v em relação ao
subespaço Γ.

G G
v -h m

A(v) o
o h

Para seguir a construção acima, necessitamos de uma base na qual as avaliações


de A sejam simples. O vetor normal a Γ é η = (2, −1). Neste vetor temos a
avaliação A(η) = −η . Outro vetor seria µ = (1, 2), pois Γ = [[µ]] e A(µ) = µ.
Observe que β = {η, µ} é uma base de R2 , desde que det[η, v] 6= 0.
Seguindo o mesmo roteiro, temos
     
2 1 1 2 −1 −2 1
[C] = , −1
[C] = e [B] = .
−1 2 5 1 2 1 2
182 Operadores lineares Cap. 7

Como A = B ◦ C −1 , um cálculo matricial nos dá


 
1 −3 4
[A] = .
5 4 3

Finalmente, chegamos à A(x, y) = − 35 x + 54 y, 4


+ 53 y . 3

5
x

EXERCÍCIOS
1. Construa o operador C : R2 → R2 que assume os valores indicados.

(a) C(1, 1) = (−1, 1) e C(−1, 1) = (−1, −1).


(b) C( 3, 1) = ( 2, 1) e C(3, 2) = (2, 1);
(c) C(−2, 1) = (1, 1) e C(1, 1) = (1, −1).

2. Construa o operador linear C : R3 → R3 que assume os valores indicados.

(a) C(1, 1, 1) = (−1, 1, 0), C(−1, 0, 1) = (−1, −1, 2) e C(0, 2, 0) = (0, 0, 0).
(b) C(1, 1, 1) = ( 1, 1, 1), C( 1, 0, 1) = ( 1, 0, 1) e C(0, 0, 1) = (0, 0, 1).
(c) C(1, −2, 0) = (1, 1, 0), C(−1, 0, 1) = (1, 1, 2) e C(0, 2, 1) = (1, 0, 0).

3. Construa o operador linear A : R2 → R2 satisfazendo a condição pedida.

(a) A reete os vetores em torno do subespaço Γ : x − 3y = 0.


π
(b) A rotaciona os vetores de
6 no sentido anti-horário.

(c) A reete os vetores em torno do subespaço Γ : x − 3y = 0 e em seguida


π
rotaciona os vetores de
6 no sentido anti-horário.

4. Construa o operador linear A : R3 → R3 satisfazendo a condição pedida.

(a) A reete os vetores em torno do subespaço Γ : x − 3y + 2z = 0.


π
(b) A rotaciona os vetores de
2 em torno do subespaço Γ = [[(1, 1, 1)]] (exis-

tem dois operadores, depende do sentido da rotação escolhida).


Ÿ7.3 Autovalor e Autovetor 183

7.3 Autovalor e Autovetor


Seja A um operador linear A em Rn . Examinemos a seguinte pergunta.
• Existe um escalar λ e um vetor não nulo v0 ∈ Rn tal que A(v0 ) = λv0 ?

Exemplo 7.7. Para o operador A : R2 → R2 , A(x, y) = (−3x + 4y, 4x + 3y),


a resposta é Sim! Por exemplo, se v0 = (1, 2) e λ = 5 temos

A(v0 ) = A(1, 2) = (5, 10) = 5(1, 2) = λv0 .

Quando determinamos um vetor com essa propriedade, determinamos in-


nitos vetores com a mesma propriedade, é suciente considerar múltiplos de
v0 , a linearidade do operador garante este fato. Se w = ρv0 , então

A(w) = A(ρvo ) = ρA(v0 ) = 5ρv0 = 5w. 3

Exemplo 7.8. Para o operador A : R2 → R2 , A(x, y) = (−y, x), a resposta


àquela pergunta é Não! A imagem por A de qualquer vetor v0 = (x0 , y0 ), é
ortogonal a ele,
hv0 , A(vo )i = h(x0 , y0 ), (−y0 , x0 )i = 0.
Como um vetor não nulo não pode ser múltiplo de um ortogonal a ele, temos
uma respota negativa à pergunta. 3
Em muitas aplicações, a resposta a tal questão é importante, por isso,
iremos sistematizar o seu estudo. Fixemos algumas terminologias.

Denição 7.2. Seja A um operador linear de Rn . Quando existem um escalar


n
λ e um vetor não nulo v∈R tais que A(v) = λv , diz-se que v é um autovetor
1
de A associado ao autovalor λ.
Exemplo 7.9. Seja A : R2 → R2 , A(x, y) = (3x − 2y, 4y). O vetor v = (1, 0)
é um autovetor associado ao autovalor λ1 = 3:

A(v) = A(1, 0) = (3, 0) = 3(1, 0) = 3v.


1 Alguns textos utilizam a terminologia vetor próprio e valor próprio, respectivamente.
184 Operadores lineares Cap. 7

O vetor w = (−2, 1) é autovetor associado ao autovalor λ2 = 4:

A(w) = A(−2, 1) = (−8, 4) = 4(−2, 1) = 4w. 3

Estes exemplos não foram encontrados por tentativa e erro. Existem


procedimentos que são aplicados a qualquer operador para calcular seus auto-
valores e seus autovetores associados. Vejamos os procedimentos.
Consideramos a identidade Id : Rn → Rn e façamos uma pergunta equiva-
lente àquela feita no início da seção.
• Existe um escalar λ tal que o núcleo de λId − A : Rn → Rn é não trivial?
De fato, a pergunta é equivalente. Se o núcleo de λId − A é não tivial,
existe um vetor não nulo v tal que λId(v) − A(v) = 0, de onde concluímos que
A(v) = λv . A recíproca tem vericação imediata.
Nesta altura da teoria, temos condições de responder à última pergunta
aplicando a contrapositiva da Proposição 7.5, p. 175.
• Existe um escalar λ se, e somente se, λId−A é um operador não invertível!
Podemos responder com outra palavras.
• Existe um escalar λ se, e somente se, det[λId − A] = 0.
Para continuar, xemos mais duas terminologias.

1. O núcleo do operador linear λId−A : Rn → Rn , é chamado de autoespaço


associado a λ, e iremos registrá-lo como Vλ = {v ∈ R ; A(v) = λv}.
n

2. O polinômio de grau n, p(λ) = det[λId − A], é chamado de polinômio


característico de A.

Fixados os termos, reescrevamos a resposta da seguinte forma:


• Existirá um vetor não nulo v ∈ Rn tal que A(v) = λv se, e somente se, λ
for uma raiz real do polinômio característico de A.

Exemplo 7.10. Seja A : R2 → R2 , A(x, y) = (4x + 12y, 12x − 3y). Para o


cálculo dos autovetores e autovalores seguimos um mesmo roteiro, a saber.
Ÿ7.3 Autovalor e Autovetor 185

1o Consideramos a identidade Id : R2 → R2 e contruímos as matrizes:


     
4 12 1 0 λ − 4 −12
[A] = ; [Id] = ; [λ Id − A] = .
12 −3 0 1 −12 λ + 3

2o Calculamos o polinômio característico,


 
λ − 4 −12
p(λ) = det[λId − A] = det = λ2 − λ − 156.
−12 λ + 3

3o Calculamos as raízes do polinômio característico que são os autovalores


de A, λ1 = −12 ou λ2 = 13.

4o Calculamos os autovetores associados ao autovalor λ1 = −12. Desejamos


determinar vetores v = (x, y) tais que λ1 (x, y) − A(x, y) = (0, 0). Essa
equação vetorial dá origem a um sistema de equações lineares, a saber,

16x + 12y = 0
.
12x + 9y = 0

É imediato concluir que o vetor procurado é do tipo v = (x, − 43 x). Sendo


assim, autoespaço associado é descrito por

Vλ1 = {(x, y) ∈ R2 ; 4x + 3y = 0} = [[(−3, 4)]].

5o Calculamos os autovetores associados ao autovalor λ2 = 13. Desejamos


determinar vetores v = (x, y) tais que A(x, y) = λ2 (x, y). Essa equação
vetorial dá origem a um sistema de equações lineares, a saber,

9x − 12y = 0
.
−12x + 16y = 0

Logo, o autoespaço associado ao autovalor λ2 = 13 é o subespaço

Vλ1 = {(x, y) ∈ R2 ; 3x − 4y = 0} = [[(4, 3)]]. 3


186 Operadores lineares Cap. 7

Como vemos, todo o problema ca solucionado caso conheçamos as raízes


do polinômio característico. O polinômio característico p(λ) de um operador
A : R2 → R2 tem grau 2 e os coecientes são reais. Portanto, existem duas
raízes reais, com ou sem repetição, ou não existe raiz real.

Exercício 7.2. O operador linear A : R2 → R2 , A(x, y) = (x, x + y) tem


apenas um autovalor com repetição dois, λ1 = λ2 = 1 e um único autoespaço
Vλ1 de dimensão um. Verique que Vλ1 = [[e2 ]]. 3

Recordamos que o autoespaço Vλ de um operador linear A é um subespaço,


pois é o núcleo do operador linear λId − A. Portanto, podemos construir uma
base ordenada de autovetores associados a λ, isto é, Vλ = [[v1 , v2 , . . . , vk ]], onde
A(vi ) = λvi e αλ = {v1 , v2 , . . . , vk } é uma base ordenada para o Vλ .

Exemplo 7.11. Seja A : R2 → R2 , A(x, y) = (−y, x), transforma um vetor


não nulo v em um vetor A(v) ortogonal a ele, portanto, a A(v) não pode ser
colinear com o vetor v . O fato de não ter autovetor é detetado algebricamente
com o polinômio característico,
 
λ−0 −1
p(λ) = det[λId − A] = det = λ2 + 1.
1 λ−0

Como o polinômio característico de A não tem raiz real, o núcleo do operador


linear λId − A : R2 → R2 é trivial, qualquer que seja o escalar λ ∈ R. 3

Exercício 7.3. Demos o traço de uma matriz quadrada como a soma das
entradas da diagonal principal. Se a matriz é 2 × 2,
 
a b
[A] = ,
c d

temos que tr [A] = a + d.

1. Mostre que o polinômio característico de uma matriz 2 × 2 é

p(λ) = λ2 − tr[A]λ + det[A].


Ÿ7.3 Autovalor e Autovetor 187

2. Seja [A] uma matriz 3 × 3. Mostre que o coeciente do termo λ2 de p(λ)


é −tr[A] e do termo independente é − det[A]. 2

Exemplo 7.12. Seja A : R3 → R3 , A(x, y, z) = (x + 2y, y, x + y + 2z). Para


o cálculo dos autovetores e autovalores seguimos o mesmo roteiro.

1o Consideramos a identidade Id : R3 → R3 e contruímos as matrizes:

λ − 1 −2
   
1 2 0 0
[A] =  0 1 0  ; [λ Id − A] =  0 λ−1 0 .
1 1 2 −1 −1 λ − 2

2o Calculamos o polinômio característico,

λ − 1 −2
 
0
p(λ) = det[λId − A] = det  0 λ−1 0  = λ3 − 4λ2 + 5λ + 2.
−1 −1 λ − 2

3o A decomposição p(λ) = (λ − 2)(λ − 1)(λ − 1), nos dá os autovalores:


λ1 = 2; λ2 = 1 = λ3 .

4o Calculamos os autovetores associados ao autovalor λ1 = 2. Desejamos


determinar vetores v = (x, y, z) tais que λ1 (x, y, z)−A(x, y, z) = (0, 0, 0).
Essa equação vetorial dá origem ao seguinte sistema:

 x − 2y = 0
y = 0 .
−x − y

= 0

Os vetores procurados são do tipo v = (0, 0, z). O autoespaço associado


ca sendo Vλ1 = {(x, y, z) ∈ R2 ; x = 0, e y = 0} = [[(0, 0, 1)]].

5o Calculamos os autovetores associados ao autovalor λ2 = 1. Desejamos


determinar vetores v = (x, y, z) tais que A(x, y, z) = λ2 (x, y, z). Essa
188 Operadores lineares Cap. 7

equação vetorial dá origem ao sistema:



 − 2y = 0
0 = 0 .
−x − y − z = 0

Portanto, Vλ2 = {(x, y, z) ∈ R2 ; x + z = 0} = [[(1, 1, 0) (0, 1, 1)]]. 3

Exercício 7.4. Suponha que A : Rn → Rn é um operador não invertível.


Mostre que λ = 0 é um autovalor de A e que N uc(A) = V0 . 3

O polinômio característico p(λ) de um operador A : Rn → Rn é um polinô-


mio com grau n. Sendo assim, pode ocorrer que p(λ) não tenha raízes reais e
se tiver suas raízes reais podem ser distintas ou não. Portanto, contada as re-
petições, o operador pode ter um número de autovalores entre 0 e n, inclusive.

A diculdade reside em determinar as raízes de um polinômio de grau


n. Nas aplicações, as raízes são calculadas aproximadamente com métodos
numérico. No nal desta seção, apresentamos sem prova a fórmula de Cardano-
Tartaglia que permite encontrar as raízes de um polinômio de grau 3.

Exercício 7.5. Operadores distintos podem ter polinômios característicos


iguais. Sejam A e B os operadores lineares em R2 ,

A(x, y) = (2x + 6y, −x + 3y) e B(x, y) = (x + 4y, −2x + 4y).

Calcule os polinômios característicos de A e B . 3

Lema 7.1. Sejam A um operador de Rn


β = {v1 , v2 , . . . , vk } um conjunto
e
constituído por autovetores de A associados aos autovalores λ1 , λ2 ,. . . ,λk , res-
pectivamente. Se os autovalores são distintos dois a dois, então β é l. i.

Prova Assuma, por absurdo, que o conjunto de autovetores é linearmente


dependente. Seja vi+1 o primeiro autovetor tal que

vi+1 = a1 v1 + a2 v2 + · · · + ai vi .
Ÿ7.3 Autovalor e Autovetor 189

Algum escalar ai não é nulo pois vi+1 não é o vetor nulo. A menos de uma
reordenação dos i primeiros elementos do conjunto β podemos assumir que
ai 6= 0. Avaliando o operador em cada membro da igualdade e multiplicando
ambos os membros da igualdade por λi+1 obtemos duas outras igualdades,

λi+1 vi+1 = λ1 a1 v1 + λ2 a2 v2 + · · · + λi ai vi ,
λi+1 vi+1 = λi+1 a1 v1 + λi+1 a2 v2 + · · · + λi+1 ai vi .

Subtraíndo chegamos à combinação linear

0 = (λi+1 − λ1 )a1 v1 + (λi+1 − λ2 )a2 v2 + · · · + (λi+1 − λi )ai vi .

Por hipótese, os autovalores são distintos dois a dois, λi+1 −λj 6= 0, implicando
que vi é uma combinação linear dos anteriores, a saber,

λi+1 − λ1 λi+1 − λ2 λi+1 − λi−1


vi = a1 v1 + a2 v2 + · · · + ai−1 vi−1 .
λi+1 − λi λi+1 − λi λi+1 − λi

Uma contradição, pois, por escolha, vi+1 é o primeiro vetor expresso como uma
combinação linear dos anteriores. Portanto, β é l. i. 2

Exercício 7.6. Mostre que se um operador A : Rn → Rn é invertível, então:

1. todos autovalores são diferentes de zero;

2. os autovalores da inversa A−1 são os inversos dos autovalores de A.

3. os autoespaços de A e A−1 são iguais. 3

Exercício 7.7. Calcule o polinômio característico do operador A : R2 → R2 ,


A(x, y) = (2x − y, 4x − 2y). 3

Fórmula de Cardano-Tartaglia Para determinar, por radicais, as raízes


de uma equação de grau 3,

λ3 + a1 λ2 + a2 λ + a3 = 0,
190 Operadores lineares Cap. 7

existe a fórmula do matemático italiano Nicolo Tartaglia (?1500 − †1557), di-


vulgada por outro matemático italiano, Giordano Cardano (?1501 − †1576).
Esta fórmula causou tal impacto entre os algebrista, que o ano de sua publi-
cação, 1545, é considerado, por muitos, como o início do período moderno da
Matemática. Como referência indicamos [11].
Considere os seguintes números construídos com os coecientes da equação:
a21
a) p = a2 − 3
;
r q
p2 q2
c) P = − q22
3
+ 27
+ 4
;

e) w1 = − 12 + 2
3
;
2a31
b) q = 27
− a1 a2
3
+ a3 ;
r q
p2 q2
d) Q = − q22 −
3
27
+ 4
;

f) w2 = − 12 − 2
3
.

Com esta notação, as raízes do polinômio são:

i) λ1 = P + Q − a1
3
;

ii) λ2 = w1 P + w2 Q − a1
3
;

iii) λ3 = w2 P + w1 Q − a1
3
.

EXERCÍCIOS
1. Verique se o vetor v é autovetor do operador A : R3 → R3 onde:

(a) A(x, y, z) = (x + y + z, 2y + z, 2y + 3z) e v = (1, 1, 2);


(b) A(x, y, z) = (−2x + 3y − z, y − z, x + 2y − 2z) e v = (−2, 1, 3).

2. Determine os autoespaços do operador linear A : R2 → R2 quando:


Ÿ7.3 Autovalor e Autovetor 191

(a) A(x, y) = (−3x + 4y, −x + 2y); (d) A(x, y) = (2x − 4y, x − 2y);
(b) A(x, y) = (4x + 5y, 2x + y); (e) A(x, y) = (x, x + y);
(c) A(x, y) = (2x + 2y, x + y); (f ) A(x, y) = (x − y, x + y).

3. Determine os autoespaços do operador linear A : R3 → R3 quando:

(a) A(x, y, z) = (3x + y − z, x + 3y − z, −x − y + 5z);


(b) A(x, y, z) = (x + y + z, 2y + z, 2y + 3z);
(c) A(x, y, z) = (2z, −y, 2x);
(d) A(x, y, z) = (3x − y − 3z, 2y − 3z, −z);
(e) A(x, y, z) = (x, −2x − y, 2x + y + 2z).
(f ) A(x, y, z) = (2x + 2z, −2y, −2x + 2z).
(g) A(x, y, z) = (x − y, 2x + 2y + 2z, x + y + z).
(h) A(x, y, z) = (x, x + y − 2z, y − z).
(i) A(x, y, z) = (3x + 3y − 2z, −y, 8x + 6y − 5z).

4. Mostre que um operador A : R3 → R3 possui pelo menos um autovalor. Mais

geralmente, mostre que qualquer operador em R2k+1 possui um autovalor.

5. Mostre a armação sobre um operador linear A : Rn → Rn : A não é invertível

⇔λ=0 é raiz do polinômio característico de A.

6. Seja v0 é um autovetor associado ao autovalor λ de um operador linear A em


3
R . Mostre que v0 é um autovetor associado a um autovalor (qual?) de An .

7. Sejam A, B : Rn → Rn dois operadores lineares tais que o vetor v0 ∈ Rn é um


autovetor de A associado ao autovalor λ1 e é um autovetor de B associado ao

autovalor λ2 . Mostre que vo é autovetor dos operadores A + B e A ◦ B .

8. Construa um operador linear A : R2 → R2 satisfazendo as condições pedidas.

(a) V1 : x + y = 0 e V−2 : 2x + y = 0.
(b) V−3 : 2x + 3y = 0 e N uc(A) : x + 2y = 0.
192 Operadores lineares Cap. 7

9. Construa um operador linear A : R3 → R3 satisfazendo as condições pedidas.

(a) V−2 : x + y + z = 0 e N uc(A) = [[(1, 1, 2)]].


(b) V−3 = [[(1, 1, 0)]] , V2 = [[(2, 0, 1)]] e V0 = [[(0, 1, 1)]].

10. Fixado v0 = (2, 1, −2) ∈ R3 , dena A : R3 → R3 , A(v) = v × v0 (produto

vetorial). Dê uma base para cada autoespaço de A.

11. Fixado v0 = (1, 2, 2) ∈ R3 . Calcule bases para os autoespaços de A : R3 → R3 ,

hv, v0 i
A(v) = v − v0 .
hv0 , v0 i

12. Calcule os autoespaços dos seguintes operadores lineares.

(a) A : R2 → R2 , A(x, y) = (x + y, −x − y).


(b) A : R3 → R3 , A(x, y, z) = (z, 0, y).

7.4 Operador transposto


Denição 7.3. Seja A : Rn → Rn um operador linear. O operador transposto
t n n t
de A é o operador linear A : R → R , tal que hv, A(w)i = hA (v), wi para
quaisquer v, w ∈ Rn .

Sabemos que para conhecer qualquer operador é suciente conhecer sua


matriz canônica. Conhecido o operador [A] é simples determinar a matriz [At ]
do seu operador transposto. Se [A] = [vij ] e [At ] = [uij ] temos

uij = hei , At (ej )i = hAt (ej ), ei i = hej , A(ei )i = vji .

Isso mostra que a matriz do operador transposto é a transposta da matriz de


A, simbolicamente, [At ] = [A]t . Como existe uma correspondência biunívoca
entre operadores lineares em Rn e matrizes n × n, só existirá um único ope-
rador transposto logo, o operador transposto deve ter matriz canônica [A]t .
Registremos esses comentários numa proposição.
Ÿ7.4 Operador transposto 193

Proposição 7.6. n
Cada operador linear A : R → Rn determina um único
t n n t
operador trasposto A : R → R . Mais ainda [A ] = [A]t .

Exemplo 7.13. Seja A : R2 → R2 , A(x, y) = (x − 4y, −2x + y). Para


determinar o seu operador transposto, At : R2 → R2 , é suciente conhecer sua
matriz. Como
   
1 −4 1 −2
[A] = , então t
[A] = .
−2 1 −4 1

Sendo assim, At (x, y) = (x − 2y, −4x + y). Para simples vericação, vejamos
que os operadores satisfazem a condição hv, A(w)i = hAt (v), wi. Calculemos:

i) h(x, y) , A(x, y)i = h(x, y), (x − 4y, −2x + y)i = x2 + y 2 − 6xy;

ii) hAt (x, y), (x, y)i = h(x − 2y, −4x + y), (x, y)i = x2 + y 2 − 6xy. 3

Exercício 7.8. Sejam A, B : Rn → Rn operadores. Mostre as armações.

1. (A + B)t = At + B t .

2. (λA)t = λAt para todo escalar λ.

3. (A ◦ B)t = B t ◦ At

4. Idt = Id. 3

Proposição 7.7. Seja A : Rn → Rn um operador. Valem as armações.

t −1
1. A invertível ⇔ At é invertível. Nesse caso, A−1 = At .

2. O polinômio característico de A e At são iguais.

Prova 1.) Pela Proposição 2.3, p. 43, sabemos que det [A] = det [A]t . Como
[At ] = [A]t , segue que det [A] 6= 0 se, e somente se, det [At ] 6= 0.
194 Operadores lineares Cap. 7

Se A é invertível então A−1 ◦ A = Id. Calculando a transposta dessa


t
composição, obtemos At ◦ A−1 = Id. Pelo Corolário 7.1, p. 176, podemos
t −1
armar que A−1 = At .
2.) Denote por pA (λ) e pAt (λ) os polinômios característicos de A e At ,
respectivamente. Observe que λ Id = λ Idt . Sendo assim,
pA (λ) = det[λ Id − A]
= det[λ Id − A]t
= det[λ Idt − At ]
= det[λ Id − At ]
= pAt (λ). 2
EXERCÍCIOS
1. Calcule o operador transposto do operador linear A : R3 → R3 .

(a) A(x, y, z) = (z, x, y).


(b) A(x, y, z) = (x + 2z, 3z, 2x + 3y + z).
(c) A(x, y, z) = (x, x + y, x + y + z).
(d) A(x, y, z) = (x + y − z, 2x − 2y + z, x − z).

2. Mostre que qualquer vetor que está no núcleo de um operador At em Rn é

ortogonal a qualquer vetor que está na imagem de A.

3. Mostre que qualquer vetor que está no núcleo de um operador A em Rn é


t
ortogonal a qualquer vetor que está na imagem de A .

7.5 Operadores simétricos


Diz-se que um operador A em Rn é simétrico se A = At . Logo, um operador
simétrico satisfaz a condição hv, A(w)i = hA(v), wi, para quaisquer dois vetores
v, w ∈ Rn . Segue dos comentários de seções anteriores que podemos reconhecer
matricialmente um operador simétrico vericando se sua matriz canônica é
simétrica, [A]t = [At ] = [A].
Ÿ7.5 Operadores simétricos 195

Exemplo 7.14. Seja A : R3 → R3 ,

A(x, y, z) = (7x − 2y, −2x + 6y − 2z, −2y + 5z).

Para vericar que hv, A(w)i = hA(v), wi para quaisquer vetores v, w ∈ R3 é


suciente uma vericação matricial:

7 −2
 
0
[A] =  −2 6 −2  = [A]t . 3
0 −2 5

A principal propriedade de um operador simétrico diz respeito aos seus


autovalores e autoespaços. O Teorema espectral, que será apresentado logo
abaixo, trata exatamente desta propriedade.
No capítulo anterior tomamos conhecimento que autovetores associados
a autovalores distintos são linearmente independentes, Lema 7.1, p. 188.
Quando o operador é simétrico podemos armar mais, eles são ortogonais.

Lema 7.2. Sejam A : Rn → Rn β = {v1 , v2 , . . . , vk }


um operador simétrico e
um conjunto de autovetores associados aos autovalores λ1 , λ2 , . . . , λk , respec-
tivamente. Se os autovalores são distintos dois a dois, então os vetores de β
são ortogonais dois a dois.

Prova Seja i 6= j . Observe a seguinte sequência de igualdades:

λi hui , uj i = hλi ui , uj i = hA(ui ), uj i = hui , A(uj )i = hui , λj uj i = λj hui , uj i.

Portanto, (λi − λj )hui , uj i = 0. Como λi 6= λj , segue que hui , uj i = 0. 2

Denição 7.4. Seja A : Rn → Rn um operador simétrico. Diz que α =


n
{v1 , v2 , . . . , vn }
é uma base espectral de R associada a A quando α é ortonor-
mal e vi são autovetores de A.

Vejamos o Teorema espectral no R2 .

Teorema 7.1. Se o operador linear A : R2 → R2 é simétrico então:


196 Operadores lineares Cap. 7

1. o polinômio característico de A possui 2 raízes reais, contando repetições;

2. existe uma base espectral para R2 associada a A.


Prova Todo operador simétrico em R2 é da forma A(x, y) = (ax + by, bx + cy),
pois sua matriz é simétrica,
 
a b
[A] = .
b c
1.) Calculando o polinômio característico de [A]:
 
λ − a −b
p(t) = det = λ2 − (a + c)λ + (ac − b2 ).
−b λ − c
O discriminante ∆ de p(λ) não é negativo,

∆ = (−a − c)2 − 4(ac − b2 ) = (a − c)2 + 4b2 ≥ 0,

Portanto, p(λ) admite duas raízes reais que serão distintas se, e somente se,
∆ > 0, e admite uma raiz com repetição 2 se, e somente se, ∆ = 0.
1o caso ∆ = 0.
Sendo assim, a = c e b = 0. Logo, [A] é uma matriz diagonal, a saber,
 
a 0
[A] = .
0 a
Portanto, A(x, y) = (ax, ay). Isto implica que qualquer vetor de R2 é um
autovetor associado ao autovalor λ = a. Logo, R2 = Vλ . Sendo assim, escolhi-
dos quaisquer dois vetores unitários mutuamente ortogonais, u1 e u2 , a base
ordenada α = {u1 , u2 } é base espectral.
2o caso ∆ > 0.
Nesse caso, teremos dois autovalores distintos, digamos λ1 e λ2 . Sejam
u1 e u2 dois autovetores unitários associados aos autovalores λ1 e λ2 , res-
pectivamente. Pelo Lema 7.1, o conjunto α = {u1 , u2 } ⊂ R2 é linearmente
independente, e pelo Lema 7.2, p .195, α é uma base espectral. 2
Ÿ7.5 Operadores simétricos 197

Exemplo 7.15. Se A : R2 → R2 , A(x, y) = (−2x + 6y, 6x − 7y), temos


 
−2 6
[A] = .
6 −7

Logo, A é um operador simétrico com polinômio característico


 
λ+2 −6
p(λ) = det = λ2 + 9λ − 22 = (λ + 11)(λ − 2),
−6 λ + 7

Determinemos os autoespaços associados aos autovalores. Resolvendo o sis-


tema linear     
λi + 2 −6 x 0
= ,
−6 λi + 7 y 0

para λ1 = −11 e λ2 = 2, obtemos Vλ1 = [[(2, −3)]] e Vλ2 = [[(3, 2)]]. Desde
que os autovalores são distintos, os vetores do autoespaço Vλ1 são ortogonais
aos vetores do autoespaço Vλ2 . Normalizando os geradores, obtemos uma base
espectral associada a A:
   
2 3 3 2
α= √ , −√ , √ ,√ . 3
13 13 13 13

A existência de uma base espectral associada a um operador linear simé-


trico, um dos importantes teoremas de Álgebra Linear, é verdadeira em qual-
quer dimensão. Entretanto, sua demonstração envolve argumentações que vão
muito além daquilo que é apresentado num curso introdutório. Enunciemos o
Teorema espectral em Rn .

Teorema 7.2. Se o operador linear A : Rn → Rn é simétrico, então:

1. o polinômio característico de A possui n raízes reais, contando repetições;

2. existe uma base espectral para Rn associada a A.


198 Operadores lineares Cap. 7

Exemplo 7.16. A matriz

1 −1 1
 

[A] =  −1 1 1 .
1 1 2

dene um operador simétrico A : R3 → R3 . O Teorema espectral garante


que A possui três autovalores reais (eventualemente com repetiçãoes) e que
existe três autovetores unitários associados (um para cada autovalor), que são
ortogonais dois a dois. Ao calcularmos as raízes do polinômio característico de
A obtemos os autovalores
√ √
λ1 = 2, λ2 = 1 + 3, e λ3 = 1 − 3.

Com um pouco de esforço o leitor pode determinar os seguintes autovetores


associados aos autovalores λ1 , λ2 e λ3 , respectivamente:
√ √ √ √
v1 = (−1, 1, 0); v2 = (−1 + 3, −1 + 3, 1); v3 = (−1 − 3, −1 − 3, 1).

Verica-se que eles são dois a dois ortogonais. Logo, β = {v1 , v2 , v3 } é uma
base de R3 . Para obter uma base espectral α basta normalizar os vetores,
 
1 1 1
α= v1 , v2 , v3 . 3
kv1 k kv2 k kv3 k

Um operador simétrico A : Rn → Rn é dito positivo (respec. negativo)


quando hv, A(v)i > 0, (respec. < 0) qualquer que seja o vetor não nulo v ∈ Rn .

Exercício 7.9. Mostre que um operador linear simétrico é positivo (repec.


negativo) se, e somente se, os autovalores são positivos (respec. negativos). 3

EXERCÍCIOS
1. Verique que o operador A : R2 → R2 é simétrico e determine uma base

espectral associada ao operador.


Ÿ7.5 Operadores simétricos 199

(a) A(x, y) = (10x + 6y, 6x + 10y). (c) A(x, y) = (6x − 2y, −2x + 6y).
(b) A(x, y) = (4x + 4y, 4x + 10y). (d) A(x, y) = (5x + 3y, 3x + 5y).

2. Verique quais dos operadores simétricos A : R2 → R2 é invertível e determine

uma base espectral associada ao operador inverso.

(a) A(x, y) = (10x + 6y, 6x + 10y). (c) A(x, y) = (6x − 2y, −2x + 6y).
(b) A(x, y) = (4x + 4y, 4x + 10y). (d) A(x, y) = (5x + 3y, 3x + 5y).

3. Verique que o operador A : R3 → R3 é simétrico e determine uma base

espectral associada a A.

(a) A(x, y, z) = (2z, −y, 2x). (c) A(x, y, z) = (x + z, −y, x + z).


(b) A(x, y, z) = (x + 3y, 3x + 9y, 0). (d) A(x, y, z) = (−7x, −7y, 2x).

4. Existe operador simétrico A : R2 → R2 cumprindo as condição a seguir? Se

existir, explicite o operador.

(a) A(1, 2) = 3(1, 2) e A(1, 1) = −2(1, 1).


(b) A(1, −1) = (−1, 1) e A(2, 2) = (6, 6)

5. Construa um operador simétrico A : R2 → R2 satisfazendo a condição pedida.

(a) A(−1, 2) = (2, 4) e A(2, 1) = (6, 3).


(b) A(3, 1) = (0, 0) e A(−1, 3) = (1, −3).
(c) A(1, 2) = (2, 4) e possua λ = −1 como um dos autovalores.

6. Determine os autovalores e autovetores de Id : Rn → Rn .

7. Seja A : R3 → R3 , A(v) = hv0 , viv0 , onde v0 = (−2, 1, 1).

(a) Mostre que o operador A é simétrico.

(b) Determine seus autoespaços.

8. Seja A : R3 → R3 , A(v) = hv0 , viv0 , onde v0 ∈ R3 .


200 Operadores lineares Cap. 7

(a) Mostre que o operador A é simétrico.

(b) Determine seus autoespaços.

B um operador linear em Rn . O polinômio característico do operador


9. Seja de
t
Gram A = B ◦ B são reais e não negativos. Mostre essa armação.

10. Seja A : Rn → Rn um operador simétrico invertível. Mostre as armações.

(a) A−1 é um operador simétrico.

(b) Se α é uma base espectral associada a A, então α é uma base associada

ao operador simétrico A
−1 .
8
Operadores ortogonais
Neste capítulo examinaremos uma classe importante de operadores no qual
o conceito de ortogonalidade de vetores está sempre presente. Como aplicação,
faremos a classicação dos movimentos rígidos do Rn .

8.1 Operadores ortogonais


Antes de tudo apresentemos um algoritmo relacionando produto de matri-
zes e produto interno que muito auxiliará o estudo que segue.

Proposição 8.1. Se [B] = [w1 , w2 , . . . , wn ] e [A] = [v1 , v2 , . . . , vn ] são matrizes


quadradas n × n, então

 
hw1 , v1 i hw1 , v2 i · · · hw1 , vn i
hw2 , v1 i hw2 , v2 i · · · hw2 , vn i
 
[B]t [A] =  .
 
 ··· ··· ··· ··· 
hwn , v1 i hwn , v2 i · · · hwn , vn i

Prova Denotemos [A] = [vij ], [B] = [wij ] e [B]t = [wij


t
]. Por denição de
transposta de uma matriz temos wij = wji .
t

A entrada cij da matriz [B]t [A] é obtida pelo produto interno da i−ésima

201
202 Operadores ortogonais Cap. 8

linha de [B]t pela j−ésima coluna de [A]. Calculemos:

t t t
cij = wi1 v1j + wi2 v2j + · · · + win vnj
= w1i v1j + w2i v2j + · · · + wni vnj
= hwi , vj i. 2

Nesse momento, é conveniente xar uma notação para a matriz identidade:


[Id] = [δij ], onde δij é o delta de Kronecker. Passemos ao tópico da seção.

Denição 8.1. Um operador linear U : Rn → Rn é ortogonal se U t = U −1 .

Tal denição é equivalente à condição, U t ◦ U = Id = U ◦ U t . Em termos


matriciais, podemos armar que U é um operador ortogonal se, e somente se,

[U ]t [U ] = [Id] = [U ] [U ]t .

Escrevamos [U ] = [U (e1 ), U (e2 ), . . . , U (en )]. Pelo visto na proposição acima,


como [U ]t [U ] = [δij ], temos

δij = hA(ei ), A(ej )i.

isto signica que β = {A(e1 , )A(e2 ), . . . , A(en )} é um conjunto constituído por


n vetores unitários do Rn e ortogonais dois a dois. Para futuras referências,
registraremos numa proposição esta caracterização de um operador ortogonal.

Proposição 8.2. Um operador linear U : Rn → Rn é ortogonal se, e somente


n
se, β = {U (e1 ), U (e2 ), . . . , U (en )} é uma base ontornormal de R .

A proposição nos indica como construir um operador ortogonal. Escolhida


uma base ortonormal β = {u1 , u2 , . . . , un } de Rn , denimos U : Rn → Rn ,
U (x1 , x2 , . . . , xn ) = x1 u1 + x2 u2 + · · · + xn un .

Exercício 8.1. Se U : Rn → Rn é um operador ortogonal, então det[U ] = 1.


Mostre esta armação. 3


Ÿ8.1 Operadores ortogonais 203

Exemplo 8.1. Segundo o Exercício 5.13, p. 142, os operadores ortogonais em


R são descritos, matricialmente, por uma das seguintes matrizes:
2

   
cos θ −sen θ cos θ sen θ
[U ] = ; [U ] = .
sen θ cos θ sen θ −cos θ

No mesmo exercício, construímos uma base ortonormal para o R3 , β =


{u1 , u2 , u3 }. A base construída dá origem a um operador ortogonal U em R3
cuja matriz é
 1 
−3 0 √4
18
[U ] = [u1 , u2 , u3 ] =  23 √12 √1  . 3
 
18
2 1 1
− 3 √2 − √18

Exercício 8.2. Sejam u e v vetores unitários e ortogonais de R3 . Considere o


operador U em R3 cuja matriz é [U ] = [u, v, v ∧ w]. Mostre que U é ortogonal e
que todo operador ortogonal de R3 tem sua matriz da forma [U ] = [u, v, u ∧ v]
ou [U ] = [u, v, −u ∧ v]. 3

Apresentemos uma caracterização de operadores ortogonais. Observe que


não é assumido que a função seja um operador linear.

Teorema 8.1. Seja U : Rn → Rn uma função. As seguintes armações são


equivalentes.

1. U preserva o produto interno.

2. U é um operador ortogonal.

Prova 1. ⇒ 2.) Assuma que U preserva o produto interno. Calculemos,

hU (ei ), U (ej )i = hei , ej i = δij .

Pela Proposição 5.5, p. 143, o conjunto β = {U (e1 ), U (e2 ), . . . , U (en )} é uma


base ortonormal de Rn .
204 Operadores ortogonais Cap. 8

Seja v = (x1 , x2 , . . . , xn ) ∈ Rn . Como β é uma base existem escalares


a1 , a2 , . . . , an tais que

U (x1 , x2 , . . . , xn ) = a1 U (e1 ) + a2 U (e2 ) + · · · + an U (en ).

Novamente, como U preserva o produto interno temos

xi = hv, ei i
= hU (v), U (ei )i
:0

 :0


= a1 hU 
(e
1 ),
U(ei )i

+ · · · + ai hU (ei ), U (ei )i + · · · + an hU 
(e
n ),
U(e

i )i
| {z }
1
= ai .

Sendo assim,

U (x1 , x2 , . . . , xn ) = x1 U (e1 ) + x2 U (e2 ) + · · · + xn U (en ).

Mas é assim que construímos operadores lineares. Pela Proposição 8.2, p. 202,
concluímos a demonstração da implicação.
2. ⇒ 1.) Assuma que U é um operador ortogonal.
Em essência, isto é a denição de operador ortogonal, pois

hv, wi = hv, Id(w)i = hv, U t ◦ U (w)i = hU (v), U (w)i. 3

EXERCÍCIOS
 √ 
1 3
1. Fixe o vetor unitário u do R2 , u = ,
2 2 .

(a) Construa um operador ortogonal U1 em R2 tal que [U1 ] = [u, v] (explicite


um vetor v ). Calcule seu determinante e seu polinômio característico.

Caso ele admita autovalores, determine os autoespaços.

(b) Determine um outro operador ortogonal U2 tal que [U2 ] = [u, w]. Cal-

cule seu determinante e seu polinômio característico. Caso ele admita

autovalores, determine os autoespaços.


Ÿ8.2 Propriedades 205

2. Identique todos os operadores ortogonais U do R2 que admitem autovalores.

3. Verique quais dos operadores lineares em R3 são ortogonais.


 
(a) A(x, y, z) = √1 x + √1 z, y, − √1 x + √1 z .
2 2 2 2
(b) A(x, y, z) = (x, −y, −z).
(c) A(x, y, z) = (y, z, x).
 
(d) U (x, y, z) = √13 x − √26 y, √13 x + √1 y
6
− √1 z, √1 x
2 3
+ √1 y
6
+ √1 z .
2

4. Mostre que a composta de dois operadores ortogonais em Rn é ortogonal.

8.2 Propriedades
Examinaremos a relação entre operadores ortogonais e conceitos geomé-
tricos. Mais precisamente, um operador ortogonal em R2 ou R3 preserva as
medidas denidas anteriormente: medidas de comprimento, área, volume e
ângulo. Estas ideias estão implícitas nas caracterizações de tais operadores.
No Teorema 8.1, p. 203, não foi assumido que a função era um operador.
Mesmo assim, foi possível mostrar que uma função preserva o produto interno
se, e somente se, a função é um operador ortogonal. Para outras equivalências
será necessário assumir a linearidade.
Proposição 8.3. Seja U : Rn → Rn uma função. As seguintes armações são
equivalentes.

1. U é um operador ortogonal.

2. U é um operador que aplica bases ortonormais em bases ortonormais.

Prova 1. ⇒ 2.) Vamos assumir que U é operador ortogonal.


Sendo assim U preserva produto interno. Seja β = {u1 , . . . , un } uma base
ortonormal do Rn . Mostremos que U (β) = {U (u1 ), . . . , U (un )} é um conjunto
de vetores unitários dois a dois ortogonais. Calculemos,
hU (ui ), U (uj )i = hui , uj i = δij ,
206 Operadores ortogonais Cap. 8

onde δij é o delta de Kronecker. Pela Proposição 5.5, p. 143, U (β) é uma base
ortonormal de Rn .
2. ⇒ 1.) Assuma que o operador U transforma bases ortonormais em bases
ortonormais.
Em particular, U transforma a base canônica Cn numa base ortonormal
U (Cn ). Pela Proposição 8.2, p. 202, U é um operador ortogonal. 2
Proposição 8.4. Seja U : Rn → Rn uma função. As seguintes armações são
equivalentes.

1. U é um operador ortogonal.

2. U é um operador que preserva a norma.

Prova 1. ⇒ 2.) Assuma que U é ortogonal. Para todo v ∈ Rn temos

kU (v)k2 = hU (v), U (v)i = hv, U t ◦ U (v)i = hv, vi = kvk2 .

Como a norma de vetor é não negativa, segue que kU (v)k = kvk.


2. ⇒ 1.) Assuma que U preserve a norma. Sejam v, w ∈ Rn . Calculemos

kv − wk2 = hv − w, v − wi
= kvk2 − 2hv, wi + kwk2 .

Por outro lado,

kU (v − w)k2 = kU (v) − U (w)k2


= hU (v) − U (w), U (v) − U (w)i
= kU (v)k2 − 2hU (v), U (w)i + kU (w)k2 .

Por hipótese, U é um operador linear que preserva a norma, então kU (v)k =


kvk, kU (w)k = k(w)k e kU (v − w)k2 = kv − wk2 . Daí segue que

hU (v), U (w)i = hv, wi.

Como U preserva produto interno, pelo Teorema 8.1, ele é ortogonal. 2


Ÿ8.2 Propriedades 207

Exemplo 8.2. Na proposição acima é necessária a hipótese  U : Rn → Rn


é um operador linear. Sem esta hipótese de linearidade existem contra-
exemplos. Considere a aplicação

U : R2 → R2 , U (v) = kvke1 .

Esta função preserva norma, mas não é um operador ortogonal. 3

Proposição 8.5. Se U : Rn → Rn um operador ortogonal, então:

1. U preserva medidas de ângulos entre vetores;

2. U preserva determinantes, a menos de sinal.

Prova 1.) Recordamos que indicamos a medida de ângulos entre vetores não
nulos v e w por θ(v, w). Neste caso, como U é invertível, U (v) e U (w) são
também vetores não nulos. Sendo assim,

hv, wi hU (v), U (w)i


cos θ(v, w) = e cos θ (U (v), U (w)) = .
kvk kwk kU (v)k kU (w)k

Por hipótese, U é ortogonal, portanto U preserva produto interno e preserva


norma. Logo, cos θ(v, w) = cos θ(U (v), U (w)). Por denição, a medida do
ângulo entre dois vetores é um número no intervalo [0, π] e o cosseno é injetivo
nesse intervalo. Daí concluímos que θ(v, w) = θ(U (v), U (w)).
2.) Sabemos que det[U ]t = det[U ]. Sendo assim,

1 = det[Id] = det [U ]t [U ] = det[U ]t det[U ] = (det[U ])2 .




Logo, det[U ] = 1. Para nalizar, lançamos mão da Proposição 6.4, p. 160,



det[U (v1 ), . . . , U (vn )] = det[U ] det[v1 , . . . , vn ]
2

= det[v1 , v2 , . . . , vn ] .
208 Operadores ortogonais Cap. 8

Exemplo 8.3. As duas propriedades citadas na proposição acima não carac-


terizam operadores ortogonais. Um operador linear que preserve medida de
ângulo não necessariamente é ortogonal. Por exemplo, seja λ ∈
/ {0, 1}. Consi-
dere o operador A : R → R , A(v) = λv . Se v e w não são nulos, temos
2 n

hλv, λwi hv, wi


cos θ (λv, λw) = = = cos θ(v, w).
kλvk kλwk kvk kwk
Claro, A não é ortogonal, pois não preserva norma.
Também um operador linear que preserve determinante não necessaria-
mente é ortogonal. Seja A : R2 → R2 , A(x, y) = (x + y, y). É imediato
vericar que det[A(u1 ), A(u2 )] = 1 = det[u1 , u2 ]. Mas A não é ortogonal, pois

não preserva norma, kA(e1 )k = 2 6= ke1 k. 3

Apresentemos um descrição sucinta da transformação executada por um


operador ortogonal U no espaço R3 . Para isso, introduzimos o conceito de
subespaço invariante.

Denição 8.2. Um subespaço Γ ⊂ Rn é invariante por um operador linear


n n
A:R →R quando A(Γ) ⊂ Γ.

Quando A é invertível, vale a igualdade A(Γ) = Γ. Observe que não é


exigido que os vetores do subespaço invariante sejam xos pelo operador.

Exercício 8.3. Mostre que um autoespaço Vλ de um operador A : Rn → Rn


é um subespaço invariante por A. 3

Exemplo 8.4. Examinemos o operador U : R3 → R3 , U (x, y, z) = (z, x, y).


Esse operador é ortogonal, pois os vetores colunas da sua matriz são vetores
unitários e ortogonais dois a dois, [U ] = [U (e1 ), U (e2 ), U (e3 )] = [e2 , e3 , e1 ]. O
seu polinômio característico tem apenas um autovalor, pois p(λ) = λ3 − 1 =
(λ − 1)(λ2 + λ + 1). Um cálculo simples nos dá como autoespaço associ-
ado o subespaço unidimencional Vλ = [[(1, 1, 1)]]. Consideremos o subes-
paço bidimensional Γ constituído por todos vetores ortogonais a η = (1, 1, 1):
Γ = {v ∈ R3 ; hv, ηi = 0}.
Ÿ8.2 Propriedades 209

U(h)=h

U(v)

Para mostrar que Γ é invariante por U é suciente mostrar que U (v) ∈ Γ para
todo v ∈ Γ. Lembrando-se que U (η) = η e que U preserva produto interno,
calculemos: hU (v), ηi = hU (v), U (η)i = hv, ηi = 0. 3

Exercício 8.4. Seja U : R2n+1 → R2n+1 um operador ortogonal. Mostre que:

1. existe um autoespaço Vλ associado a um autovalor λ, com |λ| = 1;

2. existe um subespaço Γ invariante por U e ortogonal a Vλ . 3

EXERCÍCIOS
1. Verique que U : R3 → R3 é um operador ortogonal. Determine um autoes-
paço unidimencional Vλ e um subespaço bidimensional Γ invariante por U .

 
(a) U (x, y, z) = √1 x + √1 z, y, − √1 x + √1 z .
2 2 2 2

(b) U (x, y, z) = (y, x, z).

2. Todo operador ortogonal U : Rn → Rn , onde n é um natural ímpar, tem um

autovalor λ com |λ| = 1. Mostre esta armação.

3. Construa um operador ortogonal U : R3 → R3 que transforma o subespaço


Γ = {(x, y, z) ∈ R3 ; x − 2y + 2z = 0} no subespaço Π = [[(1, 0, 1), (0, 1, 2)]].

4. A esfera unitária canônica em R3 é o subconjunto denotado e denido por

S2 = {v ∈ R3 ; kvk = 1}. Seja U um operador ortogonal em R3 . Mostre que:


210 Operadores ortogonais Cap. 8

(a) a aplicação U0 : S2 → S2 , U0 (v) = U (v), está bem denida;

(b) U0 : S2 → S2 é injetora e sobrejetora;

(c) existe um vetor v ∈ S2 tal que U0 (v) = v ou tal que U0 (v) = −v .

5. Seja A : R3 → R3 , A(x, y, z) = (x − 2z, 2y, −x + z). Mostre que V = [[e1 , e2 ]]


é invariante por A.

6. Fixado u = (1, 1, 1) ∈ R3 . Seja A : R3 → R2 , A(v) = v − 2 hv,ui


kuk2
v. Mostre que:

(a) A é um operador; (b) A ◦ A = Id; (c) A é ortogonal.

8.3 Classicação das isometrias


Uma distância num conjunto S é uma função d : S × S → [0, +∞) satis-
fazendo as seguintes condições para quaisquer elementos a, b e c de S :
d1 d(a, b) ≥ 0 e d(a, b) = 0 ⇔ a = b; ( positiva denida)

d2 d(a, b) = d(b, a); (simétrica)

d3 d(a, b) ≤ d(a, c) + d(c, b). (desigualdade triangular)


Um conjunto S no qual está denida uma distância d é chamado espaço mé-
trico. Uma função bijetiva F : S → S no espaço métrico S é uma isometria se
preserva distâncias, ou seja, para quaisquer a e b em S cumpre-se
d(F (a), F (b)) = d(a, b),
Equipamos Rn com a distância canônica, qual seja, aquela que provém da
norma: d : Rn × Rn → [0, +∞), d(v, w) = kw − vk. De fato, d é uma distância.
As condições d1 e d2 são facilmente vericadas. A desigualdade triangular para
a norma, ver Seção 4.2, p. 85, implica na desigualdade triangular,
d(v, w) = kw − vk
= k(w − u) + (u − v)k
≤ kw − uk + ku − vk
= d(v, u) + d(u, w).
Ÿ8.3 Classicação das isometrias 211

Exemplo 8.5. Uma função A : Rn → Rn que preserva norma não necessari-


amente preserva a distância d(v, w) = kw − vk, ou seja, não necessariamente
é uma isometria. A função A : Rn → Rn , A(v) = kvke1 preserva norma, mas
não preserva distância, pois se v e w são vetores distintos e kvk = kwk, temos
d(A(v), A(w)) = 0 e d(v, w) 6= 0. 3

É fácil exibir isometrias1 em Rn , relativas à métrica canônica. Uma classe


de isometrias é formada pelas translações por v0 ∈ Rn , isto é, por funções do
tipo T : Rn → Rn , T (v) = v + v0 .

Exercício 8.5. Mostre as armações sobre translações em Rn .

1. Uma translação por v0 6= o não é um operador linear.

2. Uma translação por v0 é invertível e a inversa é a translação por −v0 . 2

Uma segunda classe de isometria do Rn é formada pelos operadores or-


togonais. Como sabemos, Proposição 8.4, p. 206, um operador ortogonal U
preserva norma. Sendo assim, para quaisquer v, w ∈ Rn temos

d(U (v), U (w)) = kU (w) − U (v)k = kU (w − v)k = kw − vk = d(v, w).

Exercício 8.6. Mostre que a composta de uma translação com um operador


ortogonal é uma isometria. 2

O objetivo dessa seção é demonstrar a recíproca do resultado enunciado no


exercício acima. O teorema a seguir é conhecido por Teorema da classicação
das isometrias.

Teorema 8.2. SejaF : Rn → Rn um aplicação. F é uma isometria se,


e somente se, F = T ◦ U onde T e U são uma translação e um operador
n
ortogonal do R , respectivamente.

1 Isometrias do Rn também são chamadas movimentos rígidos.


212 Operadores ortogonais Cap. 8

Prova ⇒) Suponha que F é uma isometria do Rn .


Dena a aplicação U = T −1 ◦ F , onde T é a translação T (v) = v − F (o).
Sendo assim, U (o) = o. A aplicação U também é uma isometria, pois para
quaisquer v e w em Rn ,

kU (v) − U (w)k = kF (v) − F (o) − F (w) + F (o)k


= d(F (w), F (v))
= d(w, v)
= kv − wk.

Isso signica que d(U (v), U (w)) = d(w, v), como desejávamos vericar. Em
particular, temos kvk = d(v, o) = d(U (v), U (0)) = kU (v)k, portanto, U pre-
serva a norma.
A igualdade kU (v) − U (w)k = kv − wk mostrada acima, implica que U
preserva o produto interno. Se não vejamos. Calculemos:

kw − vk2 = hw − v, w − vi
= kwk2 − 2hv, wi + kvk2 .

Por outro lado,

kU (w) − U (v)k2 = hU (w) − U (v), U (w) − U (v)i


= kU (w)k2 − 2hU (v), U (w)i + kU (v)k2 .

Desde que U preserva a norma, temos kU (v)k = kvk, kU (w)k = kwk e

kU (v) − U (w)k2 = kv − wk2 .

Daí segue a igualdade hU (v), U (w)i = hv, wi, isto é, U preserva o produto
interno. Pela Teorema 8.1, p. 203, a aplicação U é um operador ortogonal.
Portanto, F = T ◦ U , onde T é uma translação e U um operador ortogonal.
⇐) Exercício. 2
Ÿ8.4 Operadores normais 213

8.4 Operadores normais


Diz-se que um operador linear A : Rn → Rn é normal se goza da seguinte
propriedade para quaisquer u e v em Rn :

hA(v) , A(w)i = hAt (v), At (w)i.

Pela denição de operador transposto, podemos reescrever a igualdade na


forma equivalente
hv , At ◦ A(w)i = hv, A ◦ At (w)i,
para quaisquer v, w ∈ Rn . Para identicar matricialmente este tipo de opera-
dor relacionemos as matrizes

[A ◦ At ] = [aij ] e [At ◦ A] = [bij ].

Como sabemos

bij = hei , At ◦ A(ej )i = hei , A ◦ At (ej )i = aij .

Logo, as matrizes [At ][A] e [A][At ] são iguais, fato equivalente aos operadores
A ◦ At e At ◦ A serem iguais. Fica assim mostrada a proposição a seguir.

Proposição 8.6. Um operador A : Rn → Rn é normal se, e somente se,


t t
A ◦ A = A ◦ A.

Exemplo 8.6. Para vericar se A : R2 → R2 , A(x, y) = (2x − 2y, 2x + 2y), é


normal, é suciente vericar a relação de normalidade matricialmente. Como
 
2 −2
[A] = ,
2 2

um cálculo rotineiro nos dá [A] [A]t = 4[Id] = [A]t [A]. 3

Exercício 8.7. Mostre que se um operador linear A : Rn → Rn é normal e


invertível, então o seu operador inverso é normal. 3
214 Operadores ortogonais Cap. 8

São três os principais tipos de operadores normais A : Rn → Rn : simé-


tricos, ortogonais e antisimétrico. Diz-se que um operador A : Rn → Rn é
antisimétrico quando At = −A. É imediato vericar que A ◦ A = At ◦ A.

EXERCÍCIOS
1. Quais operadores em R2 cujas matrizes são descritas a seguir são normais?
" # " # " #
0 3 cos t −sen t 3 −1
(a) [A] = . (b) [B] = . (c) [C] = .
−3 0 sen t cos t −1 2

2. Determine se o operador linear A : R3 → R3 é normal.

(a) A(x, y, z) = (−2y + 3z, 2x + z, −3x − y).


(b) A(x, y, z) = (z, y, x).
(c) A(x, y, z) = (x + y + z, x − y + z, x − 2z).

3. Considere o operador linear A : R3 → R3 , A(x, y, z) = (x − z, y, x + z).

(a) Verique que A é normal e invertível.

(b) Calcule o operador inverso e verique que ele é normal.

4. Se A : Rn → Rn é um operador normal, mostre que N uc(A) = N uc(At ).

5. Existem vários modos de produzir operadores lineares simétricos A : Rn → Rn .


Mostre alguns deles.

(a) B = A + At é simétrico.

(b) B =A◦ At e C = At ◦ A (são os operadores de Gram associados a A).

6. Mostre as armações sobre um operador antisimétrico A em Rn .

(a) A é normal.

(b) Se n é ímpar, então A não é invertível.

(c) As entradas da diagonal principal de [A] é zero.

(d) Se B n
é um operador linear em R então A = B − Bt é anti-simétrico.

7. Existem operadores antisimétricos invertíveis em R2 ?


9
Representação matricial
Sabemos construir uma matriz de transformação linear utilizando as bases
canônicas. Esta construção será generalizada. A matriz que será construída
depende das bases xadas no domínio e contradomínio. Algumas vezes, esta
matriz tem mais utilidade do que aquela que trabalhamos até o momento,
pois pode explicitar informações sobre a transformação linear que não são
perceptíveis com a matriz canônica.

9.1 Representação de vetores


Seja α = {v1 , v2 , . . . , vn } uma base ordenada de Rn . Como sabemos, existe
uma única coleção de escalares a1 , a2 , . . . , an tais que
v = a1 v1 + a2 v2 + · · · + an vn .
Os coecientes ai 's são chamados coordenadas do vetor na base α. É conveni-
ente guardar tal coleção na forma matricial
 
a1
 a2 
[v]α =  .  .
 
.
 . 
an
A matriz [v]α será chamada representação matricial do vetor na base α ou
matriz das coordenadas do vetor na base α.

215
216 Representação matricial Cap. 9

Exemplo 9.1. Calculemos a representação matricial do vetor v0 = (−3, 2) em


duas bases diferentes do R2 . Na base canônica não há diculdade alguma,
 
−3
[v0 ]C2 = .
2

Consideremos a base ordenada α = {v1 , v2 }, onde v1 = (2, 3) e v2 = (1, 2).


De fato, α é uma base, pois det[v1 , v2 ] 6= 0. A busca pelos coecientes da
combinação linear v0 = a1 v1 + a2 v2 , nos leva ao sistema
    
2 1 a1 −3
= .
3 2 a2 2

Daí segue que a1 = −8 e a2 = 13. Logo,


 
−8
[v0 ]α = . 3
13

Ressaltamos que a notação só faz sentido conhecendo-se a base ordenada


com a qual estamos trabalhando. Ao trocarmos a ordem dos elementos da
base, também trocamos a ordem das entradas de [v]α .

Exemplo 9.2. Seja β = {v1 , v2 , v3 } a base ordenada do R3 , onde

v1 = (1, −1, 1), v2 = (0, 2, 1) e v3 = (1, 0, 1).

Sabendo-se a representação matricial de um vetor v nessa base,

−3
 

[v]β =  2  ,
0

recuperamos o vetor pela combinação linear v = −3v1 +2v2 +0v3 = (−3, 7, −1).
Um fato deve ser ressaltado. Como β é uma base, somente esse vetor tem essas
coordenadas e elas são as únicas coordenadas do vetor nessa base. Portanto,
v 6= w se, e somente se [v]β 6= [w]β .
Ÿ9.1 Representação de vetores 217

Caso a base ordenada do R3 seja α = {u1 , u2 , u3 }, onde

u1 = (1, 2, 0), u2 = (−1, 2, 1) e u3 = (1, 2, 1),

a mesma matriz
−3
 

[v]α =  2  ,
0
representa outro vetor: v = −3u1 + 2u2 + 0u3 = (−5, −2, 2). 3

Exercício 9.1. Seja α uma base ordenada do Rn . Mostre que

[v + λw]α = [v]α + λ[w]α

para quaisquer v, w ∈ Rn e λ ∈ R. 2

EXERCÍCIOS
1. Sejam α = {v1 , v2 } e β = {w1 , w2 } bases ordenadas de R2 , onde

v1 = (10, 3), v2 = (7, 2), w1 = (3, 1) e w2 = (2, 1).

(a) Mostre que α e β são bases de R2 .


(b) Determine a representação matricial de v ∈ R2 em cada base.

i. v = (10, 3). iii. v = (10, 4).


ii. v = (0, 1). iv. v = (−4, 2).

2. Sejam α = {v1 , v2 , v3 } e β = {w1 , w2 , w3 } bases ordenadas de R3 , onde

v1 = (1, 0, 3), v2 = (0, 1, 2), v3 = (0, 0, 1),

w1 = (3, 1, 1), w2 = (0, 0, 1) e w3 = (2, 1, 1).

(a) Mostre que α e β são bases de R3 .


(b) Determine a representação matricial de v ∈ R3 em cada base.
218 Representação matricial Cap. 9

i. v = (1, 0, 3). iii. v = (1, 1, 3).


ii. v = (0, 1, 0). iv. v = (0, 2, 1).

3. Verique queα = {v1 , v2 }, onde v1 = (3, 4) e v2 = (3, 2), é uma base ordenada
2
de R e calcule o vetor cuja representação matricial é a indicada.

" # " #
0 −2
(a) [v]α = . (c) [v]α = .
1 3
" # " #
1 1
(b) [v]α = (d) [v]α = .
0 1

4. Considere a base ordenada α = {w1 , w2 } de R2 onde w1 = (1, 1) e w2 = (−1, 1).


Calcule o vetor v ∈ R2 cuja representação matricial em relação a essa base seja

a indicada no exercício anterior.

9.2 Representação de transformações


Fixemos uma notação que simplicará a redação e deixará a leitura mais
amena. O registro Rnα signicará o espaço vetorial Rn no qual foi xado uma
base ordenada que estamos denotando por α.
Seja A : Rm α → Rβ uma transformação linear. Se α = {v1 , v2 . . . , vm } e
n

β = {w1 , w2 , . . . , wn }, para cada vj ∈ α, existem n escalares a1j , a2j , . . . , anj


tais que
A(vj ) = a1j w1 + a2j w2 + · · · + anj wn .

Seguindo a notação da seção anterior, registramos esse fato como


 
a1j
 a2j 
[A(vj )]β =  .. .
 
 . 
anj
Ÿ9.2 Representação de transformações 219

A representação matricial de A relativa às bases ordenadas α e β é a matriz


n × m denotada por [A]αβ e denida como
 
a11 a12 · · · a1m
 a21 a22 · · · a2m 
[A]αβ =  .. .. .. .
 
 . . . 
an1 an2 · · · anm

Algumas vezes, registraremos esta representação por

[A]αβ = [A(v1 )]β , [A(v2 )]β , . . . , [A(vn )]β .


 

Com isso, indicamos que a j−ésima coluna de [A]αβ é consituída pelas entradas
da matriz coluna [A(vj )]β . Esta matriz guarda as informações sobre a trans-
formação linear. Conhecidas as bases ordenadas e a representação matricial
[A]αβ , recuperamos a transformação linear pelas avaliações

A(vj ) = a1j w1 + a2j wj + · · · + amj wj .

Como sabemos, A ca determinada conhecendo-se os valores nos vetores de


uma base e, essencialmente, estes valores estão registrados nas colunas da
matriz, ver Seção 7.2, p. 178. Observamos que a representação matricial
depende das bases e das escolhas das ordens nas bases.

Exemplo 9.3. Determinemos a representação matricial de A : R3C3 → R2C2 ,

A(x, y, z) = (x − 2y, 2x + 3y − z).

Como são as bases canônicas, a representação é aquela que conhecemos,


 
C2 1 −2 0
[A]C3 = [A] = .
2 3 −1

Para enfatizar a diferença, vejamos a representação matricial da mesma


transformação linear A : R3C3 → R2β , onde β = {(1, 1), (0, 1)}. Para isto,
220 Representação matricial Cap. 9

precisamos das avaliações,



 A(1, 0, 0) = ( 1, 2) = 1(1, 1) + 1(0, 1)
A(0, 1, 0) = (−2, 3) = −2(1, 1) + 5(0, 1) .
A(0, 0, 1) = (0, −1) = 0(1, 1) − 1(0, 1)

Obtemos também uma matriz 2 × 3 mas com entradas diferentes,


 
C 1 −2 0
[A]β = ,
1 5 −1

Para nalizar as comparações, calculemos a representação de A : R3α → R2β


onde α = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} e β está descrita acima. Como sempre,
precisamos das informações,

 A(1, 1, 1) = (−1, 4) = −1(1, 1) + 5(0, 1)
A(0, 1, 1) = (−2, 2) = −2(1, 1) + 4(0, 1) .
A(0, 0, 1) = (0, −1) = 0(1, 1) − 1(0, 1)

Das avaliações obtemos


 
−1 −2 0
[A]αβ = . 3
5 4 −1

Exercício 9.2. Mostre que se A, B : Rm α → Rβ são duas transformações


n

lineares e λ é um escalar, então [A + λB]αβ = [A]αβ + λ[B]αβ . 3

EXERCÍCIOS
1. Calcule a representação matricial do operador A : R2α → R2C2 , sabendo-se que

α = {v1 , v2 }, onde v1 = (1, 1) e v2 = (2, 3).

(a) A(x, y) = (−y, x). (d) A(x, y) = (x + y, 2x + 3y).


(b) Id(x, y) = (x, y). (e) A(x, y) = (2x, 0).
(c) A(x, y) = (x, x + y). (f ) A(x, y) = (x, −y).
Ÿ9.2 Representação de transformações 221

2. Calcule a representação matricial do operador A : R2α → R2β , onde α = {v1 , v2 }


e β = {w1 , w2 }. Assuma que v1 = (1, 1), v2 = (2, 3), w1 = (1, 2) e w2 = (2, 5).

(a) A(x, y) = (−y, x). (d) A(x, y) = (x + y, 2x + 3y).


(b) Id(x, y) = (x, y). (e) A(x, y) = (2x, 0).
(c) A(x, y) = (x, x + y). (f ) A(x, y) = (x, −y).

3. Calcule a representação matricial da transformação linear A : R2 → R3 ,


A(x, y) = (x + 2y, y, 2x − 3y), nas bases indicadas.

(a) Da base canônica para a base canônica.

(b) Da base canônica para γ = {(1, 0, 2), (2, 1, −3), (0, 0, 1)}.
(c) De β = {(1, 1), (1, −1)} para a base a base canônica.

(d) De β = {(1, 1), (1, −1)} para γ.

4. Descreva a representação matricial da identidade Id : R3 → R3 :

(a) de C3 para α = {e2 , e3 , e1 } nesta ordem de apresentação;

(b) da base α para a base canônica.

(c) Calcule o produto matricial [Id]αC2 [Id]Cα2 .

5. Considere a base β = {v1 , v2 , v3 } do R3 , onde v1 = (1, 1, 1), v2 = (1, 0, −1)


e v3 = (0, 1, 1). Seja A : R3 → R3 , A(v) = a1 v1 , se v = a1 v1 + a2 v2 + a3 v3 .
Calcule as representações matriciais:

(a) [A]βC ; (b) [A]ββ ; (c) [A]Cβ ; (d) [A]CC .

6. Considere a base ordenada β de R3 descrita no exercício anterior. Calcule as

seguintes representações da homotetia A : R3 → R3 , A(v) = 3v .

(a) [A]βC3 ; (b) [A]ββ ; (c) [A]Cβ3 ; (d) [A]CC33 .

7. Sejam A : R3 → R3 um operador e α = {v1 , v2 , v3 } uma base ordenada desse

espaço. Descreva a representação


α
matricial [A]C .
3
222 Representação matricial Cap. 9

8. Determine a representação matricial de um operador A : Rnα → Rnβ sabendo-se


que A é invertível e β = A(α). (A invertibilidade garante que β é uma base).

9. Explicite os operadores A : R2C2 → R2α e B : R2C2 → R2β conhecendo-se:

" # " #
C 3 4 C2 3 4
(a) [A]α2 = ; (b) [B]β = ;
2 3 2 3

(c) α = {v1 , v2 }, onde v1 = (2, 1) e v2 = (1, 1);


(d) β = {w1 , w2 }, onde w1 = (3, 4) e w2 = (1, 2).

9.3 Algoritmos
Apresentemos a primeira proposição relaciona às representações matriciais.

Proposição 9.1. Se A : Rm n
α → Rβ é uma trasformação linear, então

[A(v)]β = [A]αβ [v]α .

Prova Sejam α = {v1 , v2 , . . . , vm }, β = {w1 , w2 , . . . , wn } e v ∈ Rm . Diga-


mos que
     
c1 a11 a12 · · · a1m b1
 c2   a21 a22 · · · a2m   b2 
[A(v)]β =  .. , [A]αβ = .. .. .. e [v]α =  .. .
     
. . . . .

     
cn an1 an2 · · · anm bm

Por denição,
A(vj ) = a1j w1 + a2j w2 + · · · + anj wv .

Portanto, se
v = b1 v1 + b2 v2 + · · · + bm vm
Ÿ9.3 Algoritmos 223

por linearidade de A temos

A(v) = b1 A(v1 ) + b2 A(v2 ) + · · · + bm A(vm )


Xm
= b1 a1j w1 + b2 a2j w2 + · · · + bn anj wn
j=1
m
! m
! m
!
X X X
= b1 a1j w1 + b2 a2j w2 + · · · + bn anj wn .
j=1 j=1 j=1

ou seja, a entrada ci da matriz de [A(v)]β é o produto da i−ésima linha de


[A]αβ com a matriz coluna [v]α . Isto signica que [A(v)]β = [A]αβ [v]α . 2

Exercício 9.3. Mostre que se Id : Rnα → Rnα , então [Id]αα = [Id]. 3

O próximo resultado é uma generalização da Proposição 6.6, p. 169, ele


relaciona a composta de transformações lineares com o produto matricial, um
resultado crucial para o desenvolvimento da teoria de representação matricial.
Esquematicamente estudaremos a representação da seguinte composição:
A / Rn B /
Rm 8 Rγ .
k
α β

B◦A

Teorema 9.1. Sejam A : Rm n n k


α → Rβ e B : Rβ → Rγ transformações lineares.
A matriz da composta B ◦ A : Rm k
α → Rγ é o produto matricial

[B ◦ A]αγ = [B]βγ [A]αβ .

Prova Seja v ∈ Rm
α. Por denição de composta temos B ◦ A(v) = B(A(v)) e
pela proposição anterior, podemos escrever

[B ◦ A]αγ [v]α = [B]βγ [A(v)]β .

Novamente, pela proposição anterior, chegamos à identidade matricial

[B ◦ A]αγ [v]α = [B]βγ [A]αβ [v]α .


224 Representação matricial Cap. 9

Mas esta identidade é verdadeira para toda matriz coluna [v]α , logo,

[B ◦ A]αγ = [B]βγ [A]αβ .

Ver Exercício 2, p. 33. 2


A teoria sobre representação matricial apresentada até o momento é bas-
tante geral, mas na maioria das aplicações, os problemas envolvidos dizem
respeito a operadores lineares. Por isso, a partir desse momento nos direcio-
naremos para representações matriciais de operadores. Muitos dos resultados
são generalizações de outros já vistos anteriormente.

Corolário 9.1. Seja A : Rnα → Rnβ um operador linear. A é invertível se, e


somente se, [A]αβ é uma matriz invertível. Sendo assim,

−1
[A−1 ]βα = [A]αβ .

Prova ⇒) Suponha que o operador A seja invertível.


Considere a composição A ◦ A−1 = Id, esquematicamente,

A−1 / A /
Rnβ Rnα n
7 Rβ ,

A◦A−1 =Id

Pelo teorema acima, temos

[A]αβ [A−1 ]βα = [Id]αα = [Id].

Isto monstra que a matriz [A]αβ tem inversa à direita, fato que garante que ela
−1
é invertível e que [A]αβ = [A−1 ]βα .
⇐) Assuma que a matriz [A]αβ seja invertível.
Digamos que α = {v1 , v2 , . . . , vn } e β = {w1 , w2 , . . . , wn } sejam as bases
−1
ordenadas e que [A]αβ = [bij ]. Como sabemos, existe um único operador linear
B : Rnβ → Rnα tal que

B(wj ) = b1j v1 + b2j v2 + · · · + bnj vn ,


Ÿ9.3 Algoritmos 225

−1
ver Seção 7.2, p. 178. Por construção, temos [B]βα = [A]αβ . Considere a
composição B ◦ A, esquematicamente,
A / B /
Rnα Rnβ 8 Rnα ,
B◦A

Pelo teorema anterior temos


−1
[B ◦ A]αα = [B]βα [A]αβ = [A]αβ [A]αβ = [Id].

Portanto, B é a inversa de A à esquerda. Isto é suciente para armar que A


é invertível e que B = A−1 . 2

EXERCÍCIOS
1. Sejam A, B : Rn → Rn dois operadores lineares e α e β duas bases ordenadas
n
de R . Responda quais das notações abaixo são válidas e quando for válida

escreva a matriz da composta A ◦ B.

(a) [A]αα [B]ββ . (c) [A]αβ [B]ββ . (e) [A]αβ [B]βα . (g) [A]αα [B]αα .
(b) [A]βα [B]ββ . (d) [A]βα [B]αβ . (f ) [A]αβ [B]αβ . (h) [A]ββ [B]ββ .

2. Fixemos o operador linear A : R3α → R3α com representação matricial

 
1 1 0
[A]αα =  0 1 1  .
 
1 2 1

e a base α{v1 , v2 , v3 }, onde v1 = (1, 1, 0), v2 = (2, 0, 3) e v3 = (1, 0, 1).

(a) Sabendo-se a representação matricial do vetor v ∈ R3α , calcule a repre-

sentação matricial [A(v)]α .


    
2 1 0
i. [u]α =  0 . ii. [v]α =  0 . iii. [w]α =  1 .
     
1 0 −1
226 Representação matricial Cap. 9

(b) Calcule os vetores A(u), A(v) e A(w).


(c) Mostre que A não é invertível e descreva uma base para o núcleo.

(d) Calcule [A]αC3 e [A ◦ A]αα .

3. Seja A : Rnβ → Rnβ um operador linear.

2
(a) Justique a igualdade [A2 ]ββ = [A]ββ .

k
(b) É verdade que [Ak ]ββ = [A]ββ para todo inteiro k ≥ 1?

4. Considere a identidade Id : R3 → R3 e a base β = {v1 , v2 , v3 } constituí da

pelos vetores v1 = (1, 0, 1), v2 = (1, 1, 1) e v3 = (1, −1, 0). Calcule:

(a) [Id]βC ; (b) [Id]Cβ ; (c) [Id]βC [Id]Cβ .

9.4 Mudança de coordenadas


Sejam α e β bases ordenadas de Rn . Uma questão se coloca naturalmente:
qual a relação entre as matrizes colunas [v]α e [v]β ? O estudo dessa ques-
tão resume-se na aplicação da Proposição 9.1, p. 222. Considere o operador
identidade Id : Rnα → Rnβ , então

[v]β = [Id(v)]β = [Id]αβ [v]α .

A matriz quadrada [Id]αβ é, sugestivamente, chamada de matriz mudança de


coordenadas da base α para a base β .

Corolário 9.2. Sejam α e β bases ordenadas do Rn . As representações ma-


triciais de um vetor v ∈ Rn nestas bases estão relacionadas por

[v]β = [Id]βα [v]α .

Corolário 9.3. Vale a relação matricial [Id]βα = [Id]αβ


−1
.

Prova Considere a composta Id = Id ◦ Id, esquematicamente,


Ÿ9.4 Mudança de coordenadas 227

Id / Id /
Rnα Rnβ n
7 Rα ,
Id◦Id=Id

Pelo Teorema 9.1, p. 223, segue a relação: [Id]αβ [Id]βα = [Id]. Como [Id]αβ é a
−1
inversa à esquerda de [Id]βα , então [Id]βα é invertível e [Id]βα = [Id]αβ . 2
Exemplo 9.4. Consideremos duas bases ordenadas de R2 , α = {v1 , v2 }, onde
v1 = (−3, 2) e v2 = (1, 1), e a base canônica. Calcular a matriz mudança de
coordenadas de α para C2 signica calcular a matriz de Id : R2α → R2C2 . O fato
da base do contradomínio ser a base canônica, não precisamos de cálculos,
 
α −3 1
[Id]C = [v1 , v2 ] = .
2 1
Calculemos a matriz mudança de coordenadas de C2 para α, isto é, a matriz
[Id]Cα2 . Pelo último corolário temos
 
C2 α−1 1 1 −1
[Id]α = [Id]C2 = − .
5 −2 −3
Consideremos a base β = {w1 , w2 }, onde w1 = (2, 3) e w2 = (5, 3). Calcu-
lemos a matriz mudança de coordenadas [Id]αβ . Examinemos o esquema,
Id / Id /
R2α R2C 8 R2β .
Id

Por tudo já visto, podemos escrever as igualdades


−1
[Id]αβ = [Id]Cβ2 [Id]αC2 = [Id]βC2 [Id]αC2 .
Todas as parcelas deste produto matricial são computáveis,

[Id]αβ = [w1 , w2 ]−1 [v1 , v2 ].


Dessa forma, obtemos
 −1    
2 5 −3 1 1 −19 −2
α
[Id]β = =− . 3
3 3 2 1 9 13 −1
228 Representação matricial Cap. 9

Exemplo 9.5. Seja α = {v1 , v2 } a base ordenada de R2 , onde v1 = (1, 2) e


v2 = (1, 1). Pela regra de Cramer, podemos calcular a combinação linear do
vetor v = (3, 1) nessa base e obter a matriz das coordenadas
 
−2
[v]α = .
5
Isto signica que v = −2v1 + 5v2 .
Agora, consideremos a base β = {w1 , w2 }, onde w1 = (3, 2) e w2 = (4, 3).
Para calcular [v]β basta conhecer [v1 ]β e [v2 ]β . Novamente, pela regra de Cra-
mer, determinamos as coordenadas dos vi 's na base β e obtemos
   
−5 −1
[v1 ]β = e [v2 ]β = .
4 1
Portanto, a matriz mudança de coordenadas é
 
β −5 −1
[Id]α = .
4 1
Finalmente,  
5
[v]β = [Id]βα [vα ] = .
−3
Isso signica que v = 5w1 − 3w2 . 3
Quando as bases envolvidas são ortonormais a matriz mudança de coorde-
nadas é uma matriz ortogonal.
Proposição 9.2. Se α e β são bases ordenadas ortonormais de Rn , então
−1 t
[Id]αβ = [Id]αβ .
Prova Escrevamos, α = {v1 , v2 , . . . , vn }, β = {w1 , w2 , . . . , wn } e
 
a11 a12 · · · a1n
a21 a22 · · · a2n
 
[Id]αβ =  .
 
 ··· ··· ··· 
an1 an2 · · · ann
Ÿ9.4 Mudança de coordenadas 229

Por denição, para cada j , temos

vj = a1j w1 + a2j w2 + · · · + anj wn .

Como as bases são ortogonais temos

1 = hvj , vj i
X
= akj alj hwk , wl i
k,l
X
= akj akj
k
2
= a1j + a22j + · · · + a2nj .

Portanto, os vetores colunas de [Id]αβ são unitários. Agora, se i 6= j temos


hvi , vj i = 0. Da mesma forma mostramos que

a1i a1j + a2i a2j + · · · + ani anj = 0,

ou seja, os vetores colunas da matriz [Id]αβ são ortogonais. Pela Proposição


8.2, p. 202, podemos concluir que [Id]αβ é uma matriz ortogonal. 2

EXERCÍCIOS
1. Considere a seguinte base ordenada de R3 ,
 
1 1 1
β= √ (1, 0, 1), √ (1, 2, −1), √ (−2, 2, 2) .
2 6 12
(a) Calcule [Id]βC3 . (b) Calcule [Id]Cβ3 .

2. Sejam α = {v1 , v2 } e β = {w1 , w2 } conjuntos ordenados de R2 , onde:

i) v1 = (cos θ, sen θ), v2 = (−sen θ, cosθ );


ii) w1 = (cos µ, sen µ), w2 = (−sen µ, cos µ).

Mostre que α e β são bases de R2 e calcule [Id]αβ e [Id]αβ .


230 Representação matricial Cap. 9

3. Sejam A, B : R2 → R2 dois operadores lineares e β uma base ordenada de R2 .


Conhecemos as seguintes representações matriciais dos operadores,
" # " #
cos θ −sen θ cos θ −sen θ
[A]CC22 = e [B]βC2 = .
cos θ sen θ cos θ sen θ

Qual das armações é verdadeira? ( ) A ≡ B; ( ) A 6≡ B .

9.5 Representação de operadores


Agora, estudaremos qual é a relação entre as representações matriciais de
um mesmo operador linear, quando duas bases estão envolvidas. Examinemos,
esquematicamente, o problema de relacionar estas representações matriciais.

Rnβ
A / Rnβ
O
Id Id .
 A /
Rnα Rnα

Claro, temos A = Id ◦ A ◦ Id. Pelo Teorema 9.1, p. 223, podemos escrever

[A]ββ = [Id]αβ [A]αα [Id]βα .


−1
Lembrando-se que [Id]αβ = [Id]βα , ver Corolário 9.3, p. 226, reescrevemos a
relação matricial como
−1
[A]ββ = [Id]βα [A]αα [Id]βα .

Este comentário nos leva à seguinte denição.

Denição 9.1. Sejam [M ] e [N ] duas matrizes de ordem n. Diz-se que [M ]


1
é conjugada [N ] a se existe uma matriz de ordem n invertível [R] tal que
−1
[N ] = [R] [M ][R].

1 Alguns autores utilizam o termo "é semelhante a".


Ÿ9.5 Representação de operadores 231

Exercício 9.4. Mostre as armações sobre matrizes quadradas.

1. Se [M ] é conjugada a [N ] então [N ] é conjugada a [M ].

2. Duas matrizes conjugadas têm determinantes iguais. 3


A próxima proposição admite uma releitura, teoricamente importante. Ini-
cialmente, o determinante foi denido utilizando a matriz canônica, a propo-
sição estabelece que o valor do determinante é independente da representação
matricial do operador, em outras palavras, o determinante depende, apenas, do
operador. O mesmo ocorre com o polinômio característico. Ele é um polinômio
associado ao operador, independe da representação matricial.

Proposição 9.3. α
Duas representações matriciais [A]α e [A]ββ de um operador
n
linear A:R → Rn são conjugadas. Mais precisamente,
−1
[A]ββ = [Id]αβ [A]αα [Id]βα .

Em consequência, para qualquer base α vale a igualdade det[A] = det[A]αα .


Prova A primeira parte já foi montrada nos comentários iniciais desta seção.
Em particular, recordando que [A] = [A]CCnn , vale a relação entre as repre-
sentações matriciais
−1
[A]αα = [Id]αCn [A] [Id]αCn .
 
−1
Como det [Id]αCn = (det[Id]αCn )−1 e o determinante do produto de matrizes
é o produto dos determinantes, obtemos det[A] = det[A]αα . 2
Exemplo 9.6. O objetivo básico deste estudo é representar matricialmente o
operador numa base conveniente. Seja

A : R2 → R2 , A(x, y) = (2x + 2y, −2x − 3y).

Calculando o polinômio característico de A obtemos p(λ) = (λ − 1)(λ + 2). Os


autoespaços associados aos autovalores λ1 = 1 e λ2 = −2 são, repectivamente,

Vλ1 = [[(−2, 1)]] e Vλ2 = [[(1, −2)]].


232 Representação matricial Cap. 9

Pelo Lema 7.1, p. 188, os vetores v1 = (−2, 1) e v2 = (1, −2) são l.i., logo,
β = {v1 , v2 } é uma base ordenada de R2 . Calculemos a representação matricial
[A]ββ . Pela última proposição temos o algoritmo para realizar este cálculo,
−1
[A]ββ = [Id]Cβ2 [A] [A]βC2 = [Id]βC2 [A] [A]βC2 .

Recordando o Corolário 9.3, p. 226, como [Id]βC é a inversa de [Id]Cβ , temos:


     
2 2 −2 1 1 −2 −1
[A] = ; [Id]βC2 = ; [Id]Cβ2 = .
−2 −3 1 −2 3 −1 −2

Efetuando as multiplicações chegamos à representação matricial,


   
1 0 λ1 0
β
[A]β = = . 3
0 −2 0 λ2

Exercício 9.5. Mostre que duas matrizes conjugadas têm polinômios carac-
terísticos iguais. O polinômio caraterístico de uma matriz [A] é denido por
p(λ) = det ([λId − A]). 3

Proposição 9.4. Seja A : Rn → Rn um operador linear. Para qualquer base


n
ordenada β de R , o polinômio característico de A pode ser calculado por
 
β β
p(λ) = det λ[Id]β − [A]β .

Prova Para simplicar a escrita e a leitura, denote [R] = [Id]βC . Sendo assim,
   
det λ[Id]ββ − [A]ββ = det [λId − A]ββ
= det [R]−1 (λ[Id] − [A]) [R]


= det(λ[Id] − [A])
= p(λ). 2

Exemplo 9.7. Seja A : R3 → R3 , A(x, y, z) = (2x+y+z, x+2y−z, x−y+2z).


Calculemos a representação matricial [A]ββ na base ordenada β = {v1 , v2 , v3 },
Ÿ9.5 Representação de operadores 233

onde v1 = (−1, 1, 1), v2 = (1, 1, 0) e v3 = (1, −1, 2). De fato, β é uma base,
pois det[v1 , v2 , v3 ] = −6 6= 0. Recordamos que [A] = [A]CC33 , temos
 
2 1 1
[A] =  1 2 −1  .
1 −1 2
Para calcular a outra representação, apoiamo-nos no diagrama abaixo.
A /
R2β R2β
O
Id Id .
 A /
R2C3 R2C3
−1
Portanto, [A]ββ = [Id]βC3 [A] [Id]βC3 . Por outro lado,

−1 1
 
1
[A]βC3 = [v1 , v2 , v3 ] =  1 1 −1 
1 0 2
e com alguns cálculos obtemos

−2
 
2 2
−1 1
[A]βC =  3 3 0 .
6
1 −1 2
Finalmente, podemos computar a representação desejada
 
0 0 0
[A]ββ =  0 3 0  .
0 0 3

Nesse exemplo, o polinômio característico de A é p(λ) = λ(λ − 3)2 . 3


Como vimos, um operador linear A : Rn → Rn é simétrico se, e somente se,
sua matriz [A] é simétrica. Esse resultado pode ser generalizado para qualquer
base ortonormal.
234 Representação matricial Cap. 9

Corolário 9.4. n n
Um operador linear A : R → R é simétrico se, e somente
α
se, a representação matricial [A]α é uma matriz simétrica para qualquer base
n
ortonormal α do R .

Prova ⇒) Suponha que A é um operador simétrico. Sabemos que a re-


presentação matricial na base canônica [A] é uma matriz simétrica e que
−1
[A]αα = [Id]αCn [A] [Id]αCn . Como as bases canônica e α são ortonormais, se-
−1 t
gue que [Id]αC3 é ortonormal, ou seja, [Id]Cαn = [Id]αCn . Portanto,
t
[A]αα = [Id]αCn [A] [Id]αCn .

Recordando que vale a relação matricial ([M ][N ])t = [N ]t [M ]t e que, por hi-
pótese, [A]t = [A], calculando a transposta da matriz [A]αα obtemos
t t
[A]αα = [Id]αCn [A] [Id]αCn = [A]αα .

⇐) Se a representação matricial de A em qualquer base ortonormal é si-


métrica, em particular, a representação na base canônica, [A], é simétrica.
Portanto, A é um operador simétrico. 2

EXERCÍCIOS
1. Conhecida a representação matricial do operador A : R2β → R2β , calcule os

autovalores de A e o determinante de [A]:


" #
3 2
[A]ββ = .
3 −1

2. Se[M ] é conjugada a [N ] então [M ]k é conjugada a [N ]k para todo inteiro

k ≥ 0. Mostre essa armação.

3. Sejam A e B operadores invertíveis em Rn . Mostre que os autovalores de A◦B


e de B ◦ A são iguais.

4. Mostre que a matriz [U ]αα de qualquer operador ortogonal U : Rn → Rn é uma

matriz ortogonal, quando α n


é uma base ortonormal de R .
Ÿ9.6 Diagonalização de operadores 235

9.6 Diagonalização de operadores


Um operador linear A : Rn → Rn é diagonalizável se existe uma base
ordenada β = {v1 , v2 , . . . , vn } de Rn formada por autovetores de A. O termo
diagonalizável se justica pelo formato da representação matricial [A]ββ . Como
β é formada por autovetores de A, então para cada i, 1 ≤ i ≤ n,
A(vi ) = λi vi = 0v1 + · · · + λi vi + · · · + 0vn ,
onde vi é o auto vetor associado ao autovalor λi . A base β dá origem à
representação matricial
 
λ1 0 · · 0
 0 λ2 · · 0 
 
[A]ββ =  .
 · · · · · 
0 0 · · λn
Sendo assim, o polinômio característico de operador diagonalizável é fatorado
em um produto de n polinômios de grau 1, p(λ) = (λ−λ1 ) (λ−λ2 ) · · · (λ−λn ).

Existem operadores que não são diagonalizáveis. É o caso de A : R2 → R2 ,


A(x, y) = (−y, x). Seu polinômio característico p(λ) = λ2 + 1, não pode ser
fatorado num produto de polinômios de grau 1 com coecientes reais.
Nessa altura do texto, temos repostas para muitas perguntas envolvendo
diagonalização de operadores. Apresentemos um resumo. Recordamos que o
Teorema Fundamental da Álgebra garante que um polinômio de grau n admite
n raízes complexas, contando-se as multiplicidades, entre as quais, algumas,
ou todas, podem se reais.
1. Se o polinômio característico do operador linear A em Rn tem alguma
raiz não real, ele não é diagonalizável.

2. Quando o polinômio caraceterístico de um operador linear A em Rn tem


n raízes reais e distintas dois a dois, λ1 , λ2 , . . . , λn , ele é diagonalizável.
Justique esta armação apoiando-se no Lema 7.1, p. 188.
236 Representação matricial Cap. 9

3. Um operador linear simétrico A : Rn → Rn é diagonalizável. Esse é o


espírito do Teorema espectral, p. 197.

Resta a situação na qual um operador não é simétrico, possui todos auto-


valores reais mas não são distintos dois a dois. Existem operadores lineares
que satisfazem estas condições e são diagonalizáveis enquanto outros não são.
Estes casos são estudados com técnicas que não desenvolveremos neste texto.

Exemplo 9.8. Seja A : R3 → R3 , A(x, y, z) = (2x+y +z, y +z, z). Calculando


o polinômio característico obtemos

λ − 2 −1 −1
 

p(λ) = det  0 λ − 1 −1  = (λ − 2)(λ − 1)2 .


0 0 λ−1
Para determinar os autoespaços associados, resolvemos o sistema,

λi − 2 −1 −1
    
x 0
 0 λi − 1 −1   y  =  0 ,
0 0 λi − 1 z 0

para λ1 = 1 e λ2 = 2. Feito isto, obtemos Vλ1 = [[(1, −1, 0)]] e Vλ2 = [[(1, 0, 0)]].
Portanto, não podemos escolher três autovetores linearmente independentes
para formar uma base de R3 e diagonalizar o operador. 3
Exemplo 9.9. Seja A : R3 → R3 , A(x, y, z) = (3x − z, 3y + 2z, z). Calculando
o polinômio característico obtemos

λ−3 −1
 
0
p(λ) = det  0 λ − 3 −2  = (λ − 3)2 (λ − 1).
0 0 λ−1
Para determinar os autovetores associados, resolvemos o sistema,

λi − 3 −1
    
0 x 0
 0 λi − 3 −2   y = 0 ,
 
0 0 λi − 1 z 0
Ÿ9.6 Diagonalização de operadores 237

para λ1 = 3 e λ2 = 1. Para λ1 = 3, todo autovetor associado é do tipo v =


(x, y, 0). Logo, Vλ1 = [[(1, 1, 0), (0, 1, 0]]. Para λ2 = 1, todo autovetor associado
é do tipo v = (− 21 z, −z, z). Sendo assim, o autoespaço unidimensional é
Vλ2 = [[(−1, −2, 2)]]. Nessas condições, podemos escolher três autovetores
linearmente independentes para formar uma base ordenada e diagonalizar o
operador, quais sejam v1 = (1, 1, 0), v2 = (0, 1, 0) e v3 = (−1, −2, 2). Na base
ordenada α = {v1 , v2 , v3 }, a representação matricial do operador A ca sendo
 
3 0 0
[A]αα =  0 3 0  . 3
0 0 1

Para operadores simétricos a diagonalização dá-se com uma base espectral.

Exemplo 9.10. Seja A : R3 → R3 , A(x, y, z) = (2z, −y, 2x). Esse operador é


simétrico, pois sua representação matricial na base canônica é simétrica,
 
0 0 2
[A] =  0 −1 0  .
2 0 0

Seu polinômio característico, p(λ) = λ3 + λ2 − 4λ − 4, é fatorado como

p(λ) = (λ + 1)(λ − 2)(λ + 2).

Para determinar os autovetores associados, resolvemos o sistema,

−2
    
λi 0 x 0
 0 λi + 1 0   y  =  0 ,
−2 0 λi z 0

para cada autovalor, que são λ1 = −1, λ2 = 2 e λ3 = −2. Feito isto, obtemos
os autoespaços Vλ1 = [[(0, 1, 0)]], Vλ1 = [[ √12 , 0, √12 ]] e Vλ1 = [[ √12 , 0, − √12 ]].
 

A escolha de normalidade para os geradores dos autoespaços foi proposital,


enquanto a ortogonalidade dos vetores de β = {vλ1 , vλ2 , vλ3 } é decorrente do
238 Representação matricial Cap. 9

Teorema espectral e β é l. i. pois é formado por autovetores de autovalores


distintos, Lema 7.1, p. 188. Logo, β é uma base espectral e

−1 0 0
 

[A]ββ =  0 2 0  . 3
0 0 −2

Não cabe na teoria desenvolvida neste texto mostrar que o determinante


de um operador é o produto das raízes do seu polinômio característico conside-
radas as multiplicidades, independente delas serem reais ou não. Entretanto,
podemos demonstrar um resultado mais restrito.

Corolário 9.5. A : Rn → Rn um operador linear. Se A é diagonalizável,


Seja
então det[A] = λ1 λ2 . . . λn , onde λi 's são as raízes do polinômio característico,
contando-se as multiplicidades.

Prova Seja β uma base para qual a matriz de A é diagonalizável,


 
λ1 0 · · · 0
 0 λ2 · · · 0 
[A]ββ =  . .. ..  .
 
 .. . . 
0 0 · · · λn

Pela Proposição 9.3, p. 231, temos det[A] = det[A]ββ = λ1 λ2 . . . λn . 2

EXERCÍCIOS
1. Determine se o operador é diagonalizável. Caso seja, faça a diagonalização.

(a) A : R3 → R3 , A(x, y, z) = (y, z, x).


(b) A : R3 → R3 , A(x, y, z) = (3x + y + z, x + 5y + z, x + y + 3z).
(c) A : R2 → R2 , A(x, y) = (2x + 2y, x + y).
(d) A : R2 → R2 , A(v) = (hv, e1 i, hv, v0 i), onde v0 = (1, −1).
(e) A : R3 → R3 , A(v) = v0 × v onde v0 = (1, −1, 1).
Ÿ9.6 Diagonalização de operadores 239

(f ) A : R3 → R3 , A(x, y, z) = (x + y + z)(1, −2, 1).


(g) A : R3 → R3 , A(x, y, z) = (y + z, x + z, x + y).
(h) A : R3 → R3 , A(x, y, z) = (x + 2y + 2z, y + 2z, 2z).
(i) A : R3 → R3 , A(x, y, z) = (2x, 2y, 2z).
(j) A : R3 → R3 , A(x, y, z) = (2x, 2y + z, 2z).

2. Seja A : R2 → R2 , A(x, y) = (3x + y, x + 3y).

(a) Calcule A10 (A composto com A dez vezes).

(b) Qual o polinômio característico de A10 ?


(c) Encontre um operador linear B : R2 → R2 tal que B 3 = A.

3. Assuma que A : Rn → Rn seja um operador simétrico. Mostre as armações.

(a) Se Ak = Id para algum inteiro k > 2, então A2 = Id.


(b) Se A2 (v) = o para todo v ∈ Rn então A(v) = o para todo v ∈ Rn .

4. Dê um exemplo de um operador linear B : R2 → R2 tal que B 2 (v) = o para

todo v∈ R2 , mas B não é identicamente nulo. Claro, B não é simétrico.

5. Dê condições necessárias e sucientes para que o operador A : R2 → R2 ,


A(x, y) = (ax + by, cx + dy), seja diagonalizável.

6. Calcule [A]10 sabendo-se que


 
1 0 0
[A] =  1 2 0 .
 
0 2 −1

7. Sabe-se que os autovalores de um operador linear A em R3 são λ1 = −1,


λ2 = 0 e λ3 = 1 com autoespaços correspondentes, Vλ1 = [[(−1, 1, −1)]],
Vλ2 = [[(−1, 0, 2)]] e Vλ3 = [[(1, −1, 0)]]

(a) A é um operador simétrico?

(b) A é um operador invertível?


240 Representação matricial Cap. 9

(c) Calcule [A]ββ onde β = {(−1, 1, −1), (−1, 0, 2), (1, −1, 0)}.
(d) Calcule [A].

8. Sejam A, U : Rn → R2 dois operadores. Assuma que U é ortogonal. Considere


o operador linear B = U
−1 ◦ A ◦ U . Quais das armações são verdadeiras?

(a) Se A é simétrico, então B é simétrico.

(b) Se A é diagonalizável, então B é diagonalizável.

(c) Se A é ortogonal, então B é ortogonal.


10
Respostas e sugestões

Capítulo 1
Seção 1.1
1. (a) 0; (b) v (c) −v
2. o é colinear com todos e v é colinear com w.
Seção 1.2

1. Válido (V ); Não válido (N ).


−−→
(a) (N ) v(2, 1) (i) (N ) P Q ∈ E2 (q) (V ) (2, 1) ∈ R2
−−→ −−→
(b) (V ) P (2, 1) (j) (N ) v = P Q (r) (V ) P Q = P Q
(c) (V ) v = (2, 1) (k) (V ) P ∈ E2 (s) (V ) AB ⊂ E3
(d) (N ) P = (2, 1) (l) (V ) P (2, 1) ∈ E2 (t) (N ) P + Q
(e) (N ) (2, 1) ∈ E2 (m) (N ) R2 ⊂ R3 (u) (V ) AB ⊂ E2
−−→ −−→
(f ) (N ) E2 = R2 (n) (V ) v ∈ R2 (v) (N ) kP Qk = P Q
−−→
(g) (N ) P (2, 1) ∈ R2 (o) (N ) kP Qk ⊂ E3 (w) (N ) E2 ⊂ E3
−−→
(h) (N ) P Q ∈ R2 (p) (N ) AB ∈ R3 (x) (N ) (2, 1) ∈ E2

3. (b) São representantes, respectivamente, de u = (−4, 4), v = (5, −1) e w=


−−→
(0, 0). O segmento orientado QP representa−u.
−→ −−→
(c) u + v é representado por RT onde R(2, 2) e 2u é representado por NM
onde N (10, −6).

241
242 Respostas e sugestões Cap. 10

Seção 1.3

(c) w = 31 , 23 .

1. (a) w = (−1, 10).

Seção 1.4

1. (a) w = (3, 6, 8). (c) w = (0, 0, 0).


(b) w = (x, y, z). (d) w = (0, 1, 2).

3. Será base se det[v1 , v2 , v3 ] 6= 0. Somente os conjuntos em (a) e (c) são bases.

1
(a) w = 6 (−x+ y, −4x + y + 3z, 7x − y − 3z).
x − y, 12 (−3x + y − z), 2y − z .

(c) w =

5. (a) vi = 0v1 + · · · + 1vi + · · · + 0vn . (b) o = 0v1 + 0v2 + · · · + 0vn .

7. (a) Expresse w = (5, 0) v1 = (2, −1)


como combinação de e v2 = (−3, 4).
" #" # " #
2 −3 a1 5
= .
−1 4 a2 0

Capítulo 2
Seção 2.1
1. Pode-se efetuar 15 produtos. Veja as ordens n×m em × k . Exemplos:
 
h i 8
[E] [D] = 0 −1 0 ; [B][G] =  −2  .
 
2

Seção 2.2

1. (a) det[A] = 10. (c) det[A] = 0. (e) det[A] = −4.


243

3. (a) det[2v, w] = −4. (c) det[w, v] = 2.


(b) det[−3v, 4w] = 24. (d) det[v + w, w] = −2.

7. (a) Falsa. Por exemplo, considere [A] = [Id] = −[B].


(b) Falsa. Vale a igualdade det[λA] = λn det[A].
(c) Verdadeira.

Seção 2.3

1) Pelo Corolário 2.1, p. 51, somente [C] não é invertível.

 
" # 2 −20 27
2 −1 1
(a) [A]−1 = . (b) [B]−1 =  0 4 −6  .

−1 1 4
0 0 2

2. (a) det[A] = −6.


   
1
0 0 −2 0 0 3
(b) ad([A]) =  0 −3 −1 1
0  . (c) [A] =  0 0 .
   
2
−6 0 0 1 0 0

3. Pelo Corolário 2.1, p. 51, todas matrizes e suas potências são invertíveis.

" # " #
1 k 1 −k
(a) [A]k = . [A]−k = .
0 1 0 1

( (
[Id] se k = 2l [Id] se − k = 2l
(b) [B]k = . [B]−k = .
[B ] se k = 2l + 1 [B] se − k = 2l + 1

" # k
cos(kt) −sen(kt) [C]−k = [C]−1 .
(c) [C]k = .
sen(kt) cos(kt)

4) det [R]−1 det[N ]det[R] = det[N ], det[R]−1 = 1



pois
det[R] .

Seção 2.4
244 Respostas e sugestões Cap. 10

1. (a) Sejaβ ⊂ R3 constituído pelos vetores colunas da matiz dos coecientes,


ou seja: v1 = (2, 6, 2); v2 = (2, −1, −4); v3 = (1, 2, 0). Resolver o sistema

é determinar se w = (5, 1, 0) é uma combinação linear dos vetores de

β , isto é, signica saber se existem escalares a1 , a2 e a3 tais que w =


a1 v1 + a2 v2 + a3 v3 .
(b) Como det[v1 , v2 , v3 ] = 2 6= 0 podemos utilizar regra de Cramer para
resolver o sistema. Nesse caso a1 = 18, a2 = 9 e a3 = −49.

2. (b) det[v1 , v2 ] = 1 6= 0. Pela regra de Cramer: a1 = 14 e a2 = −3

Capítulo 3
Seção 3.1

1. (a) Combinação linear em R2 . Expressar w = (5, 1) como combinação li-


near de v1 = (2, 6) e v2 = (2, −1). É possível e existe unicidade, pois

det[v1 , v2 ] = −14 6= 0. Coecientes da combinação: a1 = 21 ; a2 = 2.


(b) Combinação linear em R3 . Expressar o como combinação linear de
v1 = (2, 4, 3) e v2 = (−6, 5, 4). Claro, a1 = 0 e a2 = 0 são soluções.
Para encontrar todas combinações devemos suprimir uma equação, por

exemplo, a última, pois para este subsistema o determinante da matriz

dos coecientes não é zero. Coecientes da combinação: a1 = 0; a2 = 0.


Tais valores satisfazem a equação suprimida. Combinação linear única.

(c) Combinação linear em R3 . Expressar w = (0, 4, 1) como combinação


linear de v1 = (2, 4, 3) e v2 = (−6, 5, 4), w = a1 v1 + a2 v2 . Para encontrar

os coecientes, suprimir uma equação, por exemplo, a última, pois o


12
determinante da matriz dos coecientes não é igual a zero: a1 = 17 ;
4
a2 = 17 . Estes valores não satisfazem a equação suprimida. Não podemos
expressar w como combinação linear de v1 e v2 .
2. (a) 3
Combinação linear em R . Expressar w = (5, 1, 0) como combinação

linear de v1 = (2, 6, 2) e v2 = (2, −1, −4) e v3 = (1, 2, 0), w = a1 v1 +


a2 v2 + a3 v3 . Existe combinação linear e é única.

(b) Combinação linear em R2 . Expressar o vetor w = (0, 11) como combina-


ção linear de v1 = (2, 4), v2 = (−6, 5) e v3 = (−1, 3), w = a1 v1 + a2 v2 +
245

a3 v3 . Existe combinação linear mas não é única.

(c) Combinação linear em R3 . Expressar o como combinação linear de v1 =


(2, 1, 2) e v2 = (−1, 0, −1) e v3 = (1, −1, 1). Existe combinação linear
mas não é única.

3. Cada vetor é expresso por combinação linear mas não existe unicidade.

4. Os vetores em (a), (c) e (d) são expressos de maneira única por uma combi-

nação linear. Os vetores em (b) e (e) não podem ser expressos.

5. Como det[v1 , v2 , v3 ] 6= 0 os três vetores formam uma base do R3 . Qualquer

vetor é expresso de maneira única por uma combinação linear.

8. O sistema sempre é possível para todo valor de k. O sistema é possível e

determinado quando k 6= 4.
9. (a) Falsa. (b) Falsa. (c) Verdadeira. (d) Falsa.

Seção 3.3

1. Todas são invertíveis.

   
1 −2 1 0 0 0 1
(a) [A]−1 = 0 1 −2  0 0 1 0
   
(c) [C]−1 = 
 

0 0 1  0 1 0 0 
1 0 0 0
   
−1 3 0 0 0 0 −1 2
 1 −2 0 0   0 0 1 −1 
(b) [B]−1 = (d) [D]−1 =
   
0 −2 
 
 0 0 0 1   0 1
0 0 1 −2 1 0 0 −1

Seção 3.4

1. Todas são invertíveis.

   
1 3 −2 1 −4 1
(a) [A]−1 = −1 3 1 −2 . (b) [B]−1 = −1
2  −3 6 −1 .
   
4 
−2 −2 0 −1 2 −1
246 Respostas e sugestões Cap. 10

   
1 4 −1 1 0 1
−1 −1 
(c) [C] = 2  −2 −1 1 . (e) [E]−1 = 12  3 −2 −1 .
  
−1 1 −1 −2 2 0
   
3 −6 1 5 −4 1
(d) [D]−1 = −1
5  −2 −1 1 . (f ) [F ]−1 = 12  −1 2 −1 .
   
−1 2 −2 −2 2 0

2. (a) c 6= 3 e d qualquer. (c) c = 3 e d 6= 2.


(b) c = 3 e d = 2.

3) Não é possível produzir uma ração com tal balanceamento.

4) A única solução possível é

2 7 6

9 5 1

4 3 8

Capítulo 4
Seção 4.2
√ √
1. (a) kvk =
5, kwk = 13, kuk = 1.

(b) kvk = √ 5, kwk = 1, kuk = 1.

(c) kvk = 221 , kwk = 13, kuk = 1.
√ √ √ √
2. (a) 5. (b) 2. (c) 2 2. (d) 2 6. (e) 1. (f ) 3.

3. O vetor é unitário. O segmento orientado que representa u com ponto inicial

O faz um ângulo θ com o eixo ox, medido no sentido anti-horário. O esboço

de todos os pontos é um círculo de raio r=1 centrado em O.

4. kv + wk2 + kv − wk2 = hv + w, v + wi + hv − w, v − wi. Desenvolva o segundo

membro.

Seção 4.3

1 Nenhum vetor é nulo. Não existe obstrução para calcular os ângulos.


247

(a) θ = 3π
4 . (b) θ = π2 . (c) θ = π2 . (d) θ = π4 .
2. Veja a fórmula que relaciona produto interno, norma e ângulo.

(a) x = 1 ou x = −17. (b) y = 0 ou y = 2.

3. Um vetor v = (x, y) ortogonal ao vetor η = (a, b) deve ter coordenadas que

satisfazem a equação h(a, b), (x, y)i = 0 = ax + by .


4. Se u = (x, y, z), simultaneamente ortogonal aos vetores, deve satisfazer as
equações hu, vi = 0 e hu, wi = 0. Os únicos vetores unitários que satisfazem a
2 4 3
estas equação são u = ( √ , − √ , − √ ) ou −u.
29 29 29
5. Veja a fórmula que relaciona produto interno, normas e ângulos.

(a) θ(e1 , v) = arccos √−3 . (b) θ(ei , v) = arccos √1 , i = 1, 2, 3.


23 3
7. w = (−1, 1), pois det[v, w] = 1 6= 0.
8. Se w = (a, b, c) é ortogonal ao vetor v = (1, 1, 1), então o a + b + c = 0. Sendo
assim, w1 = (1, −1, 0) é ortogonal ao vetor v . Tome w2 = v ∧ w1 . Você pode

ter encontrado outros vetores.


−−→ −−→
9. Os segmentos orientado QP e QR representam os vetores v = (−1, −3, 2) e

w = (4, −2, −1), respectivamente, e hv, wi = 0.


10. Suponha que hv, wi = 0. Desenvolva o 2o membro de kv +wk2 = hv +w, v +wi.
11. Utilize kv + wk2 = hv + w, v + wi.
12. Mostre que kv + wk2 = kv − wk2 se, e somente se, hv, wi = 0.

Seção 4.4

4. (a) v1 = −v ∧ w . (b) v2 = o. (c) v3 = 13v ∧ w . (d) v = 0.

5. (a) Não. (b) Não. (c) Sim. (d) Não. (e) Sim. (f ) Não.

2. Valem as igualdades v ∧ w = −w ∧ v e hv, v ∧ wi = 0 = hw, v ∧ wi.


(a) v ∧ w = (1, 3, 2). (c) v ∧ w = (0, 0, 0).
(b) v ∧ w = (−2, 11, −5). (d) v ∧ w = (1, −1, 0).

Seção 4.5

1. (a) r : x − y = 0. (c) r : −x + y = 0.
248 Respostas e sugestões Cap. 10

2. (a) r : 2x + y = 3. (c) r : x = 1. (d) r : x − y = 0.


−−→ −→
3. Verique se os vetores representados por AB e AC são colineares.

4. Calcule a medida dos ângulos entre os vetores normais às retas r e s.


−−→ −→
5. Sejam v e w vetores cujos representantes são, respectivamente, P Q e P R. Um

vetor normal ao plano denido pelos pontos P , Q e R é η = v ∧ w .

(a) η = (1, 0, −1). (c) η = (−11, −1, −2).


(b) η = (−3, 2, 1). (d) η = (−1, 1, 0).

7. Verique se det[u, v, w] = 0 onde u, v e w são os vetores representados pelos


−−→ −→ −→
segmentos orientados P Q, P R e P S , respectivamente.

8. (a) Possível e indeterminado. (c) Possível e determinado.

(b) Impossível. (d) Possível e indeterminado.

( (
3x + y = 3 x = 1
10. (a) r : . (c) r : .
x + z = 2 y = −2

Seção 4.6

1
1. (a) área = 1. 2. (a) área = 1. 3. área = 2.
5. (b) S(3, 2) e área = 10. (c) A( 11 8
3 , −3) e B( 13 7
3 , − 3 ).
9. (a) área = 37
2 .

Seção 4.7

1. área = 2(ku ∧ vk + ku ∧ (u ∧ v)k + kv ∧ (u ∧ w)k).

Capítulo 5
Seção 5.1

1. Substitua as coordenadas de cada vetor na equação. Resposta: u e v.


2. O paralelepípedo está contido num plano, ele não possui volume positivo.
249

3. (a) Subespaço próprio, corresponde ao eixo oy .


(b) Subespaço próprio corresponde ao plano determinado por ox e oz .
(c) Não é subespaço próprio, Γ = R2 .
(d) Subespaço próprio correspondente ao eixo ox.
5. Os vetores de Γ são os múltiplos de v = (1, 2, 1).
6. O ponto O(0, 0) ∈ E2 .
7. Γ1 : x + 2y − 3z = 0 e Γ2 : x − y + z = 0. Como é a interseção de dois planos,

Γ corresponde a uma reta que contém a origem.

8. O vetor v = (1, 1) ∈ Π, mas um múltiplo, por exemplo, 3v não pertence a Π.


9. (a) O ponto v = (3, 2) ∈ Π, mas seu múltiplo 2v não pertence.

(b) Duas retas paralelas, uma delas incidindo em 0.


10. Somente a armação (d) é verdadeira, todas as outras são falsas.

Seção 5.2

2. Corresponde a um plano. As equações denem um mesmo plano em R3 .


3. (a) Falsa. (b) Verdadeira. (c) Verdadeira. (d) Falsa.

Seção 5.3

1. Você pode ter encontrado outras equações. De qualquer forma, verique se os

vetores dados satisfazem as equações encontradas por você.

(a) Γ = {(x, y) ∈ R2 ; 5x + 2y = 0}.


(b) Γ = {(x, y, z) ∈ R3 ; x + 2y − 3z = 0}.
(c) Γ = {(x, y, z) ∈ R3 ; x + 2y − z = 0}.
(d) Γ = {(x, y, z) ∈ R3 ; 2x + y = 0 y + 2z = 0}.
e

(e) Γ = {(x, y, z) ∈ R3 ; x + 2y = 0 e z = 0}.


(f ) 3
Γ = {(x, y, z) ∈ R ; x − y = 0 e y − z = 0}.
(g) Γ = {(t, x, y, z) ∈ R4 ; 2t + 3x + y = 0 e − 5t − 2x + z = 0}.
(h) Γ = {(t, x, y, z) ∈ R4 ; t − 2x = 0, x − y = 0 e 3y + z = 0}.
250 Respostas e sugestões Cap. 10

2. det[v1 , v2 ] = 1 6= 0 ⇒ {v1 , v2 } R2 . Expressamos qualquer vetor v =


é base do

(x, y) de um único modo, (x, y) = (5x − y)v1 + (x − 4y)v2 . Resta particularizar


para os vetores u, v , w e t.

3. Solução semelhante ao do item anteiror.

4. Somente u e v pertencem ao subespaço.

5. Considere a interseção de todos os subespaços que contém os vetores. Mostre

que esse subespaço é [[v1 , v2 , ..., vk ]].

Seção 5.4

1. Como det[v1 , v2 , v3 ] = 0, eles são l.d. Na verdade, v3 = v1 + v2 ∴ o = 0v1 +

0v2 + 0v3 e o = v1 + v2 − v3 . Para o vetor w podem ser as combinações lineares


w = v1 + v2 + 0v3 ou w = w + o = 2v1 + 2v2 − v3 .

2. det[v1 , v2 ] 6= 0 β = {v1 , v2 } é uma base do R2 e Γ = [[v1 , v2 ]] = R2 .


implica

v3 = 45 v1 + 14 v2 implica que o, ou qualquer outro vetor, não tem unicidade de


5 1
combinação linear com os três vetores dados, o = v1 + v2 −v3 . Se w = (x, y),
4 4
1 1
então w = w + o = (x + 3y + 5)v1 + (x − 2y + 1)v2 − v3 . Todos os vetores
4 4
pertencem ao subespaço.

3. Como det[v1 , v2 , v3 ] = 0 eles são l.d. Verica-se que v2 = 3v1 + 2v3 . Logo,

Γ = [[v1 , v3 ]] R3 . Somente w pertence ao subespaço Γ.

4. (a) Como det[v2 , v3 ] 6= 0, β = {v2 , v3 } é um conjunto de geradores l.i. Ob-

serve que Γ = [[v2 , v3 ]].


(b) Como det[vi , vj ] = 0, eliminamos dois vetores. Escolha β = {v1 } como

conjunto de geradores.

5. (a) Γ = R3 . (b) Γ = R3 . (c) Γ = [[v1 , v2 ]] R3 .

7. Todas são falsas. As recíprocas são verdadeiras.

8. (a) β = {(5, 2)}. (c) β = {(1, 0, 0), (0, 1, 1)}.


(b) β = {(0, 0, 1)}. (d) β = {(1, 0, 1), (0, 1, 2)}.
251

Seção 5.5

1. (a) Não. (b) Não. (c) Não.

2. (a) L.d. pois são quatro vetores do R3 . Escolha os três primeiros.


(b) São l.d. pois det[v1 , v2 , v3 ] = 0. Escolha os dois primeiros vetores.

3. Para construir uma base de Rn escolha vetores que não estejam em Γ.

(a) Γ = [[(2, 1)]] e R2 = [[(2, 1) (1, 0)]].


(b) Γ = [[(2, 1, 0), (1, 0, −1)]] e R3 = [[(2, 1, 0) (1, 0, −1), (0, 1, 0)]].
(c) Γ = [[e3 , e4 ]] e R4 = [[e1 , e2 , e3 , e4 ]].
(d) Γ = [[e1 , e2 , e4 , e5 ]] e R5 = [[e1 , e2 , e3 , e4 , e5 ]].

4. Acrescente o(s) vetor(es) indicado(s) para construir uma base do Rn . Utiliza-

mos o critério do determinante para escolher os vetores para formar uma base.

Você pode ter encontrado outra base.

(a) Γ = [[(−4, 8)]], v1 = (8, 4).


(b) Γ = [[(−2, 1, 0), (1, 1, 1)]], v1 = (0, 0, 1).
(c) Γ = [[(0, 1, −2), (−3, 2, −7)]], v1 = (1, 0, 0).
(d) Γ = [[(−1, 2, −1)]], v1 = (1, 0, 0), v2 = (0, 1, 0).
(e) Γ = [[(−2, 1, 0)]], v1 = (1, 0, 0), v2 = (0, 0, 1).
(f ) Γ = [[(1, 1, 1), ]], v1 = (1, 0, 0), v2 = (0, 1, 0).
(g) Γ = [[(−2, 2, 0), (1, 1, 1)]], v1 = (1, 0, 0).

Seção 5.6

1. (a) 3. (b) 2. (c) 1. (d) 1. (e) 2. (f ) 1.

2. 0 6= det[v1 , v2 , v3 ] = det[w1 , w2 , w3 ].

3. (a) Falsa. (b) Falsa. (c) Verdadeira.

4. Escolha um subconjunto S que seja um subespaço de dimensão n − 1.

Seção 5.7
252 Respostas e sugestões Cap. 10

1. (a) 53 v . (b) o.
n   o n   o
2. (a) β = √1 , √1 , √12 , − √12 . (b) β = √2 , √1 , − √15 , √25 .
2 2 5 5
n      o
3. (a) β = √1 , √1 , √1 , √1 , − √12 , √12,0 , − √16 , − √16,2 . .
3 3 3 3
(b) β = {e1 , e2 , e3 }.

Capítulo 6
Seção 6.1

1 (a) Não. (b) Sim. (c) Não. (d) Sim.

2. (a) A(x, y, z) = (x + y + 2z, x − y + z).

(b) A(x, y, z) = (2x + z, −3x + y − z, x + 4z).

3. A(e1 ) = 65 , − 61 , − 26 A(e2 ) = − 16 , 65 , − 26 A(e1 ) = − 26 , − 26 , 26


  
; ; .

4. A(x1 , x2 , . . . , xn ) = (λ0 x1 , λ0 x2 , . . . , λ0 xn ).

Seção 6.2

1. (a) N uc(A) = {o}. (c) N uc(A) = [[(−1, 1, 1)]].


(b) N uc(A) = [[(1, −2)]].

2. Dena os valores na base C2 como indicado e escreva-a em coordenadas.

(a) A(e1 ) = e1 , A(e2 ) = −e2 , A(x, y) = (x, −y).


(b) A(e1 ) = −e1 , A(e2 ) = e2 , A(x, y) = (−x, y).
(c) A(e1 ) = e2 , A(e2 ) = e1 , A(x, y) = (y, x).
(d) A(e1 ) = e2 , A(e2 ) = −e1 , A(x, y) = (−y, x).

3. Dena os valores na base canônica como indicado e escreva-a em coordena-

das. Os três últimos exemplos foram construídos calculando uma base para a

imagem.
253

(a) A(e1 ) = v1 , A(e3 ) = v1 ,


A(e2 ) = v2 , A(x, y) = (x + y + z, 2x + y + z).
(b) A(e1 ) = v1 ,
A(e2 ) = v1 , A(x, y) = (0, 3x + 3y, −x − y).
(d) A(e1 ) = (1, 0, −2), A(e3 ) = o,
A(e2 ) = (0, 1, −3), A(x, y) = (x + y, x + y).
(e) A(e1 ) = (1, 1), A(e3 ) = o,
A(e2 ) = (1, 1), A(x, y, z) = (x, y, −2x − 3y).

4. Você poderá ter encontrado outras transformações.

(a) A(x, y, z) = (x − y + 2z, x − y + (d) A(x, y, z) = (x + y, z).


2z).
(e) A(x, y) = (y, x).
(b) A(x, y) = (x, 2x, 3x).
(c) A(x, y, z) = (2x − y, 0).

6. Determine a transformação linear.

i) N uc(A) = [[vo ]]. ii) Im(A) = [[(1, −1, 0), (1, 0, 1)]].

7. Por absurdo, suponha que A seja sobrejetiva: Im(A) = [[A(e1 ), A(e2 )]] = R3 .
Sendo assim, R3 é gerado por dois vetores, uma contradição.

8. (a) A : R3 → R2 , A(x, y, z) = (x − y + z, 2x + y − 2z). A é sobrejetiva,

logow0 = (1, −1) está em Im(A) implicando que o sistema tem solução.

N uc(A) não é trivial, logo, o sistema tem innitas soluções.


(b) A : R3 → R3 , A(x, y, z) = (x−y, x+y−2z, 2x−2z). O vetor w0 = (0, 1, 2)
não está na imagem de A, o sistema não tem solução.

Seção 6.3
   
6 1 −3 1 1
1. (a) [A] =  0 −1 1 . (b) [A] =  2 −1 .
   
2 0 −1 −2 1
254 Respostas e sugestões Cap. 10

" #  
1 1 1 0 0
(c) [A] = .
1 1 1
 0 0 
(e) [A] =  .
 
 0 0 
0 0
   
1 0 0 0 0 0
(d) [A] =  0 1 0 . (f ) [A] =  0 1 0 .
   
0 0 1 0 0 0

2. Você poderá ter encontrados outros vetores para as bases.

(a) A : R2 → R3 , 2y),
N uc(A) = [[2e1 − e2 ]], Im (A) = [[A(e1 )]].
(b) A : R2 → R3 ,
A(x, y) = (x − y, 2x − 2y, −x),
N uc(A) = {o},
Im (A) = [[A(e1 ), A(e2 )]].
(c) A : R3 → R2 ,
N uc(A) = [[(3, 3, −3)]], A(x, y, z) = (x − y, x + 2y + 3z),
A(x, y) = (−2x − 4y, x + 2y, x + Im (A) = [[A(e1 ), A(e2 )]] = R2 .

3. Obtenha as resposta da relação A(x, y) = (−x + 2y, −2x − 2y, 6y).

4. Obtenha as resposta da relação B(x, y) = (6x − 11y, −3x + 4y).

5. Obtenha as resposta da relação A(x, y, z) = (x + y + z, 0, 2x + y).

6. (b) Todos os múltiplos de v0 .

7. Utilize produto vetorial.

(a) B(x, y, z) = (x − y, 3y − z, −3x + z).

(b) N uc(B) = [[(1, 1, 3)]]. Im(A) = [[(1, −3, 0), (1, 0, −1)]].

Seção 6.4

1. Você poderá ter encontrado outros vetores para as bases.


255

(a) Im(A) = R3 , N uc(A) = {o}.


(b) Im(A) = [[A(e1 ), A(e2 )]], N uc(A) = {o}.
(c) Im(A) = [[A(e1 )]], N uc(A) = [[e1 − e2 , e1 − e3 ]].
(d) Im(A) = [[A(e1 ), A(e2 ), A(e3 )]], N uc(A) = {o}.
(e) Im(A) = [[A(e2 )]], N uc(A) = [[e1 , e2 + e3 ]].
(f ) Im(A) = [[A(e1 )]], N uc(A) = [[e1 − e2 ]].

2. Você poderá ter encontrado outros vetores para as bases.

(a) A(x, y, z) = (x + y + 2z, x − y + 2z),


N uc(A) = [[4e1 − 2e3 ]] e Im(A) = R2 .
(b) A(x, y, z) = (2x + z, −3x + y − z, x + 4z),
N uc(A) = {o} e Im(A) = R3 .
(c) A(x, y, z) = (x + z, x + y + 2z, 0, x + y + 2z),
N uc(A) = [[e1 − e2 ]] e Im(A) = [[A(e1 ), A(e2 )]].

3. Você poderá ter encontrado outras transformações.

(a) A(x, y, z) = (2x + y, −x, x + y).


(b) A(x, y, z) = (x + y − z, x + y − z, x + y − z).
(c) A(x, y, z) = (0, 0, x + y).

4. (a) Suponha, por absurdo, que A seja sobrejetiva, isto é equivalente a dizer

que Rn = [[A(e1 ), A(e2 ), . . . , A(em )]]. Logo, o espaço Rn teria um con-

junto de geradores com um número de vetores m < n. Uma contradição.

(b) Suponha, por absurdo, que A seja injetiva, isso é equivalente a dizer que
Rn = Im(A) = [[A(e1 ), A(e2 ), . . . , A(em )]]. Logo, o espaço Rn teria uma
base com um número de vetores m > n. Uma contradição.

5. Não existe. Caso contrário, pelo Teorema do núcleo e da imagem teríamos a

igualdade 11 = 2dim Im(A), uma contradição.

6. Im(A) = [[w3 ]] e N uc(A) = [[(2, −1, 1), (1, 4, 0)]].


7. (b) N uc(A) = [[v0 ]] e Im(A) = [[(1, −1, 0), (1, 0, −1)]].
8. (b) N uc(A) = [[(3, 0, 2), e2 ]] e Im(A) = [[v1 ]].
9. (b) N uc(A) = [[w1 ∧ w2 ]] e Im(A) = [[e1 , e3 ]].
256 Respostas e sugestões Cap. 10

10. (b) N uc(A) = {o} e Im(A) = [[w1 , w2 ]].


11. (b) N uc(B) = [[(1, −1)]] e Im(A) = [[2v1 − v2 ]].

12. (a) Falsa. (b) Falsa. (c) Verdadeira. (d) Falsa.

Seção 6.5

1. Algumas respostas.

(a) (2A − B)(x, y) = (3x + y, −2x + 3y).


B ◦ A(x, y) = (3x − y, x − y).
B ◦ B(x, y) = (3x − y, x − y).
(b) (2A − B) não existe.
B ◦ A(x, y) = (2x + 2y, −2x + y, 6y).
B ◦ B(x, y) = (x, y, 2x − 2y).

2. Somente podemos efeturar a multiplicação na ordem [A] [B]. O produto ma-


2 3
tricial nos dá a matriz da composta A ◦ B onde A : R → R , A(x, y) =

(x + y, −y, 3x) e B : R2 → R2 é denida por B(x, y) = (x + y, 2x).


3. A2 (x, y) = (0, 0) (identicamente nula), logo, Im (A) ⊂ N uc (A). Na verdade,

nesse exemplo a imagem e o núcleo são iguais.

4. Escolha B(e1 ) e B(e2 ) em N uc(A) e dena B(x, y) = xB(e1 ) + yB(e2 ).


5. Todas são verdadeiras.

Capítulo 7
Seção 7.1

1. B ◦ A(x, y) = (x, y) e A ◦ B(x, y, z) = (x, y, 0). Não há contradição alguma,

pois o Corolário diz respeito a operadores lineares.

2. É invertível quando det[A] 6= 0.


257

(a) A−1 (x, y) = ( 12 x, 12 x + y). (c) Não é invertível.


(b) A−1 (x, y) = (x − 2y, − 12 x + y). (d) A−1 (x, y) = ( 21 x + 12 y, 21 x − 12 y).

3. Todas são invertíveis, pois det[A] 6= 0.

(a) A−1 (x, y, z) = (7x − y − z, −3x + y, −3x + z).


(b) A−1 (x, y, z) = (−2x − y + 2z, 4x + y − 3z, x + y − z).
(c) A−1 (x, y, z) = (6x − 11y + 9z, −x + 2y − z, −2x + 4y − 3z).
(d) A−1 (x, y, z) = (x, −x + y, −y + z).
(e) A−1 (x, y, z) = (y, z, x).

4. Ver Corolário 7.1, p. 176, e adapte a demonstração.

5. Seja v = (x, y) ∈ N uc(A), A(v) = xv1 + yv1 = o. Como β é base, então v1


e v2 são l.i. Pela Proposição 5.2, p. 130, x = 0 = y , logo, v = o, ou seja

N uc(A) = {o}. Pela Proposição, 6.3, p. 154, A é injetiva. O Teorema do


núcleo e da imagem garante que A é sobrejetiva, portanto, A é invertível.

6. (a) A3 = id. (b) A−1 = A2 .

7. (b) A(v) 6= o e A ◦ A(v) = o para algum v . Logo, {o} Im(A) ⊂ N uc(A),


implicando que A não é injetiva.

8. (b) Como A3 (v) = o para todo v, então A não é invertível pelos mesmos

argumentos do item anterior.

9. (b) Id = Id − Ak = (Id − A)(Id + A + A2 + · · · + Ak−1 ).

10. (a) Falsa. (b) Falsa. (c) Verdadeira.

Seção 7.2

1. C = B ◦ A−1 (x, y).

(a) C(x, y) = (−y, x), (b) C(x, y) = 13 (2x, x),

B(x, y) = (−x − y, x + y), B(x, y) = (2x + 2y, x + y),


A−1 (x, y) = 12 (x + y, −x + y). A−1 (x, y) = 31 (2x − y, −x + 3y).
258 Respostas e sugestões Cap. 10

(c) C(x, y) = 31 (3y, −2x − y),


B(x, y) = (x + y, x − y),
A−1 (x, y) = 13 (−x + y, x + 2y).

2. C(x, y, z) = B ◦ A−1 (x, y, z).

(a) C(x, y, z) = (−z, x, − 12 x − 32 z),


B(x, y, z) = (−x − y, x − y, x + 2y, 0),
A−1 (x, y, z) = 14 (2x + 2z, −x + 2z, −x + 2y − z).
(b) C(x, y, z) = (x, y, z),
B(x, y, z) = (x + y, x, x + y + z),
A−1 (x, y, z) = (y, x − y, −x + z).
(c) C(x, y, z) = 14 (2x − y + 6z, −2y + 4z, −4x − 2y + 4z),
B(x, y, z) = (x + y + z, x + y, 2y),
A−1 (x, y, z) = 14 (2x − y + 2z, −2x − y + 2z, 2x + y + 2z).

Seção 7.3

1. É suciente fazer a avaliação. (a) A(v) = 4v . (b) A(v) = −2v .

2. O polinômio está decomposto em parcelas indecomponíveis.

(a) p(λ) = (λ − 1)(λ + 2), λ1 = 1, λ2 = −2.


Vλ1 = {(x, y) ∈ R2 ; x − y = 0} = [[(1, 1)]],
Vλ2 = {(x, y) ∈ R2 ; x − 4y = 0} = [[(4, 1)]].
(b) p(λ) = (λ − 6)(λ + 1), λ1 = 6, λ2 = −1.
Vλ1 = {(x, y) ∈ R2 ; 2x − 5y = 0} = [[(5, 2)]],
Vλ2 = {(x, y) ∈ R2 ; −x − y = 0} = [[(1, 1)]].
(c) p(λ) = (λ − 0)(λ − 3), λ1 = 0, λ2 = 3.
Vλ1 = {(x, y) ∈ R2 ; −x − y = 0} = [[(−1, 1)]],
Vλ2 = {(x, y) ∈ R2 ; x − 2y = 0} = [[(2, 1)]].
(d) p(λ) = (λ − 0)(λ − 0), λ1 = 0 = λ2 .
Vλ1 = {(x, y) ∈ R2 ; x − 2y = 0} = [[(2, 1)]].
259

(e) p(λ) = (λ − 1)(λ − 1), λ1 = 1 = λ2 .


Vλ1 = {(x, y) ∈ R2 ; x = 0} = [[(0, 1)]].
(f ) p(λ) = λ2 − 2λ + 2. Não tem autovalor.

3. O polinômio está decomposto em parcelas indecomponíveis.

(a) p(λ) = (λ − 2)(λ − 3)(λ − 6), λ1 = 2, λ2 = 3, λ3 = 6.


Vλ1 = {(x, y, z) ∈ R3 ; x + y − z = 0 e x + y − 3z = 0} = [[(1, −1, 0)]],
Vλ2 = {(x, y, z) ∈ R3 ; x − z = 0 e y − z = 0} = [[(1, 1, 1)]],
Vλ3 = {(x, y, z) ∈ R3 ; 3x − y + z = 0 e x − 3y − z = 0} = [[(1, 1, −2)]].
(b) p(λ) = (λ − 1)(λ − 1)(λ − 4), λ1 = 1 = λ2 , λ3 = 4.
Vλ1 = {(x, y, z) ∈ R3 ; y + z = 0} = [[(1, 0, 0) (0, 1, −1)]],
Vλ3 = {(x, y, z) ∈ R3 ; 3x − y + z = 0 e 2y − z = 0} = [[(1, 1, 2)]].
(c) p(λ) = (λ + 1)(λ − 2)(λ + 2), λ1 = −1, λ2 = −2, λ3 = 2.
Vλ1 = {(x, y, z) ∈ R3 ; x + 2z = 0 e 2x + z = 0} = [[(0, 1, 0)]],
Vλ2 = {(x, y, z) ∈ R3 ; y = 0 e x − z = 0} = [[(1, 0, 1)]],
Vλ3 = {(x, y, z) ∈ R3 ; y = 0 e x + z = 0} = [[(1, 0, −1)]].
(d) p(λ) = (λ − 3)(λ − 2)(λ + 1), λ1 = −3, λ2 = 2, λ3 = 1.
Vλ1 = {(x, y, z) ∈ R3 ; y + 3z = 0 e z = 0} = [[(1, 0, 0)]],
Vλ2 = {(x, y, z) ∈ R3 ; z = 0 e y + 3z = 0} = [[(1, 1, 0)]],
Vλ3 = {(x, y, z) ∈ R3 ; −4x + y + 3z = 0 e − 3y + 3z = 0} = [[(1, 1, 1)]].
(e) p(λ) = (λ − 1)(λ + 1)(λ − 2), λ1 = 1, λ2 = −1, λ3 = 2.
Vλ1 = {(x, y, z) ∈ R3 ; 2x + 2y = 0 e − 2x − y − z = 0} = [[(1, −1, 1)]],
Vλ2 = {(x, y, z) ∈ R3 ; x = 0 e 2x + y + 3z = 0} = [[(0, −3, 1)]],
Vλ3 = {(x, y, z) ∈ R3 ; x = 0 e 2x + 3y = 0} = [[(0, 0, 1)]].
(f ) p(λ) = (λ + 2)(λ2 + 2λ + 2), λ1 = −2.
Vλ1 = {(x, y, z) ∈ R3 ; −4x − 2z = 0 e 2x − 4z = 0} = [[(0, 1, 0)]].
(g) p(λ) = (λ − 0)(λ2 − 4λ + 5), λ1 = 0.
Vλ1 = {(x, y, z) ∈ R3 ; −x + y = 0 e − x − y − z = 0} = [[(1, 1, −2)]].
(h) p(λ) = (λ − 1)(λ2 + 1), λ1 = 1.
Vλ1 = {(x, y, z) ∈ R3 ; −x + 2y = 0 e − y + 2z = 0} = [[(4, 2, 1)]].
(i) p(λ) = (λ + 1)(λ + 1)(λ + 1), λ1 = λ2 = λ3 = 1.
260 Respostas e sugestões Cap. 10

Vλ1 = {(x, y, z) ∈ R3 ; −4x − 3y + 2z = 0} = [[(1, 0, 2) (0, 1, 3/2)]].

4. O polinômio característico de um operador em R3 tem grau 3. Todo polinômio

de grau ímpar com coecientes reais tem pelo menos uma raiz real, e a raiz do

polinômio característico é um autovalor. O resultado é o mesmo para qualquer

operador linear num espaço R2k+1

5. Se o operador A não é invertível, então ele não é injetor, logo, seu núcleo

é não trivial. Sendo assim, existe um vetor não nulo v ∈ N uc(A) tal que

A(v) = o. v é um autovetor associado ao autovalor λ = 0.


Isso signica que

Reciprocamente, se λ = 0 é um autovalor, então existe um autovetor associado


a esse autovalor, digamos que seja o vetor não nulo v . Sendo assim, A(v) = o.

Portanto, o núcleo de A é não trival, implicando que A é não invertível.

6. Se λ é autovalor de A então λn é autovalor de An .

7. Se v é um vetor não nulo tal que A(v) = λ1 v e B(v) = λ2 v , então λ1 + λ2 é

autovalor de A+B e λ1 λ2 é autovalor de B ◦ A.

10) O único autoespaço é Vλ = [[vo ]], onde λ = 0.

11. Existem dois autoespaços. Vλ1 = [[v0 ]] é autoespaço associado ao autovalor

λ1 = 0 e Vλ2 = {(x, y, z) ∈ R3 ; x + 2y + 2z = 0} é o autoespaço associado ao

autovalor λ2 = 1.

12. (a) Polinômio característico: p(λ) = λ2 . Para λ = 0: Vλ = [[(1, −1)]].


(b) Polinômio característico: p(λ) = λ3 . Para λ = 0: Vλ = [[(1, 0, 0)]].

Seção 7.4

1. Considere a matriz [A]t e recupere o operador At .

(a) At (x, y, z) = (y, z, x).


(b) At = A.
(c) At (x, y, z) = (x + y + z, y + z, z).
(c) At (x, y, z) = (x + 2y + z, x − 2y − z, −x + y).
261

2. (c) hv, A(B(w))i = hAt (v), B(w)i = hB t (At (v))v, w)i, ou seja, (A ◦ B)t =
B t ◦ At .
Suponha que v ∈ N uc(At ) e w ∈ Im(A). Sendo assim, w = A(u), para algum

vetor u. Calculando, hv, wi = hv, A(u)i = hAt (v), ui = ho, ui = 0.

3. A demonstração é semelhante à do item anterior.

Seção 7.5

1. Cada operador linear é simétrico, pois sua matriz é simétrica. Para cada ope-

rador, apresentamos o polinômio característico decomposto em fatores lineares

e uma base espectral de R2 relativa ao operador considerado.

n   o
(a) p(λ) = (λ − 16)(λ − 4), √1 , √1 −1 √1
β= 2 2
, √ 2
, 2
.

n   o
(b) p(λ) = (λ − 12)(λ − 2), √1 , √−2 √2 , √1
β= 5 5
, 5 5
.

n   o
√1 , √1 −1 √1
(c) p(λ) = (λ − 8)(λ − 4), β= , √ , .
2 2 2 2
n   o
−1 √3 −3 √ −1
(d) p(λ) = (λ − 0)(λ − 10), β= √ , , √ , .
10 10 10 10

2. Compare com a questão acima. Somente o operador linear do item (d) não

é invertível pois tem um autovalor igual a zero. Isso signica que o operador

tem núcleo não trivial. O restante dos operadores são invertíveis e, é claro,

simétricos. Para cada item na qual o operador é invertível, uma base espectral

para A−1 pode ser a mesma para A. Os autovalores de A−1 são os inversos

multiplicativos dos autovalores de A.

3. Cada operador linear é simétrico, pois sua matriz é simétrica. Para cada ope-

rador, apresentamos o polinômio característico decomposto em fatores lineares

e uma base espectral de R3 relativa ao operador considerado.

(a) p(λ) n
= (λ − 1)(λ − 2)(λ + 2), o
β = e2 , √1 (1, 0, 1) , √1 (−1, 0, 1) .
2 2
262 Respostas e sugestões Cap. 10

(b) p(λ) n
= (λ − 0)(λ − 2)(λ + 1), o
β= √1 (1, 0, −1) , √1 (1, 0, 1) , e2 .
2 2
(c) p(λ) n
= (λ − 0)(λ − 0)(λ − 10), o
β= √1 (−3, 1, 0) , e3 , √1 (1, 3, 0) .
10 10
(d) p(λ) = (λ + 7)(λ + 7)(λ − 2),
β = {e1 , e2 , e3 }.

4. Não existe. Caso contrário, v1 = (1, 2) e v2 = (1, 1) seriam autovetores asso-


ciados aos autovalores λ1 = 3 e λ2 = −2. Pelo Lemma 7.2, p. 195, v1 e v2
deveriam ser ortogonais, mas isso não ocorre.

5. Utilize a construção apresentada na Seção 7.2, p.178.

(a) Os vetores v1 = (−2, 1) e v2 = (1, 2) são ortogonais, portanto, formam


2 14 2 2 11

de R . A(x, y) =
uma base
5 x + 5 y, 5 x + 5 y .
(b) Os vetores v1 = (3, 1) e v2 = (−1, 3) são ortogonais, portanto, formam
2 1 3 1 3

uma base de R . A(x, y) = − x + y, x − y
10 10 10 10 .
(c) Como A(1, 2) = 2(1, 2) devemos denir num vetor perpendicular, di-
gamos v2 = (−2, 1) o valor A(−2, 1) = −(−2, 1). Pelo processo des-
crito na Seção 7.2, p. 178, o operador linear procurado é A(x, y) =

− 52 x + 65 y, 65 x − 75 y .


6. O polinômio característico da identidade é p(λ) = (λ − 1)n . Todos os n auto-


n
valores são iguais a λ = 1 e todos os vetores do R são autovetores associados,
n
isto é, Vλ = R .

7. O operador linear é A(x, y, z) = (−4x − 2y − 2z, −2x + y + z, −2x + y + z).

(a) Verica-se matricialmente que A é simétrico.

(b) O autoespaço correspondente ao autovalor λ1 = 6 = kv0 k é Vλ1 = [[v0 ]].


O autoespaço correspondente ao autovalor λ2 = 0 (com repetição 2) é
Vλ2 = [[(1, 2, 0), (0, 1, −1)]]. Observe que os vetores desse último autoes-

paço são ortogonais a v0 .

8. Utilize diretamente a denição de operador simétrico.


263

(a) Verica-se que hv, A(w)i = hv, vo i hw, vo i = hA(v), wi, ∀ v, w ∈ Rn .


(b) Os autovalores são λ = kv0 k e λ = 0 com repetição n − 1. Agora,

Vλ1 = [[v0 ]] e Vλ2 = {v ∈ Rn ; hv, vo i = 0}.


t
9. O operador A = B t ◦B é simétrico, pois At = (B t ◦B)t = B t ◦B t = B t ◦B = A.
Sendo assim, pelo Teorema espectral, as raízes do polinômio característico de

A são reais. Seja λ um autovalor e v um autovetor associado. Calculemos,

λkvk2 = hv, A(v)i = hv, B t ◦ B(v)i = hB(v), B(v)i = kB(v)k2 ≥ 0.

Como kvk ≥ 0, pois é um autovetor, segue que λ ≥ 0.

10. Se A é invertível, então um autovetor de A associado a um autovalor λ é um

autovetor de A
−1 associado ao autovalor 1 . Logo, uma base espectral para A
λ
é uma base espectral para A
−1 .

Capítulo 8
Seção 8.1
1. Ver Exemplo 5.13, p. 142.
 √ 
(a) Se v = − 23 , 21 e U = [u, v], então det[U ] = 1. Polinômio característico

p(t) = λ2 − λ + 1, sem raízes reais.



3 1
(b) Se w=( 2 , −2) = −v , U = [u, w] é simétrico e ortogonal com det[U ] =
−1. Polinômio característico: p(t) = λ2 − 1 = (λ − 1)(λ + 1). Os
autoespaços associados a λ = 1 e a λ = −1 são, respectivamente,
√ √
Vλ1 = [[( √35 , √15 )]] e Vλ2 = [[(− √15 , √35 )]]. Os geradores formam uma
base espectral para U2 .

2. Se U é da forma U (x, y) = (cos t x − sen t y, sen t x + cos t y), para algum


t ∈ [0, 2π), o determinante é igual a 1 e o o polinômio característico é p(λ) =
λ2 − 2cos t λ + 1 com discriminante ∆ = 4cos2 t − 4 ≤ 0. Portanto, para todo
t ∈ (0, 2π) o operador não tem autovalor, exceto quando t = 0 e nesse caso
U = Id e todo vetor do R2 é autovetor.
264 Respostas e sugestões Cap. 10

Se U é da forma U (x, y) = (cos t x + sen t y, sen t x − cos t y), para algum


t ∈ [0, 2π), ele é um operador ortogonal e simétrico. O determinante é igual a
−1 e o polinômio característico é p(λ) = λ2 − 1 = (λ − 1)(λ + 1). Portanto,
sempre tem autovalores.

3. Todos são operadores ortogonais.

4. Sejam U1 e U2 operadores ortogonais em Rn . Calculemos

(U1 ◦ U2 )t ◦ (U1 ◦ U2 ) = (U2t ◦ U1t ) ◦ (U1 ◦ U2 ) = U2t ◦ Id ◦ U2 = U2t ◦ U2 = Id.

Seção 8.2

1. A solução segue o roteiro utilizado no Exemplo 8.4, p. 208.


(a) Operador ortogonal. Polinômio característico: p(λ) = (λ−1)(λ2 − 2λ+
1). Autoespaço associado ao único autovalor λ1 = 1: V = [[(e2 ]]. Su-

bespaço bidimensional invariante e ortogonal a este autoespaço: Γ =

[[e1 , e3 ]].
(b) Operador ortogonal e simétrico. Polinômio característico:
hh ii p(λ) = (λ −
1)2 (λ
+ 1). Vλ1 =1 = √1 , √1 , 0 . Espaço bidimensional invariante:
hh  ii 2 2
Γ= √1 , − √1 , 0 , e3 . Os geradores constituem uma base espectral.
2 2

2. Polinômio característico p(λ) de um operador Rn tem grau n. Se n é


U em

ímpar, então p(λ) tem pelo menos uma raiz real. Seja v um autovetor associado

ao autovalor λ. Como U preserva norma, kvk = kU (v)k = |λ|kvk, logo, |λ| = 1.

3) Utilizaremos a construção apresentada na Seção 7.2, p.178. Escolhemos duas

bases ortonormais do R3 : i) α = {v1 , v2 , v3 } é tal que os dois últimos elementos


formam uma base para Γ e o primeiro elemento, é claro, é um vetor normal a

esse subespaço; ii) β = {w1 , w2 , w3 } tal que os dois últimos elementos formam

uma base para Π e o primeiro é um vetor normal a esse subespaço. Feito

isso, considere o operador denido pela matriz [U ] = [B] [A]


−1 , onde [A] =

[v1 , v2 , v3 ] e [B] = [w1 , w2 , w3 ]. U é ortogonal, pois A e B o são.

4. (a) Dado um vetor v ∈ S2 temos kU (v)k = kvk = 1, então U0 (v) ∈ S2 .


265

(b) Segue do fato de U0 ser invertível.

(c) Escolha um autovalor λ tal que |λ| = 1 e um autovetor unitário associado


v. Sendo assim, A(v) = v ou A(v) = −v .

5. v = (a, b, c) ∈ V se, e somente se, b = 0. Verique que A(a, 0, c) tem a segunda


coordenada igual a zero.

Seção 8.4

1. Todos são operadores normais.

(a) At ◦ A = 9Id = A ◦ At . (c) C t = C (simétrico).

(b) Bt ◦ B = Id = B ◦ B t (unitário).

2. Verica-se matricialmente.

(a) At = −A, A ◦ At = −A2 = At ◦ A.


logo,

(b) A ◦ At = Id = At ◦ A, ou seja, A é um operador ortogonal.

(c) Não é normal.

3. Verica-se matricialmente.

(a) A ◦ At (x, y, z) = (2x, y, 2z) = At ◦ A(x, y, z) e det[A] = 2.


t t
(b) A−1 ◦ A−1 (x, y, z) = (2x, y, 2z) = A−1 ◦ A−1 (x, y, z).

4. kA(v)k2 = hA(v), A(v)i = hAt (v), At (v)i = kAt (v)k2 . Logo, A(v) = o ⇔
At (v) = o.
t t
5. (a) B t = A + At = At + At = At + A = B .
t
(b) B t = (A ◦ At )t = At ◦ At = A ◦ At = B .
(c) Considere a composta A ◦ A−1 = Id. Calculando a transposta dessa
t t
composição obtemos A−1 ◦ A = Id, ou seja A−1 = A−1 .

6. (a) At ◦ A = −A2 = A ◦ At .

(b) det[A] = det[A]t = det(−[A]) = (−1)n det[A]. n é ímpar, então Se

det[A] = − det[A]. Isso implica que det[A] = 0. Logo, A não é invertível.


266 Respostas e sugestões Cap. 10

(c) Matricialmente, temos a igualdade [A]t = −[A]. Como as entradas das

diagonais de ambas matrizes são iguais, segue que essas entradas são

nulas, pois aii = −aii .


t
(d) At = (B − B t )t = B t − B t = B t − B = −A.

7. Sim. Por exemplo, o operador U e R2 cuja matriz é

" #
0 −1
[U ] =
1 0

Capitulo 9
Seção 9.1
1. (a) α e β são bases, pois det[v1 , v2 ] 6= 0 e det[w1 , w2 ] 6= 0.

(b) Utilize regra de Cramer.

" # " #
1 4
i) [v]α = . [v]β = .
0 −1
" # " #
7 1
ii) [v]α = . [v]β = .
−10 3
" # " #
8 5
iii) [v]α = . [v]β = .
−10 2
" # " #
22 −8
iv) [v]α = . [v]β = .
−32 2

2. (a) α e β são bases, pois det[v1 , v2 , v3 ] 6= 0 e det[w1 , w2 , w3 ] 6= 0.

(b) Utilize regra de Cramer.

  
1
1
 3 
i) [v]α =  0 . [v]β =  1 .
 
0 − 13
267

   
0 −2
 31
ii) [v]α =  1 . [v]β =  .
  
3
2
−2 3
   
−1 −1
 32
iii) [v]α =  1 . [v]β =  .
  
3
2
−2 3
   
0 −4
 31
iv) [v]α =  2 . [v]β =  − 3 .
  
−3 2

3. O conjunto α é uma base, pois det[v1 , v2 ] =6= 0.


(a) v = (3, 2). (b) v = (3, 4). (c) v = (3, −2). (d) v = (6, 6).

4. O conjunto α é uma base, pois det[v1 , v2 ] = 2 6= 0.


(a) v = (−1, 1). (b) v = (1, 1). (c) v = (−5, 1). (d) v = (0, 2).

Seção 9.2

1. De fato, α é base de R2 .
" # " #
−1 −3 2 5
(a) [A]αC2
= . (d) [A]αC2 = .
1 2 3 13
" # " #
1 2 2 4
(b) [Id]α
C2 = . (e) [A]α
C2 = .
1 3 0 0
" # " #
1 2 1 2
(c) [A]α
C−2 = . (f ) [A]α
C2 = .
2 5 −1 −3

2. De fato, α e β são bases de R2 .


" # " #
−7 −19 1 0
(a) [A]α
β = . (c) [A]α
β = .
3 8 0 1
" # " #
3 4 0 −1
(b) [Id]α
β = . (d) [A]α
β = .
−1 −1 1 3
268 Respostas e sugestões Cap. 10

" # " #
10 20 7 16
(e) [A]αβ = . (f ) [A]αβ = .
−4 −8 −3 −7

3. Utilize regra de Cramer.


  
1 2 3 −1
β
(a) [A]Cγ =  0 1 . (c) [A]C =  1 −1 .
   
2 −3 −1 5
   
1 0 1 1
β
(b) [A]Cγ =  0 1 . (d) [A]γ =  1 −1 .
   
0 0 0 0

4. Observe, por exemplo, que Id(e1 ) = 0v1 + 0v2 + 1v3 .


   
0 1 0 0 0 1
C
(a) [Id]α =  0 0 1 .
 
(b) [Id]Cα =  1 0 0 .
 
1 0 0 0 1 0
(c) [Id]α C
C [Id]α = [Id].

5. Observe quee1 = v1 + 0v2 − v3 , e2 = −v1 + v2 + 2v3 e e3 = v1 − v2 − v3 .


   
1 0 0 1 −1 1
β C
(a) [A]C =  1 0 0 . (c) [A]β =  0 0 0 .
   
1 0 0 0 0 0
   
1 0 0 1 −1 1
β C
(b) [A]β =  0 0 0 . (d) [A]C =  1 −1 1 .
   
0 0 0 1 −1 1

6. Observe quee1 = v1 + 0v2 − v3 , e2 = −v1 + v2 + 2v3 e e3 = v1 − v2 − v3 .


   
3 3 0 3 0 0
β β
(a) [A]C =  3 0 3 . (b) [A]β =  0 3 0 .
   
3 −3 3 0 0 3
269

   
3 −3 3 3 0 0
(c) [A]Cβ =  0 3 −3 . (d) [A]CC =  0 3 0 .
   
−3 6 −3 0 0 3

7. [A]α
C = [A(v1 ), A(v2 ), A(v3 )].

8. Pela Proposição 6.4, p. 160, det[A(v1 ), A(v2 ), ..., A(vn )] = det[A] det[v1 , v2 , ..., vn ].

(a) 1o ) A é invertível⇔ det[A] 6= 0. 2o ) α é base ⇔ det[v1 , ..., vn ] 6= 0. Logo,

det[A(v1 ), ..., A(vn )] 6= 0 implicando que β é uma base.


(b) [A]α
β = [Id] (matriz identidade).

9. Observe que A(e1 ) = 3v1 + 2v2 .


(a) A(x, y) = (8x + 5y, 11x + 7y). (b) B(x, y) = (11x + 15y, 15x + 22y).

Seção 9.3

1. Um produto matricial tem origem numa composta de transformações lineares,

como indicado no Teorema 9.1, p. 223. Neste exercício estamos tratando de

uma composição de operadores AeB em Rn , composição feita na ordem A◦B ,

B / A / n
Rn Rn 8R .
A◦B

A notação somente faz sentido quando a base do domínio de A, indicada

no índice matricial superior [A]∗ , for a mesma base do contradomínio de B,



indicada no índice matricial inferior, [B]∗ , esquematicamente, [A] [B]∗ . Por
α β
exemplo, [A]α [B]α , decorre da composta

Rnβ
B / A /
Rnα n
8 Rα .
A◦B
270 Respostas e sugestões Cap. 10

(a) Não. (d) Sim. [A ◦ B]αα . (g) Sim. [A ◦ B]αα .


(b) Sim. [A ◦ B]βα . (e) Sim. [A ◦ B]ββ .
(c) Não. (f ) Não. (h) Sim. [A ◦ B]ββ .

2. (a) Pela Proposição 9.1, p. 222.


   

2 1 1
i. [A(u)]α =  1 . ii. [A(v)]α =  0 . iii. [A(w)]α =  0 .
     
3 1 1
(b) Relembre que A(u) = 2v1 + v2 + 3v3 .

i. A(u) = (47, 2, 6). ii. A(v) = (2, 0, 1). iii. A(w) = (4, 1, 4).

(c) det[A]α
β = 0, pelo Corolário 9.1, p. 224, A não é invertível.
(d) Seja v ∈ N uc(A). Suponha que a representação matricial desse vetor

seja  
a
[v]α =  b  .
 
c
Como [A(v)]β = [A]αβ [v]α = [o]β devemos resolver o sistema linear
   
1 1 0 a 0
 0 1 1   b  =  0 .
    
1 2 1 c 0
Feito isso, obtemos b = −a, c = a. Portanto, todos os vetores do núcleo
são da forma v = av1 − av2 + av3 = a(v1 − v2 + v3 ), logo, N uc(A) =
[[(0, 1, −2)]].
β
(e) [A]C = [v1 , v2 , v3 ].
(f ) Pelo Teorema 9.2, p. 224, [A ◦ A]αα = [A]αα [A]αα . Efetue o produto.

3. Os ítens são aplicações do Teorema 9.1, p. 223.

(a) Se A : Rnβ → Rnβ , então [A ◦ A]ββ = [A]ββ [A]ββ .


(b) Utilize o processo indutivo para a demonstração.

4. Para determinar [Id]Cβ devemos encontrar a combinação linear Id(ej ) = ej =


a1j v1 + a2j v2 + a3j v3 . Por exemplo, e1 = −v1 + v2 + v3 .
271

 
β
(a) [A]C = [v1 , v2 , v3 ]. −1 −1 −2
(b) [Id]Cβ =  1 1 −1  .
 
β
(c) [Id]C [Id]Cβ = [Id]. 1 0 −1

Seção 9.4

1. A base β = {v1 , v2 , v3 } é ortonormal.

β
(a) [Id]C3 = [v1 , v2 , v3 ]. Como a base é ortonormal, [Id]βC é ortogonal.

−1 t
(b) Pelo Corolário 9.3, p. 226, [Id]Cβ3 = [Id]βC3 = [Id]βC3 , pois são matrizes

ortogonais.

2. (a) det[v1 , v2 ] = 1 = det[w1 , w2 ], logo, α e β são bases.

(b) Utilizando identidades trigonométricas obtemos

" #
cos(µ − θ) −sen(µ − θ) t
[Id]αβ = = [Id]βα .
sen(µ − θ) cos(µ − θ)

3. (b) é verdadeiro. O operador A corresponde a uma rotação do plano em torno


da origem por um ângulo θ. O operador B é a identidade, ou seja, B = Id
e [Id]βC2 é a matriz mudança de coordenadas da base ordenada ortonormal

β = {(cos θ, sen θ), (−sen θ, cos θ)} para a base canônica C2 .

Seção 9.5

√ √
1. (a) λ1 = 1 + 10 e λ2 = 1 − 10. (b) det[A] = λ1 λ2 = −9.

k
2. [M ] = [R]−1 [N ] [R] ⇒ [M ]k = [R]−1 [N ][R] = [R]−1 [N ]k [R].

det ([A] [B]) = det [B]−1 [B] [A] [B] e conclua que

3. Observe que os polinômios

característicos são iguais. Não é verdade que os autoespaços sejam os mesmos.

t
4. Utilize a igualdade matricial [U ]αα = [Id]αCn [U ] [Id]αCn .

Seção 9.6
272 Respostas e sugestões Cap. 10

1. (a) Operador ortogonal. Polinômio característico: p(λ) = (λ−1)(λ2 +λ+1).


O fator de grau 2 não tem raízes reais. Operador não é diagonalizável.

(b) Operador simétrico. Pelo Teorema espectral ele é diagonalizável. Polinô-

mio característico: p(λ) = (λ − 2)(λ − 6)(λ − 3). Base espectral, com


autovetores são associados aos autovalores λ1 = 2, λ2 = 6 e λ3 = 3,
respectivamente,
 
1 1 1
β= √ (1, 0, −1), √ (1, 2, 1), √ (2, −2, 2) .
2 6 12
Também podemos justicar a diagonalização pelo Lema 7.1, p. 188.

(c) Polinômio característico: p(λ) = λ(λ − 3). Raízes distintas e reais, pelo

Lema 7.1, p. 188, o operador é diagonalizável. A base que diagonaliza o

operador não é ortogonal: β = {(1, −1), (2, 1)}.


(d) Polinômio característico: p(λ) = (λ − 1)(λ + 1). Pelo Lema 7.1, p. 188,

ele é diagonalizável. Base que diagonaliza: β = {(2, 1), (0, 1)}.


(e) Não é diagonalizável. λ=0 é a única raiz real de p(λ) = λ(λ2 + 3).
(f ) Diagonalizável.p(λ) = λ2 (λ − 1).
√ √ √
3
(g) Não é diagonalizável. p(λ) = (λ − 3
2)(λ2 + 3
2λ + 22 ). O fator de

grau 2 não tem raízes reais.

(h) Polinômio característico: p(λ) = (λ − 1)3 . Três raízes reais, entretanto,


o autoespaço associado, V = [[((1, 0, 0)]] é unidimensional. Não existem

três autovetores l.i. associados a λ1 = 1.

(i) Operador diagonalizável. Polinômio característico: p(λ) = (λ − 2)3 .


Vλ1 =2 = R3 . Qualquer conjunto de três vetores l.i.
3
em R constituem

uma base que diagonaliza. Operador simétrico.

(j) O operador não é diagonalizável. Polinômio característico: p(λ) = (λ −


2)3 . Vλ1 = [[e1 , e2 ]].

2. Operador simétrico. Polinômio característico: p(λ) = (λ − 4)(λ + 2). Base

espectral respeitando-se a ordem dos autovalores,


   
1 1 1 1
β= √ ,√ , −√ , √ .
2 2 2 2
273

(a) Pela Proposição 9.3, p.231, vale a conjugação [A]ββ = [Id]Cβ [A] [Id]βC .
Como β é uma base espectral, então

" #
4 0
[A]ββ = .
0 −2

Pelo Teorema 9.1, p. 223, segue que

" #10 " #


β 10 4 0 410 0
[A10 ]ββ = [A]β = = .
0 −2 0 (−2)10

Para calcular A10 , é suciente calcular [A10 ] = [A]10 . Pela Proposição

9.3, p. 231, vale a conjugação [A] = [Id]βC [A]ββ [Id]Cβ . Multiplicando-se

duas vezes ambos os membros desse conjugação:

[A2 ] = [A]2
= [Id]βC [A]βC [Id]Cβ [Id]βC [A]ββ [Id]Cβ
| {z }
[Id]
2
= [Id]βC [A]ββ [Id]Cβ .

A Proposição 9.3, p. 226), justica a igualdade [Id]Cβ [Id]βC = [Id], ou


β −1
seja, [Id]Cβ = [Id]C . Pelo mesmo argumento, temos

10
[A10 ] = [A]10 = [Id]βC [A]ββ [Id]Cβ .

Como a base canônica é ortonormal e, por denição de base espectral,

a base β é ortonormal, segue que a matriz mudança de coordenadas é


−1 t
ortogonal, Proposição 9.2, p. 228). Portanto, [Id]Cβ = [Id]βC = [Id]βC .

Sendo assim,
t 10
[A10 ] = [Id]Cβ [A]ββ [Id]Cβ .

Substituindo,

" # " #" #


√1 − √12 410 0 √1 √1
[A10 ] = 2 . 2 2 .
√1 √1 0 (−2)10 − √12 √1
2 2 2
274 Respostas e sugestões Cap. 10

Um cálculo matricial nos dá, após simplicação,


" #
219 + 29 219 − 29
[A10 ] = .
219 − 29 219 + 29

(b) Pela Proposição 9.4, p. 232,


 10

p(λ) = det λ[Id] − [A]ββ = λ − 410 λ − (−2)10 .
 

(b) Dena B utilizando a representação matricial


" √ #
3
4 0
[B]ββ = √
3
.
0 −2

3. As soluções são obtidas estudando os autovalores λ1 , λ2 , ..., λn de A. Por

hipótese, A é simétrico. O Teorema espectral garante que o polinômio carac-

terístico de A tem n raízes reais.

(a) Seja β uma base espectral de A. Como [Id]ββ = [Id] e, pelo Teorema 9.1,
k β βk
p. 223, [A ]β = [A]β , a igualdade Ak = Id implica na igualdade
   
λk1 0 ··· 0 1 0 ··· 0
 0 λk2 ··· 0   0 1 ··· 0 
   
.  =  . . .
 . .
  .

 . . . . . .
 . . .   . . . 
0 0 · · · λkn 0 0 ··· 1

Logo, todo autovalor de A satisfaz a condição λki = 1. Isso signica que

λi = 1 ou λi = −1. Seja qual for o valor, vale a igualdade λ2i = 1. Logo,

[A2 ]ββ = [Id] = [Id]βα ⇒ A2 = Id.


(b) Seja v um autovetor associado ao autovalor λi . Vale as implicações:
A(v) = λi v ⇒ o = A2 (v) = A(λi A(v)) = λi A(v) = λ2i v ⇒ λi = 0. Sendo
assim, a representação matricial de A na base espectral é identicamente
β
nula, [A]β = [0]. Logo, A é identicamente nula.

(c) Construa um operador não identicamente nulo B tal que Im(B) ⊂


Im(B). Utilize o processo construtivo visto na Seção 7.2, p. 178. Por

exemplo, verique que B(x, y) = (4x − 8y, 2x − 4y) é tal que B 2 ≡ o.


275

4. i) (a − d)2 + 4cb > 0 ou ii) a=d e b=c=0

5. Utilize a Teoria de diagonalização par mostrar que

    
1 0 0 110 0 0 3 0 0
 1
[A]10 =  −1 3 0   0 210 0   1 1 0 .
  
3
−1 2 1 0 0 (−1)10 1 −2 3

6. (a) Não pode ser simétrico, pois os autoespaços não são ortogonais.
(b) Não é invertível, pois det[A] = λ1 λ2 λ3 = 0. Os autovalores são distintos,

logo, diagonalizável. Portanto, podemos aplicar o Corolário 9.5, p. 238.

   
λ1 0 0 −4 −5 −2
β
(c) [A]β =  0 λ2 0 . (d) [A] =  4 5 2 .
   
0 0 λ3 −2 −2 1

8. (a) Verdadeira. (b) Verdadeira. (c) Verdadeira.


276 Respostas e sugestões Cap. 10
Referências Bibliográcas
[1] Andrade Plácido Álgebra Linear - um curso em dez lições Juazeiro do

Norte: Pré-print UFCa, 2015. 210 p.

[2] Artin, Emil Galois Theory (Notre Dame Mathematical Lectures, Number 2).

Notre Dame, Indiana : University of Notre Dame, 1971 82 p.

[3] Birkhoff, Garrett & Mac lane, Saunders A Survey of Modern Algebra
London: A K Peters/CRC Press, 1rd ed, 1998. 512 p.

[4] Bix, R. Conics and Cubics: A Concrete Introduction to Algebraic Curves New

York, NY: Springer, 2rd edition, 2006. (Undergraduate Texts in Mathematics).

345 p.

[5] Boldrini, José Luiz et al Álgebra Linear São Paulo, SP: Harbra, 3a ed,

1986. 408 p.

[6] Cullen, Charles G. Matrices and Linear Transformations . Addison-Wesley

Comp, 2nd ed. 1990. 315 p.

[7] Garcia, A. & Lequain, Y. Elementos de Álgebra Rio de Janeiro, RJ: Insti-

tuto de Matemática Pura e Aplicada, (Projeto Euclides) 2003. 326 p.

[8] Greub, Wener H. Linear Algebra Linear Algebra (Graduate Texts in Mathe-

matics, v. 23) New York, NY: Springer-Verlag, 1981. 450 p.

[9] Halmos, Paul R. Espaços vetoriais de dimensão nita Rio de Janeiro, RJ:

Ed. Campus, 1978.

[10] Hefez, Abramo Curso de Álgebra, v. I. Rio de Janeiro, RJ: Instituto de

Matemática Pura e Aplicada, 1997. (Coleção Matemática Universitária).

277
278 Referências

[11] Herstein, Israel I. Tópicos de Álgebra . São Paulo, SP: Editora Polígono,

1970. 380 p.

[12] Hoffman, K. & Kunze, R. Linear Algebra Pearson Education Taiwan Li-

mited. 2011. 165 p.

[13] Lang, Serge Estruturas Algébricas Rio de Janeiro, RJ.: Ao Livro Técnico

S/A, 1972. 165 p.

[14] Lang, Serge Linear Algebra Rio de Janeiro, RJ.: Cência Moderna, 1a ed.

2003. 405 p.

[15] Lang, Serge Algebra USA: Springer, Rev. 3nd. ed. 2005.

[16] Lima, Elon L. Álgebra Linear Rio de Janeiro, RJ: IMPA, 4a ed. 2000. 357 p.

[17] Lima, Elon L. Coordenadas no Espaço Rio de Janeiro, RJ: SBM Coleção
a
Professor de Matemática. 1 ed. 1993. 163 p.

[18] dos Santos, Nathan. M. Vetores e Matrizes - Uma introdução à Álgebra


linear. São Paulo, SP: Thomson Pioneira, 4a ed, 2007. 288 p.

[19] Serfati, M. et al. Exercises de mathématiques: Algebre, v. 4 Paris: Société

D'Édition D'Enseignement Supérieur, 1969. 165 p.

[20] Shilov, George S. Linear Algebra New York: Dover Publications, Inc., 1977.

387 p.

[21] Steinbruch, A. & Winterle, P. Introdução à Álgebra Linear São Paulo:

Person Education, 1997. 245 p.


Índice Remissivo
At , 192 det[A], 34
Id, 151 det[v1 , v2 , . . . , vn ], 34

Im(A), 152 ei , 19
N uc(A), 152 v ∧ w, 95
[A], 157
Adjunta clássica, 49
[A]−1 , 48
Angulos diretores, 93
[A]jib , 36
Aplicação, 1
[Id], [Id]n , 32
identidade, 151
[Id]αβ , 228
Autoespaço, 184
[O], 30
Autovalor, 183
[Sa ], 81
Autovetor, 183
[[v1 , v2 , . . . , vn ]], 122
[v]α , 217
Base
[v1 , v2 , . . . , vk ], 21
canônica, 19
kvk, 85
denição, 18
([Id]), 74
ortonormal, 141
hv, wi, 83
[A]αβ , 221 Coecientes da combinação linear, 16
E2 , E3 , 4 Cofator, 49
Rn , 1 Colinear, 3
Rnα , 220 Combinação linear, 16
S2 , 210 Composição, 168
Cn , 19 Comprimento de segmento orientado, 9
M(n, m), 30 Conjunto
Sn , 40 de geradores, 127

θ(v, w), 91 solução, 79

b, 128 Coordenadas de um vetor, 2

279
280 ÍNDICE REMISSIVO

Delta de Kronecker, 38 Linearmente

Desenvolvimento de Laplace, 37 dependente, 129

Desigualdade independente, 130

de Cauchy-Schwarz, 87
Método Gauss-Jordan, 73
triangular, 88
Matriz
Determinante
adjunta clássica, 49
denição, 33
ampliada, 80, 81
Diagonalização, 237

Dimensão de um subespaço, 139


canônica de A, 157

Distância, denição, 210


das coordenadas do vetor v, 217

de uma transformação, 157

Escalar, 2 denição, 29

Escalonamento, 70 dos cofatores, 49

Esfera unitária canônica, 210 elementar, 74

Espaço equivalente, 72

cartesiano, 7 escada, 70

euclidiano, 4 identidade, 32

métrico, 211 inversa, 47

vetorial, denição, 3 mudança de coordenadas, 228

nula, 30
Fórmula
quadrada, 32
de Cardano-Tartaglia, 189
reduzida, 36
de Lagrange, 97
simétrica, 194
Função, 1
transposta, 42

triangular inferior, 73
Geradores de um subespaço, 127
Matrizes
Gram-Schmidt, 144
conjugadas, 232

Homotetia, 151 semelhantes, 232

Identidade cíclica, 99 Núcleo de uma transformação linear, 152

Imagem de uma transformação linear, 152Norma, 85

Inverso aditivo, 3 Normalização de um vetor, 89

Isomorsmo, 171
Operação elementar, 71, 79

Lei do paralelogramo, 90 Operador


ÍNDICE REMISSIVO 281

antisimétrico, 214 Segmento

de Gram, 215 denição, 5

diagonalizável, 237 orientado, 5

linear, 171 Segunda desigualdade triangular, 89

negativo, 198 Sistema de coordenadas, 6

normal, 213 Soma de transformações lineares, 167

positivo, 198 Subespaço

transposto, 192 denição, 117

invariante, 208
Paralelogramo, 10
próprio, 118
Permutação, 40
trivial, 118
Plano
vetorial, 117
cartesiano, 6

euclidiano, 4 Teorema

Polinômio característico, 184 da classicação das isometrias, 212

Pontos, 4 do núcleo e da imagem, 163

Processo de ortogonalização espectral, 195, 197

de Gram-Schmidt, 144 Traço de uma matriz, 186

Produto Transformação linear, 147

de matrizes, 31 injetiva, 154

escalar, 83 invertível, 171

interno sobrejetiva, 154


n
canônico do R , 83 Translação, 211

vetorial, 95 Transporte paralelo, 10

vetorial duplo, 99 Transposição k−elementar, 41

Quadrilátero, 10 Vetor

localizado, 5
Regra de Cramer, 27
normal à reta, 100
Representação normal a um plano, 102
matricial de uma transformação, 220 nulo, 3
matricial de vetor, 217 unitário, 89
Representação de um vetor, 7 Vetores ortogonais, 92
Reta

suporte, 5

Potrebbero piacerti anche