Sei sulla pagina 1di 256

Isabel Cabral

Cecı́lia Perdigão
Carlos Saiago

ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA

2006/2007
(Versão Provisória)
Índice

0 Preliminares 1

0.1 Notações envolvendo conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . 1

0.2 O conjunto dos números complexos: algumas definições e resultados . . . . . 3

0.3 Propriedades da adição e da multiplicação em R e em C . . . . . . . . . . . . 6

0.4 Propriedades de operações envolvendo conjuntos arbitrários . . . . . . . . . . 10

1 Matrizes 13

1.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

1.2 Operações com matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

1.3 Inversa de uma matriz quadrada . . . . . . . . . . . . . . . . . . . . . . . . . 28

1.4 Transposição de matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

1.5 Conjugada/Transconjugada de uma matriz . . . . . . . . . . . . . . . . . . . 35

1.6 Transformações elementares sobre linhas de uma matriz. Matrizes elementares 37

1.7 Matrizes em forma de escada. Caracterı́stica de uma matriz . . . . . . . . . . 40

1.8 Caracterizações das matrizes invertı́veis . . . . . . . . . . . . . . . . . . . . . 47

Soluções de alguns dos exercı́cios propostos . . . . . . . . . . . . . . . . . . . 53

2 Sistemas de Equações Lineares 55

Soluções de alguns dos exercı́cios propostos . . . . . . . . . . . . . . . . . . . 71

iii
3 Determinantes 73

Soluções de alguns dos exercı́cios propostos . . . . . . . . . . . . . . . . . . . 101

4 Espaços Vectoriais 103

4.1 Espaços vectoriais: Definição, exemplos e propriedades . . . . . . . . . . . . . 103

4.2 Subespaços vectoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

4.3 Dependência e independência linear . . . . . . . . . . . . . . . . . . . . . . . 126

4.4 Sequências geradoras e sequências independentes . . . . . . . . . . . . . . . . 132

4.5 Bases do espaço soma de dois subespaços . . . . . . . . . . . . . . . . . . . . 149

Soluções de alguns dos exercı́cios propostos . . . . . . . . . . . . . . . . . . . 157

5 Aplicações Lineares 159

5.1 Aplicações lineares: Definição, exemplos e propriedades . . . . . . . . . . . . 159

5.2 Imagem de uma aplicação. Núcleo de uma aplicação linear . . . . . . . . . . . 166

5.3 Composição de aplicações. Aplicações invertı́veis/bijectivas . . . . . . . . . . 178

5.4 Matriz de uma aplicação linear . . . . . . . . . . . . . . . . . . . . . . . . . . 183

Soluções de alguns dos exercı́cios propostos . . . . . . . . . . . . . . . . . . . 196

6 Valores e Vectores Próprios 197

6.1 Valores, vectores e subespaços próprios de uma matriz . . . . . . . . . . . . . 197

6.2 Matrizes diagonalizáveis: Definição e caracterizações . . . . . . . . . . . . . . 204

6.3 Valores e vectores próprios de um endomorfismo . . . . . . . . . . . . . . . . 210

Soluções de alguns dos exercı́cios propostos . . . . . . . . . . . . . . . . . . . 215

7 Produto Interno, Produto Externo e Produto Misto


(Resumo) 217

7.1 Produto interno de vectores de R3 . . . . . . . . . . . . . . . . . . . . . . . . 217

iv
7.2 Produto externo e produto misto de vectores de R3 . . . . . . . . . . . . . . . 227

8 Geometria Analı́tica
(Resumo) 237

8.1 Representações cartesianas da Recta e do Plano . . . . . . . . . . . . . . . . . 237

8.2 Problemas não métricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243

8.3 Problemas métricos: distâncias e ângulos . . . . . . . . . . . . . . . . . . . . 246

v
Capı́tulo 0

Preliminares

0.1 Notações envolvendo conjuntos

Sejam A e B conjuntos. Se A e B têm os mesmos elementos escrevemos A = B. Caso


contrário, escrevemos A 6= B. Utilizamos a notação A ⊆ B, e lemos “A está contido em B”
ou “A é subconjunto de B”, para representar que todo o elemento do conjunto A é também
elemento do conjunto B, isto é,

∀x x ∈ A =⇒ x ∈ B.

Caso contrário, escrevemos A 6⊆ B. Neste caso, dizemos que “A não está contido em B” ou
que “A não é subconjunto de B” o que equivale a afirmar que existe pelo menos um elemento
de A que não pertence ao conjunto B, isto é,

∃x x ∈ A ∧ x 6∈ B.

Usamos a notação A $ B com o significado

A ⊆ B ∧ A 6= B.

Tem-se
A = B se, e só se, A⊆B e B⊆A,

pelo que utilizaremos frequentemente uma das implicações anteriores para demonstrar que
dois conjuntos são iguais.

Alguns conjuntos podem ser obtidos a partir de outros através de operações sobre estes,
das quais as mais conhecidas são a união e a intersecção de conjuntos. A união (também
2

designada por reunião) dos conjuntos A e B, que se denota por A∪B, é o conjunto cujos
elementos são os que pertencem pelo menos a um dos conjuntos A e B, isto é,

A ∪ B = {x : x ∈ A ∨ x ∈ B}.

A intersecção dos conjuntos A e B, que se denota por A∩B, é o conjunto formado pelos
elementos comuns a A e a B, ou seja,

A ∩ B = {x : x ∈ A ∧ x ∈ B}.

Dados dois conjuntos A e B podemos ainda definir o complementar de B em A, que


denotaremos por A \ B ou A − B, que é o conjunto cujos elementos são os elementos de A
que não pertencem a B, isto é,

A \ B = {x : x ∈ A ∧ x 6∈ B}.

Ao longo do texto utilizaremos alguns conjuntos, bem conhecidos, de números, que seguida-
mente referimos com a respectiva notação.

• Conjunto dos números naturais

N = {1, 2, 3, . . .}.

• Conjunto dos números inteiros

Z = {. . . , −3, −2, −1, 0, 1, 2, 3, . . .}.

• Conjunto dos números racionais


m
Q={ : m, n ∈ Z , n 6= 0}.
n

• Conjunto dos números reais


R.

Sendo W ∈ {Z, Q, R} utilizamos os conjuntos

W+ = {x ∈ W : x > 0}, W+
0 = {x ∈ W : x≥0},

W− = {x ∈ W : x < 0} e W−
0 = {x ∈ W : x≤0}.

Notemos que
N $ Z $ Q $ R.
3


Os números e, 2 e π são exemplos de números reais que não são racionais.

Podemos “visualizar” o conjunto R começando por pensar numa recta a que chamaremos
eixo real e por marcar nessa recta dois pontos que representem o número 0 e o número 1.

0 1

À distância entre tais pontos chamaremos a unidade de medida.

Obtemos facilmente uma correspondência biunı́voca entre cada número real e cada ponto
da recta, isto é, uma correspondência tal que a cada ponto da recta fica a corresponder
um e um só número real e reciprocamente, convencionando, por exemplo, que cada número
positivo (respectivamente, negativo) é representado por um ponto à direita (respectivamente,
à esquerda) do zero a uma distância deste igual ao seu valor absoluto ou módulo multiplicado
pela unidade de medida.

Assim, por exemplo, aos números − 32 , 1


2 e 2 correspondem os pontos assinalados com •
seguintes.

s s s
−2 − 32 −1 0 1
2 1 2

0.2 O conjunto dos números complexos: algumas definições


e resultados

Consideremos agora a equação


x2 + 1 = 0.

Sabemos que se α ∈ R então α2 ∈ R+ 2


0 e, portanto, α + 1 ≥ 1. Assim a equação anterior não
tem raı́zes em R.

Recordemos um outro conjunto importante de números, conhecido por conjunto dos números
complexos e representado habitualmente por

C = {a + bi : a, b ∈ R}

onde i, designada por unidade imaginária, satisfaz a condição

i2 = −1.
4

Seja z = a + bi, com a, b ∈ R. A a chamamos a parte real de z e escrevemos a = Re(z). A


b chamamos a parte imaginária de z e escrevemos b = Im(z). Se b = 0 temos z = a ∈ R.
Se a = 0 temos z = bi e dizemos que z é imaginário puro. Assim, podemos dizer que
todos os números reais são também números complexos (são aqueles cuja parte imaginária
é igual a 0), pelo que a cadeia de inclusões referida anteriormente pode ser completada:

N $ Z $ Q $ R $ C.

A melhor maneira de “visualizar” o conjunto C é pensar nos pontos de um plano, o plano


complexo. Traçando no plano um sistema de dois eixos perpendiculares, e identificando o
número complexo a + bi com o ponto de coordenadas (a, b), obtém-se uma correspondência
biunı́voca entre C e o conjunto dos pontos do plano.
y
6
b sa + bi

-
O a x

Todo o número complexo z = a + bi além de se poder representar nesta forma, designada


por forma algébrica de z, também pode ser representado numa outra forma, por vezes
mais conveniente, designada por “forma polar” ou “trigonométrica” de z. Seja z um número
complexo não nulo, identificado com um ponto do plano complexo.
y
6
b *sz = a + bi

|z|


 θ -
O a x

A distância de z à origem O, habitualmente designada por módulo de z e representado por



|z|, é a2 + b2 , isto é,
p
|z| = a2 + b2 .
5

Notemos que se designa por conjugado de z o número

z = a − bi.

Como
zz = (a + bi)(a − bi) = a2 + b2 ,

tem-se
zz = |z|2 .

A medida do ângulo que a semi-recta que vai de O para z faz com a parte positiva do eixo
real designa-se argumento de z e é representado por arg(z). Cada número complexo não
nulo tem uma infinidade de argumentos, diferindo uns dos outros por múltiplos inteiros de
2π.

Sendo |z| = ρ e arg(z) = θ, como Re(z) = ρ cos θ e Im(z) = ρ sen θ, podemos escrever

z = ρ(cos θ + i sen θ),

que é a forma polar ou trigonométrica de z. Utiliza-se a abreviatura cis θ para repre-


sentar cos θ + i sen θ.

Se z1 = ρ1 cis θ1 e z2 = ρ2 cis θ2 são tais que z1 = z2 então ρ1 = ρ2 mas, quanto aos


argumentos, só se pode concluir que θ1 − θ2 é um múltiplo inteiro de 2π.

Calculando o produto de dois números complexos z1 = ρ1 cis θ1 e z2 = ρ2 cis θ2 obtém-se

z1 z2 = (ρ1 cis θ1 )(ρ2 cis θ2 ) = ρ1 ρ2 cis(θ1 + θ2 ).

Por indução sobre n, podemos então concluir facilmente que se tem

(ρ cis θ)n = ρn cis(nθ), para todo n ∈ N,

conhecida por “fórmula de De Moivre”.

Utilizando tal fórmula vejamos que todo o número w tem, em C, n raı́zes de ı́ndice n, ou
equivalentemente, que existem z1 , . . . , zn ∈ C tais que

zin = w.

Consideremos a equação, em z,
z n = w,
6

ou equivalentemente, considerando z = ρ cis θ e w = β cis φ,

ρn cis(nθ) = β cis φ.

Assim
ρn = β e nθ − φ = 2kπ, k ∈ Z,

o que é equivalente a
1 φ + 2kπ
ρ = βn e θ= , k ∈ Z.
n
Então w pode tomar exactamente os seguintes valores, em número de n,
 
1 φ + 2kπ
β cis
n , k = 0, 1, . . . , n − 1.
n
(Escrevemos k = 0, 1, . . . , n − 1, porque se conclui que as raı́zes só têm n valores distintos e
que se obtêm para estes valores de k.)

A equação x2 + 1 = 0, ou equivalentemente x2 = −1, que não tem raı́zes em R, tem em C


duas raı́zes: i e −i. Um conhecido teorema, que não demonstraremos, afirma mais:

“Qualquer equação de grau n, com n maior ou igual a 1, tem exactamente n raı́zes em C.”

0.3 Propriedades da adição e da multiplicação em R e em C

Recordemos que em R está definida uma operação designada por “adição” e denotada por
“+”, que quaisquer que sejam os números reais a e b faz-lhe corresponder, um, e um só,
número real representado habitualmente por a + b e que se designa por soma de a com b.
Tal operação de adição tem as seguintes propriedades:

(i) A adição em R é comutativa, isto é,

∀a,b∈R a + b = b + a.

(ii) A adição em R é associativa, isto é,

∀a,b,c∈R (a + b) + c = a + (b + c).

(iii) Existe elemento neutro para a adição em R, isto é,

∃u∈R ∀a∈R a + u = u + a = a.

Tem-se, como sabemos, u = 0.


7

(iv) Todo o elemento de R tem um oposto para a adição, também designado por oposto
aditivo ou simétrico, isto é,

∀a∈R ∃a0 ∈R a + a0 = a0 + a = 0.

Tem-se, como sabemos, a0 = −a.

Utilizamos ainda a notação a − b para representar a + (−b).

Em R está também definida uma operação designada por “multiplicação” e denotada por
“×” ou por “ · ”, que quaisquer que sejam os números reais a e b faz-lhes corresponder um,
e um só, número real representado habitualmente por a×b, a·b ou simplesmente por ab, e
que se designa por produto de a por b. Tal operação de multiplicação tem as seguintes
propriedades:

(i) A multiplicação em R é comutativa, isto é,

∀a,b∈R ab = ba.

(ii) A multiplicação em R é associativa, isto é,

∀a,b,c∈R (ab)c = a(bc).

(iii) Existe elemento neutro para a multiplicação em R, isto é,

∃v∈R ∀a∈R av = va = a.

Tem-se, como sabemos, v = 1.

(iv) Todo o elemento não nulo de R tem um oposto para a multiplicação, também
designado por oposto multiplicativo ou inverso, isto é,

∀a∈R\{0} ∃a00 ∈R aa00 = a00 a = 1.

Como sabemos, tem-se a00 = 1


a também representado por a−1 .
a
Se b 6= 0, utilizamos a notação b para representar a · 1b .

Envolvendo as operações de adição e de multiplicação em R temos a propriedade distributiva


da multiplicação em relação à adição, à esquerda (respectivamente, à direita), que estabelece

∀a,b,c∈R a(b + c) = ab + ac
8

(respectivamente, ∀a,b,c∈R (a + b)c = ac + bc ).

A adição e a multiplicação de números complexos definem-se, respectivamente, da seguinte


forma:
(a + bi) + (c + di) = (a + c) + (b + d)i

(a + bi)(c + di) = (ac − bd) + (ad + bc)i,

com a, b, c, d ∈ R. De facto, são as definições que naturalmente surgem considerando proprie-


dades idênticas às anteriormente referidas da adição e de multiplicação em R, conjuntamente
com a igualdade
i2 = −1.

Estas operações gozam das mesmas propriedades algébricas que as correspondentes no con-
junto dos números reais: comutatividade, associatividade e distributividade da multiplicação
relativamente à adição. Os números complexos 0 = 0 + 0i e 1 = 1 + 0i são os elementos
neutros para a adição e a multiplicação, respectivamente. O inverso do número complexo
a + bi 6= 0 é
1 a − bi a − bi a −b
= = 2 2
= 2 2
+ 2 i.
a + bi (a + bi)(a − bi) a +b a +b a + b2

Façamos ainda referência a uns conjuntos, e a algumas operações neles definidas, que se
revelarão muito importantes para o nosso estudo e que constituem, de facto, generalizações
do que referimos anteriormente nesta secção.

Seja K ∈ {R, C}. Pensemos no conjunto de todos os pares (ordenados) de elementos de K,


habitualmente representado por K × K, ou abreviadamente,

K2 = {(a, b) : a, b ∈ K}.

Sabemos que para quaisquer (a, b) ∈ K2 e (c, d) ∈ K2 se tem

(a, b) = (c, d) se, e só se, a = c e b = d.

Podemos definir uma “adição”, em K2 , da seguinte forma

∀(a,b),(c,d)∈R2 (a, b) + (c, d) = (a + c, b + d),

que, verificamos facilmente, ser comutativa, associativa, ter elemento neutro (o par ordenado
(0, 0)) e em que todo o elemento tem oposto, para essa adição (o oposto do par (a, b) é o par
(−a, −b)).
9

Consideremos agora uma outra operação, que associa a cada α ∈ K e a cada par (a, b) ∈ K2
um elemento de K2 , da seguinte forma

∀α∈K ∀(a,b)∈K2 α(a, b) = (αa, αb)

e a que chamaremos multiplicação por escalar , em K2 .

Imaginamos, facilmente, como será a adição e a multiplicação por um escalar em

K3 = {(a1 , a2 , a3 ) : a1 , a2 , a3 ∈ K},

a cujos elementos chamamos ternos de elementos de K e, mais geralmente, para qualquer


n ∈ N, em
Kn = {(a1 , . . . , an ) : a1 , . . . , an ∈ K}

a cujos elementos chamamos n-uplos de elementos de K. Mais especificamente, n-uplos de


reais se K = R ou n-uplos de complexos se K = C.

Se (a1 , . . . , an ) ∈ Kn e (b1 , . . . , bn ) ∈ Kn então teremos

(a1 , . . . , an ) = (b1 , . . . , bn ) se, e só se, ai = bi , para todo i ∈ {1, . . . , n}.

As operações correspondentes de adição e multiplicação por um escalar são, respectivamente,

∀(a1 ,...,an ),(b1 ,...,bn )∈Kn (a1 , . . . , an ) + (b1 , . . . , bn ) = (a1 + b1 , . . . , an + bn )

e
∀α∈K ∀(a1 ,...,an )∈Kn α(a1 , . . . , an ) = (αa1 , . . . , αan ).

Note que estamos a representar pelo mesmo sı́mbolo a operação de adição em K e a operação
de adição em Kn , uma vez que não há ambiguidade. O mesmo sucede à multiplicação por
escalar entre um escalar e um elemento de K e entre um escalar e um elemento de Kn .
Exercı́cio 0.1 Seja K ∈ {R, C}. Mostre que:

(a) Quaisquer que sejam (a1 , . . . , an ), (b1 , . . . , bn ), (c1 , . . . , cn ) ∈ Kn , temos:


(i) (a1 , . . . , an ) + (b1 , . . . , bn ) = (b1 , . . . , bn ) + (a1 , . . . , an );
(ii) ((a1 , . . . , an ) + (b1 , . . . , bn )) + (c1 , . . . , cn ) = (a1 , . . . , an ) +
((b1 , . . . , bn ) + (c1 , . . . , cn ));
(iii) (a1 , . . . , an ) + (0, . . . , 0) = (0, . . . , 0) + (a1 , . . . , an ) = (a1 , . . . , an );
(iv) (a1 , . . . , an ) + (−a1 , . . . , −an ) = (−a1 , . . . , −an ) + (a1 , . . . , an ) =
(0, . . . , 0).
(b) Quaisquer que sejam α, β ∈ K e (a1 , . . . , an ), (b1 , . . . , bn ) ∈ Kn , temos:
(i) α((a1 , . . . , an ) + (b1 , . . . , bn )) = α(a1 , . . . , an ) + α(b1 , . . . , bn );
(ii) (α + β)(a1 , . . . , an ) = α(a1 , . . . , an ) + β(a1 , . . . , an );
(iii) (αβ)(a1 , . . . , an ) = α(β(a1 , . . . , an ));
(iv) 1(a1 , . . . , an ) = (a1 , . . . , an ).

Exercı́cio 0.2 Em relação ao exercı́cio anterior escreva as propriedades (b)(ii) e (b)(iii),


considerando que a adição em Kn é representada por  e a multiplicação por escalar, em
Kn , é representada por .
10

0.4 Propriedades de operações envolvendo conjuntos arbitrários

Seja A um conjunto não vazio. Dizemos que ∗ é uma operação binária em A se ∗ é uma
aplicação de A2 em A, isto é, a cada par (a, b) de elementos de A faz corresponder um, e um
só, elemento de A que é habitualmente denotado por a∗b.

A adição e a multiplicação em R e em C são operações binárias. Por exemplo, em Z+


0 , em Z

e em R+
0 a adição usual é uma operação binária. A multiplicação usual não é uma operação
binária em Z− , mas é binária em Z+ +
0 e em R0 .

Exercı́cio 0.3 Indique se é uma operação binária:

(a) A adição em Q.
(b) A multiplicação em Q.
(c) A multiplicação em Z+ .
(d) A multiplicação em Z−
0 .
(e) A adição usual de polinómios no conjunto dos polinómios de grau igual a 2,
na variável x, com coeficientes em R.
(f) A adição usual de polinómios no conjunto dos polinómios de grau
inferior ou igual a 2, na variável x, com coeficientes em R, denotado ha-
bitualmente por R2 [x].
(g) O que sucede se, em (f), substituirmos 2 por n ∈ N, arbitrário, e R por
K ∈ {R, C}?

Seja ∗ uma operação binária em A. Dizemos que:

(i) A operação ∗ é comutativa (em A) se

∀a,b∈A a∗b = b∗a.

(ii) A operação ∗ é associativa (em A) se

∀a,b,c∈A (a∗b) ∗c = a∗ (b∗c) .

(iii) Existe elemento neutro para a operação ∗ (em A) se

∃u∈A ∀a∈A a∗u = u∗a = a.

Notemos que o elemento neutro, quando existe, é único. De facto, se u e u0 fossem ambos
elementos neutros para a operação ∗ (em A) ter-se-ia

u∗u0 = u0 , por u ser elemento neutro

e
u∗u0 = u, por u0 ser elemento neutro.
11

Logo
u = u0 .

Se ∗ é uma operação binária em A, com elemento neutro u, dizemos que a∈A tem oposto
(para a operação ∗) se existe a0 ∈A tal que a∗a0 = a0 ∗a = u.

Quando a operação ∗ é associativa, se existe oposto de a∈A ele é único. De facto, se v e v 0


fossem ambos opostos de a, isto é, se se verificasse

a∗v = v∗a = u

e simultaneamente
a∗v 0 = v 0 ∗a = u

então concluirı́amos que

v = v∗u = v∗ a∗v 0 = (v∗a) ∗v 0 = u∗v 0 = v 0 .




Dizemos que A, com a operação binária ∗, é um grupo, ou simplesmente, que (A, ∗) é um


grupo se, em A, a operação ∗ é associativa, tem elemento neutro e todo o elemento de A tem
oposto, isto é, além das propriedades (ii) e (iii) verifica-se:

(iv) ∀a∈A ∃v∈A a∗v = v∗a = u.

Dizemos que A, com a operação binária ∗, é um grupo comutativo se é um grupo e a


operação ∗ é comutativa, isto é, se se verificam as propriedades (i), (ii), (iii) e (iv).

Exercı́cio 0.4 Indique quais das propriedades (i) a (iv) são satisfeitas pelas operações
binárias seguidamente referidas e nos conjuntos indicados:

(a) A adição, em R+
0 .
(b) A multiplicação, em Z \ {0}.
(c) A adição, em R2 [x], sendo R2 [x] o conjunto dos polinómios, na variável x,
com coeficientes em R, com grau inferior ou igual a 2.
(d) A multiplicação, em R \ {0}.
Capı́tulo 1

Matrizes

1.1 Generalidades

Seja K ∈ {R, C}. Aos elementos de K (reais ou complexos) chamaremos escalares.

Definição 1.1 Chama-se matriz de tipo m×n, sobre K, a qualquer aplicação de


{1, . . . , m} × {1, . . . , n} em K.

Como cada uma dessas aplicações fica perfeitamente determinada se conhecermos o ele-
mento, único, de K correspondente a cada par (i, j), com i = 1, . . . , m e j = 1, . . . , n, é usual
indicar tais imagens num quadro com m linhas e n colunas em que a imagem do par (i, j)
é o elemento de K que se encontra na linha i e coluna j. Assim, surge frequentemente, a
seguinte definição de matriz.

Definição 1.2 Sejam m, n ∈ N. Chama-se matriz do tipo m×n, sobre K, a qualquer


quadro que se obtenha dispondo mn elementos de K segundo m linhas e n colunas,
isto é, a qualquer quadro da forma
2 3
A11 A12 ··· A1n
6 7
6 A A22 ··· A2n 7
6 21 7
A= 6 7, com Aij ∈ K, i = 1, . . . , m, j = 1, . . . , n.
6 .. .. .. .. 7
6 . . . . 7
4 5
Am1 Am2 ··· Amn

Os escalares Aij dizem-se os elementos da matriz A.


14

Para cada i, i = 1, . . . , m, e para cada j, j = 1, . . . , n, dizemos que Aij é o elemento


de A situado na linha i e na coluna j. Tal elemento é também referido como a entrada
(i, j) de A ou como o elemento (i, j) de A.

Chamamos linha i de A, com i ∈ {1, . . . , m}, ao elemento de Kn , isto é, ao n-uplo


(Ai1 , Ai2 , . . . , Ain ). Chamamos coluna j de A, com j ∈ {1, . . . , n}, ao elemento de
Km , isto é, ao m-uplo (A1j , A2j , . . . , Amj ).

Notação 1.3 • O conjunto das matrizes do tipo m×n sobre K será representado por
Mm×n (K). Se m = n também se utiliza a notação Mn (K).

• É frequente denotarmos a entrada (i, j) de uma matriz A por Aij .

• A matriz A ∈ Mm×n (K) da definição pode ser apresentada abreviadamente na forma


A = [Aij ]m×n , ou, simplesmente, A = [Aij ] se o tipo da matriz for óbvio pelo contexto
ou não for importante para a questão em estudo.

" #
1 i 2 + 3i
Exemplo 1.4 Seja A = . Tem-se A ∈ M2×3 (C), a linha 2 de A é
−1 0 3
(−1, 0, 3) e a coluna 3 de A é (2 + 3i, 3).

A definição de igualdade de matrizes surge de forma natural.

Definição 1.5 Dizemos que as matrizes A, B ∈ Mm×n (K) são iguais, e escrevemos
A = B, se Aij = Bij , para i = 1, . . . , m, j = 1, . . . , n.

Note que só podem ser iguais matrizes que sejam do mesmo tipo e serão iguais se, além
disso, os elementos que ocupam a mesma posição em ambas as matrizes, a que chamaremos
elementos homólogos, forem iguais.

2 3 2 3
1 0 a 1 0 3
6 7 6 7
Exemplo 1.6 As matrizes A = 6 i 7 6 2 i 7 ∈ M3×3 (C) são
4 2 −1 5, B = 4 −1 5
−i 1 0 b 1 0
iguais se, e só se, a = 3 e b = −i.

Vejamos alguma terminologia e notações básicas envolvendo matrizes.


15

Definição 1.7 Seja A ∈ Mm×n (K).


A diz-se uma matriz–linha se m = 1.
A diz-se uma matriz–coluna se n = 1.
A diz-se uma matriz quadrada se m = n. Neste caso diz-se que A é quadrada de
ordem n ou, simplesmente, que A é uma matriz de ordem n.

2 3
1 h i
6 7
Exemplo 1.8 A= 6 3 7 é uma matriz-coluna. B = 1 3 é uma matriz-linha. C =
4 5
2
" #
h i 2 3
2 é uma matriz-linha e uma matriz-coluna. D = é uma matriz (quadrada)
1 −1
de ordem 2.

Definição 1.9 Seja A uma matriz de ordem n, isto é, uma matriz da forma
2 3
A11 A12 ··· A1n
6 7
6 A A22 ··· A2n 7
6 21 7
A= 6 7.
6 .. .. .. .. 7
6 . . . . 7
4 5
An1 An2 ··· Ann

Aos elementos A11 , A22 , . . . , Ann chamamos os elementos diagonais de A.

Chamamos diagonal principal de A ao n-uplo (A11 , A22 , . . . , Ann ).

Dizemos que A é triangular superior se

Aij = 0 para i > j,

ou seja, se A tem a forma 2 3


A11 A12 ··· A1n
6 7
6 0 A22 ··· A2n 7
6 7
6 7.
6 .. .. .. .. 7
6 . . . . 7
4 5
0 0 ··· Ann

Dizemos que A é triangular inferior se

Aij = 0 para i < j,

ou seja, se A tem a forma 2 3


A11 0 ··· 0
6 7
6 A A22 ··· 0 7
6 21 7
6 7.
6 .. .. .. .. 7
6 . . . . 7
4 5
An1 An2 ··· Ann
16

Dizemos que A é uma matriz diagonal se

Aij = 0 para i 6= j,

ou equivalentemente,

Aij = 0 para i>j e Aij = 0 para i < j.

Assim, dizer que A é uma matriz diagonal equivale a afirmar que A é simultaneamente
triangular superior e triangular inferior ou, ainda, que A tem a forma
2 3
A11 0 ··· 0
6 7
6 0 A22 ··· 0 7
6 7
6 7.
6 .. .. .. .. 7
6 . . . . 7
4 5
0 0 ··· Ann

Uma matriz diagonal em que todos os elementos diagonais são iguais diz-se uma
matriz escalar . Um matriz escalar é, pois, uma matriz da forma
2 3
α 0 ··· 0
6 7
6 0 α ··· 0 7
6 7
6 7.
6 .. .. .. .. 7
6 . . . . 7
4 5
0 0 ··· α

À matriz escalar de ordem n cujos elementos diagonais são todos iguais a 1 chamamos
matriz identidade de ordem n e representamos por In . 
 1, se i = j
Notemos que In = [δij ], sendo δij o sı́mbolo de Kronecker ( δij = ).
 0, se i 6= j

2 3
3 0 1
6 7
Exemplo 1.10 A matriz A = 6 0 −2 1 7 é triangular superior e a diagonal principal
4 5
0 0 4
de A é (3, −2,"4). #
2 0
A matriz B = é uma matriz diagonal, mas não é uma matriz escalar. As matrizes
0 3
2 3
" # 1 0 0
2 0 6 7
C= e I3 = 6 0 1 0 7 são matrizes escalares.
4 5
0 2
0 0 1
17

Exercı́cio 1.1 Considere as seguintes matrizes:


2 3 2 3 2 3
1 −1 0 1 3 0 0 1  
A=4 2 1 1 0 5, B = 4 0 2 0 5, C = 4 −1 5, D = −3 1 4 1
−1 1 3 1 0 0 1 2
2 3
0 0 0 0 2 3 2 3
1 4 0 0 0  
  6 0 0 0 0 7 1 0
E= 6
2 , F =4 7, G = 4 2 5 , H=4 1
5 0 0 5 e I= .
0 0 0 0 5 0 1
3 6 2 4 0
0 0 0 0

Indique:

(a) O tipo de cada matriz.


(b) Quais das matrizes são quadradas.
(c) Quais das matrizes são triangulares inferiores.
(d) Quais das matrizes são diagonais.
(e) Quais das matrizes são escalares.

Exercı́cio 1.2 Escreva a matriz A ∈ M3×3 (R) tal que:


8
<1, se i > j
(a) Aij = 0, se i = j .
:
−1, se i < j

1, se i + j é par
(b) Aij = .
−1, se i + j é ı́mpar

1.2 Operações com matrizes

Vejamos algumas operações envolvendo matrizes.

Comecemos pela operação de adição em Mm×n (K), que faz corresponder a cada par
de matrizes de Mm×n (K) uma, e uma só, matriz de Mm×n (K) definida como se segue.

Definição 1.11 Sejam A, B ∈ Mm×n (K). Chamamos soma das matrizes A e B, e


denotamos por A + B, a matriz de Mm×n (K) cuja entrada (i, j) é Aij + Bij , isto é,

(A + B)ij = Aij + Bij , i = 1, . . . , m, j = 1, . . . , n.

" # " # " #


2 −3 0 −3 1 4 −1 −2 4
Exemplo 1.12 Sendo A = eB = tem-se A+B = .
0 5 1 2 0 3 2 5 4

Vejamos que a adição em Mm×n (K) tem propriedades idênticas às da adição em K ∈ {R, C}
que recordámos na Secção 0.2 do Capı́tulo 0.

Proposição 1.13 Mm×n (K), com a adição usual de matrizes, é um grupo comutativo, isto
é, verificam-se as propriedades:
18

1. ∀A,B∈Mm×n (K) A+B =B+A


(comutatividade da adição em Mm×n (K)).

Dizemos então apenas “soma das matrizes A e B”.

2. ∀A,B,C∈Mm×n (K) (A + B) + C = A + (B + C)
(associatividade da adição em Mm×n (K)).

3. ∃0m×n ∈Mm×n (K) ∀A∈Mm×n (K) A + 0m×n = 0m×n + A = A


(existência de elemento neutro da adição em Mm×n (K)), denotado por 0m×n ).

4. ∀A∈Mm×n (K) ∃−A∈Mm×n (K) A + (−A) = (−A) + A = 0m×n


(existência de oposto para a adição, de todo o elemento A ∈ Mm×n (K), denotado por
−A).

Demonstração:
Demonstra-se cada igualdade mostrando que a matriz do primeiro membro (mem-
bro da esquerda) e a matriz do segundo membro (membro da direita) da igualdade
são do mesmo tipo (isto é, têm o mesmo número de linhas e o mesmo número de
colunas) e os seus elementos homólogos são iguais.

Demonstramos apenas a propriedade 2, deixando as restantes como exercı́cio.


Sejam A, B, C ∈ Mm×n (K). Note-se que (A + B) + C e A + (B + C) são ambas
matrizes do tipo m×n. De acordo com a definição de adição de matrizes, tem-se
 
(A + B) + C = (A + B)ij + Cij = (Aij + Bij ) + Cij
ij

e
 
A + (B + C) = A + (B + C)ij = Aij + (Bij + Cij ) .
ij
Como Aij , Bij e Cij são elementos de K e em K a adição é associativa, concluı́mos
 
que os elementos homólogos (A + B) + C ij e A + (B + C) ij são iguais, para
i = 1, . . . , m, j = 1, . . . , n. Logo (A + B) + C = A + (B + C).

Note que, de acordo com o referido na Secção 0.4:

• O elemento neutro para a adição em Mm×n (K) é único. Trata-se, obviamente, da


matriz de Mm×n (K) com todos os elementos nulos, que designamos por matriz
nula de Mm×n (K).

• O oposto para a adição, de A ∈ Mm×n (K), é único. Verificamos facilmente que

(−A)ij = −Aij , i = 1, . . . , m, j = 1, . . . , n.
19

Notação 1.14 • Se A, B ∈ Mm×n (K), representamos por A − B a matriz A + (−B).

Vejamos agora a operação de multiplicação de um escalar por uma matriz .


Trata-se de uma operação que associa a cada elemento de K e a cada elemento de Mm×n (K)
um elemento de Mm×n (K) definido da seguinte forma.

Definição 1.15 Sejam α ∈ K e A ∈ Mm×n (K). Chamamos produto do escalar α


pela matriz A, e denotamos por αA, a matriz de Mm×n (K) cujo elemento (i, j) é
αAij , isto é,
(αA)ij = αAij , i = 1, . . . , m, j = 1, . . . , n.

Vejamos as principais propriedades da operação de multiplicação de um escalar por uma


matriz.

Proposição 1.16 Sejam A, B ∈ Mm×n (K) e α, β ∈ K. Tem-se

1. α(A + B) = αA + αB.

2. (α + β)A = αA + βA.

3. (αβ)A = α(βA).

4. 1A = A.

5. (−α)A = α(−A) = −(αA).

Demonstração:
Vamos demonstrar a propriedade 2. As restantes ficam como exercı́cio.
Sejam A ∈ Mm×n (K) e α, β ∈ K. Como αA ∈ Mm×n (K), βA ∈ Mm×n (K)
concluı́mos que (αA + βA) ∈ Mm×n (K) tal como a matriz (α+β)A. Verifiquemos
que os elementos homólogos das matrizes (α + β)A e αA + βA são iguais.

Tem-se
 
(α + β)A = (α + β)Aij
ij

(αA + βA)ij = (αA)ij + (βA)ij = αAij + βAij , i = 1, . . . , m, j = 1, . . . , n.


20

Como, em K, a multiplicação é distributiva em relação à adição, sabemos que


(α + β)Aij = αAij + βAij . Logo

(α + β)A = αA + βA.

Notemos que para demonstrar a igualdade

α(−A) = −(αA)

da propriedade 5, teremos apenas que demonstrar que

αA + α(−A) = 0m×n .

Exercı́cio 1.3 Considere as matrizes de elementos reais


     
3 1 0 1 0 4 0 0 1
A= , B= e C= .
1 1 −1 −1 2 −1 −2 −2 1

Determine:

(a) (A + B) + C.
(b) 2A + (2C + 2B).
(c) A − B.
(d) 2A − 3(B + C).

Exercı́cio 1.4 Dadas as matrizes A e B de elementos reais


2 3 2 3
1 0 0 1 1 1
A=4 0 1 0 5 e B=4 1 1 1 5,
0 0 1 1 1 1

determine X ∈ M3×3 (R), tal que X + A = 2(X − B).

Vejamos agora como se define a multiplicação de matrizes. A primeira ideia que prova-
velmente nos ocorre é considerar que só se pode multiplicar uma matriz A por uma matriz
B se ambas pertencem a Mm×n (K) e a matriz resultante será a matriz de Mm×n (K) que se
obtém multiplicando os elementos homólogos de A e de B. Tal multiplicação designa-se por
multiplicação de Hadamard e a matriz resultante, designada por produto de Hadamard
de A por B, é frequentemente
" #
denotada
"
por A ◦#B. Por exemplo, o produto
"
de Hadamard
#
1 2 0 3 5 1 3 10 0
das matrizes A = eB= é a matriz A ◦ B = . (Veja
−1 0 3 3 2 4 −3 0 12
as propriedades desta operação.)

No entanto, a maioria da documentação de Álgebra Linear quando refere a operação de


“multiplicação de matrizes” designa uma operação bastante mais complicada de efectuar que
a multiplicação de Hadamard.
21

A razão de ser de tal definição só será compreendida mais tarde, no capı́tulo das Aplicações
Lineares.

Definição 1.17 Sejam A ∈ Mm×n (K) e B ∈ Mn×p (K). Define-se produto da matriz
A pela matriz B, e representa-se por AB, a matriz de Mm×p (K) tal que

(AB)ij = Ai1 B1j + · · · + Ain Bnj , i = 1, . . . , m, j = 1, . . . , p.

Assim,
n
X
(AB)ij = Aik Bkj .
k=1

Como se pode ver pela definição, o produto AB, isto é, o produto da matriz A pela
matriz B (por esta ordem), apenas está definido se o número de colunas de A é igual ao
número de linhas de B. Neste caso, o número de linhas de AB é igual ao número de linhas
de A e o número de colunas de AB é igual ao número de colunas de B. O elemento (i, j)
de AB obtém-se a partir dos elementos da linha i de A e dos elementos da coluna j de B,
conforme é indicado na definição. Esquematicamente, tem-se
2 3
2 3 ··· B1j ··· 2 3
6 7
··· ··· ··· ··· 6 7 ··· ··· ···
6 76 · · · B2j ··· 7 6 7
6 Ai1 Ain 56
7 7 = 6 ··· ··· 7
4 Ai2 ··· 6 .. .. .. 7 4 Ai1 B1j + Ai2 B2j + · · · + Ain Bnj 5.
6 . . . 7
··· ··· ··· ··· 4 5 ··· ··· ···
··· Bnj ···

2 3
" # 9 8 7
0 1 2 6 7
Exemplo 1.18 1. Sejam A = eB= 6 −8 6 7
4 −2 5. Então
3 0 5
−1 0 4
" #
0×9 + 1 × (−8) + 2 × (−1) 0×8 + 1 × (−2) + 2×0 0×7 + 1×6 + 2×4
AB =
3×9 + 0 × (−8) + 5 × (−1) 3×8 + 0 × (−2) + 5×0 3×7 + 0×6 + 5×4
" #
−10 −2 14
= .
22 24 41

Note que, neste caso, o produto BA não está definido, visto o número de colunas de B
ser diferente do número de linhas de A.
2 3
h i 9
6 7
2. Sejam A = 0 1 2 eB=6
4 −8 7
5. Então
−1
h i h i
AB = 0×9 + 1 × (−8) + 2 × (−1) = −10

e 2 3 2 3
9×0 9×1 9×2 0 9 18
6 7 6 7
BA = 6
4 −8×0 −8×1 −8×2 7
5 =6
4 0 −8 −16 7
5.
−1×0 −1×1 −1×2 0 −1 −2
22

" # " # " #


1 2 4 −6 −2 6
3. Sejam A = ,B= eC= . Tem-se
−1 −2 −2 3 1 −3
" # " # " #
0 0 10 20 0 0
AB = , BA = e AC = .
0 0 −5 −10 0 0
Note que, neste caso, se tem

(a) AB 6= BA;

(b) AB = 0 com A 6= 0 e B 6= 0;

(c) AB = AC, com A 6= 0 e B 6= C.

Exercı́cio 1.5 Sejam


2 3
  0
A= 1 2 −1 ∈ M1×3 (R) e B= 4 1 5 ∈ M3×1 (R).
3

Determine, se possı́vel, AB e BA.

Exercı́cio 1.6 Considere as matrizes de elementos reais


2 3
  1 −1  
  2 1 −1 1 1
A= 1 2 , B= , C=4 0 1 5 e D= .
0 2 1 −1 0
2 0

Determine, se possı́vel, o produto:

(a) AB;
(b) BA;
(c) CD;
(d) DC.

Exercı́cio 1.7 Sejam A ∈ Mm×n (K) e B ∈ Mn×p (K). Justifique que, para calcular o
produto AB, é necessário efectuar mpn multiplicações e mp(n − 1) adições, envolvendo
elementos de K.

 
4 2
Exercı́cio 1.8 (a) Considere as matrizes A = , B =
2 1
 
−1 −1
∈ M2×2 (R). Determine AB e BA.
2 2
   
4 2 0 −3
(b) Considerando as matrizes A = , C = ∈ M2×2 (R),
2 1 3 0
determine CA.
(c) Utilizando as alı́neas anteriores conclua que existem matrizes A, B e C,
quadradas, da mesma ordem, tais que:
(i) AB 6= BA;
(ii) AB = 0 com A 6= 0 e B 6= 0;
(iii) BA = CA, com A 6= 0 e B 6= C.
23

Exercı́cio 1.9 Considere as matrizes de elementos reais


2 3 2 3 2 3
1 2 3 2 1 0   0 1 −1
1 1 3
A1 = 4 0 0 0 5, A2 = 4 1 1 −1 5, A3 = , A4 = 4 0 1 2 5,
−2 1 1
−1 1 1 1 1 2 0 2 −2
2 3 2 3 2 3 2 3
3 1 1 1 1 1 −1 0 1 2
B1 = 4 −1 −1 1 5, B2 = 4 0 0 5, B3 = 4 −1 1 0 5, B4 = 4 1 1 5.
−1 1 1 1 −1 1 1 0 4 2

Determine Ai Bi , i = 1, 2, 3, 4.

Exercı́cio 1.10 Mostre que se A ∈ Mm×n (K) tem a propriedade

AX = 0, para toda a matriz–coluna X ∈ Mn×1 (K),

então A = 0m×n .

Sugestão: Considere X = Ei , i = 1, . . . , n, sendo Ei ∈ Mn×1 (K) a matriz–coluna


com todos os elementos nulos excepto o da linha i que é igual a 1.

Exercı́cio 1.11 Sendo A = [Aij ] ∈ Mn×n (K) designa-se por traço de A, e representa-se
por tr A, o elemento de K definido por

X
n
tr A = Aii .
i=1

Justifique que:

(a) tr (A + B) = tr A + tr B, quaisquer que sejam A, B ∈ Mn×n (K).


(b) tr (αA) = α tr A, quaisquer que sejam α ∈ K e A ∈ Mn×n (K).
(c) tr (AB) = tr (BA), quaisquer que sejam A ∈ Mm×n (K) e B ∈ Mn×m (K).
(d) Não existem matrizes A, B ∈ Mn×n (K) tais que

AB − BA = In .

Vejamos as propriedades da multiplicação de matrizes.

Proposição 1.19 Seja A ∈ Mm×n (K) e sejam B, C matrizes do tipo adequado de forma a
que as operações indicadas estejam definidas. Tem-se

1. (AB)C = A(BC)
(associatividade da multiplicação).

2. A(B + C) = AB + AC
(distributividade, à esquerda, da multiplicação em relação à adição),
(B + C)A = BA + CA
(distributividade, à direita, da multiplicação em relação à adição).

3. α(AB) = (αA)B = A(αB),


para qualquer escalar α de K.
24

4. AIn = Im A = A.

5. A multiplicação de matrizes não é comutativa.

6. AB = 0 6⇒ (A = 0 ou B = 0),
isto é, pode ter-se AB = 0 com A 6= 0 e B 6= 0.

7. (AB = AC e A 6= 0) 6⇒ B = C,
(BA = CA e A 6= 0) 6⇒ B = C.

Demonstração:
Inverteremos a ordem da demonstração por assim ser crescente a ordem de difi-
culdade da mesma. Comecemos por observar que as propriedades 5, 6 e 7 estão já
demonstradas (veja-se 3 do Exemplo 1.18 e (iii) do Exercı́cio 1.8).

4. Demonstremos apenas a igualdade

AIn = A

uma vez que a demonstração da igualdade Im A = A é idêntica.

Como A e AIn pertencem ambas a Mm×n (K) teremos apenas de demonstrar que

Aij = (AIn )ij .



 1 se i = j
Recorde que In = [δij ], com δij = . Assim
 0 se i 6= j

n
X
(AIn )ij = Aik δkj = Aij δjj = Aij 1 = Aij ,
k=1

conforme se pretendia demonstrar.

3. Demonstremos a igualdade

α(AB) = (αA)B.

Sejam A ∈ Mm×n (K) e B ∈ Mn×p (K). Observe-se que as matrizes α(AB) e


(αA)B pertencem ambas a Mm×p (K) pelo que falta apenas demonstrar que
   
α(AB) = (αA)B .
ij ij

Pela definição de produto de um escalar por uma matriz e posteriormente pela


forma como está definido o produto de matrizes, tem-se
  n
X
α(AB) = α(AB)ij = α Aik Bkj .
ij
k=1
25

Por outro lado, pela definição de produto de matrizes e posteriormente pela de-
finição de produto de um escalar por uma matriz, tem-se
  n
X n
X
(αA)B = (αA)ik Bkj = αAik Bkj .
ij
k=1 k=1

Como α, Aik e Bkj são elementos de K e em K a multiplicação é distributiva em


relação à adição, podemos pôr α em evidência e obter, conforme pretendı́amos,
  n
X
(αA)B =α Aik Bkj .
ij
k=1

2. Sejam A ∈ Mm×n (K) e B, C ∈ Mn×p (K). Vejamos que A(B +C) = AB +AC.

Como A ∈ Mm×n (K) e B + C ∈ Mn×p (K), a matriz A(B + C) ∈ Mm×p (K).


Dado que AB ∈ Mm×p (K) e AC ∈ Mm×p (K) então AB + AC ∈ Mm×p (K).
Logo A(B + C) e AB + AC pertencem ambas a Mm×p (K).

Da definição de produto de matrizes sabemos que o elemento (i, j) da matriz


  Pn
A(B + C), A(B + C) , é k=1 Aik (B + C)kj . Como, pela definição de soma
ij
de matrizes, se tem (B + C)kj = Bkj + Ckj , concluı́mos que

  n
X
A(B + C) = Aik (Bkj + Ckj ).
ij
k=1

Por outro lado,


n
X n
X
(AB + AC)ij = (AB)ij + (AC)ij = Aik Bkj + Aik Ckj .
k=1 k=1

Utilizando, por esta ordem, as propriedades distributiva da multiplicação em


relação à adição, comutativa e associativa da adição em K, tem-se
  n
X n
X n
X
A(B + C) = Aik (Bkj + Ckj ) = Aik Bkj + Aik Ckj
ij
k=1 k=1 k=1
= (AB)ij + (AC)ij = (AB + AC)ij .

Logo A(B + C) = AB + AC.

(Analogamente se mostra que, para A, B ∈ Mm×n (K) e C ∈ Mn×p (K), se tem


(A + B)C = AC + BC.)

1. Sejam A ∈ Mm×n (K), B ∈ Mn×p (K) e C ∈ Mp×q (K). Como AB ∈ Mm×p (K)
e BC ∈ Mn×q (K) então (AB)C e A(BC) são ambas matrizes de Mm×q (K). Da
definição de produto de matrizes sabemos ainda que o elemento (i, j) da matriz
  Pp Pn
(AB)C, (AB)C , é k=1 (AB)ik Ckj . Como (AB)ik = s=1 Ais Bsk , con-
ij
cluı́mos que
p n
!
  X X
(AB)C = Ais Bsk Ckj .
ij
k=1 s=1
26

De modo análogo,
p
n
!
  X X
A(BC) = Ais Bsk Ckj .
ij
s=1 k=1

Utilizando as propriedades distributiva da multiplicação em relação à adição, as-


sociativa da multiplicação e da adição e comutativa da adição em K, tem-se
p p X
n
! n
  X X X
(AB)C = Ais Bsk Ckj = (Ais Bsk ) Ckj
ij
k=1 s=1 k=1 s=1
Xp Xn p
n X
X
= Ais (Bsk Ckj ) = Ais (Bsk Ckj )
k=1 s=1 s=1 k=1
p
n
!
X X  
= Ais Bsk Ckj = A(BC) .
ij
s=1 k=1

Logo (AB)C = A(BC).

Exercı́cio 1.12 Justifique que Im e In são as únicas matrizes que verificam as igualdades
Im A = A = AIn , para toda a matriz A ∈ Mm×n (K).

Exercı́cio 1.13 Sejam A, B ∈ Mn×n (K). Designa-se por comutador de A e B a matriz,


que se representa habitualmente por [A, B], definida da seguinte forma:

[A, B] = AB − BA.

Mostre que:

(a) [A, B] = −[B, A].


     
(b) A, [B, C] + B, [C, A] + C, [A, B] = 0.

Como vimos, em Mn×n (K), a multiplicação de matrizes não é comutativa. Tal significa
que existem A, B ∈ Mn×n (K) tal que AB 6= BA. Contudo, pode haver matrizes A, B ∈
Mn×n (K) tais que AB = BA. Neste caso, dizemos que A e B comutam. É o que sucede,
por exemplo, se considerarmos A ∈ Mn×n (K) arbitrária e tomarmos B = 0n×n ou B = In
ou B = A.

Seja A ∈ Mm×n (K). Pela forma como está definida a multiplicação de matrizes con-
cluı́mos que o produto de A por A, pode ser calculado se, e só se, n = m. Consideremos
então a seguinte definição.

Definição 1.20 Seja A ∈ Mn×n (K). Chamamos potência de expoente k de A


(k ∈ N0 ) à matriz de Mn×n (K), que representamos por Ak , definida, por recorrência,
do seguinte modo: 
 In , se k = 0
Ak = .
 Ak−1 A, se k ∈ N
27

Proposição 1.21 Quaisquer que sejam A ∈ Mn×n (K) e k, l ∈ N0 , tem-se

1. Ak Al = Ak+l .
l
2. (Ak ) = Akl .

Demonstração:
Demonstramos a propriedade 1, ficando a propriedade 2 como exercı́cio.

Vamos demonstrar por indução em l. Sejam A ∈ Mn×n (K) e k ∈ N0 .

Se l = 0, temos Ak Al = Ak A0 = Ak In = Ak = Ak+0 = Ak+l .

Hipótese de Indução: Ak Al = Ak+l .

Demonstremos que Ak A(l+1) = Ak+(l+1) .

Atendendo à definição anterior e como a multiplicação de matrizes é associativa,


temos
Ak A(l+1) = Ak (Al A) = (Ak Al )A.

Pela hipótese de indução (Ak Al )A = Ak+l A e, de acordo com a definição anterior,


Ak+l A = A(k+l)+1 . Então,

Ak A(l+1) = A(k+l)+1 = Ak+(l+1) .

Logo, para quaisquer k, l ∈ N0 tem-se

Ak Al = Ak+l .


Como a multiplicação de matrizes não é comutativa, concluı́mos que podem existir ma-
trizes A, B ∈ Mn×n (K) tais que (AB)2 6= A2 B 2 . Por exemplo, para
" # " #
1 1 −1 2
A= e B= ,
0 1 1 0

tem-se
" # " # " # " # " #
1 2 3 −2 0 2 1 2 2 0
A2 = , B2 = , AB = e A2 B 2 = 6= = (AB)2 .
0 1 −1 2 1 0 −1 2 0 2

   
0 1 −1 −1
Exercı́cio 1.14 Mostre que para as matrizes A = ,B = ∈
0 1 0 0
M2×2 (R) se tem:

(a) (A + B)2 6= A2 + 2AB + B 2 .


(b) (A − B)2 6= A2 − 2AB + B 2 .
(c) A2 − B 2 6= (A − B)(A + B).
28

Exercı́cio 1.15 Sejam A, B ∈ Mn×n (K) tais que

AB = BA.

Mostre que:

(a) (A + B)2 = A2 + 2AB + B 2 .


(b) (A − B)2 = A2 − 2AB + B 2 .
(c) A2 − B 2 = (A − B)(A + B).
(d) (AB)k = Ak B k , para qualquer k ∈ N0 .

Exercı́cio 1.16 Seja A ∈ Mn×n (K) tal que

A2 = 0.

Justifique que A(In + A)k = A, para qualquer k ∈ N.

Exercı́cio 1.17 Uma matriz A ∈ Mn×n (K) diz-se involutiva se A2 = In e idempotente


se A2 = A. Mostre que:
2 3
1 0 0 0
6 0 1 0 0 7
(a) M = 6 4 a b −1
7 ∈ M4×4 (K) é involutiva, quaisquer que sejam
0 5
c d 0 −1
a, b, c, d ∈ K.
(b) Se N ∈ Mn×n (K) é involutiva então

1 1
(In + N ) e (In − N )
2 2

são idempotentes e
(In + N ) (In − N ) = 0.

(c) Toda a matriz involutiva se pode escrever como diferença de duas matrizes
idempotentes, cujo produto é a matriz nula.

Exercı́cio 1.18 Se A ∈ Mn×n (K) é idempotente (isto é, A2 = A) então

(A + In )k = In + (2k − 1)A, para qualquer k ∈ N.

1.3 Inversa de uma matriz quadrada

Conforme recordámos na Secção 0.3 do Capı́tulo 0, se ∗ é uma operação binária definida


num conjunto A, com elemento neutro u, dizemos que a∈A tem oposto (para a operação ∗)
se existe a0 ∈A tal que

a∗a0 = a0 ∗a = u.

Em Mn×n (K) a multiplicação de matrizes é uma operação binária, com elemento neutro,
In . Tem-se, pois, a seguinte definição.
29

Definição 1.22 Seja A ∈ Mn×n (K). Dizemos que A é invertı́vel , ou que tem
inversa, se A tem oposto para a multiplicação de matrizes, isto é, se existir uma
matriz B ∈ Mn×n (K), tal que AB = BA = In .

Conforme observámos na Secção 0.3 do Capı́tulo 0, uma tal matriz, quando existe, é
única.

Teorema 1.23 Se A ∈ Mn×n (K) é uma matriz invertı́vel então existe uma, e uma só,
matriz B tal que AB = BA = In .

Definição 1.24 Se A ∈ Mn×n (K) é uma matriz invertı́vel, a única matriz B tal que
AB = BA = In designa-se por a inversa de A e é denotada por A−1 .

Sabemos que em K ∈ {R, C} a multiplicação é comutativa, o que vimos não suceder em


Mn×n (K). Outra propriedade que sendo válida em K não é válida em Mn×n (K) é a de em
K \ {0} todo o elemento ter oposto para a multiplicação. De facto, em Mn×n (K),

A 6= 0 6⇒ A invertı́vel.

" #
0 0
Por exemplo, a matriz A = ∈ M2×2 (R) não tem inversa porque, para qualquer
1 2
" #
a b
B= ∈ M2×2 (R), se tem
c d

" #" # " #


0 0 a b 0 0
AB = = 6= I2 ,
1 2 c d a + 2c b + 2d

e o mesmo se passa com qualquer matriz de Mn×n (K) que tenha uma linha ou uma coluna
nula.

" #
1 2
Exemplo 1.25 Suponhamos que pretendemos demonstrar que a matriz é in-
1 1
" #
−1 2
vertı́vel, sendo a sua inversa a matriz . Pela definição anterior teremos apenas
1 −1
de verificar que
" #" # " #" #
1 2 −1 2 −1 2 1 2
= I2 e = I2 .
1 1 1 −1 1 −1 1 1
30

Exercı́cio 1.19 Seja A ∈ Mn×n (K) tal que A2 = In . Mostre que A é invertı́vel e
indique a sua inversa.

Exercı́cio 1.20 Seja A ∈ Mn×n (K) tal que A2 +αA+βIn = 0, com α ∈ K e β ∈ K\{0}.
Mostre que A é invertı́vel e indique a sua inversa.

O resultado seguinte estabelece que se soubermos que A ∈ Mn×n (K) é uma matriz
invertı́vel então para demonstrar que a sua inversa é B basta verificar apenas que um dos
produtos AB ou BA é In .

Teorema 1.26 Seja A ∈ Mn×n (K) uma matriz invertı́vel.

1. Se B ∈ Mn×n (K) é tal que AB = In então B = A−1 e, portanto, BA = In .

2. Se B ∈ Mn×n (K) é tal que BA = In então B = A−1 e, portanto, AB = In .

Demonstração:
1. Como A é invertı́vel, A−1 existe (e é única). Da igualdade

AB = In

resulta,

A−1 (AB) = A−1 In


(A−1 A)B = A−1
In B = A−1
B = A−1 ,

como pretendı́amos demonstrar. Da definição de inversa resulta então que A−1 A =


BA = In .

2. Tem uma demonstração inteiramente análoga à anterior, partindo da igualdade


BA = In e seguidamente multiplicando ambos os membros, à direita, por A−1 .

−1
Teorema 1.27 1. Se A ∈ Mn×n (K) é invertı́vel então A−1 é invertı́vel e (A−1 ) = A.

2. Se A, B ∈ Mn×n (K) são invertı́veis então AB é invertı́vel e (AB)−1 = B −1 A−1 .

3. Mais geralmente, se s ∈ N e A1 , . . . , As ∈ Mn×n (K) são invertı́veis então A1 · · · As é


invertı́vel e (A1 · · · As )−1 = As −1 · · · A1 −1 .
31

Demonstração:
1. A demonstração é trivial se atendermos à definição de inversa e à sua unicidade.

2. Demonstremos que

(AB)(B −1 A−1 ) = In e (B −1 A−1 )(AB) = In .

Como

(AB)(B −1 A−1 ) = A(BB −1 )A−1 = AIn A−1 = AA−1 = In

(B −1 A−1 )(AB) = B −1 (A−1 A)B = B −1 In B = B −1 B = In ,

concluı́mos o que pretendı́amos.

3. A demonstração faz-se por indução sobre s e utilizando a propriedade 2.


(Exercı́cio.)

Exercı́cio 1.21 Dê exemplo de matrizes A, B ∈ Mn×n (K) tais que:

(a) A e B são invertı́veis e A + B não é invertı́vel.


(b) A + B é invertı́vel e nem A nem B são invertı́veis.

Exercı́cio 1.22 Sejam A, B, B 0 ∈ Mn×n (K) e α ∈ K \ {0}. Mostre que:

(a) Se A é invertı́vel então αA é invertı́vel e indique a sua inversa.


(b) Se A é invertı́vel então −A é invertı́vel e indique a sua inversa.
(c) Se A e AB são invertı́veis então B é invertı́vel.
(d) Se B e AB são invertı́veis então A é invertı́vel.
(e) Se A é invertı́vel e AB = AB 0 então B = B 0 .
(f) Se A é invertı́vel e BA = B 0 A então B = B 0 .

Exercı́cio 1.23 Justifique que o conjunto das matrizes invertı́veis de Mn×n (K), com a
multiplicação usual de matrizes, é um grupo.

Exercı́cio 1.24 Mostre que se A ∈ Mn×n (K) é tal que In + A é invertı́vel então as
matrizes (In + A)−1 e In − A comutam.

Sugestão: Comece por verificar que, para qualquer A ∈ Mn×n (K), as matrizes
(In + A) e (In − A) comutam.
32

Exercı́cio 1.25 Sejam A, B ∈ Mn×n (K). Dizemos que A é semelhante a B se existe


P ∈ Mn×n (K), invertı́vel, tal que

B = P −1 AP.

Justifique que:

(a) Toda a matriz é semelhante a si própria.


(b) Se A é semelhante a B então B é semelhante a A. (Dizemos então que A e
B são semelhantes.)
(c) Se A é semelhante a B e B é semelhante a C ∈ Mn×n (K) então A é
semelhante a C.
(d) A única matriz semelhante a uma matriz escalar é ela própria.
(e) Se P ∈ Mn×n (K) é invertı́vel e B = P −1 AP então B k = P −1 Ak P , para
qualquer k ∈ N. (Assim, se A é semelhante a B então Ak é semelhante a
B k , para todo k ∈ N.)
(f) Se A é semelhante a B e A é invertı́vel então B é invertı́vel.
(g) Se A é semelhante a B e A é invertı́vel então Ap é semelhante a B p , para
todo p ∈ Z.
s
Notação: Para s ∈ N, A−s significa A−1 = (As )−1 .

Adiante estudaremos processos para justificar que uma matriz quadrada é invertı́vel sem
apresentar a sua inversa.

1.4 Transposição de matrizes

Definição 1.28 Seja A ∈ Mm×n (K). Chamamos matriz transposta de A, e repre-


sentamos por A> , a matriz de Mn×m (K) tal que
 
A> = Aji , i = 1, . . . , n, j = 1, . . . , m.
ij

(O elemento da linha i e coluna j de A> é igual ao elemento da linha j e coluna i


de A. Notemos que tal corresponde a afirmar que a linha i de A> é igual à coluna
i de A, i = 1, . . . , n, ou equivalentemente, a coluna j de A> é igual à linha j de A,
j = 1, . . . , m.)

A transposição de matrizes goza das propriedades seguidamente enunciadas.

Proposição 1.29 Sejam α ∈ K e A, B matrizes sobre K de tipos adequados para que as


operações indicadas tenham sentido. Tem-se

>
1. A> = A.

2. (A + B)> = A> + B > .


33

3. (αA)> = αA> .

4. (AB)> = B > A> .


> k
5. Ak = A> , para todo k ∈ N.

6. Se A é invertı́vel então A> é invertı́vel e


 −1 >
A> = A−1 .

Demonstração:
A demonstração das propriedades 1, 2 e 3 não oferecem dificuldade, sendo deixadas
como exercı́cio.

>
4. Sejam A ∈ Mm×n (K) e B ∈ Mn×p (K). Então (AB) e B > A> pertencem
ambas a Mp×m (K). Vejamos que os elementos homólogos de (AB)> e B > A> são
iguais, isto é, que
 
>
= B > A>

(AB) ij
.
ij

Tem-se
n
X n
X
B > A> B> A>
  
ij
= ik kj
= (B)ki (A)jk
k=1 k=1
Xn
(A)jk (B)ki = (AB)ji = (AB)>

= ij
.
k=1

Logo
>
(AB) = B > A> .

5. A demonstração faz-se por indução sobre k e utilizando a propriedade 4.


(Exercı́cio.)

6. Basta verificar que


> >
A> A−1 = In = A−1 A> .
> >
Utilizando a propriedade 4, tem-se A> A−1 = A−1 A = In > = In e analo-
>
gamente se demonstra que A−1 A> = In .

Definição 1.30 Uma matriz A diz-se simétrica se A = A> e hemi–simétrica se


A = −A> .

Da definição resulta que só podem ser simétricas ou hemi–simétricas matrizes que sejam
quadradas.
34

2 3 2 3
1 2 3 0 i 2
6 7 6 7
Exemplo 1.31 A matriz 6 2 0 4 7 é simétrica. A matriz 6 −i 0 −3 7 é hemi–simétrica.
4 5 4 5
3 4 5 −2 3 0
2 3
1 i 2
6 7
A matriz 6 −i 0 −3 7 não é simétrica nem hemi–simétrica.
4 5
−2 3 0

Exercı́cio 1.26 Indique quais das matrizes


2 3 2 3
  1 2 1 2 3
0 0
A= , B=4 2 3 , C=4 2
5 0 4 5
0 0
3 4 3 4 5
2 3 2 3
1 2 3 0 2 3
D = 4 −2 0 4 5 e E = 4 −2 0 4 5.
−3 −4 5 −3 −4 0

são simétricas ou hemi–simétricas.

Exercı́cio 1.27 Sejam A ∈ Mp×n (K) e B, C ∈ Mn×m (K). Mostre que

[A(B + C)]> = B > A> + C > A> .

Exercı́cio 1.28 Seja A ∈ Mn×n (K). Mostre que se A é simétrica então, para todo
k ∈ N, Ak é simétrica.

Exercı́cio 1.29 Sejam A, B ∈ Mn×n (K) e α ∈ K. Mostre que:

(a) Se A e B são simétricas então A + B é simétrica.


(b) Se A e B são simétricas e AB = BA então AB é simétrica.
(c) Se A é simétrica então αA é simétrica.
(d) Se A é invertı́vel e simétrica então A−1 é simétrica.

Exercı́cio 1.30 Justifique as afirmações:

(a) A única matriz A ∈ Mn×n (K) que é simultaneamente simétrica e


hemi–simétrica é a matriz nula.
(b) Se A ∈ Mn×n (K) é simétrica então o mesmo sucede a Ak , para todo k ∈ N.

Exercı́cio 1.31 Seja A ∈ Mm×n (K).

(a) Mostre que as matrizes AA> e A> A são simétricas.


(b) Dê um exemplo que mostre que os dois produtos, referidos em (a), podem
ser diferentes, mesmo que A seja quadrada.

Exercı́cio 1.32 (a) Seja A ∈ Mn×n (K). Prove que:


(i) A + AT é simétrica;
(ii) A − AT é hemi–simétrica.
(b) Prove que qualquer matriz de Mn×n (K) é soma de uma matriz simétrica
com uma matriz hemi–simétrica.
2 3
1 2 3
(c) Seja A = 4 4 5 6 5 ∈ M3×3 (R). Determine matrizes B simétrica e C
7 8 9
hemi–simétrica tais que B + C = A.
35

1.5 Conjugada/Transconjugada de uma matriz

Nesta secção consideramos K = C.

Definição 1.32 Seja A ∈ Mm×n (C). Define-se a conjugada de A e representa-se


por A a matriz que se obtém de A substituindo cada elemento pelo seu conjugado.

Tem-se, pois, A ∈ Mm×n (C) e A ij = Aij .

" # " #
1 9 − 2i 1 9 + 2i
Exemplo 1.33 A conjugada de A = é a matriz A = .
7 + 3i 8i 7 − 3i −8i

Proposição 1.34 Sejam A, B ∈ Mm×n (C), C ∈ Mn×p (C) e α ∈ C. Têm-se as seguintes


propriedades.

1. A = A.

2. A + B = A + B.

3. αA = αA.

4. AC = A C.
k
5. Ak = A .
−1
6. Se m = n e A for uma matriz invertı́vel então A = A−1 .
>
7. A = A> .

Demonstração:
Exercı́cio.

>
A matriz A designa-se por transconjugada da matriz A e representa-se habitual-
mente por A∗ .

Definição 1.35 Uma matriz A diz-se hermı́tica se A = A∗ e hemi–hermı́tica se


A = −A∗ .
36

Exercı́cio 1.33 Estabeleça as propriedades análogas às da proposição anterior para a


transconjugada de uma matriz.

Exercı́cio 1.34 Justifique que se A, B ∈ Mn×n (K) comutam (isto é, se AB = BA)
então o mesmo sucede a

(a) A−1 e B −1 , se A e B são invertı́veis.


(b) A> e B > .
(c) Ak e B s , para todo k ∈ N e todo s ∈ N.

Exercı́cio 1.35 O que pode afirmar sobre os elementos da diagonal principal de uma
matriz

(a) Hermı́tica?
(b) Hemi–hermı́tica?

Exercı́cio 1.36 Justifique que, para A ∈ Mm×n (C), as matrizes A∗ A e AA∗ são
hermı́ticas.

Exercı́cio 1.37 Sejam A, B ∈ Mn×n (C) matrizes hermı́ticas. Justifique que:

(a) A + B é hermı́tica.
(b) AB é hermı́tica se, e só se, AB = BA.
(c) Ak é hermı́tica, para todo k ∈ N.
(d) Se A é invertı́vel então A−1 é hermı́tica.
(e) Se α e β são números reais então αA + βB é hermı́tica.
(f) A − A∗ , iA e −iA são hemi–hermı́ticas.
(g) AB + BA é hermı́tica e AB − BA é hemi–hermı́tica.

Exercı́cio 1.38 Justifique as afirmações:

(a) A única matriz de Mn×n (C) simultaneamente hermı́tica e hemi–hermı́tica


é a matriz nula.
(b) Qualquer que seja a matriz A ∈ Mn×n (C), A + A∗ é hermı́tica e A − A∗ é
hemi–hermı́tica.
(c) Toda a matriz A ∈ Mn×n (C) se pode escrever na forma A = B + C com
B hermı́tica e C hemi–hermı́tica.
(d) Se C ∈ Mn×n (C) é hemi–hermı́tica então iC e −iC são hermı́ticas.
(e) As matrizes B e C referidas em (c) são únicas.
Sugestão: Atenda a (a).
(f) Toda a matriz A ∈ Mn×n (C) se pode escrever na forma A = B + iD com
B e D hermı́ticas.
37

1.6 Transformações elementares sobre linhas de uma matriz.


Matrizes elementares

Definição 1.36 Seja A ∈ Mm×n (K). Chamamos transformação elementar so-


bre as linhas de A a uma transformação de um dos seguintes tipos:

I Troca entre si de duas linhas da matriz A (isto é, troca da linha i com a linha
j, com i 6= j, i, j ∈ {1, . . . , m});

II Multiplicação de uma linha da matriz A por um escalar não nulo;

III Substituição de uma linha da matriz A pela sua soma com outra linha de A
multiplicada por um escalar.

Substituindo na definição anterior “linha” por “coluna” obtemos as correspondentes de-


finições de transformações elementares sobre colunas dos tipos I, II e III.

Recordemos que se A = [Aij ] ∈ Mm×n (K), se definiu linha i de A como sendo um


elemento de Kn , isto é, o n-uplo de elementos de K,

(Ai1 , Ai2 , . . . , Ain ).

No Capı́tulo 0, referimos também a forma de adicionar n-uplos e de multiplicar um escalar


por um n-uplo. Chamamos múltiplo de uma linha de A a um n-uplo que resulte da
multiplicação de um escalar por essa linha.

Notação 1.37 Adoptaremos as seguintes notações:

• li ←→ lj , para representar que se efectuou a troca das linhas i e j, com i 6= j.

• αli , para representar que a linha i foi multiplicada por α ∈ K \ {0}.

• li + βlj , para representar que se adicionou à linha i a linha j, i 6= j, multiplicada por


β ∈ K.

• A −−T→ B, para representar que a matriz B se obteve de A efectuando a transformação


elementar T (de tipo não especificado).

• A −−−−−−−→ B, para representar que a matriz B se obteve de A efectuando um número


(linhas)
finito k, com k≥0, de transformações elementares nas linhas (de tipos não especifica-
dos).
38

Exemplo 1.38
2 3 2 3 2 3 2 3
1 0 2 1 0 2 1 0 2 1 0 2
6 7−−−−−−−→6 7− → 6 7−−−−−−−→6 7−
A =6 4 3 2 0 75l 2 + (−3)l 1
6 0 2 −6 7 1 l2 6 0
4 52 4 1 −3 7
5l 3 + (−1)l 2
6 0
4 1 −3 7
5

0 1 0 0 1 0 0 1 0 0 0 3
2 3 2 3 2 3
1 0 2 1 0 2 1 0 0
−→6
1 6
7− −−−−→6 6 7− −−−−− − → 6 7
l
3 4 0
3 1 −3 7 7
5l2 + 3l3 4 0 1 0 5l1 + (−2)l3 4
6 0 1 0 7 5.
0 0 1 0 0 1 0 0 1

Podemos então escrever


2 3 2 3
1 0 2 1 0 0
6 7−−−−−→6 7
A=6
4 3 2 0 7 6
5(linhas)4 0 1 0 7
5.
0 1 0 0 0 1

Definição 1.39 Chamamos matriz elementar de Mn×n (K), sobre linhas, de tipo I,
II ou III, a toda a matriz que se obtém de In por aplicação de uma única transformação
elementar nas suas linhas, de tipo I, II, ou III, respectivamente.

Substituindo na definição anterior “linhas” por “colunas”, obtemos a correspondente


definição de matriz elementar de Mn×n (K), sobre colunas.

Exemplo 1.40 São matrizes elementares de M3×3 (R), sobre linhas, as matrizes:
2 3
0 1 0
6 7
1. E=6
4 1 0 0 7
5, pois I3 −−−−−→ E.
l ↔l1 2
0 0 1
2 3
1 0 0
6 7
2. E= 6 0 0 7
4 5 5, pois I3 −−5l−→ E.
2
0 0 1
2 3
1 7 0
6 7
3. E= 6 0 0 7
5, pois I3 −−l −+7l
4 1 −−−→ E.
1 2
0 0 1

Teorema 1.41 Seja A ∈ Mm×n (K).

1. Se
Im −−T→ E,

sendo T uma transformação elementar sobre linhas, então

A −−T→ EA.
39

2. Se
0
In −−−→
0 E ,
T

sendo T 0 uma transformação elementar sobre colunas, então

0
A −−−→
0 AE .
T

Demonstração:
Fica como exercı́cio. (Considere separadamente os casos em que E é uma matriz
elementar de tipo I, II ou III, sobre linhas ou sobre colunas.)

De acordo com o teorema anterior, cada transformação elementar efectuada sobre as


linhas (respectivamente, colunas) de uma matriz de Mm×n (K) corresponde a multiplicar a
matriz à esquerda (respectivamente, à direita) por uma matriz elementar. Tal matriz elemen-
tar é a que resulta da matriz identidade efectuando-lhe exactamente a mesma transformação
elementar.

Exercı́cio 1.39 Seja A ∈ M3×5 (K). Determine as matrizes elementares que, multipli-
cadas à esquerda de A, produzem em A cada uma das seguintes transformações:

(a) Troca da primeira com a terceira linhas;


(b) Multiplicação da primeira linha por 6;
1
(c) Adição de 5
da segunda linha à terceira linha.

Como consequência do Teorema 1.41, resulta:

Proposição 1.42 Toda a matriz elementar E ∈ Mn×n (K) é invertı́vel e tem-se, quaisquer
que sejam i, j ∈ {1, . . . , n}:

1. Se i 6= j e In −−−−−→ E então In −−−−−→ E −1 .


li ↔lj li ↔lj

2. Se α ∈ K \ {0} e In −−−→ E
αl
então In −−1−l→ E −1 .
i α i

3. Se i 6= j, β ∈ K e In −−li−+βl
−−−→ E então In −−l−+(−β)l
−−−−−− → E −1 .
j i j

Demonstração:
Seja E ∈ Mn×n (K).

1. Suponhamos que i, j ∈ {1, . . . , n}, com i 6= j, e In −−


li ↔lj E , isto é, E é a
−−−→

matriz elementar que se obtém de In trocando as linhas i e j. Pelo Teorema 1.41,


tem-se
EE = In .
40

Logo, E é invertı́vel e E −1 = E.

2. Suponhamos que α ∈ K \ {0} , In −−−→ E e In −−1−−→ E 0 , ou seja, E é


αli li
α

a matriz elementar que se obtém de In multiplicando a linha i por α e E 0 é a


1
matriz elementar que se obtém de In multiplicando a linha i por α. Ainda pelo
Teorema 1.41, tem-se
E 0 E = In e EE 0 = In .

Logo, E é invertı́vel e E 0 = E −1 .

3. Fica como exercı́cio.

1.7 Matrizes em forma de escada. Caracterı́stica de uma


matriz

Definição 1.43 Chamamos pivô de uma linha não nula de uma matriz ao elemento
não nulo mais à esquerda dessa linha.

Definição 1.44 Seja A ∈ Mm×n (K). Dizemos que A está em forma de escada
(abreviadamente, denotado por f.e.) se A = 0m×n ou se satisfaz as duas condições
seguintes:

1. Para todo r ∈ {1, . . . , m − 1}, se a linha r de A é nula então a linha r + 1 de


A também é nula (isto é, se A tem uma linha nula então a linha seguinte, se
existir, também é nula).

2. Se s ∈ {1, . . . , m − 1}, a linha s de A é não nula e Ast é o pivô da linha s então


As+1,j = 0, para qualquer j ∈ {1, . . . , t} (isto é, à medida que o ı́ndice de linha
aumenta, também aumenta o ı́ndice de coluna dos pivôs das linhas não nulas).

Exemplo 1.45 Estão em forma de escada, por exemplo, matrizes com o seguinte aspecto:
2 3 2 3 2 3
0 • ∗ ∗ • ∗ ∗ •
6 7 6 7 6 7
6 0 • 7 6 0 ∗ 7 6 0 7,
4 0 0 5, 4 • 5 ou 4 5
0 0 0 0 0 0 • 0
41

em que, por •, se representam os pivôs e em que ∗ representa elementos que podem tomar
qualquer valor.

As matrizes
2 3
2 3 0 0 0 0 2 3
1 0 −1 6 7 0 0 0 7
6 7 6 0 −1 0 7 6 7
6 0 6 3 7
4 2 5 7
5, 6 7 e 6 0
4 −1 3 0 7
5
6 0 0 6 −4 7
0 3 0 4 5 0 0 6 −4
0 0 0 0

não estão em forma de escada. Porquê?

Dizemos, então, numa linguagem informal, que uma matriz está em forma de escada se,
quando tiver linhas nulas e não nulas, as nulas aparecem depois das não nulas e quanto às
linhas não nulas, se as houver, podemos constituir com os pivôs uma “escada” com degraus
de “altura” 1 e “largura” arbitrária.
Exercı́cio 1.40 Indique se estão em forma de escada cada uma das seguintes matrizes:

(a) In .
2 3
0 0 0
6 5 1 4 7
(b) 6
4 0 1 3 5.
7

0 0 2
 
(c) 0 5 0 0 .
2 3
0 1 0
(d) 4 0 0 1 5.
0 0 1

Proposição 1.46 Dada A ∈ Mm×n (K) é possı́vel obter a partir de A uma matriz em
forma de escada, efectuando um número finito k, com k≥0, de transformações elementa-
res sobre linhas. Abreviadamente

A −−−−−−−→ A0 (f.e.).
(linhas)

Embora não demonstremos esta afirmação, vamos apresentar um processo prático de,
a partir de uma matriz A ∈ Mm×n (K) e efectuando um número finito de transformações
elementares sobre linhas, obtermos uma matriz em forma de escada. Este processo é também
designado por condensação da matriz A.

Note que se A já está em forma de escada então o número de transformações elementares
para transformar A numa matriz em forma de escada pode ser tomado igual a zero.

• Processo para redução de uma matriz A ∈ Mm×n (K) à forma de escada.


Se A = 0m×n então A já está em forma de escada.
Suponhamos então que A 6= 0m×n .
42

Passo 1: Por troca de linhas (isto é, efectuando apenas transformações elementares do tipo I),
se necessário, obtemos uma matriz B cuja linha 1 tem, entre todas as linhas da matriz,
um pivô com ı́ndice de coluna mı́nimo. Seja tal elemento B1t . Obtemos uma matriz
da forma 2 3
0 ··· 0 B1t B1,t+1 ··· B1n
6 7
6 0 ··· 0 B2t B2,t+1 ··· B2n 7
6 7
B= 6 7,
6 .. .. .. .. .. 7
6 . . . . . 7
4 5
0 ··· 0 Bmt Bm,t+1 ··· Bmn

onde B1t 6= 0 (e em que, para t = 1, não existem as t − 1 colunas nulas à esquerda).

Passo 2: Para cada linha i de B, i = 2, . . . , m, substitui-se a linha i pela sua soma com o produto
Bit
de − B 1t
pela linha 1 (transformações elementares do tipo III). Obtemos uma matriz
da forma 2 3
0 ··· 0 B1t B1,t+1 ··· B1n
6 7
6 0 ··· 0 0 C2,t+1 ··· C2n 7
6 7
C= 6 7,
6 .. .. .. .. .. 7
6 . . . . . 7
4 5
0 ··· 0 0 Cm,t+1 ··· Cmn

onde B1t 6= 0.

Passo 3: Se a matriz C estiver em forma de escada, o processo termina e está encontrada uma
matriz em forma de escada.

Caso contrário, “despreza-se” a linha 1 da matriz C e aplica-se os passos 1 e 2 à matriz


resultante do tipo (m − 1)×n.

2 3
0 0 0 0 0
6 7
6 0 −4 7
6 4 9 3 7
Exemplo 1.47 Seja A = 6
6 0
7 ∈ M4×5 (R). Utilizando o procedimento
4 2 1 5 −2 7
5
0 1 2 1 −1
anterior, determinemos uma matriz em forma de escada a partir da matriz A.
2 3 2 3 2 3
0 0 0 0 0 0 1 2 1 −1 0 1 2 1 −1
6 7 6 7 6 7
6 0 −4 7 6 −4 7− −−− −−−→ 6 0 −1 0 7
A =6 7−−−−−−→6 0 7 6 7
4 9 3 4 9 3 0 1
6 7l1 ←→ l4 6 7l2 + (−4)l1 6 7−

6 0 0 2 −2 3 7 6 0 0 2 −2 3 7 6 0 0 2 −2 3 7
4 5 4 5 4 5
0 1 2 1 −1 0 0 0 0 0 0 0 0 0 0
2 3
0 1 2 1 −1
6 7
−−−−−−−→6 0 6 −1 0 7
0 1 7
l3 + (−2)l2 6 7 (f.e.).
6 0 0 0 0 3 7
4 5
0 0 0 0 0

2 3
0 0 0 −2 6
6 7
Exemplo 1.48 Seja A = 6 1 0 2 1 0 7 ∈ M3×5 (R).
4 5
2 0 4 0 6
43

Podemos, por exemplo, obter, a partir de A, através de transformações elementares sobre


linhas, as seguintes matrizes B e C em forma de escada.
2 3 2 3 2 3
0 0 0 −2 6 1 0 2 1 0 1 0 2 1 0
6 7−−−−−−→6 7−−−−−−−→6 7
A =6
4 1 0 2 1 0 7 6
5l1 ←→ l2 4 0 0 0 −2 6 7 6
5l3 + (−2)l1 4 0 0 0 −2 6 7
5−

2 0 4 0 6 2 0 4 0 6 0 0 0 −2 6
2 3
1 0 2 1 0
−−−−−−−→6 6
7
l3 + (−)l2 4 0 0 0 −2 6 7
5 = B (f.e.).
0 0 0 0 0

2 3 2 3 2 3
0 0 0 −2 6 2 0 4 0 6 2 0 4 0 6
6 7−−−−−−→6 7−−−−−−− −→6 7
A =6
4 1 0 2 1 0 7 6
5l1 ←→ l3 4 1 0 2 1 0 7 1 6
5l2 + (− 2 )l1 4 0 0 0 1 −3 7
5−

2 0 4 0 6 0 0 0 −2 6 0 0 0 −2 6
2 3
2 0 4 0 6
−−−−−→6 7
l3 + 2l2 6
4 0 0 0 1 −3 75 = C (f.e.).
0 0 0 0 0

Por outro lado, se multiplicarmos qualquer linha não nula de B ou C por um escalar
não nulo, obtemos ainda matrizes em forma de escada que resultaram de A através de
transformações elementares sobre linhas.

Constatamos assim, que a partir da mesma matriz A podemos obter, em geral, por
transformações elementares sobre linhas, diferentes matrizes em forma de escada.

Exercı́cio 1.41 Efectuando transformações elementares sobre linhas, obtenha a partir


de cada uma das seguintes matrizes de elementos reais uma matriz em forma de escada:
2 3
1 2 1
(a) A = 4 2 1 0 5.
−1 0 1
2 3
2 4 −2 6 0
(b) B = 4 4 8 −4 7 5 5.
−2 −4 2 −1 −5
2 3
2 2 1
(c) C = 4 −2 −2 1 5.
1 1 2

Definição 1.49 Seja A ∈ Mm×n (K) uma matriz em forma de escada. Dizemos que
A está em forma de escada reduzida (abreviadamente, denotado por f.e.r.) se
A = 0m×n ou se todos os pivôs são iguais a 1 e todos os restantes elementos das
colunas dos pivôs são nulos.
44

Exemplo 1.50 A matriz identidade, de qualquer ordem, está em forma de escada redu-
zida.
2 3
0 1 5 3 0 5
6 7
A matriz 6 0 0 0 0 1 1 7 está em forma de escada reduzida.
4 5
0 0 0 0 0 0

Exercı́cio 1.42 Indique se estão em forma de escada reduzida cada uma das seguintes
matrizes:

(a) In .
2 3
0 1 2 0 5
(b) 4 0 0 1 0 0 5.
0 0 0 0 0
2 3
0 1 2 0 5
(c) 4 0 0 0 1 1 5.
0 0 0 0 0
 
(d) 0 1 0 0 .
2 3
1
(e) 4 0 5.
0

Proposição 1.51 Dada A ∈ Mm×n (K) é possı́vel obter a partir de A uma única matriz
em forma de escada reduzida, efectuando um número finito k, com k≥0, de transformações
elementares sobre linhas. Abreviadamente,

A −−−−−−−→ A00 (f.e.r.), com A00 única.


(linhas)

Embora não demonstremos a Proposição 1.51, vamos indicar um processo prático para
obter a forma de escada reduzida de A ∈ Mm×n (K), também designada por forma de
Hermite de A.

• Processo para redução de uma matriz A ∈ Mm×n (K) à forma de escada


reduzida.
Se A = 0m×n então A já está em forma de escada reduzida.
Suponhamos que A 6= 0m×n .
Pelo processo descrito anteriormente podemos obter uma matriz B ∈ Mm×n (K), em
forma de escada, tal que
A −−−−−−−→ B (f.e.).
(linhas)

Passo 1: Seja Bsk o pivô com maior ı́ndice de linha. (Note que Bsk 6= 0 e, se existirem linhas
abaixo da linha s, essas linhas são todas nulas.)
1
Para garantir que o pivô passa a “1”, multiplica-se a linha s por Bsk (transformação
elementar do tipo II).
45

Seja C a matriz obtida. Para cada linha i de C, com i = 1, . . . , s − 1, substitui-se a


linha i pela sua soma com o produto de −Cik pela linha s (transformações elementares
do tipo III). (Note que tal corresponde a anular os elementos da coluna do pivô, com
ı́ndice de linha inferior ao do pivô. Os que têm ı́ndice de linha superior já são nulos
por a matriz C estar em forma de escada.)

Obtemos uma nova matriz D que continua em forma de escada e em que as entradas
da coluna k são todas nulas à excepção do pivô Dsk que é igual a 1.

Passo 2: Se a matriz D estiver em forma de escada reduzida, o processo termina e está encon-
trada uma matriz em forma de escada reduzida.

Caso contrário, “desprezam-se” as linhas de ı́ndice superior ou igual a s de D e aplica-se


o passo 1 à matriz do tipo (s − 1)×n resultante.

2 3
0 0 0 0 0
6 7
6 0 −4 7
6 4 9 3 7
Exemplo 1.52 Consideremos a matriz A = 6
6 0
7 ∈ M4×5 (R) do Exem-
4 2 1 5 −2 7
5
0 1 2 1 −1
plo 1.47. Nesse exemplo, vimos que
2 3
0 1 2 1 −1
6 7
6 0 −1 0 7
−−−−−−−→ 6 7
0 1
A 6
(linhas) 6 0
7 = B (f.e.).
4 0 0 0 3 7
5
0 0 0 0 0

Utilizando o procedimento anterior, determinemos a forma de escada reduzida de B.


2 3 2 3 2 3
0 1 2 1 −1 0 1 2 1 −1 0 1 2 1 0
6 7 6 7 6 7
6 0 0 7 →6 0 7 −−−−→6 0 7
−1 7− −1 −1
B =6 6 0 7− 6 0 7
0 1 0 1 0 1
6 7 31 l3 6 7l1 + 1l3 6 7−

6 3 7 6 0 1 7 6 0 1 7
4 0 0 0 0 5 4 0 0 0 5 4 0 0 0 5
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
2 3
0 1 0 3 0
6 7
−−−−−−−→6 6 0 0 1 −1 0 7
7
l1 + (−2)l2 6
6 0
7 (f.e.r.).
4 0 0 0 1 7
5
0 0 0 0 0

Exercı́cio 1.43 Efectuando transformações elementares sobre linhas, obtenha a forma


de escada reduzida de cada uma das seguintes matrizes:
2 3
1 2 1
(a) A = 4 2 1 0 5.
−1 0 1
2 3
2 4 −2 6 0
(b) B = 4 4 8 −4 7 5 5.
−2 −4 2 −1 −5
2 3
2 2 1
(c) C = 4 −2 −2 1 5.
1 1 2
46

Apresentada sem demonstração, a proposição seguinte tem grande importância.

Proposição 1.53 Seja A ∈ Mm×n (K). Quaisquer matrizes em forma de escada que se
obtenham de A efectuando um número finito k, com k≥0, de transformações elementares
sobre linhas têm o mesmo número de linhas não nulas.

Definição 1.54 Seja A ∈ Mm×n (K). Ao número de linhas não nulas de qualquer
matriz em forma de escada obtida a partir de A efectuando um número finito de
transformações elementares sobre linhas chamamos caracterı́stica de A e denotamos
por r(A).

Da proposição e da definição anteriores resulta pois:

Proposição 1.55 As transformações elementares sobre linhas não alteram a caracterı́stica,


isto é, se A ∈ Mm×n (K) e
A −−−−−−−→ B
(linhas)

então r(A) = r(B).

Demonstração:
Note que, efectuando um número finito k, com k≥0, de transformações elementares
sobre linhas, é possı́vel obter a partir de B uma matriz C em forma de escada
reduzida, isto é,
A −−−−−−−→ B −−−−−−−→ C (f.e.r.).
(linhas) (linhas)

Se l é o número de linhas não nulas de C então

r(A) = l = r(B).

Da definição de caracterı́stica resulta trivialmente que se A ∈ Mm×n (K) então r(A) ≤ m.


Tem-se, ainda, r(A)≤n. De facto, tal é trivial se r(A) = 0 (isto é, se A = 0m×n ). Se r(A) > 0
(isto é, se A 6= 0m×n ), como na forma de escada os pivôs têm ı́ndices de coluna, dois a dois
distintos, concluı́mos ainda que r(A) ≤ n. Logo, para A ∈ Mm×n (K), tem-se

r(A) ≤ m e r(A) ≤ n,

isto é,
r(A) ≤ min{m, n}.
47

Exemplo 1.56 Tem-se r(0m×n ) = 0 e r(In ) = n.


2 3
1 2 3
6 7
Se A = 6 0 4 7
4 5 5 então r(A) = 2.
0 0 0
2 3 2 3 2 3
1 1 1 1 1 1
6 7 6 7−−−−−−→6 7
Se B = 6 2 2 7 6 2 2 7
l2 +(−2)l1 6
0 7
4 5 então r(B) = 1, pois B= 4 5l3 +(−3)l1 4 0 5 (f.e.).
3 3 3 3 0 0

Exercı́cio 1.44 Considere as matrizes de elementos reais


2 3
2 3 2 1 0
0 1 0 1 1 6 1 1 2 7
A1 = 4 2 3 0 2 1 5, A2 = 64 3
7,
−1 1 5
−2 −1 0 1 −1
−1 1 0
2 3 2 3
1 4 2 2 1 1
A3 = 4 2 3 1 5 e A4 = 4 0 0 1 5.
−1 1 1 1 −1 2

Determine a caracterı́stica de Ai , i = 1, 2, 3, 4.

 
Exercı́cio 1.45 Sejam L = 1 ··· 1 ∈ M1×n (K) e Jn = L> L. Determine a
caracterı́stica de:

(a) Jn .
(b) (n − 2)In + Jn .

Exercı́cio 1.46 Discuta, segundo os valores de α e β, a caracterı́stica das seguintes


matrizes de elementos reais:
2 3
2 3 1 −1 0 1
1 0 −1 1 6 1 1 0 −1 7
Aα = 4 1 1 0 1 5, Bα = 6 4
7,
α 1 1 0 5
α 1 −1 2
0 1 α 1
2 3
2 3 α 0 −1 β
0 0 α 6 1 0 β 0 7
Cα,β =4 0 β 2 5 e Dα,β = 6
4 1
7.
1 1 1 5
3 0 1
1 1 0 1

Exercı́cio 1.47 Seja


2 3
1 α α2 α3
6 α α2 α3 1 7
6
A=4 2 7 ∈ M4×4 (K).
α α3 1 α 5
α3 1 α α2

Discuta, segundo os valores de α, a caracterı́stica de A para:

(a) K = R.
(b) K = C.

1.8 Caracterizações das matrizes invertı́veis

Na Secção 1.3 foi apresentada a definição de matriz invertı́vel. Utilizando apenas a definição
não é, em geral, imediato reconhecer, na prática, se uma dada matriz é ou não invertı́vel.
48

Pensemos, por exemplo, na matriz


2 3
1 0 1
6 7
A=6
4 2 2 2 7
5 ∈ M3×3 (R).
−1 0 0

O resultado seguinte permite, em particular, decidir se uma dada matriz quadrada é ou


não invertı́vel através da sua caracterı́stica.

Teorema 1.57 Seja A ∈ Mn×n (K). As afirmações seguintes são equivalentes:

1. A é invertı́vel.

2. r(A) = n.

3. In é a forma de escada reduzida de A.

4. A pode escrever-se como produto de matrizes elementares.

Demonstração:
Vamos demonstrar que
1 ⇒ 2 ⇒ 3 ⇒ 4 ⇒ 1.

1⇒2

Suponhamos que A é invertı́vel. Seja B uma matriz em forma de escada obtida


a partir de A efectuando um número finito de transformações elementares sobre
linhas. Seja t o número de transformações elementares efectuadas. De acordo
com o Teorema 1.41, cada operação elementar sobre as linhas de uma matriz
corresponde a multiplicar a matriz, à esquerda, por uma matriz elementar. Assim,
podemos escrever
B = Et · · · E1 A,

sendo E1 , . . . , Et matrizes elementares.

Como toda a matriz elementar é invertı́vel, como A é invertı́vel e pelo Teorema 1.27
o produto de matrizes invertı́veis é invertı́vel, concluı́mos que B é invertı́vel.

Como observámos na Secção 1.3, se uma matriz tem alguma linha nula então não
é invertı́vel. Assim a matriz B não tem linhas nulas. Como B está em forma de
escada e tem n linhas não nulas concluı́mos que

r(A) = n.

2⇒3
49

Suponhamos que r(A) = n e seja C a forma de escada reduzida de A, obtida por


transformações elementares sobre linhas. Notemos que, pela Proposição 1.55, se
tem
r(C) = n

e, portanto, todas as linhas de C são não nulas. Como C está na forma de escada
reduzida, todos os n pivôs de C são 1 e os restantes elementos dessas n colunas
são zeros. Como C tem, no total, n colunas, concluı́mos pois que

C = In .

3⇒4

Se In é a forma de escada reduzida de A então é possı́vel obter In a partir de A


efectuando um número finito de transformações elementares sobre linhas. Logo

In = (Es · · · E1 )A,

sendo E1 , . . . , Es matrizes elementares.

Como E1 , . . . , Es são invertı́veis concluı́mos que Es · · · E1 é invertı́vel e que

−1
(Es · · · E1 ) = A.

Tem-se então
A = E1 −1 · · · Es −1 .

Como, pela Proposição 1.42, a inversa de uma matriz elementar é, ainda, uma
matriz elementar, concluı́mos que a matriz A se pode escrever como produto de
matrizes elementares.

4⇒1

Se A se pode escrever como produto de matrizes elementares, como tais matrizes


são invertı́veis e o produto de matrizes invertı́veis é invertı́vel, concluı́mos que A é
invertı́vel.

Apresentamos seguidamente um processo para determinar a inversa de uma matriz in-


vertı́vel, utilizando apenas transformações elementares sobre linhas.

Seja A ∈ Mn×n (K) uma matriz invertı́vel.

Pelo resultado anterior, se A é invertı́vel então a forma de escada reduzida de A é In


e, portanto, existem A0 , A1 , . . . , As ∈ Mn×n (K) tais que

A = A0 −−T−→ A1 −−T−→ · · · As−1 −−T−→ As = In


1 2 s
50

sendo T1 , . . . , Ts transformações elementares sobre linhas.

Tem-se, pois,
In = (Es · · · E1 )A

onde Ei , i = 1, . . . , s, é a matriz elementar que se obtém de In efectuando a mesma


transformação elementar Ti que permitiu obter Ai de Ai−1 .

Temos
A−1 = Es · · · E1 = (Es · · · E1 ) In .

Concluı́mos então que se efectuarmos em In a mesma sequência de transformações


elementares que permitiram obter In de A obtemos A−1 .

Assim, se A ∈ Mn×n (K) é uma matriz invertı́vel podemos calcular A−1 pelo processo
seguinte:
Efectuamos transformações elementares sobre linhas de modo a obter In a
partir de A (o que corresponde a transformar A na sua forma de escada
reduzida). Se, a partir de In , efectuarmos a mesma sequência de trans-
formações elementares sobre linhas, a matriz que, no final, obtemos é A−1 .

Notemos que estes dois “caminhos” podem ser percorridos simultaneamente. Abrevia-
damente,
[A | In ] −−−−−−−→ [In | A−1 ].
(linhas)

2 3
1 0 1
6 7
Exemplo 1.58 Seja A = 6
4 2 2 2 7
5 ∈ M3×3 (R).
−1 0 0
2 3 2 3
1 0 1 1 0 1
6 7−−−−−−→6 7
Temos A = 6 2 2 2 7
l2 +(−2)l1 6
0 7 (f.e.).
4 5 l3 +l1 4 0 2 5
−1 0 0 0 0 1

Como r(A) = 3 = ordem de A, concluı́mos que A é invertı́vel.

Determinemos A−1 .

2 3 2 3
1 0 1 1 0 0 1 0 1 1 0 0
6 7−−−−−−→6 7−
[A | I3 ] =6
4 2 2 2 0 1 0 7
l2 +(−2)l1 6
5 3 1 4
l +l 0 2 0 −2 1 0 7→
5
−1 0 0 0 0 1 0 0 1 1 0 1
2 3 2 3
1 0 1 1 0 0 1 0 0 0 0 −1
−→6
1 6
7−−−−−−−→6 7
l
2 24 0 1 0 −1 1
2
0 7 6
5l1 + (−1)l3 4 0 1 0 −1 2
1
0 7
5.
0 0 1 1 0 1 0 0 1 1 0 1
51

Logo 2 3
0 0 −1
6 7
A−1 = 6 −1
4
1
2
0 7
5.
1 0 1

Exercı́cio 1.48 Indique:

(a) Uma condição necessária e suficiente para que uma matriz diagonal seja
invertı́vel.
(b) D−1 , sendo D ∈ Mn×n (K) uma matriz diagonal invertı́vel.

Exercı́cio 1.49 Considere as matrizes


2 3 2 3
3 1 0 1 −1 0
A= 4 1 2 1 5 ∈ M3×3 (R), B = 4 2 1 2 5 ∈ M3×3 (R),
2 −1 −1 0 1 −1
2 3
  1 −1 1 2
1 1+i 6 2 −2 1 1 7
C= ∈ M2×2 (C) e D = 4 6 7 ∈ M4×4 (R).
−i 1 1 −1 0 1 5
−2 0 2 −2

Indique quais destas matrizes são invertı́veis e determine a respectiva inversa.

 
1 −1
Exercı́cio 1.50 Seja A = ∈ M2×2 (R).
2 0

(a) Mostre que A é invertı́vel e determine A−1 .


(b) Exprima A e A−1 como produto de matrizes elementares.

Exercı́cio 1.51 Seja A ∈ Mm×n (K). Mostre que existe uma matriz invertı́vel
C ∈ Mm×m (K), tal que CA está em forma de escada reduzida.

Exercı́cio 1.52 Sejam A ∈ Mm×m (K) e B ∈ Mm×n (K). Mostre que se A é invertı́vel,
então r(AB) = r(B).

2 3
1 1+i −i
Exercı́cio 1.53 Mostre que a matriz M = 4 0 i 1 − 2i 5 ∈ M3×3 (C) é in-
1 1 i
vertı́vel e determine M −1 .

Exercı́cio 1.54 Calcule a inversa de cada uma das seguintes matrizes de Mn×n (K):
2 3
1 a a2 ··· an
6 0 1 a ··· a n−1
7
6 7
(a) A = 6 0 0 1 ··· an−2 7.
4 5
···
0 0 0 ··· 1
2 3
1 2 3 ··· n
6 0 1 2 ··· n−1 7
6 7
(b) B = 6 0 0 1 ··· n − 2 7.
4 ··· 5
0 0 0 ··· 1
52

Exercı́cio 1.55 Justifique que, para n≥2, a matriz


2 3
0 1 1 ··· 1
6 1 0 1 ··· 1 7
6 7
6 1 1 0 ··· 1 7
C=6 7 ∈ Mn×n (K)
6 .. 7
4 . 5
1 1 1 ··· 0

é invertı́vel e determine a sua inversa.


53

Soluções de alguns dos exercı́cios propostos (


 4 1 5

1.3 (a) −2 1 −1
2, se α = 0 ou β = 0
r(Cα,β) =
 8 2 10
 3, se α 6= 0 e β 6= 0
(b) −4 2 −2
h i (
2 1 −4 3, se β = 0 e α ∈ R
(c) 2 −1 0 r(Dα,β ) =
h i 4, se β 6= 0 e α ∈ R
3 2 −15
(d) 11 2 −2 (
2 3 1, se α ∈ {−1, 1}
1.47 (a) r(A) =
3 2 2 4, caso contrário
6 7
1.4 X = 6
4 2 3 2 7
5 (
1, se α ∈ {−1, 1, −i, i}
2 2 3 (b) r(A) =
4, caso contrário
 
00 0 2 3
1.5 AB = [ −1 ], BA = 1 2 −1 3
5
1
5
2
5
3 6 −3
1.49 B −1 = 4 − 25 1
5
2
5
5
−2 1 −3
1.6 (a) [ 2 5 ] 5 5 5
  h i
−i −1+i
−2 2 1 C −1 = 1 −i
(c) 1 −1 0
−2 2 2 2 3
1 2
 0 1 1
−2 − 2
(d) 1 −2 6 1 1 −5 −21
7
D−1 = 4 2
1
2
1
2
5
−3 0
0 0  −6 −3
 2
1
2 2
1.8 (a) AB = , BA = 2
−12
1
2
0
00 12 6
 −6 −3
  
(b) CA = 12 6 0 1
2
1.50 (a)
−1 1
  2
−2 2 6
1.9 A1 B1 = 0 0 0  
−5 −1 1 2+2i −2−i −1−2i
h2 2 i 1.53 M −1 = −2−i 2 2+i
A2 B2 = 0 2 −1 1 1
 33−1 
A3 B3 = 30 "1 −a 0 0 ··· 0 #
 −2 4 0  0 1 −a 0 ··· 0
−3 −1 1.54 (a) A−1 = 0 0 1 −a ··· 0
A4 B4 = 9 5 ···
−6 −2 0 0 0 0 ··· 1
" 1 −2 1 0 0 ··· 0 #
1 0 0 1 −2 1 0 ··· 0
1.14 (a) (A + B)2 = 01 (b) B −1 = 0 0 1 −2 1 ··· 0
1 2 ···
A2 + 2AB + B 2 = 01 0 0 0 0 0 ··· 1
  " #
(b) (A − B)2 = 10 41 2−n 1 1 ··· 1
1 2 1.55 C −1 = 1
n−1
1 2−n 1 ··· 1
···
A2 − 2AB + B 2 = 01 1 1 1 ··· 2−n
 
(c) A2 − B 2 = −1 0
0 1
 −1 2 
(A − B)(A + B) = 0 1
h13 5
i h0 −1 −2 i
1.32 (a) B = 35 7 , C = 1 0 −1
579 2 1 0
h1 0 0
i
1.43 (a) 0 1 0
0 0 1
h1 2 −1 0 3 i
(b) 0 0 0 1 −1
0 0 0 0 0
h1 1 0
i
(c) 0 0 1
0 0 0

1.44 r(A1 ) = 3, r(A2 ) = 3, r(A3 ) = 2, r(A4 ) = 3

1.45 (a) r(Jn ) = 1


8
>
>
< 0, se n = 1
(b) r ((n − 2)In + Jn ) = 1, se n = 2
>
>
:
n, se n > 2
(
2, se α = 2
1.46 r(Aα ) =
3, se α 6= 2
(
3, se α = 2
r(Bα ) =
4, se α 6= 2
Capı́tulo 2

Sistemas de Equações Lineares

A determinação do conjunto de soluções dos sistemas de equações lineares constitui um tema


de estudo relevante dentro da Matemática Aplicada e particularmente em muitos tópicos de
Engenharia.

A complexidade de muitos sistemas, com elevado número de equações e de incógnitas,


apenas permite resolvê-los com o auxı́lio de um computador.

Existem diversos algoritmos que permitem encontrar, caso existam, soluções dum sistema,
recorrendo eventualmente a métodos numéricos de aproximação.

Neste capı́tulo apresentamos, utilizando a linguagem das matrizes, um processo de re-


solução de sistemas, baseado num algoritmo conhecido por método de eliminação de Gauss.

Definição 2.1 Uma equação linear nas incógnitas x1 , . . . , xn , sobre K, é uma


equação do tipo
a1 x1 + · · · + an xn = b (2.1)

onde a1 , . . . , an e b são elementos de K.


É usual chamar a b o segundo membro ou termo independente da equação.
Dizemos que (β1 , . . . , βn ) ∈ Kn é uma solução da equação (2.1) se substituindo xi
por βi , i = 1, . . . , n, se obtém uma proposição verdadeira, isto é, (β1 , . . . , βn ) é solução
da equação (2.1) se
a1 β1 + · · · + an βn = b.
56

Definição 2.2 Um sistema de equações lineares é uma colecção finita de equações


lineares, todas nas mesmas incógnitas.
Sejam m, n ∈ N e consideremos o sistema



 a11 x1 + ··· + a1n xn = b1

···

 a x +
21 1 + a2n xn = b2
(S)


 ···


am1 x1 + ··· + amn xn = bm

com aij , bi ∈ K, i = 1, . . . , m, j = 1, . . . , n.
Dizemos que (S) é um sistema de m equações lineares, nas n incógnitas
x1 , . . . , xn , sobre K.
Se b1 = b2 = · · · = bm = 0 dizemos que (S) é um sistema homogéneo.
Dizemos que (β1 , . . . , βn ) ∈ Kn é uma solução do sistema (S) se substituindo em (S)
xi por βi , i = 1, . . . , n, se obtêm m proposições verdadeiras, isto é, se

a11 β1 + · · · + a1n βn = b1 ∧ a21 β1 + · · · + a2n βn = b2 ∧ · · · ∧ am1 β1 + · · · + amn βn = bm ,

ou, de outra forma,





 a11 β1 + · · · + a1n βn = b1

 a β + ···

+ a2n βn = b2
21 1
.


 ···


am1 β1 + · · · + amn βn = bm

O sistema (S) diz-se impossı́vel se não existe nenhuma solução de (S), ou equivalen-
temente, se o conjunto das soluções do sistema (S) é o conjunto vazio.
Caso contrário, isto é, se (S) admite pelo menos uma solução, diz-se que (S) é um
sistema possı́vel .
Um sistema possı́vel diz-se determinado se tem uma, e uma só, solução e indeter-
minado se tem mais do que uma solução.

Notemos que:

(i) Se representarmos por C o conjunto das soluções do sistema (S) anterior e por Ci ,
i = 1, . . . , m, o conjunto das soluções da i-ésima equação de (S) então

C = C1 ∩ C2 ∩ · · · ∩ Cm .
57

(ii) Se (S) é um sistema homogéneo então (0, 0, . . . , 0) ∈ Kn é uma solução do sistema, a


que chamaremos a solução nula.

Logo, um sistema homogéneo é sempre possı́vel, podendo ser determinado se tiver


apenas a solução nula ou indeterminado se além dessa solução tiver outra.

Exemplo 2.3 1. Além de (0, 0), também (−2, 1) é solução do sistema homogéneo nas
incógnitas x1 e x2 , sobre R,

 x1 + 2x2 = 0
 −2x1 − 4x2 = 0

pois 
 −2 + 2 × 1 = 0
.
 −2 × (−2) − 4 × 1 = 0

O conjunto de soluções do sistema é

C = {(α1 , α2 ) ∈ R2 : α1 = −2α2 }

= {(−2α2 , α2 ) : α2 ∈ R}.

Trata-se, pois, de um sistema homogéneo indeterminado.

2. (0, 0, 0) é solução de duas das equações do sistema nas incógnitas x1 , x2 , x3 , sobre R,



 2x1 − 3x2 + x3 = 0


4x1 + x2 − x3 = 0


x1 − 2x2 + 2x3 = 1

mas, como não é solução da outra equação, não é solução do sistema.

O nosso objectivo neste capı́tulo é dar uma resposta completa aos problemas seguintes:

(P1 ) Dado um sistema de equações lineares, indicar se o sistema é impossı́vel ou possı́vel e, no


caso de ser possı́vel, se é determinado ou indeterminado, sem determinar o conjunto de
soluções.

Chamaremos a este problema a discussão do sistema.

(P2 ) Dado um sistema de equações lineares, determinar o conjunto das suas soluções (que
será o conjunto vazio se o sistema for impossı́vel).

Chamaremos a este problema a resolução do sistema.


58

Neste estudo ser-nos-ão muito úteis as matrizes, conforme explicamos seguidamente.

Definição 2.4 Dado um sistema de equações lineares, nas incógnitas x1 , . . . , xn , sobre


K, isto é, um sistema

 a11 x1

 + ··· + a1n xn = b1
(S) ··· ,


am1 x1 + · · · + amn xn = bm

chamaremos forma matricial do sistema (S) a

AX = B

onde 2 3 2 3 2 3
a11 ··· a1n x1 b1
6 7 6 7 6 7
6 .. 7 6 .. 7
A=6
4 ··· 7,
5 X= 6 . 7 e B= 6 . 7.
4 5 4 5
am1 ··· amn xn bm

Frequentemente referimo-nos apenas ao sistema

(S) AX = B.

Dizemos que:

A ∈ Mm×n (K) é a matriz simples do sistema,

X ∈ Mn×1 (K) é a matriz das incógnitas e

B ∈ Mm×1 (K) é a matriz dos termos independentes.

Chamaremos matriz ampliada do sistema (S) à matriz de Mm×(n+1) (K) cuja coluna
i, i = 1, . . . , n, é igual à coluna i de A e cuja coluna n + 1 é igual à coluna (única) de
B. Tal matriz será denotada por
[A | B].

Exemplo 2.5 O sistema de equações lineares nas incógnitas x1 , x2 , x3 , sobre R,





 x1 + x2 − x3 = 0


 2x + x = 1
1 2


 x1 − x3 = 1


3x1 + x2 − x3 = 2

59

pode ser escrito na forma matricial


2 3 2 3
1 1 −1 2 3 0
6 7 x1 6 7
6 2 7
0 76 7 6 1 7
6
=6 7
1
6 76
4 x2
7
5 6 7,
6 1 0 −1 7 6 1 7
4 5 x 4 5
3
3 1 −1 2

e a sua matriz ampliada é 2 3


1 1 −1 0
6 7
6 2 1 7
6 1 0 7
6 7.
6 1 0 −1 1 7
4 5
3 1 −1 2

Proposição 2.6 Dado um sistema

(S) AX = B,

(β1 , . . . , βn ) ∈ Kn é uma solução de (S) se, e só se,


2 3
β1
6 7
A6
6
..
.
7
7 = B.
4 5
βn

Demonstração: 2 3
b1
6 7
Sejam A = [aij ] ∈ Mm×n (K) e B = 6
6
..
.
7
7 ∈ Mm×1 (K).
4 5
bm

Como, por definição, (β1 , . . . , βn ) é solução de (S) se, e só se,



 a11 β1 + · · · + a1n βn = b1


··· ,


am1 β1 + · · · + amn βn = bm

tal equivale a afirmar que


2 32 3 2 3
a11 ··· a1n β1 b1
6 76 7 6 7
6 76 . 7
=6 . 7
4 ··· 56
4 .
. 7
5
6
4
.. 7,
5
am1 ··· amn βn bm

isto é, 2 3
β1
6 7
A6
6
..
.
7
7 = B.
4 5
βn

Definição 2.7 Sejam (S) e (S 0 ) sistemas de equações lineares sobre K. Dizemos que
(S) e (S 0 ) são equivalentes se têm o mesmo conjunto de soluções.
60

Proposição 2.8 Sejam A ∈ Mm×n (K) e B ∈ Mm×1 (K). Se P ∈ Mm×m (K) é uma matriz
invertı́vel então os sistemas
(S) AX = B
e
(S 0 ) (P A)X = P B
são equivalentes.

Demonstração:
Suponhamos que (α1 , . . . , αn ) ∈ Kn é solução de (S). Tem-se, então,
2 3
α1
6 7
A6
6
..
.
7
7 =B
4 5
αn

e, portanto,  2 3
α1
 6
6 ..
7
7
P A6
4 . 7
5
= P B.
αn
Como a multiplicação de matrizes é associativa, obtemos
2 3
α1
6 7
(P A) 6
6
..
.
7
7 = P B.
4 5
αn

Tal significa que (α1 , . . . , αn ) é solução de (S 0 ).

Reciprocamente, suponhamos que (α1 , . . . , αn ) é solução de (S 0 ), isto é, que


2 3
α1
6 7
(P A) 6
6
..
.
7
7 = P B.
4 5
αn

Como P é invertı́vel, multiplicando na igualdade anterior, ambos os membros, à


esquerda por P −1 obtemos
 2 3
α1
6 7
P −1 (P A) 6
6
.
. 7
7 = P −1 (P B) .

4 . 5
αn

Podemos então concluir que


2 3
α1
6 7
P −1 P A 6 .. 7
= P −1 P B

6 . 7
4 5
αn

ou equivalentemente, 2 3
α1
6 7
A6
6
..
.
7
7 = B.
4 5
αn
Logo, (α1 , . . . , αn ) é solução do sistema (S).

Demonstrámos então que (S) e (S 0 ) têm o mesmo conjunto de soluções.


61

Proposição 2.9 Seja


AX = B

um sistema de equações lineares.

Se através de um número finito de transformações elementares sobre as linhas da matriz


ampliada [A | B] obtivermos a matriz [A0 | B 0 ], isto é, se

[A | B] −−−−−−−→ [A0 | B 0 ]
(linhas)

então os sistemas
AX = B e A0 X = B 0

são equivalentes.

Demonstração:
Basta atender a que

[A0 | B 0 ] = Es · · · E1 [A | B]

onde E1 , . . . , Es são matrizes elementares.

Como as matrizes elementares são invertı́veis e o produto de matrizes invertı́veis


é, ainda, invertı́vel, concluı́mos que P = Es · · · E1 é invertı́vel.

Assim, como

[A0 | B 0 ] = P [A | B]
= [P A | P B],

de acordo com a proposição anterior, os sistemas


AX = B
e
(P A)X = P B (isto é, A0 X = B 0 )
são equivalentes.

A proposição anterior ser-nos-á muito útil para responder aos problemas anteriormente
referidos. Nomeadamente:

(P1 ) Discussão de um sistema.

(P2 ) Resolução de um sistema.


62

Proposição 2.10 Sejam A ∈ Mm×n (K) e B ∈ Mm×1 (K). Tem-se

r ([A | B]) = r(A) ou r ([A | B]) = r(A) + 1

pelo que
r(A) ≤ r ([A | B]).

Demonstração:
Se A = 0 então r(A) = 0 ≤ r([0 | B]) = r(B) ≤ 1 pelo que o resultado é válido.

Suponhamos que A 6= 0. Seja [A0 | B 0 ] uma matriz em forma de escada obtida


a partir de [A | B] efectuando um número finito de transformações elementares
sobre linhas, isto é,

[A | B] −−−−−−−→ [A0 | B 0 ] em forma de escada.


(linhas)

Como [A0 | B 0 ] está em forma de escada, A0 também está em forma de escada.

Seja s o número de linhas não nulas de A0 . Então

s = r(A) = r(A0 ).

Como A0 tem exactamente s linhas não nulas, a matriz [A0 | B 0 ], que está em
forma de escada, ou tem s ou tem s + 1 linhas não nulas (note que B 0 só tem uma
coluna).

Dado que o número de linhas não nulas de [A0 | B 0 ] é

r([A0 | B 0 ]) = r([A | B])

concluı́mos o que pretendı́amos.

Sejam A ∈ Mm×n (K) e B ∈ Mm×1 (K). Como

r(A) ≤ r([A | B]) e r(A) ≤ n

a comparação dos inteiros r(A), r([A | B]) e n conduz-nos a um, e um só, dos seguintes três
casos:

r(A) < r([A | B])

r(A) = r([A | B]) = n


@
@ r(A) = r([A | B])
@
@
r(A) = r([A | B]) < n .

O resultado seguinte permite-nos afirmar que o problema (P1 ) da discussão de um sistema


fica resolvido se determinarmos qual dos casos anteriores é que ocorre.
63

Teorema 2.11 Seja AX = B um sistema de equações lineares, com A ∈ Mm×n (K) e


B ∈ Mm×1 (K). Tem-se:

1. Se r(A) < r([A | B]) então o sistema é impossı́vel.

2. Se r(A) = r([A | B]) então o sistema é possı́vel.

Tem-se, ainda,

2.1. Se r(A) = r([A | B]) = n então o sistema é possı́vel determinado.

2.2. Se r(A) = r([A | B]) < n então o sistema é possı́vel indeterminado.

Demonstração:
Partindo da matriz ampliada [A | B] e efectuando transformações elementares
sobre linhas, obtenha-se uma matriz [A0 | B 0 ] em forma de escada, isto é,

[A | B] −−−−−−−→ [A0 | B 0 ] em forma de escada.


(linhas)

Recordemos que

r(A) = r(A0 ) , r([A | B]) = r([A0 | B 0 ])

e que A0 também está em forma de escada.

Seja
s = r(A).

Caso 1: r(A) < r([A | B])


Como s = r(A), neste caso, a linha s + 1 de [A0 | B 0 ] é da forma

(0, . . . , 0, b0s+1 ) ∈ Kn+1 , com b0s+1 6= 0.

O sistema A0 X = B 0 é, pois, impossı́vel, porque a (s + 1)-ésima equação desse


sistema é
0x1 + · · · + 0xn = b0s+1 , com b0s+1 6= 0

que não tem nenhuma solução.

Como os sistemas AX = B e A0 X = B 0 são equivalentes, concluı́mos que o sistema


AX = B é, também, impossı́vel.

Caso 2: r(A) = r([A | B])

Subcaso 2.1: r(A) = r([A | B]) = n

Neste caso, s = r(A) = n = número de incógnitas. Então [A0 | B 0 ] tem a forma:


64

2 3
a011 ∗ ··· ∗ b01
6 7
6 0 a022 ··· ∗ b027
6 7
6 7
6 .. .. .. .. ..7
6 . . . . .7
6 7
6 7
[A0 | B 0 ] = 6 0 0 ··· a0nn b0n 7,
6 7
6
6 0 0 ··· 0 0 77
6 7
6 .. .. .. .. .. 7
6 . . 7
4 . . . 5
0 0 ··· 0 0

com a011 , a022 , . . . , a0nn não nulos.


0 0
Partindo de [A | B ] e efectuando transformações elementares sobre linhas obte-
nhamos uma matriz [A00 | B 00 ] em forma de escada reduzida. Tem-se, pois,
2 3
1 0 ··· 0 b00
1
6 7
6 0 1 ··· 0 b00 7
6 2 7
6 7
6 .. .. .. .. .. 7
6 . . . . . 7
6 7
6 7
[A0 | B 0 ] −−−−−−−→ [A00 | B 00 ] = 6 0 0 ··· 1 n 7
b00 .
(linhas) 6 7
6 7
6 0 0 ··· 0 0 7
6 7
6 .. .. .. .. .. 7
6 . . 7
4 . . . 5
0 0 ··· 0 0

Como a matriz [A00 | B 00 ] é a matriz ampliada do sistema com m equações




 x1 = b001


x2 = b002









 ···
xn = b00n


0 = 0





···






0 = 0

verificamos que o sistema A00 X = B 00 é possı́vel determinado e, portanto, o mesmo


sucede ao sistema inicial AX = B.

Além disso a solução, única, de tal sistema é

(b001 , b002 , . . . , b00n ).

Subcaso 2.2: r(A) = r([A | B]) < n

Neste caso s = r(A) = r([A | B]) < n = número de incógnitas. Então [A0 | B 0 ]
tem a forma:
2 3
0 ··· 0 a01k1 ∗ ··· ∗ ∗ ∗ ··· ∗ ∗ ∗ ··· ∗ b01
6 7
6 0 ··· 0 0 0 ··· 0 a02k2 ∗ ··· ∗ ∗ ∗ ··· ∗ b02 7
6 7
6 7
6 ··· ··· 7
6 7
6 7
6 0 ··· 0 0 0 ··· 0 0 0 ··· 0 a0sks ∗ ··· ∗ b0s 7,
6 7
6 0 7
6 0 ··· 0 0 0 ··· 0 0 0 ··· 0 0 0 ··· 0 7
6 7
6 .. .. .. .. .. 7
6 . . . . . 7
4 5
0 ··· 0 0 0 ··· 0 0 0 ··· 0 0 0 ··· 0 0
65

com a01k1 , a02k2 , . . . , a0sks não nulos.


Continuemos a efectuar transformações elementares sobre linhas até obter uma
matriz [A00 | B 00 ] em forma de escada reduzida. Tem-se

[A0 | B 0 ] −−−−−−−→ [A00 | B 00 ],


(linhas)

com
2 3
0 ··· 0 1 ··· ∗ 0 ∗ ··· ∗ 0 ∗ ··· ∗ b00
1
6 7
6 0 ··· 0 0 ··· 0 1 ∗ ··· ∗ 0 ∗ ··· ∗ b00 7
6 2 7
6 7
6 ··· 7
6 7
6 7
00
[A | B ] =00 6 0 ··· 0 0 ··· 0 0 0 ··· 0 1 ∗ ··· ∗ b00
s 7
6 7.
6 0 7
6 0 ··· 0 0 ··· 0 0 0 ··· 0 0 0 ··· 0 7
6 7
6 .. .. .. 7
6 . . . 7
4 5
0 ··· 0 0 ··· 0 0 0 ··· 0 0 0 ··· 0 0

Como s < n, além das s incógnitas

xk1 , xk2 , . . . , xks

correspondentes às colunas dos pivôs e a que chamaremos incógnitas básicas,


existem ainda n − s incógnitas, com n − s > 0, a que chamaremos incógnitas
livres. Estas incógnitas são as da forma xi , com i ∈ {1, . . . , n} \ {k1 , . . . , ks }.

Seja L = {1, . . . , n} \ {k1 , . . . , ks }.

A matriz [A00 | B 00 ], com A00 = a00ij , é a matriz ampliada do sistema, com m


 

equações,  X


 xk1 = b001 − a001j xj



 j∈L

···




 X
b00s − a00sj xj

 x
ks =
j∈L
.


0 = 0









 ···


 0 = 0
Tomando
xi = 0, para todo i ∈ L,
obtemos a solução (α1 , . . . , αn ) do sistema com

αi = 0 se i ∈ L e αki = b00i se i ∈ {1, . . . , s}.

Se considerarmos, por exemplo,

xi = 1, para todo i ∈ L,

obtemos uma solução (β1 , . . . , βn ) distinta da anterior, com

X
βi = 1 se i ∈ L e βki = b00i − a00ij se i ∈ {1, . . . , s}.
j∈L
Logo, o sistema é possı́vel indeterminado.


66

Definição 2.12 Seja AX = B um sistema possı́vel indeterminado, com


A ∈ Mm×n (K). A n − r(A) chamamos o grau de indeterminação do sistema.

Note que o grau de indeterminação de um sistema possı́vel indeterminado é igual ao


número de incógnitas livres.

Resumo da discussão do sistema AX = B, com A ∈ Mm×n (K):

r(A) < r([A | B])


Sistema Impossı́vel
AX = B r(A) = r([A | B]) = n
Sistema
@ Sistema Possı́vel Determinado
@ r(A) = r([A | B])
Sistema Possı́vel @
@
r(A) = r([A | B]) < n .
Sistema Possı́vel Indeterminado,
com grau de indeterminação
n − r(A)

Note que para efectuar a discussão de um sistema AX = B apenas necessitamos


de obter, a partir de [A | B], uma matriz em forma de escada. Se esse sistema for
possı́vel, para o resolver devemos determinar a forma de escada reduzida de [A | B],
por ser assim mais simples indicar o conjunto das soluções do sistema.

Exemplo 2.13 Consideremos o sistema de equações lineares nas incógnitas x1 , x2 , x3 , x4 ,


sobre R,



 x1 + 2x2 + x3 − 3x4 = −5
(S) 2x1 + 4x2 + 4x3 − 4x4 = −6 .


−x1 − 2x2 − 3x3 − x4 = 3

Discussão do sistema (S):

Tem-se a forma matricial AX = B com


2 3 2 3
1 2 1 −3 −5 1 2 1 −3 −5
6 −− −−−−→
7l +(−2)l 6 7
[A | B] =6
4 2 4 4 −4 −6 7 2 16
5 l3 +(1)l1 4 0 0 2 2 4 7
5−

−1 −2 −3 −1 3 0 0 −2 −4 −2
2 3
1 2 1 −3 −5
−−−−−−→6 7 0 0
l3 + (1)l2 6
4 0 0 2 2 4 7
5 = [A | B ] em forma de escada.
0 0 0 −2 2

Como
r(A) = 3 = r([A | B]) < 4 = número de incógnitas,
67

concluı́mos que (S) é um sistema possı́vel indeterminado, com grau de indeterminação


1 (= 4 − 3).

Resolução do sistema (S):

2 3 2 3 2 3
1 2 1 −3 −5 1 2 1 −3 −5 1 2 1 0 −8
6 7−1−l→ 6 7−−−−−−→6 7
[A0 | B 0 ] =64 0 0 2 2 4 7 2 2 6
5− 2 l3 4
1 0 0 1 1 2 7
l2 +(−1)l3 6
5 l1 +3l3 4 0 0 1 0 3 7
5−

0 0 0 −2 2 0 0 0 1 −1 0 0 0 1 −1
2 3
1 2 0 0 −11
−−−−−−−→6 7 00
l1 + (−1)l2 6
4 0 0 1 0 3 75 = [A | B 00 ] em forma de escada reduzida.
0 0 0 1 −1

Neste caso, a incógnita livre é x2 e o sistema (S) é equivalente ao sistema



 x1 = −11 −2x2


x3 = 3 .


x4 = −1

Assim, (α1 , α2 , α3 , α4 ) ∈ R4 é solução do sistema (S) se, e só se,



 α1

 = −11 −2α2
α3 = 3 .


α4 = −1

Logo o conjunto das soluções do sistema (S) é:

(α1 , α2 , α3 , α4 ) ∈ R4 : α1 = −11 − 2α2 ∧ α3 = 3 ∧ α4 = −1



C =

= {(−11 − 2α2 , α2 , 3, −1) : α2 ∈ R} .

- Se o sistema anterior for considerado nas incógnitas x1 , x2 , x3 , x4 , x5 , sobre R, qual é


a matriz ampliada do sistema e quais são as alterações, em relação ao caso anterior, na
discussão e resolução do sistema?

Façamos uma breve referência aos sistemas homogéneos, isto é, aos sistemas da forma

AX = 0.

Como vimos tais sistemas são sempre possı́veis, pois têm, pelo menos, a solução nula.
Também de acordo com a teoria anterior, como para qualquer matriz A ∈ Mm×n (K) se
verifica
r(A) = r([A | 0]),

concluı́mos, de outra forma, que um sistema homogéneo é sempre possı́vel.

O resultado seguinte fornece-nos uma outra caracterização das matrizes invertı́veis.


68

Proposição 2.14 Uma matriz A ∈ Mn×n (K) é invertı́vel se, e só se, o sistema (homogéneo)
AX = 0 é determinado.

Demonstração:
Sendo A ∈ Mn×n (K), sabemos que o sistema AX = 0 é determinado se, e só se,

r(A) = r[A | 0] = n,

ou equivalentemente,
r(A) = n.

Como A ∈ Mn×n (K) tal equivale a afirmar que A é invertı́vel.

Exercı́cio 2.1 (a) Discuta cada um dos seguintes sistemas de equações lineares, nas
incógnitas x1 , x2 , x3 , sobre R:

8 8
< x1 + x2 + 2x3 = 1 < x1 + x2 − x3 = 0
(S1 ) 2x1 − x2 + x3 = 1 (S2 ) 2x1 + x2 = 1
: :
3x2 + 3x3 = 0 x1 − x3 = 1
8 8
< x1 + x2 − x3 = 0 < x1 + 2x2 = 1
(S3 ) 2x1 + x2 = 1 (S4 ) x1 + x2 = 1
: :
−x1 − x3 = −1 −x1 + x2 = −1
 
2x1 + x2 = 1 x1 + 2x2 + x3 = −1
(S5 ) (S6 )
−x1 + 3x2 + x3 = 2 2x1 + 4x2 + 2x3 = 3
8 8
> 2x1 − x2 + x3 = −1 > −5x1 − 2x2 + x3 = −1
>
> >
>
< x1 + 2x2 + x3 = 0 < 6x1 + 2x2 + x3 = 0
(S7 ) x1 − 3x2 = −1 (S8 ) −4x1 − 2x2 + 3x3 = −2
>
> >
>
>
: 4x1 − 2x2 + 2x3 = −2 >
: 2x1 + 4x3 = −2
−2x1 + x2 − x3 = 1 −6x1 − 3x2 + 2x3 = −1
8 8
>
> x1 + x2 + x3 = −1 >
> −x1 + 2x3 = 1
< <
2x1 + x2 = 0 x1 + 2x2 = −1
(S9 ) (S10 )
>
> x2 + x3 = 2 >
> 2x2 + 2x3 = 0
: :
x1 − x3 = −1 x1 − 2x3 = −1

(b) Resolva os sistemas possı́veis considerados em (a).

2 3 2 3
0 1 2 2
Exercı́cio 2.2 Para A = 4 2 0 0 5 ∈ M3×3 (R) e B = 4 1 5 ∈ M3×1 (R)
−1 0 2 −1
considere o sistema (S) de equações lineares nas incógnitas x1 , x2 , x3 .
Indique a colecção de equações lineares que constituem o sistema (S) e que estão repre-
sentadas em AX = B.

2 3 2 3
1 1 2 −1 −1
Exercı́cio 2.3 Sejam A = 4 2 2 −2 2 5 ∈ M3×4 (R), B = 4 4 5 ∈
0 0 6 −4 −6
M3×1 (R) e (S) o sistema de equações lineares AX = B.

(a) Sem resolver o sistema, mostre que:


(i) (−1, 1, 1, 3) é solução de (S);
(ii) (1, 0, 1, 0) não é solução de (S).
(b) (i) Resolva o sistema (S);
(ii) Indique duas soluções de (S), ambas distintas da considerada em (a)
(i).
69

Exercı́cio 2.4 Sejam A ∈ Mm×n (K), B ∈ Mm×1 (K) e (S) o sistema de equações
lineares AX = B. Mostre que:

(a) Se m < n então ou (S) é impossı́vel ou (S) é possı́vel indeterminado.


(b) Se m = n e A é invertı́vel então (S) é possı́vel determinado.
(c) Se m = n e (S) é possı́vel determinado então A é invertı́vel.

Exercı́cio 2.5 Para cada uma das alı́neas seguintes indique se existe ou não um sistema
(S) de equações lineares, sobre R, nas condições indicadas e, em caso afirmativo, dê um
exemplo.

(a) O número de equações é superior ao número de incógnitas e (S) é possı́vel.


(b) O número de equações é inferior ao número de incógnitas e (S) é possı́vel
determinado.
(c) O número de equações é igual ao número de incógnitas e (S) não é possı́vel
determinado.
(d) (S) é possı́vel determinado e o número de equações não é igual ao número
de incógnitas.

Exercı́cio 2.6 Para cada α ∈ R e cada β ∈ R, considere o sistema de equações lineares


de coeficientes reais nas incógnitas x, y, z, sobre R,
8
< x+y−z =1
−x − αy + z = −1 .
:
−x − y + (α + 1)z = β − 2

(a) Discuta o sistema em função de α e β.


(b) Para α = 0 e β = 1 indique o conjunto das soluções do sistema.

Exercı́cio 2.7 Para cada α ∈ R e cada β ∈ R, considere o sistema de equações lineares


de coeficientes reais nas incógnitas x, y, z, sobre R,
8
< x + αz = 3
x + (β − 3)y + 2αz = α + 3 .
:
x + 2αz = 4

(a) Discuta o sistema em função de α e β.


(b) Para α = 1 e β = 3 indique o conjunto das soluções do sistema.

Exercı́cio 2.8 Para cada α ∈ R e cada β ∈ R, considere o sistema de equações lineares


nas incógnitas x, y, z, sobre R,
8
< x + αy + βz = 1
(Sα,β ) α(β − 1)y = α .
:
x + αy + z = β 2

(a) Discuta-o, em função de α e β.


(b) (i) Mostre que S2,2 tem uma e uma só solução.
(ii) Mostre que a matriz simples de S2,2 é invertı́vel.
(iii) Determine a solução de S2,2 usando a inversa da matriz simples do
sistema.
70

Exercı́cio 2.9 Para cada a ∈ R, considere:

(a) O sistema de equações lineares nas incógnitas x, y, sobre R,


8
< x+y =a
x + 2y = a2 .
:
x + 3y = a3

(b) O sistema de equações lineares nas incógnitas x, y, z, w, sobre R,


8
< ax − z + (a + 1)w = 1
−x + y + z + w = a .
:
(a − 1)x + y + (a − 2)z + 2aw = a − 2

(c) O sistema de equações lineares nas incógnitas x, y, z, w, sobre R,


8
>
> (8 − a)x + 2y + 3z + aw = 0
<
x + (9 − a)y + 4z + aw = 0
.
> x + 2y + (10 − a)z + aw = 0
>
:
x + 2y + 3z + aw = 0

Discuta, em função de a, o sistema de cada uma das alı́neas.

Exercı́cio 2.10 Para cada a e cada b pertencentes a R, considere:

(a) Os sistemas de equações lineares nas incógnitas x, y, z, w, sobre R,


8
< ax + y − z + aw = 0
(i) (a + 1)y + z + w = 1 .
:
−x + y + (a + 1)w = b
8
< 2x + y + w = 2
(ii) 3x + 3y + az + 5w = 3 .
:
3x − 3z − 2w = b
(b) Os sistemas de equações lineares nas incógnitas x, y, z, sobre R,
8
>
> x+y+z =2
<
x−y+z =2
(i) .
>
> ax + z = 2
:
3x + y + 3z = b
8
< −2x + (a + 3)y − bz = −3
(ii) x + bz = 1 .
:
2x + 4y + 2bz = −b

Discuta, em função de a e b, os sistemas indicados em cada uma das alı́neas.

Exercı́cio 2.11 Sejam a, b, c ∈ R tais que abc 6= 0. Considere o sistema de equações


lineares na incógnitas x, y, z, sobre R,
8
< 4bcx + acy − 2abz = 0
5bcx + 3acy − 4abz = −abc .
:
3bcx + 2acy − abz = 4abc

Justifique que tal sistema é sempre possı́vel e determinado e indique a sua solução.
71

Soluções de alguns dos exercı́cios propostos 2


Abreviaturas utilizadas: Se α 6= 0 e β 6= 1, S.P.D.
6
6 Se
6 α = 0 e β = 1, S.P.I. com g.i. 2
2.8 (a) 6
S.P.D. − Sistema Possı́vel e Determinado 6 Se α = 0 e β 6= 1, S.P.I. com g.i. 1
4
S.I. − Sistema Impossı́vel Se α 6= 0 e β = 1, S.I.

S.P.I. − Sistema Possı́vel Indeterminado (b) (iii) Solução do sistema: (x, y, z) = (5, 1, −3)
"
g.i. − grau de indeterminação Se a 6= 0 e a 6= 1, S.I.
2.9 (a)
Se a = 0 ou a = 1, S.P.D.
2.1 (a) (S1 ) é S.I. "
Se a 6= 2, S.P.I. com g.i. 1
(S2 ) é S.P.D. (b)
Se a = 2, S.I.
(S3 ) é S.P.I. com g.i. 1 2
Se a = 7, S.P.I. com g.i. 2
(S4 ) é S.P.I. com g.i. 1 6
(c) 6
4 Se a = 0, S.P.I. com g.i. 1
(S5 ) é S.P.I. com g.i. 1
Se a 6= 7 e a 6= 0, S.P.D.
(S6 ) é S.I.
2
(S7 ) é S.P.I. com g.i. 1 Se a 6= −1 e b ∈ R, S.P.I. com g.i. 1
6
(S8 ) é S.P.D. 2.10 (a) (i) 64 Se a = −1 e b = 1, S.P.I. com g.i. 2
Se a = −1 e b 6= 1, S.I.
(S9 ) é S.I. 2
(S10 ) é S.P.I. com g.i. 1 Se a 6= 3 e b ∈ R, S.P.I. com g.i. 1
6
(ii) 6
4 Se a = 3 e b 6= 3, S.I.
(b) Conjunto de soluções de (S2 ):
Se a = 3 e b = 3, S.P.I. com g.i. 2
{(1, −1, 0)} 2
Conjunto de soluções de (S3 ): Se b 6= 6 e a ∈ R, S.I.
6
(b) (i) 64 Se b = 6 e a = 1, S.P.I. com g.i. 1
{(1 − α, −1 + 2α, α) : α ∈ R}
Se b = 6 e a 6= 1, S.P.D.
Conjunto de soluções de (S4 ): 2
{(1, 0, α) : α ∈ R} Se b 6= 0 e a ∈ R, S.P.D.
6
(ii) 6
4 Se b = 0 e a = −1, S.P.I. com g.i. 1
Conjunto de soluções de (S5 ):
Se b = 0 e a 6= 1, S.I.
{( 71 + 1
7
α, 57 − 2
7
α, α) : α ∈ R}
Conjunto de soluções de (S7 ): 2.11 Conjunto de soluções: {(a, 2b, 3c)}
{(− 52 − 35 α, 1
5
− 51 α, α) : α ∈ R}
Conjunto de soluções de (S8 ):
{( 53 , − 57 , − 45 )}
Conjunto de soluções de (S10 ):
{(−1 + 2α, −α, α) : α ∈ R}

2.3 (b) (i) Conjunto de soluções:


{(1 − α − 13 β, α, −1 + 23 β, β) : α, β ∈ R}
2
Se α 6= 0, 1 e β ∈ R, S.P.D.
6
6 Se α = 1 e β ∈ R,
6 S.P.I. com g.i. 1
2.6 (a) 6
6 Se α = 0 e β 6= 1, S.I.
4
Se α = 0 e β = 1, S.P.I. com g.i. 1
(b) Conjunto de soluções:
{(1 + γ, 0, γ) : γ ∈ R}
2
Se α 6= 0 e β 6= 3, S.P.D.
6
6 Se α = 0 e β ∈ R,
6 S.I.
2.7 (a) 6
6 Se α = 1 e β = 3, S.P.I. com g.i. 1
4
Se α 6= 0, 1 e β = 3, S.I.
(b) Conjunto de soluções:
{(2, γ, 1) : γ ∈ R}
Capı́tulo 3

Determinantes

Neste capı́tulo consideraremos apenas matrizes quadradas.

Conforme vimos no Capı́tulo 1, uma matriz quadrada pode ser ou não invertı́vel.

Na prática, uma forma de determinar se uma matriz quadrada é invertı́vel é conhecendo


a sua caracterı́stica. Recorde-se o resultado

A ∈ Mn×n (K) é invertı́vel se, e só se, r(A) = n.

Neste capı́tulo veremos que podemos associar a cada matriz A ∈ Mn×n (K) um elemento
de K, dependente apenas dos elementos da matriz, e que tal como a caracterı́stica também
nos vai permitir decidir sobre a invertibilidade de A.

Vejamos primeiramente como tal pode ser feito para n = 1 e para n = 2.

Para n = 1 tem-se

A = [a11 ] ∈ M1×1 (K) é invertı́vel se, e só se, r(A) = 1,

ou equivalentemente,
a11 6= 0.

Para n = 2, tem-se
" #
a11 a12
A= é invertı́vel se, e só se, r(A) = 2.
a21 a22

Vejamos que tal é equivalente a afirmar que

a11 a22 − a12 a21 6= 0.


74

Suponhamos primeiramente que a11 6= 0. Tem-se


" # 2 3 2 3
a11 a12 − −−−−−
−−−− −
→ a
11 a12 a11 a12
A= a21
l2 + − a l1 4 a21 a12
5 =4 a11 a22 −a21 a12
5.
11
a21 a22 0 a22 − a11
0 a11

Logo, r(A) = 2 se, e só se,


a11 a22 − a21 a12 6= 0.

Suponhamos agora que a11 = 0, isto é,


" #
0 a12
A= .
a21 a22

Se a21 6= 0 então
" # " #
0 a12 −−−−−−→ a21 a22
A= l1 ←→ l2
a21 a22 0 a12

está em forma de escada e, portanto, r(A) = 2 se, e só se, a12 6= 0. Observemos que,
neste caso, como a11 = 0 e a21 6= 0 se tem

a12 6= 0 se, e só se, a11 a22 − a12 a21 6= 0.

Finalmente, consideremos o caso a11 = 0 = a21 . Tem-se


" #
0 a12
A=
0 a22

não é invertı́vel, quaisquer que sejam a12 e a22 , pois A tem uma coluna nula.

Neste caso, tem-se


a11 a22 − a12 a21 = 0.

Logo, concluı́mos o que pretendı́amos.

Veremos que, para qualquer n ∈ N, podemos associar a cada matriz A ∈ Mn×n (K)
um elemento de K, a que chamaremos “determinante” de A, com a propriedade de A ser
invertı́vel se, e só se, esse escalar for não nulo.

Notação 3.1 • Seja A ∈ Mn×n (K), com n ≥ 2. Dados i, j ∈ {1, . . . , n}, representamos
por
A(i|j)

a matriz que se obtém de A suprimindo a linha i e a coluna j. Tem-se, pois,

A(i|j) ∈ M(n−1)×(n−1) (K).


75

Exemplo 3.2 Se
2 3
1 2 3
6 7
A=6
4 4 5 6 7
5 ∈ M3×3 (R)
7 8 9

então
" # " # " #
4 6 2 3 5 6
A(1|2) = , A(2|1) = e A(1|1) = .
7 9 8 9 8 9

Definição 3.3 Seja A = [aij ] ∈ Mn×n (K). Chamamos determinante de A, e re-


presentamos por det A ou |A|, o elemento de K definido da seguinte forma:

Se n = 1 então det A = a11 .

Se n > 1 então

det A = a11 (−1)1+1 det A(1|1) + · · · + a1n (−1)1+n det A(1|n)


n
X
= a1k (−1)1+k det A(1|k).
k=1

Notemos que, pela definição anterior, para


" #
a11 a12
A= ∈ M2×2 (K)
a21 a22

resulta que

det A = a11 (−1)1+1 det A(1|1) + a12 (−1)1+2 det A(1|2)

= a11 det[a22 ] − a12 det[a21 ]

= a11 a22 − a12 a21 .

Dizemos então frequentemente que o determinante de uma matriz de ordem 2 é igual à


diferença entre o produto dos elementos da diagonal principal e o produto dos elementos da
outra diagonal.

Utilizando a definição de determinante, vejamos o que se obtém para n = 3. Tem-se


2 3
a11 a12 a13
6 7
A= 6 a21 a22 a23 7
4 5
a31 a32 a33
76

det A = a11 (−1)1+1 det A(1|1) + a12 (−1)1+2 det A(1|2) + a13 (−1)1+3 det A(1|3)
" # " # " #
a22 a23 a21 a23 a21 a22
= a11 det − a12 det + a13 det
a32 a33 a31 a33 a31 a32

= a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 )

= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31

= (a11 a22 a33 + a12 a23 a31 + a13 a21 a32 ) − (a11 a23 a32 + a12 a21 a33 + a13 a22 a31 ).

Assim, para n = 3, a expressão de det A tem 6 parcelas que podem ser escritas como
uma diferença em que o aditivo tem 3 parcelas e o subtractivo outras 3 parcelas.

Para as escrever podemos recorrer a mnemónicas (isto é, regras práticas que nos ajudam a
fixar certas expressões) como a Regra de Sarrus. De acordo com esta mnemónica as 3 parcelas
do aditivo são dadas pelo produto dos elementos da diagonal principal e pelo produto dos
elementos abrangidos por cada um dos dois triângulos com base paralela à diagonal principal.

a11 a12a13
@ 
@ 
a  a22@
21@ a23
@ @ 

a
31@a32@a33

As 3 parcelas do subtractivo são obtidas procedendo de forma análoga em relação à diagonal


secundária (constituı́da pelos elementos a13 , a22 e a31 ).

Embora seja citada em muitos livros, a Regra de Sarrus, válida apenas para n = 3, é
perfeitamente dispensável.

A definição de determinante permite calcular o determinante de uma matriz de ordem


n, n ≥ 2, através do cálculo do determinante de n matrizes de ordem n − 1.

Para n = 4 terı́amos 4 determinantes de matrizes de ordem 3, cada um destes com 6


parcelas o que daria origem a 24 parcelas.

No caso geral de A ∈ Mn×n (K) a expressão de det A tem n! parcelas, conforme se


demonstra por indução sobre n.

Assim, se A ∈ Mn×n (K), com n ≥ 4, é “impensável” calcular o determinante de A pela


definição.

Vejamos processos alternativos para calcular o determinante de A ∈ Mn×n (K).


77

Definição 3.4 Seja A ∈ Mn×n (K), com n ≥ 2. Designa-se por complemento


algébrico do elemento da posição (i, j) de A, o elemento de K, que representare-
mos por Âij , dado por
Âij = (−1)i+j det A(i|j).

Embora se designe por complemento algébrico do elemento da posição (i, j) de A, de


facto Âij não depende do elemento da posição (i, j) de A pois esse elemento não figura na
matriz A(i|j).

Por exemplo, na matriz


2 3
1 2 3
6 7
A=6
4 4 5 6 7
5
7 a 8

tem-se

3
3+2 1
Â32 = (−1) = −(6 − 12) = 6,
4 6

independentemente do valor de a.

Podemos então afirmar que a definição de determinante de A ∈ Mn×n (K) nos diz que,
se n ≥ 2, o determinante de A é igual à soma dos produtos dos elementos da linha 1 pelos
respectivos complementos algébricos.

O resultado seguinte, que não demonstraremos, afirma que se procedermos de forma


análoga para uma qualquer linha ou uma qualquer coluna de A obtemos ainda o determinante
de A.

Teorema 3.5 (Teorema de Laplace) O determinante de uma matriz quadrada é igual à


soma dos produtos dos elementos de uma qualquer das suas linhas pelos respectivos comple-
mentos algébricos, isto é, se A = [aij ] ∈ Mn×n (K) então

det A = ai1 Âi1 + · · · + ain Âin , i = 1, . . . , n. (3.1)

O mesmo resultado é válido se substituirmos “linhas” por “colunas”, isto é,

det A = a1j Â1j + · · · + anj Ânj , j = 1, . . . , n. (3.2)

À expressão (3.1) chamamos o desenvolvimento do determinante de A através da linha i


ou dizemos que é a expressão resultante da aplicação do Teorema de Laplace à linha i
78

de A. Analogamente, dizemos que (3.2) é a expressão resultante da aplicação do Teorema


de Laplace à coluna j de A.

Na prática, quando queremos explicitar como foi aplicado o Teorema de Laplace, utili-
zamos a notação
Lapl. Lapl.
det A = ou det A =
cj
li

para indicar que o desenvolvimento que se segue, para o determinante de A, decorre da


aplicação do Teorema de Laplace à linha i ou à coluna j de A, respectivamente.

Assim, pelo resultado anterior, dada A ∈ Mn×n (K), podemos calcular det A por 2n pro-
cessos, aplicando o Teorema de Laplace a cada uma das n linhas de A ou a cada uma
das n colunas de A. Embora todos esses 2n processos nos conduzam ao mesmo escalar (o
determinante de A) uns podem ser mais expeditos do que outros.

Por razões óbvias, se a matriz tiver elementos nulos, temos vantagem em aplicar o Teo-
rema de Laplace a uma linha ou a uma coluna com um número máximo de zeros.

Exemplo 3.6 Seja 2 3


1 9 3
6 7
A=6
4 4 5 0 7
5.
0 0 2

A forma mais expedita de calcular o determinante de A será pela aplicação do Teorema de


Laplace à linha 3, mas indicaremos seguidamente as 6 formas possı́veis de o calcular, com
o referido resultado.

Aplicando o Teorema de Laplace à linha 1 de A obtemos



Lapl. 0 0 5
1+1 5 1+2 4 1+3 4
det A = 1(−1) + 9(−1) + 3(−1)
l1 0 2 0 2 0 0

= 1×10 − 9×8 + 3×0 = 10 − 72 = −62.

Aplicando o Teorema de Laplace à linha 2 de A obtemos



Lapl. 9 3 1 3
det A = 4(−1)2+1 + 5(−1)2+2
l2 0 2 0 2

= −4×18 + 5×2 = −72 + 10 = −62.

Aplicando o Teorema de Laplace à linha 3 de A obtemos



Lapl. 1 9
det A = 2(−1)3+3 = 2 × (−31) = −62.
l3 4 5
79

Aplicando o Teorema de Laplace à coluna 1 de A obtemos



Lapl. 5 0 3
1+1 2+1 9
det A = 1(−1)
0
+ 4(−1)
c1 2 0 2

= 1×10 − 4×18 = 10 − 72 = −62.

Aplicando o Teorema de Laplace à coluna 2 de A obtemos



Lapl. 4 0 1 3
det A = 9(−1)1+2 + 5(−1)2+2
c2 0 2 0 2

= −9×8 + 5×2 = −72 + 10 = −62.

Aplicando o Teorema de Laplace à coluna 3 de A obtemos



Lapl. 5 9
1+3 4 3+3 1
det A = 3(−1) + 2(−1)
c3 0 0 4 5

= 3×0 + 2 × (5 − 36) = 2 × (−31) = −62.

Exercı́cio 3.1 Calcule o determinante de cada uma das seguintes matrizes, de duas
formas diferentes.
2 3
1 1 0
(a) A = 4 2 1 1 5 ∈ M3×3 (R).
1 1 1
2 3
1 0 −1 0
6 −2 0 2 −1 7
(b) B = 6 4 1 1 −1
7 ∈ M4×4 (R).
1 5
3 3 −6 6
2 3
1 0 i
(c) C = 4 0 0 2 5 ∈ M3×3 (C).
−i 2 1

Exercı́cio 3.2 Seja

2 3
x a b 0 c
6 0 y 0 0 d 7
6 7
H=6 0 e z 0 f 7 ∈ M5×5 (R).
4 g h k u l 5
0 0 0 0 v

Calcule det H.

2 3
3−λ −3 2
Exercı́cio 3.3 Para cada λ ∈ R, considere Aλ =4 0 −2 − λ 2 5. Deter-
0 −3 3−λ
mine os valores de λ para os quais det Aλ = 0.

Utilizando o Teorema de Laplace podemos agora demonstrar o seguinte resultado.

Teorema 3.7 Seja A ∈ Mn×n (K). Tem-se

det A = det A> ,

isto é, uma matriz e a sua transposta têm o mesmo determinante.


80

Demonstração:
A demonstração é feita por indução em n.

Para n = 1 tem-se
A = [A11 ] = A>

e, portanto,
det A = det A> .

Seja n ≥ 2.

Hipótese de Indução: O determinante de qualquer matriz de M(n−1)×(n−1) (K), é


igual ao determinante da sua transposta.

Seja A ∈ Mn×n (K) e B = A> . Desenvolvendo o det A segundo a linha 1 tem-se

det A = A11 Â11 + · · · + A1n Â1n .

Por definição, tem-se

1+k
Â1k = (−1) det A(1|k), k = 1, . . . , n.

Como A(1|k) ∈ M(n−1)×(n−1) (K), utilizando a hipótese de indução podemos afir-


mar que
1+k
Â1k = (−1) det(A(1|k))> .

Como
(A(1|k))> = B(k|1),

obtemos
k+1
Â1k = (−1) det B(k|1) = B̂k1 .

Assim

det A = A11 B̂11 + · · · + A1n B̂n1


= B11 B̂11 + · · · + Bn1 B̂n1
= det B,

sendo a última igualdade o desenvolvimento de det B segundo a coluna 1. Logo,

det A = det A> .

Exercı́cio 3.4 Seja A ∈ Mn×n (C) e A a conjugada da matriz A. Mostre que:

(a) det A = det A, por indução em n.


(b) Se A é hermı́tica então det A é um número real.
(c) Se A é hemi–hermı́tica então det A é um número imaginário puro.
81

Atendendo ao teorema anterior podemos afirmar que os resultados sobre determi-


nantes que sejam enunciados para linhas são válidos, tal como o Teorema de
Laplace, substituindo “linha” por “coluna”.

Como consequência imediata do Teorema de Laplace tem-se:

Proposição 3.8 Se A ∈ Mn×n (K) tem uma linha nula então det A = 0.

Vejamos um outro caso em que, independentemente da ordem de A, também se tem


det A = 0.

Proposição 3.9 Seja A ∈ Mn×n (K), com n ≥ 2. Se A tem a linha i igual à linha j, com
i 6= j, então
det A = 0.

Demonstração:
A demonstração é feita por indução em n.

Para n = 2 o resultado é válido, pois


" #
a11 a12
A=
a11 a12

e
det A = a11 a12 − a12 a11 = 0.

Seja n ≥ 3. Seja A = [aij ] ∈ Mn×n (K) uma matriz que tem a linha i igual à linha
j, com i 6= j.

Hipótese de Indução: O determinante de qualquer matriz de M(n−1)×(n−1) (K)


com duas linhas iguais é zero.

Como n ≥ 3, existe k ∈ {1, . . . , n} tal que k 6= i e k 6= j. Aplicando o Teorema da


Laplace à linha k de A obtemos

det A = ak1 Âk1 + · · · + akn Âkn .

Para l = 1, . . . , n tem-se, por definição,

k+l
Âkl = (−1) det A(k|l).

Uma vez que A(k|l) ∈ M(n−1)×(n−1) (K) e continua a ter duas linhas iguais, pela
hipótese de indução,
det A(k|l) = 0.
82

Assim
Âk1 = · · · = Âkn = 0

e, portanto,
det A = 0.

Um outro resultado que também é válido para qualquer ordem e que pode ser demons-
trado por indução na ordem da matriz é o que seguidamente estabelecemos.

Teorema 3.10 Se A ∈ Mn×n (K) é uma matriz triangular superior (respectivamente, infe-
rior) então o determinante de A é igual ao produto dos elementos da diagonal principal de
A.

Demonstração:
Para n = 1 o resultado verifica-se trivialmente pois A = [a11 ] e det A = a11 .

Seja n ≥ 2 e A = [aij ] ∈ Mn×n (K) uma matriz triangular superior.

Hipótese de Indução: O determinante de qualquer matriz triangular superior de


M(n−1)×(n−1) (K) é igual ao produto dos elementos da sua diagonal principal.

Tem-se 2 3
a11 a12 ··· a1n
6 7
6 0 a22 ··· a2n 7
6 7
A= 6 7, com n ≥ 2.
6 .. .. .. .. 7
6 . . . . 7
4 5
0 0 ··· ann

Aplicando o Teorema de Laplace à linha n de A, concluı́mos que


n+n
det A = ann (−1) det A(n|n)


a11 a12 ··· a1,n−1

0 a22 ··· a2,n−1

= ann . .. .. ..
.

.. . . .


0 0 ··· an−1,n−1

Dado que A(n|n) ∈ M(n−1)×(n−1) (K) e é triangular superior concluı́mos, pela


hipótese de indução, que

det A(n|n) = a11 a22 · · · an−1,n−1 .

Logo

det A = ann (a11 a22 · · · an−1,n−1 )


= a11 a22 · · · an−1,n−1 ann ,
83

como pretendı́amos demonstrar.

(Note que poderı́amos ter chegado à mesma conclusão aplicando o Teorema de


Laplace à coluna 1 de A, também com n − 1 zeros tal como a linha n.)

Se A é triangular inferior então como A> é triangular superior e A e A> têm o


mesmo determinante, concluı́mos que o determinante de A é igual ao produto dos
elementos da diagonal principal de A> que são iguais aos elementos da diagonal
principal de A.

Sejam A, B ∈ Mn×n (K). Pode ter-se

det(A + B) 6= det A + det B.

Exemplo 3.11 Sejam


" # " #
1 0 0 4
A= e B= .
0 0 0 5

Então " #
1 4
det A = 0 , det B = 0 e det(A + B) = det = 5.
0 5

Exercı́cio 3.5 Dê exemplo de matrizes A, B ∈ M3×3 (R), tais que

(a) det A = det B e A 6= B.


(b) det(A + B) 6= det A + det B.

O resultado seguinte estabelece uma propriedade interessante dos determinantes.

Proposição 3.12 Para i = 1, . . . , n, tem-se:


2 3 2 3 2 3
a11 ··· a1n a11 ··· a1n a11 ··· a1n
6 7 6 7 6 7
6 ··· 7 6 ··· 7 6 ··· 7
6 7 6 7 6 7
det 6
6 bi1 + ci1
6
··· bin + cin
7
7
7
= det 6
6 bi1
6
··· bin
7
7
7
+ det 6
6 ci1
6
··· cin
7
7.
7
6 7 6 7 6 7
4 ··· 5 4 ··· 5 4 ··· 5
an1 ··· ann an1 ··· ann an1 ··· ann

Demonstração:
Da esquerda para a direita, representem-se respectivamente, por A, B e C as
matrizes referidas no enunciado. Aplicando o Teorema de Laplace à linha i de A
obtemos

det A = (bi1 + ci1 )Âi1 + · · · + (bin + cin )Âin


   
= bi1 Âi1 + · · · + bin Âin + ci1 Âi1 + · · · + cin Âin .
84

Notemos que, para l = 1, . . . , n,

A(i|l) = B(i|l) = C(i|l)

pelo que
Âil = B̂il = Ĉil .

Logo
bi1 Âi1 + · · · + bin Âin = bi1 B̂i1 + · · · + bin B̂in = det B

e
ci1 Âi1 + · · · + cin Âin = ci1 Ĉi1 + · · · + cin Ĉin = det C.

Exercı́cio 3.6 Utilizando a Proposição 3.12, justifique que:



am + bp an + bq
= (mq − np)(ad − bc).
cm + dp cn + dq

Vejamos agora o efeito que cada uma das transformações elementares sobre linhas tem
sobre o determinante de uma matriz.

Teorema 3.13 Seja A ∈ Mn×n (K). Tem-se

1. Se i 6= j e A −−li−←→l
−−−−→ A0 então det A0 = − det A.
j

2. Se α 6= 0 e −−−→ A0
A −−−αl então det A0 = α det A.
i

3. Se i 6= j e −−−→ A0
A −−li−+βl então det A0 = det A.
j

Demonstração:
Demonstremos 1. Sabemos já que se uma matriz tem duas linhas iguais então o
seu determinante é nulo. Assim, sendo L1 , . . . , Ln , n-uplos, tem-se
2 3
L1
6 7
6 ··· 7
6 7
6 7
6 Li + Lj 7
6 7
det 6
6 ···
7
7 = 0.
6 7
6 7
6 Li + Lj 7
6 7
6 ··· 7
4 5
Ln
85

Por outro lado, aplicando a Proposição 3.12 concluı́mos que


2 3 2 3 2 3
L1 L1 L1
6 7 6 7 6 7
6 ··· 7 6 ··· 7 6 ··· 7
6 7 6 7 6 7
6 7 6 7 6 7
6 Li + Lj 7 6 L 7 6 Lj 7
6 7 6 i 7 6 7
det 6
6 ···
7
7 = 6 7
det 6 · · · 7 + det 6 6 ···
7
7
6 7 6 7 6 7
6 7 6 7 6 7
6 Li + Lj 7 6 Li + Lj 7 6 Li + Lj 7
6 7 6 7 6 7
6 ··· 7 6 · · · 7 6 ··· 7
4 5 4 5 4 5
Ln Ln Ln
2 3 2 3 2 3 2 3
L1 L1 L1 L1
6 7 6 7 6 7 6 7
6 ··· 7 6 ··· 7 6 ··· 7 6 ··· 7
6 7 6 7 6 7 6 7
6 7 6 7 6 7 6 7
6 Li 7 6 Li 7 6 Lj 7 6 Lj 7
6 7 6 7 6 7 6 7
= 6 7
det 6 · · · 7 + det 6
6 ···
7 6
7 + det 6
7 6
· · · 7 + det 6
7
· · · 7.
6 7 6 7 6 7 6 7
6 7 6 7 6
6 Li 7 6 Lj 7 6 Li 7 7
6
6 Lj 7 7
6 7 6 7 6 7 6 7
6 ··· 7 6 ··· 7 6 ··· 7 6 ··· 7
4 5 4 5 4 5 4 5
Ln Ln Ln Ln

Utilizando de novo o resultado segundo o qual é nulo o determinante de uma matriz


com duas linhas iguais, obtemos
2 3 2 3
L1 L1
6 7 6 7
6 ··· 7 6 ··· 7
6 7 6 7
6 7 6 7
6 Li 7 7 6 Lj 7
6 6 7
0= 0 + det 6
6
7 6
· · · 7 + det 6
7
· · · 7 + 0,
6 7 6 7
6 7 6
6 Lj 7 6 Li 7 7
6 7 6 7
6 ··· 7 6 ··· 7
4 5 4 5
Ln Ln

isto é, 2 3 2 3
L1 L1
6 7 6 7
6 ··· 7 6 ··· 7
6 7 6 7
6 7 6 7
6 Li 7 6 Lj 7
6 7 6 7
det 6
6
7
··· 7 = − det 6
6
7
· · · 7.
6 7 6 7
6
6 Lj 77
6
6 Li 7 7
6 7 6 7
6 ··· 7 6 ··· 7
4 5 4 5
Ln Ln

Mostrámos, como pretendı́amos, que o determinante de uma matriz passa ao


simétrico quando trocamos as linhas i e j, com i 6= j.

Demonstremos 2. Seja A = [aij ] ∈ Mn×n (K) e


2 3
a11 ··· a1n
6 7
6 ··· 7
6 7
6 7
A0 = 6 αai1 ··· αain 7.
6 7
6 7
4 ··· 5
an1 ··· ann

Aplicando o Teorema de Laplace à linha i de A0 , obtemos

det A0 = (αai1 )Â0 i1 + · · · + (αain )Â0 in


 
= α ai1 Â0 i1 + · · · + ain Â0 in .
86

Para l = 1, . . . , n, tem-se A(i|l) = A0 (i|l) e, portanto,

Â0 il = Âil .

Logo
 
det A0 = α ai1 Âi1 + · · · + ain Âin = α det A.

2 3 2 3
L1 L1
6 7 6 7
6 ··· 7 6 ··· 7
6 7 6 7
6 7 6 7
6 Li 7 6 Li + βLj 7
6 7 6 7
6 7 6 7
Finalmente, demonstremos 3. Sejam β ∈ K, A = 6 ··· 7 e A0 = 6 ··· 7,
6 7 6 7
6
6 Lj 77
6
6 Lj 7
7
6 7 6 7
6 ··· 7 6 ··· 7
4 5 4 5
Ln Ln
com L1 , . . . , Ln n-uplos. Tem-se
2 3 2 3 2 3
L1 L1 L1
6 7 6 7 6 7
6 ··· 7 6 ··· 7 6 ··· 7
6 7 6 7 6 7
6 7 6 7 6 7
6 Li + βLj 7 6 Li 7 6 βLj 7
6 7 6 7 6 7
6 7 6 7 6 7
det A0 = det 6 ··· 7 = det 6 ··· 7 + det 6 ··· 7
6 7 6 7 6 7
6 7 6 7 6
6 Lj 7 6 Lj 7 6 Lj 77
6 7 6 7 6 7
6 · · · 7 6 7
··· 5 6 ··· 7
4 5 4 4 5
Ln Ln Ln
2 3 2 3
L1 L1
6 7 6 7
6 ··· 7 6 ··· 7
6 7 6 7
6 7 6 7
6 Li 7 6 Lj 7
6 7 6 7
= det 6 · · · 7 + β det 6
6 7
6 ···
7
7 = det A + β×0 = det A.
6 7 6 7
6 7 6 7
6 Lj 7 6 Lj 7
6 7 6 7
6 ··· 7 6 ··· 7
4 5 4 5
Ln Ln


Vimos, no Capı́tulo 1, que multiplicar um escalar α por uma matriz A corresponde a


multiplicar todos os elementos da matriz A por α. Notemos que, de acordo com a proprie-
dade 2 do Teorema 3.13, multiplicar um escalar α por determinante de A corresponde ao
determinante de uma matriz que se obtém de A multiplicando por α uma, e uma só, das
suas linhas. Em linguagem informal dizemos então que num determinante um escalar pode
ser posto em evidência só por estar a multiplicar uma linha.

Corolário 3.14 Seja A ∈ Mn×n (K) e A0 uma matriz que se obtém de A efectuando um
número finito de transformações elementares sobre linhas, isto é,

A −−−−−−−→ A0 .
(linhas)

Tem-se
det A = 0 se, e só se, det A0 = 0.
87

Demonstração:
De acordo com o teorema anterior temos

r
det A0 = (−1) α1 · · · αs det A, com r, s ∈ N0 ,

sendo r o número de transformações elementares do tipo I, s o número de trans-


formações elementares do tipo II e α1 , . . . , αs os escalares não nulos envolvidos
nas s transformações elementares do tipo II efectuadas (convencionando que para
s = 0 temos α1 · · · αs = 1). Logo

det A = 0 se, e só se, det A0 = 0.

Exemplo 3.15 Com um exemplo, ilustremos as alterações no determinante, provocadas


por transformações do tipo II.

2 6 1 3 1 3 1 3
4 2 2 2

3 9 15 = 2 3 9 15 = 2×3 1 3 5 = 2×3×5 1 3 5 .


5 0 5 5 0 5 5 0 5 1 0 1

2 3
a b c
Exercı́cio 3.7 Seja A = 4 d e f 5 ∈ M3×3 (R), tal que det A = γ. Indique, em
g h i
função de γ, o valor de cada um dos seguintes determinantes:

d e f


(a) g h i .
a b c

3a 3b 3c

(b) −d −e −f .
4g 4h 4i

a+g b+h c+i

(c) d e f .
g h i

−3a −3b −3c

(d) d e f .

g − 4d h − 4e i − 4f

b e h

(e) a d g .
c f i

Exercı́cio 3.8 Mostre que se A ∈ Mn×n (K) e α ∈ K então det(αA) = αn det A.

Exercı́cio 3.9 (a) Mostre que se A ∈ Mn×n (K) é hemi–simétrica e n é ı́mpar


então det A = 0.

0 x − a x − b


(b) Justifique que a equação p(x) = x + a 0 x − c = 0 admite a
x+b x+c 0
raiz zero.
88


bc a2 a2 bc ab ca

6 0, então b2
Exercı́cio 3.10 Verifique que, se abc = ca b2 = ab
ca bc .

c2 c2 ab ca bc ab

Sugestão: Comece por multiplicar as colunas 1, 2 e 3, respectivamente, por a, b e c.


x−y−z 2x 2x

Exercı́cio 3.11 Mostre que 2y y−z−x 2y = (x + y + z)3 .

2z 2z z−x−y

Sugestão: Comece por adicionar à linha 1 as linhas 2 e 3.

Exercı́cio 3.12 Sejam A, B ∈ Mn×n (K) tais que Bij = (−1)i+j Aij . Justifique que A
e B têm o mesmo determinante.

Exercı́cio 3.13 Mostre que se abcd 6= 0 então



a2 a 1 bcd a3 a2 a 1

b2 b 1 acd b3 b2 b 1
= 3 .
c2 c 1 abd c c2 c 1
3
d2 d 1 abc d d2 d 1

Exercı́cio 3.14 Os números 20604, 53227, 25755, 20927 e 78421 são divisı́veis por 17.
Justifique que o mesmo sucede ao determinante

2 0 6 0 4

5 3 2 2 7

2 5 7 5 5 ,

2 0 9 2 7

7 8 4 2 1

sem calcular o seu valor.

Sugestão: Efectue as transformações elementares, do tipo III, sobre colunas,

c5 + 104 c1 + 103 c2 + 102 c3 + 10c4 .

Conforme vimos no Capı́tulo 1, toda a matriz A ∈ Mm×n (K) pode ser transformada
numa matriz em forma de escada, através de um número finito de transformações elementares
sobre linhas.

Observemos que se A ∈ Mn×n (K) e

A −−−−−−−→ A0 (f.e.)
(linhas)

então A0 é triangular superior (eventualmente com elementos nulos na diagonal principal).

Na prática dispomos então do seguinte processo para calcular o determinante de uma


matriz A ∈ Mn×n (K):

• Efectuem-se transformações elementares sobre linhas de forma a transformar A numa


matriz A0 em forma de escada.
89

• Considerando as correspondentes alterações no determinante resultantes de cada uma


dessas transformações elementares obtenha-se a relação entre det A e det A0 .

• Como det A0 é igual ao produto dos elementos da sua diagonal principal e é conhecida
a relação entre det A e det A0 , obtenha-se det A.

Exemplo 3.16


0 10 1 3 1 3 1 3
5 2 2 2

1 2 3 = − 0 5 10 = − 0 5 10 = −5 0 1 2

l1 ←→ l2 l3 + (−2)l1
2 6 8 2 6 8 0 2 2 0 2 2

3
1 2

= − 5 0 1 2 = (−5) × (1×1 × (−2)) = 10.
l3 + (−2)l2
0 0 −2

Exercı́cio 3.15 Seja a ∈ R. Resolva a equação na incógnita x sobre R



x a a a

a x a a
= 0.
a a x a

a a a x

Sugestão: Comece por efectuar transformações elementares do tipo III de forma a que
l1 venha substituı́da por l1 + l2 + l3 + l4 , em que li representa a linha i,
i = 1, 2, 3, 4.

Exercı́cio 3.16 Sejam a, b ∈ K. Considere A = [aij ] ∈ Mn×n (K) definida por



a + b, se i = j
aij = .
a, caso contrário

Mostre que det A = bn−1 (na + b).

Exercı́cio 3.17 Para cada k ∈ R, considere a matriz


2 3
1 0 −1 0
6 2 −1 −1 k 7
Bk = 6
4
7 ∈ M4×4 (R).
0 k −k k 5
−1 1 1 2

Determine os valores de k para os quais det Bk = 2.


90

Exercı́cio 3.18 Justifique que:



1 2 3 ··· n

−1 0 3 ··· n

−1 −2 0 ··· n
(a) = n! .
.. .. .. . . ..
. .
. . .
−1 −2 −3 · · · 0

n n ··· n n

n n − 1 ··· n n

.. n−1
(b) . = (−1) n! .

n
n ··· 2 n
n n ··· n 1

a0 a1 a2 · · · an−1 an

−x x 0 ··· 0 0 Pn

(c) 0 −x x · · · 0 0 = xn i=0 ai .

···

0 0 0 ··· −x x
Sugestão: Adicione todas as colunas à primeira coluna.

O resultado seguinte, muito importante, fornece-nos uma outra caracterização das ma-
trizes invertı́veis.

Teorema 3.17 Seja A ∈ Mn×n (K). Tem-se

A é invertı́vel se, e só se, det A 6= 0.

Demonstração:
Seja A0 uma matriz em forma de escada obtida de A através de um número finito
de transformações elementares sobre linhas, isto é,

A −−−−−−−→ A0 em forma de escada.


(linhas)

Sabemos que
A é invertı́vel se, e só se, r(A) = n(= r(A0 )).

Tal equivale a afirmar que todos os elementos da diagonal principal de A0 são não
nulos, ou equivalentemente, que

det A0 6= 0.

Como, pelo Corolário 3.14,

det A0 6= 0 se, e só se, det A 6= 0,

obtemos o que pretendı́amos.

2 3
1 t −1
Exercı́cio 3.19 Para cada t ∈ R, seja At = 4 2 4 −2 5 ∈ M3×3 (R). Deter-
−3 −7 t+3
mine os valores de t para os quais At é invertı́vel.
91

2 3
0 a a2
Exercı́cio 3.20 Seja A = 4 a−1 0 a 5 ∈ M3×3 (R), com a 6= 0. Determine os
a−2 a−1 0
valores de a para os quais A é invertı́vel.

No Capı́tulo 1 demonstrámos que se A, B ∈ Mn×n (K) são invertı́veis então AB é também


invertı́vel. Tem-se, ainda,

Proposição 3.18 Sejam A, B ∈ Mn×n (K). Se pelo menos uma das matrizes A, B não é
invertı́vel então AB não é invertı́vel.

Demonstração:
Suponhamos primeiramente que B não é invertı́vel. Logo, de acordo com a Pro-
posição 2.14, o sistema homogéneo

BX = 0

é indeterminado. Como qualquer solução desse sistema é também solução do


sistema
A(BX) = 0,

ou equivalentemente, do sistema

(AB)X = 0,

este sistema é também indeterminado e, portanto, AB não é invertı́vel.

Suponhamos agora que A não é invertı́vel. Neste caso tem-se det A = 0 e, como
det A = det A> , concluı́mos também que A> não é invertı́vel. Assim, podemos
afirmar que o sistema homogéneo

A> X = 0

é indeterminado. Como qualquer solução desse sistema é também solução do


sistema
B > (A> X) = 0,

este sistema é também indeterminado e, portanto, B > A> não é invertı́vel. Tem-se,
pois,
det(B > A> ) = 0.
> >
Dado que B > A> = (AB) e det (AB) = det(AB), podemos concluir que

det(AB) = 0

e, portanto, AB não é invertı́vel.


92

Conforme já tivemos oportunidade de referir, existem matrizes A, B ∈ Mn×n (K) tais
que
det(A + B) 6= det A + det B.

No entanto, o determinante de um produto de matrizes quadradas é igual ao produto


dos determinantes das matrizes factores, conforme estabelece o resultado que seguidamente
apresentamos.

Teorema 3.19 1. Sejam A, B ∈ Mn×n (K). Tem-se

det(AB) = det A det B.

2. Mais geralmente, se t ≥ 2 e A1 , . . . , At ∈ Mn×n (K) então

det (A1 · · · At ) = det A1 · · · det At .

Demonstração:
Demonstremos 1.

Caso 1: A é uma matriz invertı́vel, ou equivalentemente, pelo Teorema 1.57

A = E1 · · · E s ,

sendo E1 , . . . , Es matrizes elementares.

Demonstremos primeiramente, por indução em s, que

det ((E1 · · · Es ) B) = det E1 · · · det Es det B.

Verifiquemos que o resultado é válido para s = 1, isto é, demonstremos que se E


é uma matriz elementar então

det(EB) = det E det B.

Teremos que considerar os 3 subcasos seguintes:

1.1) In −−li−←→l
−−−−→ E,
j
com i 6= j;

1.2) In −−−−αl−−
i
→ E,
− com α ∈ K \ {0};

1.3) +βlj E,
In −−l−i−−−−→ com β ∈ K e i 6= j.

Atendendo aos Teoremas 3.13 e 3.10 concluı́mos que no subcaso 1.1 se tem

det E = − det In = −1.


93

Logo
det(EB) = − det B = det E det B.

No subcaso 1.2 obtemos


det E = α det In = α

e, portanto,
det(EB) = α det B = det E det B.

Finalmente, no subcaso 1.3 verificamos que

det E = det In = 1

pelo que
det(EB) = det B = det E det B.

Seja s ≥ 2.
Hipótese de Indução: Suponhamos que o resultado é válido para o produto de
quaisquer s−1 matrizes elementares de Mn×n (K) por qualquer matriz de Mn×n (K).

Como
 
det(E1 · · · Es B) = det (E1 · · · Es−1 )(Es B)

pela hipótese de indução podemos concluir que

det(E1 · · · Es B) = det E1 · · · det Es−1 det(Es B).

Uma vez que o resultado foi demonstrado para s = 1, tem-se

det(Es B) = det Es det B

e concluı́mos, como pretendı́amos, que

det(E1 · · · Es B) = det E1 · · · det Es det B.

Notemos que, no caso particular B = In , obtemos

det(E1 · · · Es ) = det E1 · · · det Es .

Como no Caso 1, em estudo, se tem A = E1 · · · Es , com E1 , . . . , Es matrizes


elementares, concluı́mos que

det(AB) = det((E1 · · · Es )B)


= det E1 · · · det Es det B
= det(E1 · · · Es ) det B
= det A det B,

conforme pretendı́amos.
94

Caso 2: A não é uma matriz invertı́vel, ou equivalentemente, det A = 0.

Neste caso, pela Proposição 3.18, podemos afirmar que AB não é invertı́vel, ou
equivalentemente, det(AB) = 0. Então

det(AB) = 0 = 0 · det B = det A det B.

Demonstremos o resultado 2, por indução em t.

Para t = 2 o resultado foi demonstrado em 1.

Suponhamos t ≥ 3.

Hipótese de Indução: O determinante de um produto de quaisquer t − 1 matrizes


de Mn×n (K) é igual ao produto dos determinantes das matrizes factores.

Tem-se
det(A1 · · · At ) = det((A1 · · · At−1 )At ).

Como o resultado é válido para t = 2 podemos afirmar que

det(A1 · · · At ) = det(A1 · · · At−1 ) det At

ou ainda, pela hipótese de indução,

det(A1 · · · At ) = (det A1 · · · det At−1 ) det At = det A1 · · · det At .

Exercı́cio 3.21 Sejam A, B, C ∈ Mn×n (R) tais que det A = 2, det B = −5 e det C = 4.

(a) Calcule det (ABC) e det (3B).



(b) Justifique que A, B e C são invertı́veis e calcule det C −1 e det A> B −1 .

Exercı́cio 3.22 Sejam A, B ∈ Mn×n (K). Mostre que:

(a) det (AB) = det (BA).


(b) Se AB é uma matriz invertı́vel então A e B também o são.

Exercı́cio 3.23 Recorde que A, B ∈ Mn×n (K) se dizem semelhantes se existe P ∈


Mn×n (K), invertı́vel, tal que B = P −1 AP . Justifique que matrizes semelhantes têm o
mesmo determinante.

Exercı́cio 3.24 Seja A ∈ Mn×n (K). Mostre que:

(a) Se AA> = In então det A ∈ {−1, 1}.


(b) Se existe p ∈ N tal que Ap = 0 então det A = 0.

Recordemos que, pelo Teorema 1.26, se A ∈ Mn×n (K) é uma matriz invertı́vel e
B ∈ Mn×n (K) é tal que AB = In ou BA = In então B = A−1 .

Podemos, agora, “melhorar” o resultado anterior.


95

Proposição 3.20 Se A, B ∈ Mn×n (K) são tais que

AB = In ou BA = In

então A é invertı́vel e B = A−1 (ou equivalentemente, B é invertı́vel e A = B −1 ).

Demonstração:
De acordo com o teorema anterior, se B é tal que

AB = In

então
|AB| = |In |

isto é,
|A||B| = 1.

Logo,
|A| 6= 0

e, portanto, A é invertı́vel. Tal como na demonstração do Teorema 1.26, de

AB = In

resulta, multiplicando ambos os membros, à esquerda, por A−1 ,

A−1 (AB) = A−1 In

e, portanto,
B = A−1 .

A demonstração para o caso em que BA = In é análoga à anterior.

2 3
  1 1
1 0 1
Exercı́cio 3.25 Sejam A = ∈ M2×3 (R) e B = 4 0 1 5 ∈ M3×2 (R).
0 1 0
0 −1
Mostre que:

(a) AB = I2 , mas BA 6= I3 . (Há alguma contradição com a Proposição 3.20?)


(b) det (AB) = 1 e det (BA) = 0. (Há alguma contradição com o
Exercı́cio 3.22?)

O resultado seguinte relaciona o determinante de uma matriz invertı́vel com o determi-


nante da sua inversa.

Proposição 3.21 Seja A ∈ Mn×n (K) uma matriz invertı́vel, ou equivalentemente, uma
matriz tal que det A 6= 0. Tem-se
1
det A−1 = .
det A
96

Demonstração:
De AA−1 = In resulta
det(AA−1 ) = det In

ou, ainda,
det A det A−1 = 1.

Logo, det A 6= 0 e
1
det A−1 = .
det A

Exercı́cio 3.26 Considere as matrizes de elementos reais


2 3
1 −1 1 1 2 3
6 0 2 1 −1
6 2 4 4 7
7
A=4 e B=4 1 1 1 5.
1 3 1 1 5
−1 0 2
0 0 −2 0

(a) Calcule det A e det B.


(b) Diga quais destas matrizes são invertı́veis e indique o determinante da res-
pectiva inversa.
(c) Diga, justificando, se
(i) O sistema AX = 0 é determinado;
(ii) O sistema BX = 0 é determinado.

Na Secção 1.8 aprendemos a decidir sobre a invertibilidade de uma matriz A ∈ Mn×n (K)
através da sua caracterı́stica e apresentámos um processo para a determinação da inversa de
uma matriz invertı́vel. Esquematicamente, tı́nhamos

[A|In ] −−−−−−−→ [In |A−1 ].


(linhas)

Neste capı́tulo apresentámos um processo alternativo para decidir sobre a invertibilidade de


uma matriz, utilizando o seu determinante. Baseado na definição seguinte apresentaremos
também um processo para calcular a inversa de uma matriz invertı́vel, utilizando determi-
nantes.

Definição 3.22 Seja A ∈ Mn×n (K), com n ≥ 2. Chamamos matriz dos


complementos algébricos de A à matriz que se obtém de A substituindo cada
elemento pelo seu complemento algébrico.
Chamamos adjunta de A, e representamos por adj A, à transposta da matriz dos
complementos algébricos de A, isto é, adj A ∈ Mn×n (K) e

(adj A)ij = Âji , i, j = 1, . . . , n.


97

Exemplo 3.23 1. Se
" #
a11 a12
A=
a21 a22

então
" #> " #
a22 −a21 a22 −a12
adj A = = .
−a12 a11 −a21 a11

2. Se 2 3
1 0 3
6 7
A=6
4 0 2 0 7
5
4 0 5

então 2 3> 2 3
10 0 −8 10 0 −6
6 7 6 7
adj A = 6
4 0 −7 0 7
5 =6
4 0 −7 0 7
5.
−6 0 2 −8 0 2

O resultado seguinte estabelece uma relação entre cada matriz A ∈ Mn×n (K) e a sua
adjunta e permite relacionar, quando A é invertı́vel, A−1 com adj A.

Teorema 3.24 Seja A ∈ Mn×n (K). Tem-se

1. 2 3
det A 0 ··· 0
6 7
6 .. .. 7
6 . 7
6 0 det A . 7
A adj A = 6
6 ..
7
7
= (det A)In .
.. ..
6 . . . 0 7
4 5
0 ··· 0 det A

2. Se A é invertı́vel então
1
A−1 = adj A.
det A

Demonstração:
1. Seja A = [aij ] e representemos por Âij o complemento algébrico do elemento
da posição (i, j) de A. Tem-se
2 32 3>
a11 ··· a1n Â11 ··· Â1n
6 76 7
A adj A = 6 ··· 76 ··· 7
4 54 5
an1 ··· ann Ân1 ··· Ânn
2 32 3
a11 ··· a1n Â11 ··· Ân1
6 76 7
= 6 ··· 76 ··· 7.
4 54 5
an1 ··· ann Â1n ··· Ânn

Pela definição de produto de matrizes, o elemento (i, i) da matriz A adj A é

ai1 Âi1 + ai2 Âi2 + · · · + ain Âin


98

o que, pelo Teorema de Laplace aplicado à linha i, sabemos ser igual a

det A.

Para i 6= j, o elemento (i, j) da matriz A adj A é

ai1 Âj1 + ai2 Âj2 + · · · + ain Âjn .

Pelo Teorema de Laplace, tal expressão é igual ao determinante da matriz que se


obtém de A substituindo a linha j por uma linha igual à linha i. Como tal matriz
tem duas linhas iguais (a i e a j), pela Proposição 3.9, o seu determinante é zero.
Assim
ai1 Âj1 + ai2 Âj2 + · · · + ain Âjn = 0,

para i 6= j.

Fica, pois, demonstrado que A adj A = (det A)In .

2. Se A é invertı́vel da igualdade

A adj A = (det A)In

resulta, multiplicando ambos os membros, à esquerda, por A−1 ,

adj A = (det A)A−1 ,

ou equivalentemente, como det A 6= 0,


1
A−1 = adj A.
det A

2 3
3 1 2
Exercı́cio 3.27 Seja A = 4 1 2 1 5 ∈ M3×3 (R).
2 2 2

(a) Calcule det A e conclua que A é invertı́vel.


(b) Determine A−1 , a partir da matriz adj A.

2 3
1 0 1
Exercı́cio 3.28 Uma matriz A ∈ M3×3 (R) é tal que adj A = 4 −2 2 −2 5 e
0 1 2
|A| = 2. Determine, se possı́vel, a matriz A.

2 3
m 1 1
Exercı́cio 3.29 Seja M = 4 1 m 1 5 ∈ M3×3 (R).
1 1 m

(a) Calcule adj M .


(b) Determine para que valores de m a matriz M é invertı́vel.
(c) Nos casos em que M é invertı́vel, determine M −1 a partir de adj M .
99

Exercı́cio 3.30 Seja A ∈ Mn×n (K) uma matriz invertı́vel. Mostre que:

(a) adj A é invertı́vel.


1
(b) (adj A)−1 = |A|
A = adj (A−1 ).

(c) | adj A| = |A|n−1 .


(d) adj (adj A) = |A|n−2 A.

Exercı́cio 3.31 Sejam A, B ∈ Mn×n (K) matrizes invertı́veis. Mostre que

adj (AB) = (adj B)(adj A).

Por último, apliquemos esta matéria à resolução de sistemas de equações lineares em que
a matriz simples do sistema é quadrada e invertı́vel (designados por sistemas de Cramer ).

Seja AX = B um sistema de equações lineares, com A ∈ Mn×n (K) invertı́vel. Do


Capı́tulo 2, sabemos que um sistema deste tipo é possı́vel determinado. O resultado seguinte
diz-nos como podemos, utilizando determinantes, calcular a solução única de tal sistema.

Teorema 3.25 (Regra de Cramer) Seja AX = B um sistema de equações lineares, com


A ∈ Mn×n (K) invertı́vel. Seja Ai→n+1 a matriz que se obtém de A substituindo a coluna i
pela coluna de B. A solução (única) do sistema anterior é o n-uplo

1
(det A1→n+1 , det A2→n+1 , . . . , det An→n+1 ) .
det A

Demonstração: 2 3
b1
6 7
Seja B = 6
6
..
.
7
7.
4 5
bn

A solução (única) do sistema AX = B é (α1 , . . . , αn ) ∈ Kn tal que


2 3
α1
6 7
A6
6
.
.. 7
7 = B.
4 5
αn

Verificamos facilmente multiplicando ambos os membros da igualdade anterior, à


esquerda, por A−1 que 2 3
α1
6 7
6 .. 7
6 . 7 = A−1 B.
4 5
αn

Tem-se  
1 1  
A−1 B = adj A B = (adj A) B
det A det A
e o elemento da linha i da matriz (adj A)B ∈ Mn×1 (K) é

Â1i b1 + · · · + Âni bn = b1 Â1i + · · · + bn Âni .


100

Aplicando o Teorema de Laplace à coluna i da matriz Ai→n+1 concluı́mos que

det Ai→n+1 = b1 Â1i + · · · + bn Âni .

Está, pois, demonstrado o que pretendı́amos.

Exemplo 3.26 O sistema de equações lineares, nas incógnitas x1 , x2 , x3 sobre R



 x1 + x2 − x3 = 0


2x1 + x2 = 1 ,


x1 − x3 = 1

tem matriz simples A ∈ M3×3 (R), invertı́vel, pois



1 −1 1 −1 1 −1
1 1 1

|A| = 2 1 0 = 0 −1 2 = 0 −1 2 = 2 6= 0.

l2 + (−2)l1 l3 + (−1)l2
1 0 −1 l3 + (−1)l1 0 −1 0 0 0 −2

De acordo com o teorema anterior, a solução, única, de tal sistema é (α1 , α2 , α3 ) ∈ R3


com
0 −1 1 −1 1 0
1 0 1

1 1 0 2 1 0 2 1 1


1 0 −1 1 1 −1 1 0 1
α1 = , α2 = e α3 = .
2 2 2
Tem-se
2 −2 0
α1 = = 1, α2 = = −1 e α3 = = 0.
2 2 2
Logo, (1, −1, 0) é a solução única do sistema.

A Regra de Cramer pode utilizar-se para resolver sistemas AX = B em que A ∈ Mn×n (K)
é invertı́vel (sistemas de Cramer). Mesmo nestes casos, salvo para valores pequenos de n,
não tem interesse computacional, sendo preferı́vel utilizar o método referido no Capı́tulo 2.
2 3 2 3
1 2 3 14
Exercı́cio 3.32 Sejam A = 4 0 2 1 5 ∈ M3×3 (R), B = 4 7 5 ∈ M3×1 (R) e o
1 1 1 6
sistema de equações lineares
2 3
x1
(S) A4 x2 5 = B,
x3

nas incógnitas x1 , x2 , x3 , sobre R.

(a) Calcule det A e justifique que o sistema (S) é um sistema de Cramer.


(b) Utilizando a Regra de Cramer, determine a solução do sistema (S).
101

Soluções de alguns dos exercı́cios propostos


3.1 (a) |A| = −1

(b) |B| = 3

(c) |C| = −4

3.2 |H| = vuxyz

3.3 λ ∈ {0, 1, 3}

3.7 (a) γ

(b) −12γ

(c) γ

(d) −3γ

(e) −γ

3.15 x ∈ {−3a, a}

3.17 k ∈ {−2, 1}

3.19 t ∈ R \ {0, 2}

3.20 a ∈ R \ {0}

3.21 (a) |ABC| = −40


|3B| = 3n (−5)
1
(b) |C −1 | = 4
> −1
|A B | = − 25

3.26 (a) |A| = −32


|B| = 0

(c) (i) Sim


(ii) Não
" 1 −1
#
3 2
3.28 A = 2 1 0
1 1
−1 − 2

" #
m2 −1 1−m 1−m
3.29 (a) adj M = 1−m m2 −1 1−m
1−m 1−m m2 −1

(b) m ∈ R \ {−2, 1}
" #
m2 −1 1−m 1−m
1
(c) M −1 = (m+2)(m−1)2
1−m m2 −1 1−m
1−m 1−m m2 −1

3.27 (a) |A| = 2


 
2 2 −3
(b) adj A = 0 2 −1
−2 −4 5
2 3
1 1 −3
2
(c) A−1 = 4 0 1 −1
2
5
−1 −2 5
2

3.32 (a) |A| = −3

(b) (1, 2, 3)
Capı́tulo 4

Espaços Vectoriais

4.1 Espaços vectoriais: Definição, exemplos e propriedades

No Capı́tulo 1 definimos no conjunto Mm×n (K) uma operação binária, que designámos por
adição de matrizes e cujas propriedades dadas, na Proposição 1.13, são:

A adição de matrizes é comutativa.

A adição de matrizes é associativa.

Existe elemento neutro para a adição de matrizes.

Toda a matriz tem oposto para a adição.

Definimos também uma operação de multiplicação de um escalar por uma matriz que a
cada α ∈ K e a cada matriz A ∈ Mm×n (K) associa uma matriz αA ∈ Mm×n (K). Vimos
que esta operação, que não é binária, goza das propriedades referidas na Proposição 1.16,
nomeadamente:

1. ∀α∈K ∀A,B∈Mm×n (K) α(A + B) = αA + αB.

2. ∀α,β∈K ∀A∈Mm×n (K) (α + β)A = αA + βA.

3. ∀α,β∈K ∀A∈Mm×n (K) (αβ)A = α(βA).

4. ∀A∈Mm×n (K) 1A = A (sendo 1 o elemento neutro da multiplicação em K).


104

Consideremos então a seguinte definição:

Definição 4.1 Seja E um conjunto não vazio e K ∈ {R, C}. Suponhamos definidas
duas operações:

• uma que designamos por adição em E que é uma operação binária, isto é, associa
a cada par (a, b) de elementos de E um, e um só, elemento de E que se representa
por a + b.

• outra operação, que denominamos multiplicação externa, que a cada α ∈ K e a


cada u ∈ E associa um, e um só, elemento de E que denotaremos por α · u ou
simplesmente αu.

Dizemos que E, com estas duas operações, é um espaço vectorial sobre K ou que
(E, +, ·) é um espaço vectorial sobre K se

1. A operação + em E goza das seguintes propriedades:

(A1 ) A operação + é comutativa.

(A2 ) A operação + é associativa.

(A3 ) Existe elemento neutro para a operação +.

(A4 ) Todo o elemento de E tem oposto para a operação +.

2. A multiplicação externa goza das seguintes propriedades:

(M1 ) ∀α∈K ∀u,v∈E α(u + v) = αu + αv.

(M2 ) ∀α,β∈K ∀u∈E (α + β)u = αu + βu.

(M3 ) ∀α,β∈K ∀u∈E (αβ)u = α(βu).

(M4 ) ∀u∈E 1K u = u,
sendo 1K o elemento neutro da multiplicação em K (representado também
simplesmente por 1).

Notamos que, na definição anterior, estamos a representar pelo sı́mbolo “+” quer a adição
em K quer a adição em E, tal como estamos a representar por “·” quer a multiplicação em
K (que é uma operação binária) quer a multiplicação externa (que, em geral, não é uma
operação binária).
105

Se fizéssemos a distinção, supondo que + e · eram, respectivamente, as notações para


a adição e a multiplicação em K e que, ⊕ e eram, respectivamente, as notações para a
adição em E e para a multiplicação externa então, por exemplo, as propriedades (M2 ) e
(M3 ) tomariam a seguinte forma:

(M2 ) ∀α,β∈K ∀u∈E (α + β) u = (α u) ⊕ (β u).

(M3 ) ∀α,β∈K ∀u∈E (αβ) u = α (β u).

No entanto, a distinção não é necessária uma vez que o contexto desfaz qualquer am-
biguidade: se a adição é entre elementos de K (respectivamente, de E) é a adição em K
(respectivamente, em E), se a multiplicação é entre elementos de K é a multiplicação em K,
se é a multiplicação de um elemento de K por um elemento de E então é a multiplicação
externa.

Definição 4.2 Seja (E, +, ·) um espaço vectorial sobre K. Aos elementos de E cha-
mamos vectores e aos elementos de K chamamos escalares. Se K = C dizemos
que E é um espaço vectorial complexo e se K = R dizemos que E é um espaço
vectorial real .

Vejamos alguns exemplos de espaços vectoriais.

Exemplo 4.3 1. K é um espaço vectorial sobre K, com as operações usuais de adição e


multiplicação de elementos de K.

Assim
R é um espaço vectorial sobre R

e
C é um espaço vectorial sobre C.

Note que
C é um espaço vectorial sobre R

mas
R não é um espaço vectorial sobre C. (Porquê?)

2. Mm×n (K), com a operação de adição usual de matrizes e com a operação de multiplicação
de um elemento de K por uma matriz, definidas no Capı́tulo 1, é um espaço vectorial sobre
K.
106

3. Kn , com a operação usual de adição de n-uplos, dada por

∀(a1 ,...,an ),(b1 ,...,bn )∈Kn (a1 , . . . , an ) + (b1 , . . . , bn ) = (a1 + b1 , . . . , an + bn )

e com a operação de multiplicação de um escalar por um n-uplo dada por

∀α∈K ∀(a1 ,...,an )∈Kn α(a1 , . . . , an ) = (αa1 , . . . , αan ),

é um espaço vectorial sobre K.

4. Represente-se por Kn [x] o conjunto de todos os polinómios na variável x, com coeficientes


em K, de grau menor ou igual a n, com n ∈ N0 , isto é,

Kn [x] = {an xn + · · · + a1 x + a0 : an , . . . , a1 , a0 ∈ K}.

Kn [x] com a operação de adição usual de polinómios, dada por


∀(an xn +···+a1 x+a0 ),(bn xn +···+b1 x+b0 )∈Kn [x]

(an xn +· · ·+a1 x+a0 )+(bn xn +· · ·+b1 x+b0 ) = (an +bn )xn +· · ·+(a1 +b1 )x+(a0 +b0 )

e com a multiplicação usual de um escalar por um polinómio, dada por


∀α∈K ∀(an xn +···+a1 x+a0 )∈Kn [x]

α(an xn + · · · + a1 x + a0 ) = (αan )xn + · · · + (αa1 )x + (αa0 ),

é um espaço vectorial sobre K.

5. Se representarmos por K[x] o conjunto de todos os polinómios na variável x, com coefi-


cientes em K (sem restrição ao grau), podemos afirmar que K[x] com as operações usuais
de adição de polinómios e de multiplicação de um escalar por um polinómio constitui um
espaço vectorial sobre K.

6. O último exemplo que apresentamos é motivado pela geometria elementar que historica-
mente está na base da teoria dos Espaços Vectoriais.

Seja A o conjunto dos pontos do plano (ou do espaço). Dados dois pontos A e B de
−−→
A, define-se vector AB como sendo o segmento orientado com origem no ponto A e
extremidade final no ponto B.

No conjunto VA dos vectores aplicados com origem no ponto A defina-se uma adição que
−−→ −→ −−→
aos vectores AB e AC associa o vector AD obtido pela conhecida regra do paralelogramo
107

C.....................D.
  . .
 ..
1

 .


. ..
-. .


A B
−−→
e defina-se uma multiplicação externa que a cada real α e a cada vector AB associa o
−−→ −−→ −−→
vector αAB cuja direcção é a do vector AB e o sentido é o de AB se α > 0 e é o contrário
−−→ − → −−→ −−→
se α < 0 (se α = 0 então AB = 0 ) e cujo comprimento é kαABk = |α| kABk.

Argumentos de natureza geométrica podem permitir-nos concluir que VA , com estas operações,
é um espaço vectorial sobre R (isto é, um espaço vectorial real).

Exercı́cio 4.1 Determine se R2 com as operações indicadas em cada alı́nea é um espaço


vectorial real. No caso negativo, indique os axiomas que não se verificam.

(a) Para quaisquer α ∈ R e (x1 , x2 ), (y1 , y2 ) ∈ R2 , considere que:

(x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , 0) e α(x1 , x2 ) = (0, αx1 ).

(b) Para quaisquer α ∈ R e (x1 , x2 ), (y1 , y2 ) ∈ R2 , considere que:

(x1 , x2 ) + (y1 , y2 ) = (x1 , x2 − y2 ) e α(x1 , x2 ) = (αx1 , αx2 ).

Exercı́cio 4.2 Considere o conjunto R+ com uma adição definida por

u ⊕ v = uv (produto usual)

e uma multiplicação externa

α u = uα (potência usual),

para quaisquer α ∈ R e u, v ∈ R+ .
Prove que, com estas operações, R+ é um espaço vectorial real.

Exercı́cio 4.3 Definamos uma adição em R2 e uma multiplicação externa de R × R2 em


R2 por, respectivamente,

(a1 , a2 ) + (b1 , b2 ) = (a1 + b1 , a2 + b2 )


α(a1 , a2 ) = (αa1 , 0)

para quaisquer α ∈ R e (a1 , a2 ), (b1 , b2 ) ∈ R2 . Mostre que (R2 , +, ·) não é espaço vectorial
sobre R.

Exercı́cio 4.4 Seja V = {(x, x2 ) : x ∈ R}. Definamos uma adição em V e uma


multiplicação externa de R × V em V por, respectivamente,

(x, x2 ) + (y, y 2 ) = (x + y, (x + y)2 )

e
α(x, x2 ) = (αx, (αx)2 )

para quaisquer α, x, y ∈ R. Mostre que (V, +, ·) é espaço vectorial real.


108

Frequentemente, e se não houver ambiguidade, referimo-nos ao “espaço vectorial E”


querendo dizer “espaço vectorial E sobre K”. A adição em E e a multiplicação externa
quando E é um dos espaços vectoriais Mm×n (K), Kn , Kn [x] são, salvo menção em contrário,
as referidas no Exemplo 4.3.

Vejamos outras propriedades dos espaços vectoriais.

Proposição 4.4 Seja E um espaço vectorial. Tem-se

1. Em E, o elemento neutro (para a operação +) é único.


(O elemento neutro de E é habitualmente representado por 0E .)

2. Em E, o oposto de cada elemento (para a operação +), também designado por simétrico,
é único.
(O simétrico de u ∈ E é habitualmente representado por −u.)

3. ∀u,v,w ∈ E u+v =u+w ⇒ v = w. (Lei do Corte, à esquerda.)

4. ∀u,v,w ∈ E v + u = w + u ⇒ v = w. (Lei do Corte, à direita.)

Demonstração:
1. Suponhamos que, para todo u ∈ E, existiam a, a0 ∈ E verificando

a+u=u+a=u

e
a0 + u = u + a0 = u.

Então, como a é elemento neutro,

a + a0 = a0 .

Por outro lado, como a0 também é elemento neutro,

a + a0 = a.

Logo
a = a0 .

2. Suponhamos que, para u ∈ E, existiam dois simétricos u0 e u00 . Como

u + u0 = u0 + u = 0E

e
u + u00 = u00 + u = 0E
109

então

u0 = u0 + 0E = u0 + (u + u00 ) = (u0 + u) + u00 = 0E + u00 = u00 .

3. Suponhamos que u, v, w ∈ E e

u + v = u + w.

Então
(−u) + (u + v) = (−u) + (u + w).

Como a operação + é associativa, tem-se

((−u) + u) + v = ((−u) + u) + w.

Assim
0E + v = 0E + w

e, portanto,
v = w.

4. Demonstração análoga à de 3.

Por vezes, para evidenciar que se aplicou a Lei do Corte, à esquerda, dada em 3., escreve-
mos 6 u + v =6 u + w.

Na Definição 4.1 a afirmação de que E é um conjunto não vazio é redundante pois E tem,
pelo menos, um elemento: 0E . Pode ser o único elemento de E. De facto, se considerarmos
E = {0E } e definirmos uma adição em E por

0E + 0E = 0E

e uma multiplicação externa por

∀α∈K α0E = 0E

concluı́mos que E, com estas operações, é um espaço vectorial sobre K.

Representemos por 0K ou simplesmente por 0 o elemento neutro da adição em K.

Proposição 4.5 Seja E um espaço vectorial sobre K. Para quaisquer α, β ∈ K e quaisquer


u, v ∈ E tem-se:

1. α0E = 0E .
110

2. 0K u = 0E .

3. (−α)u = α(−u) = −(αu).

4. αu = 0E =⇒ α = 0K ∨ u = 0E .

Demonstração:
1. Notemos que
α0E = α(0E + 0E )

e, portanto,
α0E + 0E = α0E + α0E .

Logo, pela Lei do Corte, à esquerda,

α0E = 0E .

2. Tem-se
0K u = (0K + 0K )u

e, portanto,
0E + 0K u = 0K u + 0K u.

Assim, pela Lei do Corte, à direita,

0K u = 0E .

3. Demonstremos que (−α)u = −(αu), isto é, que

αu + (−α)u = 0E .

Tem-se
αu + (−α)u = (α + (−α))u = 0K u = 0E .

Vejamos agora que α(−u) = −(αu), isto é, que

αu + α(−u) = 0E .

Tem-se
αu + α(−u) = α(u + (−u)) = α0E = 0E .

4. Suponhamos que
αu = 0E .

Tem-se um, e um só, dos seguintes casos: α = 0K ou α 6= 0K .


Se α = 0K então a implicação 4 está demonstrada.
Se α 6= 0K então α−1 existe. Da igualdade

αu = 0E
111

resulta

α−1 (αu) = α−1 0E


(α−1 α)u = 0E
1K u = 0E
u = 0E ,

conforme pretendı́amos demonstrar.

Como última observação desta secção, notemos que na definição de espaço vectorial há
informação redundante além da de E ser um conjunto não vazio. A comutatividade da adição
também é uma propriedade que se pode deduzir das restantes. De facto, tem-se

∀u,v∈E (1 + 1)(u + v) = (1 + 1)u + (1 + 1)v

= (1u + 1u) + (1v + 1v)

= (u + u) + (v + v)

= u + u + v + v.

Por outro lado,

∀u,v∈E (1 + 1)(u + v) = 1(u + v) + 1(u + v)

= (1u + 1v) + (1u + 1v)

= (u + v) + (u + v)

= u + v + u + v.

Assim, utilizando a Lei do Corte de forma conveniente, obterı́amos

6 u + u + v + v =6 u + v + u + v

u + v+ 6 v = v + u+ 6 v

u + v = v + u.
112

4.2 Subespaços vectoriais

Definição 4.6 Seja E um espaço vectorial sobre K. Um subconjunto F de E diz-se


um subespaço vectorial de E, ou simplesmente um subespaço de E, se F é também
um espaço vectorial sobre K com as operações nele naturalmente definidas por ser
subconjunto de E (a que chamamos as operações induzidas pelas operações de E
no conjunto F ).

O resultado seguinte permite-nos determinar se um subconjunto F de um espaço vectorial


E é um subespaço de E e, portanto, um espaço vectorial, sem necessitarmos de verificar todas
as propriedades da definição de espaço vectorial. Constitui, em muitos livros, a própria
definição de subespaço.

Teorema 4.7 Seja E um espaço vectorial sobre K. Tem-se que F é um subespaço de E se,
e só se, satisfizer as condições seguintes:

1. F ⊆ E

2. 0E ∈ F

3. ∀u,v∈F u+v ∈F

4. ∀α∈K ∀u∈F αu ∈ F

ou as condições que resultam substituindo 2. por

2’. F 6= ∅.

Demonstração:
Suponhamos que F é um subespaço de E. Logo, por definição de subespaço tem-se,
trivialmente, 1., 3. e 4..

Para verificar 2. notemos que se tem

0F = 0E .

Basta atender a que


∀u∈F u + 0F = u,
113

e, como F ⊆ E, verifica-se ainda que

u + 0E = u.

Assim, aplicando a Lei do Corte, no espaço vectorial E, tem-se

6 u + 0E =6 u + 0F

e, portanto,
0E = 0F ∈ F.

Notemos que como 0E ∈ F se tem 2’. F 6= ∅.

Reciprocamente, suponhamos que 1., 2., 3. e 4. são satisfeitas.

Notemos que se uma propriedade é válida para quaisquer elementos de E também


é válida para quaisquer elementos de F , pois F ⊆ E.

Assim, e como E é um espaço vectorial sobre K, para concluir que F é também um


espaço vectorial sobre K temos apenas de demonstrar que existe elemento neutro
para a adição em F (o que está garantido por 2.) e que todo o elemento v ∈ F
tem simétrico em F . Como, por 4.,

∀v∈F (−1)v ∈ F

concluı́mos, pela Proposição 4.5 (válida para todo o elemento v ∈ E), que

(−1)v = −(1v) = −v.

Assim
−v ∈ F

conforme pretendı́amos demonstrar.

Se forem satisfeitas 1., 2’., 3. e 4. concluı́mos analogamente que F é um espaço


vectorial. Temos apenas de garantir que existe elemento neutro para a adição em
F . De

2’. F 6= ∅.

resulta que existe u ∈ F . Por 4., tem-se

0K u ∈ F.

Mas, como u ∈ E e se tem


∀u∈E 0K u = 0E ,

concluı́mos que
0E ∈ F.


114

Vejamos alguns exemplos de subespaços vectoriais.

Exemplo 4.8 1. Consideremos o espaço vectorial R2 . Facilmente se verifica que

F = (x, y) ∈ R2 : y = 0


= {(x, 0) : x ∈ R}

é um subespaço de R2 .

De facto tem-se

· F ⊆ R2 .

· 0R2 = (0, 0) ∈ F .

· Verifiquemos que
∀(x,y),(x0 ,y0 )∈F (x, y) + (x0 , y 0 ) ∈ F.

Como (x, y) ∈ F tem-se y = 0 e, analogamente, como (x0 , y 0 ) ∈ F verifica-se que


y 0 = 0. Assim

∀(x,y),(x0 ,y0 )∈F (x, y) + (x0 , y 0 ) = (x, 0) + (x0 , 0) = (x + x0 , 0) ∈ F.

· Finalmente verifiquemos que

∀α∈R ∀(x,y)∈F α(x, y) ∈ F.

Como (x, y) ∈ F tem-se y = 0. Logo

α(x, y) = α(x, 0) = (αx, α0) = (αx, 0) ∈ F.

Assim
F = {(x, 0) : x ∈ R}

é um subespaço de R2 , habitualmente referido como o eixo OX.

Analogamente se verificaria que são ainda subespaços de R2 :

G = {(0, y) : y ∈ R} (eixo OY )

H = (x, y) ∈ R2 : x = y

(bissectriz dos quadrantes ı́mpares)

L = (x, y) ∈ R2 : x = −y

(bissectriz dos quadrantes pares)

Para cada m ∈ R,
Rm = (x, y) ∈ R2 : y = mx

(recta que passa na origem e tem declive m)
115

Mas, não são subespaços de R2 (Porquê?),

Rm,b = (x, y) ∈ R2 : y = mx + b , com m, b ∈ R, b 6= 0




(recta, com declive m, que não passa na origem)

M = (x, y) ∈ R2 : x 6= y .


2. Consideremos o espaço vectorial Mn×n (K).

São exemplos de subespaços de Mn×n (K) o conjunto das matrizes de Mn×n (K):

Triangulares superiores.

Triangulares inferiores.

Diagonais.

Escalares.

Simétricas.

Hemi-simétricas.

Com a diagonal principal nula.

Não são subespaços de Mn×n (K) o conjunto das matrizes de Mn×n (K):

Invertı́veis.

Com a diagonal principal com pelo menos um elemento não nulo.

3. Seja K[x] o conjunto dos polinómios, na variável x, com coeficientes em K.

O conjunto dos polinómios de K[x] de grau inferior ou igual a r, com r ∈ N, é um


subespaço de K[x].

O conjunto dos polinómios de K[x] de grau igual a r, com r ∈ N, não é um subespaço


de K[x].

Exercı́cio 4.5 Diga, justificando, se



(a) F1 = (a1 , a2 , a3 ) ∈ R3 : a1 − 2a2 = 0 e a2 + a3 = 0 é subespaço vecto-
rial de R3 ;
(b) F2 = {(0, 0, 0), (0, 1, 0), (0, −1, 0)} é subespaço vectorial de R3 ;

(c) F3 = (a1 , a2 , a3 ) ∈ R3 : a3 ≤ 0 é subespaço vectorial de R3 ;
(d) F4 = {(α − β, α, β, 0, γ) : α, β, γ ∈ R} é subespaço vectorial de R5 ;
(e) F5 = {A ∈ M3×3 (R) : det A = 0} é subespaço vectorial de M3×3 (R);

(f) F6 = A ∈ Mn×n (R) : A = A> é subespaço vectorial de Mn×n (R);
(g) F7 = {(a1 , a2 , a3 ) : a1 , a3 ∈ R ∧ a2 ∈ C} é subespaço vectorial de R3 ;
(h) F8 = {(a1 , a2 , a3 ) : a1 ∈ R ∧ a2 , a3 ∈ C} é subespaço vectorial de C3 .
116

Exercı́cio 4.6 Seja A ∈ Mp×n (K). Mostre que o conjunto C das soluções do sistema
homogéneo AX = 0 é subespaço vectorial de Kn .

Exercı́cio 4.7 Sejam E um espaço vectorial sobre K, u, v ∈ E e F um subespaço vecto-


rial de E. Mostre que:

(a) Se u ∈ F então −u ∈ F ;
(b) Se u, v ∈ F então u − v ∈ F ;
(c) Se u + v ∈ F e u ∈ F então v ∈ F ;
(d) Se existe α ∈ K \ {0}, tal que αu ∈ F , então u ∈ F .

Notemos que todo o espaço vectorial admite pelo menos um subespaço vectorial.

Proposição 4.9 Se E é um espaço vectorial sobre K então E e {0E } são subespaços vecto-
riais de E.

Demonstração:
Exercı́cio.

Tais subespaços, que existem sempre, dizem-se os subespaços triviais de E, sendo iguais
se, e só se, E = {0E }.

Vejamos como podemos construir subespaços a partir de outros subespaços.

Teorema 4.10 Se F e G são subespaços de um espaço vectorial E então F ∩ G é, ainda,


um subespaço de E.

Demonstração:
Demonstremos que se F e G são subespaços de E então o mesmo sucede a

F ∩ G = {u ∈ E : u ∈ F ∧ u ∈ G} .

Tem-se, trivialmente, F ∩ G ⊆ E.

Como 0E ∈ F e 0E ∈ G então 0E ∈ (F ∩ G).

Demonstre-se que
∀u,v∈(F ∩G) u + v ∈ (F ∩ G).

Como u ∈ (F ∩ G) tem-se u ∈ F e u ∈ G. Analogamente, se v ∈ (F ∩ G) então


v ∈ F e v ∈ G. Como u ∈ F , v ∈ F e F é um subespaço, concluı́mos que
u + v ∈ F . De forma idêntica, dado que u ∈ G, v ∈ G e G é um subespaço, tem-se
u + v ∈ G. Visto que u + v ∈ F e u + v ∈ G, concluı́mos, como pretendı́amos, que
u + v ∈ F ∩ G.
117

Finalmente, vejamos que

∀α∈K ∀u∈(F ∩G) αu ∈ (F ∩ G).

Dado que u ∈ (F ∩ G), podemos afirmar que u ∈ F e u ∈ G. Como F (respecti-


vamente, G) é um subespaço, concluı́mos que αu ∈ F (respectivamente, αu ∈ G).
Logo, αu ∈ (F ∩ G).

O resultado anterior é falso se substituirmos F ∩ G por F ∪ G. Veja-se o exemplo de


E = R2 , F = (x, y) ∈ R2 : y = 0 e G = (x, y) ∈ R2 : x = 0 . Tem-se
 

F ∪ G = (x, y) ∈ R2 : x = 0 ∨ y = 0 .


Note que
(2, 0) ∈ F ∪ G e (0, 3) ∈ F ∪ G

mas
(2, 0) + (0, 3) = (2, 3) 6∈ F ∪ G.

Há casos em que, trivialmente, a união de subespaços ainda é um subespaço. Por exemplo,
se F ⊆ G então F ∪ G = G pelo que F ∪ G é um subespaço de E.

Analogamente, se G ⊆ F então F ∪ G = F e, portanto, F ∪ G é um subespaço de E.

De facto são os únicos casos em que a união de subespaços é um subespaço, pois tem-se:

Proposição 4.11 Sejam F e G subespaços de um espaço vectorial E. Tem-se F ∪ G é um


subespaço de E se, e só se, F ⊆ G ou G ⊆ F .

Demonstração:
Conforme observámos antes se F ⊆ G ou G ⊆ F então F ∪ G é um subespaço de
E.

Demonstremos que se F ∪ G é um subespaço de E então F ⊆ G ou G ⊆ F .

Suponhamos que F ∪ G é um subespaço de E, que F 6⊆ G e vejamos que G ⊆ F ,


isto é, que para todo v ∈ G se tem v ∈ F .

Como F 6⊆ G existe u ∈ F tal que u 6∈ G. Note-se que

u ∈ F ∪ G.

Para todo v ∈ G tem-se


v ∈ F ∪ G.
118

Atendendo a que, por hipótese, F ∪ G é um subespaço vectorial de E podemos


afirmar que
u + v ∈ F ∪ G.

Assim,
u+v ∈F ou u + v ∈ G.

Não pode ter-se u + v ∈ G porque, nesse caso, como −v ∈ G ter-se-ia

(u + v) + (−v) = u ∈ G

o que é uma contradição pois, por hipótese, u 6∈ G.

Logo
u+v ∈F

e, portanto, como −u ∈ F tem-se

(−u) + (u + v) = v ∈ F,

conforme pretendı́amos demonstrar.

Vejamos agora uma outra forma de construir subespaços, que não tem correspondência
nos conjuntos, e em que intervém a operação binária de adição.

Definição 4.12 Sejam F e G subespaços de um espaço vectorial E. Chamamos soma


dos subespaços F e G ao conjunto

F + G = {u + v : u ∈ F ∧ v ∈ G} .

Teorema 4.13 A soma de dois subespaços de um espaço vectorial E é ainda um subespaço


de E.

Demonstração:
Exercı́cio.

Sejam E = R2 , F = (x, y) ∈ R2 : y = 0 e G = (x, y) ∈ R2 : x = 0 .


 
Exemplo 4.14
Tem-se
F ∪ G = (x, y) ∈ R2 : x = 0 ∨ y = 0 .

119

Assim, por exemplo, (2, 3) 6∈ (F ∪ G) e, portanto,

F ∪ G $ R2 .

Mas
F + G = R2 ,

pois
∀(x,y)∈R2 (x, y) = (x, 0) + (0, y)

com (x, 0) ∈ F e (0, y) ∈ G.

Exercı́cio 4.8 Sejam F e G subespaços de um espaço vectorial E. Mostre que:

(a) F é subespaço de F + G.
(b) G é subespaço de F + G.
(c) F + G é o “menor” subespaço de E que contém F ∪ G, isto é, se H é um
subespaço de E que contém F ∪ G então F + G ⊆ H.

Definição 4.15 Seja E um espaço vectorial sobre K e sejam u1 , . . . , ur elementos de


E. Dizemos que v ∈ E é combinação linear dos vectores u1 , . . . , ur se existem
escalares α1 , . . . , αr ∈ K (não necessariamente únicos) tais que

v = α1 u1 + · · · + αr ur .

Dizemos ainda que α1 , . . . , αr são os coeficientes da combinação linear.

Exemplo 4.16 1. 0E é combinação linear de quaisquer vectores u1 , . . . , ur de um espaço


vectorial E pois
0E = 0u1 + · · · + 0ur .

2. Qualquer vector de R3 é combinação linear dos vectores (1, 0, 0), (0, 1, 0), (0, 0, 1) ∈ R3
pois
∀(a,b,c)∈R3 (a, b, c) = a(1, 0, 0) + b(0, 1, 0) + c(0, 0, 1).

Note que, neste caso, os coeficientes da combinação linear são únicos, para cada (a, b, c) ∈ R3 .

3. Mais geralmente, qualquer vector de Kn é combinação linear dos vectores

e1 , . . . , en

em que ei , i = 1, . . . , n, é o n-uplo com todas as componentes iguais a 0, excepto a i-ésima


componente que é igual a 1.
120

4. Em R2 o vector (3, 3) é combinação linear dos vectores (1, 1), (2, 2). Os coeficientes da
combinação linear não são únicos pois de

(3, 3) = α1 (1, 1) + α2 (2, 2)

resulta
(3, 3) = (α1 + 2α2 , α1 + 2α2 ).

Logo, quaisquer escalares α1 , α2 ∈ R tais que

α1 + 2α2 = 3

estão nas condições pretendidas. Por exemplo, para

α1 = 3 ∧ α2 = 0,

α1 = 1 ∧ α2 = 1,

α1 = 7 ∧ α2 = −2,

obtém-se, respectivamente,

(3, 3) = 3(1, 1) + 0(2, 2),


(3, 3) = 1(1, 1) + 1(2, 2),
(3, 3) = 7(1, 1) + (-2)(2, 2).

Proposição 4.17 Seja E um espaço vectorial e u1 , . . . , ur elementos de E. O conjunto de


todas as combinações lineares dos vectores u1 , . . . , ur , isto é,

{α1 u1 + · · · + αr ur : α1 , . . . , αr ∈ K},

é um subespaço de E.

Demonstração:
Exercı́cio.

Definição 4.18 Sejam u1 , . . . , ur elementos de um espaço vectorial E. Chamamos


subespaço (de E) gerado pela sequência (u1 , . . . , ur ) ou pelos vectores u1 , . . . , ur ao
conjunto de todas as combinações lineares dos vectores u1 , . . . , ur . Tal subespaço é
frequentemente denotado por
hu1 , . . . , ur i.

Se F = hu1 , . . . , ur i dizemos, ainda, que u1 , . . . , ur geram F ou que u1 , . . . , ur são


geradores de F .
121

Exercı́cio 4.9 Mostre que hu1 , . . . , ur i é o “menor” subespaço de E que contém os


vectores u1 , . . . , ur , isto é, mostre que se G for um subespaço de E que contém os vectores
u1 , . . . , ur então hu1 , . . . , ur i ⊆ G.

Exemplo 4.19 1. Quaisquer que sejam u1 , . . . , ur vectores de um espaço vectorial E tem-se

0E ∈ hu1 , . . . , ur i

e, para i ∈ {1, . . . , r},


ui ∈ hu1 , . . . , ur i.

2. R3 = (1, 0, 0), (0, 1, 0), (0, 0, 1) .



3. Kn = he1 , . . . , en i sendo ei ∈ Kn o n-uplo com todas as componentes nulas excepto a


i-ésima componente que é igual a 1, i = 1, . . . , n.

4. Mm×n (K) = hE11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn i em que Eij é a
matriz de Mm×n (K) com todas as entradas nulas excepto a entrada (i, j) que é igual a
1, i = 1, . . . , m, j = 1, . . . , n.

5. Seja F = (a, b, c) ∈ R3 : a = 2b + c .


Verificamos facilmente que F é um subespaço de R3 e, portanto, é um espaço vectorial


sobre R. Determinemos geradores para F .

Tem-se
F = {(2b + c, b, c) : b, c ∈ R} .

Notemos que
(2b + c, b, c) = b(2, 1, 0) + c(1, 0, 1)

e, portanto,
F = h(2, 1, 0), (1, 0, 1)i.

6. Kn [x] = hxn , xn−1 , . . . , x, 1i pois

∀an xn +···+a1 x+a0 ∈Kn [x] an xn + · · · + a1 x + a0 = an · xn + · · · + a1 · x + a0 · 1.

7. Em R2 , considerem-se os vectores

(1, 0), (0, 1), (−1, 3), (−3, 4).

Tem-se

R2 = (1, 0), (0, 1), (−1, 3), (−3, 4)




122

R2 = (1, 0), (0, 1), (−1, 3)



R2 = (1, 0), (0, 1)



(1, 0) = {(x, 0) : x ∈ R} $ R2 .

Exercı́cio 4.10 No espaço vectorial real R3 considere as sequências de vectores


   
S1 = (1, 0, 1), (0, 1, 1), (2, −1, 1) e S2 = (1, 0, 1), (0, 1, 1), (2, −1, 1), (0, 0, 1) .

(a) Diga, justificando, se


(i) (1, −1, 2) é combinação linear de S1 ;
(ii) (1, −1, 0) é combinação linear de S1 .
(b) (i) Verifique que S2 é uma sequência geradora de R3 ;
(ii) Caso seja possı́vel, escreva de duas maneiras diferentes o vector (1, 2, 3)
como combinação linear de S2 .

Exercı́cio 4.11 No espaço vectorial real R2 [x] considere a sequência de vectores



S = x2 + 1, x + 1, 2x2 − x + 1 .

(a) Averigúe se x2 − x + 2 é combinação linear de S.


(b) Mostre que x2 − x é combinação linear de S.
(c) Caso seja possı́vel, escreva de duas maneiras diferentes o vector x2 − x como
combinação linear de S.
(d) Determine os valores de k ∈ R para os quais o polinómio 3x2 − 5x + k é
combinação linear de S.

  
α1 α1 + α2
Exercı́cio 4.12 Seja G = : α1 , α 2 ∈ R .
−α2 0

(a) Mostre que G é subespaço vectorial de M2×2 (R) e determine uma sequência
geradora de G.
(b) Indique uma matriz invertı́vel que pertença a G. Justifique.
(c) Indique duas matrizes não invertı́veis que pertençam a G. Justifique.

Definição 4.20 Um espaço vectorial E diz-se finitamente gerado ou de dimensão


finita se existem r ∈ N e u1 , . . . , ur ∈ E tais que

E = hu1 , . . . , ur i.

Note que de todos os espaços vectoriais que temos referido até agora, o único que não é
de dimensão finita é K[x] (conjunto dos polinómios, na variável x, com coeficientes em K,
sem restrição ao grau).

De facto, se K[x] tivesse dimensão finita existiria r ∈ N e polinómios p1 (x), . . . , pr (x) ∈ K[x]
tais que qualquer polinómio de K[x] se poderia escrever como combinação linear de
p1 (x), . . . , pr (x), isto é, K[x] = hp1 (x), . . . , pr (x)i.
123

Seja k o máximo grau dos polinómios p1 (x), . . . , pr (x). Constatamos facilmente que
qualquer polinómio com grau superior a k não se pode escrever como combinação linear dos
polinómios p1 (x), . . . , pr (x) e, portanto,

hp1 (x), . . . , pr (x)i $ K[x] (contradição).

O resultado seguinte dá-nos um processo para concluir quando duas sequências de vec-
tores de um espaço vectorial E geram o mesmo subespaço.

Proposição 4.21 Seja E um espaço vectorial e sejam u1 , . . . , ur e v1 , . . . , vs vectores de E.


Tem-se
hu1 , . . . , ur i = hv1 , . . . , vs i

se, e só se, para todo i ∈ {1, . . . , r}, ui é combinação linear dos vectores v1 , . . . , vs e para
todo j ∈ {1, . . . , s}, vj é combinação linear dos vectores u1 , . . . , ur .

Demonstração:
Suponhamos que
hu1 , . . . , ur i = hv1 , . . . , vs i.

Como, para todo i ∈ {1, . . . , r}, se tem

ui ∈ hu1 , . . . , ur i = hv1 , . . . , vs i

concluı́mos que ui é combinação linear dos vectores v1 , . . . , vs .

Analogamente, como para todo j ∈ {1, . . . , s}, se tem

vj ∈ hv1 , . . . , vs i = hu1 , . . . , ur i

concluı́mos que vj é combinação linear dos vectores u1 , . . . , ur .

Reciprocamente, suponhamos que, para todo i ∈ {1, . . . , r}, ui é combinação linear


dos vectores v1 , . . . , vs e para todo j ∈ {1, . . . , s}, vj é combinação linear dos
vectores u1 , . . . , ur . Então

u1 ∈ hv1 , . . . , vs i
..
.
ur ∈ hv1 , . . . , vs i

e como hv1 , . . . , vs i é um subespaço podemos afirmar que

∀α1 ,...,αr ∈K α1 u1 + · · · + αr ur ∈ hv1 , . . . , vs i.


124

Concluı́mos então que

∀u∈hu1 ,...,ur i u ∈ hv1 , . . . , vs i

e, portanto,
hu1 , . . . , ur i ⊆ hv1 , . . . , vs i.

Seguindo um raciocı́nio idêntico, partindo de

v1 ∈ hu1 , . . . , ur i
..
.
vs ∈ hu1 , . . . , ur i

concluirı́amos que
hv1 , . . . , vs i ⊆ hu1 , . . . , ur i.

Tem-se, pois,
hu1 , . . . , ur i = hv1 , . . . , vs i.

Atendendo ao resultado anterior concluı́mos facilmente que

Proposição 4.22 Se u1 , . . . , ur são vectores de um espaço vectorial E e existe i ∈ {1, . . . , r}


tal que ui é combinação linear dos restantes r − 1 vectores então

hu1 , . . . , ui−1 , ui , ui+1 , . . . , ur i = hu1 , . . . , ui−1 , ui+1 , . . . , ur i.

Demonstração:
Exercı́cio.


Exercı́cio 4.13 Seja F = (a, b, c, d, e) ∈ R5 : b − c = 0 ∧ a = b + d .

(a) Mostre que F é subespaço vectorial de R5 e determine uma sequência ge-


radora de F .


(b) Diga, justificando, se F = (2, 1, 1, 1, 1), (0, 1, 1, −1, 0) .
(c) Indique um vector (α1 , α2 , α3 , α4 , α5 ) ∈ R5 \ F , tal que α2 = α3 .

Exercı́cio 4.14 Considere no espaço vectorial real R3 os vectores:

u1 = (1, 1, 2), u2 = (0, 0, 1), u3 = (−1, −1, −1);

v1 = (1, 1, 1), v2 = (1, 1, 0), v3 = (1, 0, 0).


Mostre que hu1 , u2 , u3 i $ hv1 , v2 , v3 i.
125

Exercı́cio 4.15 Considere no espaço vectorial real R3 os três vectores u1 = (−1, 1, 1),
u2 = (0, 2, 0), u3 = (1, 1, −1) e o subespaço F = hu1 , u2 , u3 i.

(a) Dê exemplo de vectores v1 , v2 ∈ F \ {u1 , u2 , u3 }.


(b) Mostre que (u1 , u2 ) é uma sequência geradora de F .
(c) Indique uma sequência geradora de F que contenha quatro vectores distin-
tos.
(d) Dê exemplo de um vector v ∈ R3 \ F .

Exercı́cio 4.16 (a) Sejam a, b, c ∈ R. Mostre que o sistema de equações lineares nas
incógnitas x, y, z sobre R 8
< x+y+z =a
x + 2y + 3z = b
:
x + 3y + 2z = c

é possı́vel.

(b) Deduza da alı́nea (a) que o espaço vectorial real M3×1 (R) é gerado pelos
vectores 2 3 2 3 2 3
1 1 1
4 1 5, 4 2 5 e 4 3 5.
1 3 2

Note que, em particular, se uma sequência de vectores de E inclui o vector 0E , tal vector
pode ser “eliminado” da sequência que o subespaço gerado por esses vectores não se altera.

Ainda como consequência da Proposição 4.21, podemos afirmar que existem “trans-
formações” que podemos efectuar nos vectores de uma sequência garantindo que não al-
teramos o subespaço gerado por esses vectores. Nomeadamente, tem-se

Proposição 4.23 Seja S = (u1 , . . . , ur ) uma sequência de vectores de um espaço vectorial


E e seja S 0 = (u01 , . . . , u0r ) uma sequência que se obtenha de S efectuando um número finito
de transformações dos seguintes tipos:

(I) Troca de ordem na sequência dos vectores ui e uj , com i 6= j.

(II) Multiplicação do vector ui , i ∈ {1, . . . , r}, por α ∈ K \ {0}.

(III) Substituição do vector ui , i ∈ {1, . . . , r}, por ui + βuj , com j ∈ {1, . . . , r}, j 6= i e
β ∈ K.

Então
hu1 , . . . , ur i = hu01 , . . . , u0r i.

Demonstração:
Exercı́cio.


126

De acordo com o resultado anterior, se tivermos m vectores de Kn e os tomarmos como


linhas de uma matriz A ∈ Mm×n (K), podemos efectuar na matriz quaisquer transformações
elementares sobre linhas, em número finito, que o subespaço (de Kn ) gerado pelas linhas não
se altera, isto é, se
A −−−−−−−→ A0
(linhas)

então o subespaço gerado pelas linhas da matriz A é igual ao subespaço gerado pelas linhas
da matriz A0 .

Em particular, podemos transformar A numa matriz A0 em forma de escada e garantir


que as linhas não nulas de A0 geram o mesmo subespaço de Kn que as linhas da matriz A.

Mais tarde veremos como proceder de forma idêntica partindo de m vectores que não
sejam de Kn .

4.3 Dependência e independência linear

Dado um espaço vectorial E, um dos nossos objectivos nesta secção vai ser a determinação
de uma sequência de geradores de E com um número mı́nimo de elementos.

Definição 4.24 Seja E um espaço vectorial. Sejam u1 , . . . , ur , com r ≥ 2, elementos


de E. Dizemos que (u1 , . . . , ur ) é uma sequência linearmente dependente, ou que
os vectores u1 , . . . , ur são linearmente dependentes, se pelo menos um dos vectores da
sequência é combinação linear dos restantes r − 1 vectores.
Caso contrário, isto é, se nenhum dos vectores da sequência é combinação linear dos
restantes r − 1 vectores dizemos que a sequência (u1 , . . . , ur ) é linearmente inde-
pendente ou ainda que os vectores u1 , . . . , ur são linearmente independentes.
Para r = 1, tem-se (u1 ) é linearmente independente se, e só se, u1 6= 0E .

O resultado seguinte é de grande importância.

Teorema 4.25 (Critério de Independência Linear) Seja E um espaço vectorial sobre


K e sejam u1 , . . . , ur vectores de E. Os vectores u1 , . . . , ur são linearmente independentes
se, e só se, a única forma de escrever 0E como combinação linear dos vectores u1 , . . . , ur é
tomando todos os coeficientes da combinação linear iguais a zero, isto é, se, e só se,

α1 u1 + · · · + αr ur = 0E =⇒ α1 = · · · = αr = 0.
127

Tal equivale a afirmar que os vectores u1 , . . . , ur são linearmente dependentes se, e só se,
existem α1 , . . . , αr ∈ K não todos nulos tais que

α1 u1 + · · · + αr ur = 0E .

Demonstração:
Suponhamos que u1 , . . . , ur são linearmente dependentes.

Se r = 1 então, por definição, u1 = 0E . Logo, tomando qualquer α ∈ K \ {0}


tem-se αu1 = 0E .

Se r ≥ 2 então existe i ∈ {1, . . . , r} tal que ui é combinação linear dos restantes


r − 1 vectores. Sejam α1 , . . . , αi−1 , αi+1 , . . . , αr ∈ K tais que

ui = α1 u1 + · · · + αi−1 ui−1 + αi+1 ui+1 + · · · + αr ur .

Como

α1 u1 + · · · + αi−1 ui−1 + (−1)ui + αi+1 ui+1 + · · · + αr ur = 0E

concluı́mos que existem α1 , . . . , αr ∈ K, não todos nulos tais que

α1 u1 + · · · + αr ur = 0E .

Reciprocamente, suponhamos que existem β1 , . . . , βr ∈ K, não todos nulos tais


que
β1 u1 + · · · + βr ur = 0E .

Se r = 1 tem-se β1 u1 = 0E com β1 6= 0. Logo, pela Proposição 4.5, u1 = 0E e,


portanto, u1 é linearmente dependente.

Consideremos agora r ≥ 2. Seja j ∈ {1, . . . , r} tal que βj 6= 0. De

β1 u1 + · · · + βj−1 uj−1 + βj uj + βj+1 uj+1 + · · · + βr ur = 0E

obtemos

βj uj = (−β1 )u1 + · · · + (−βj−1 )uj−1 + (−βj+1 )uj+1 + · · · + (−βr )ur ,

ou ainda,

uj = (−βj −1 β1 )u1 +· · ·+(−βj −1 βj−1 )uj−1 +(−βj −1 βj+1 )uj+1 +· · ·+(−βj −1 βr )ur .

Logo, uj é combinação linear dos vectores u1 , . . . , uj−1 , uj+1 , . . . , ur e, portanto,


os vectores u1 , . . . , ur são linearmente dependentes.

Exemplo 4.26 Em relação ao Exemplo 4.19 tem-se:


128

1. Em R3 , a sequência (1, 0, 0), (0, 1, 0), (0, 0, 1) é linearmente independente.




2. Em Kn , a sequência (e1 , . . . , en ) é linearmente independente.

3. Em Mm×n (K), a sequência (E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn ) é
linearmente independente.

4. No espaço vectorial F = (a, b, c) ∈ R3 : a = 2b + c , a sequência (2, 1, 0), (1, 0, 1) é


 

linearmente independente.

5. Em Kn [x], a sequência (xn , xn−1 , . . . , x, 1) é linearmente independente.

6. Em R2 ,

(1, 0), (0, 1), (−1, 3), (−3, 4) é uma sequência linearmente dependente.

(1, 0), (0, 1), (−1, 3) é uma sequência linearmente dependente.

(1, 0), (0, 1) é uma sequência linearmente independente.

(1, 0) é uma sequência linearmente independente.

Exercı́cio 4.17 Seja E um espaço vectorial e u1 , . . . , ur , v1 , . . . , vs vectores de E. Jus-


tifique que:

(a) Qualquer sequência que inclui o vector 0E é linearmente dependente.


(b) Se os vectores u1 , . . . , ur são linearmente dependentes então os vectores
u1 , . . . , ur , v1 , . . . , vs são linearmente dependentes.
(c) Se os vectores u1 , . . . , ur , v1 , . . . , vs são linearmente independentes então os
vectores u1 , . . . , ur são linearmente independentes.

Exercı́cio 4.18 No espaço vectorial real R3 considere as sequências de vectores


   
S1 = (1, −1, 1), (1, 1, 0) e S2 = (1, −1, 1), (1, 1, 0), (2, 0, 1) .

(a) Verifique quais das sequências são linearmente dependentes.


(b) Para cada sequência linearmente dependente, escreva um vector como com-
binação linear dos restantes.

Exercı́cio 4.19 No espaço vectorial real M3×1 (R) considere as sequências de vectores
02 3 2 31 02 3 2 3 2 31
1 1 1 1 2
S1 = @ 4 5
−1 , 4 1 5A e S2 = @ 4 5
−1 , 4 5
1 , 4 0 5A .
1 0 1 0 1

(a) Verifique quais das sequências são linearmente dependentes.


(b) Para cada sequência linearmente dependente, escreva um vector como com-
binação linear dos restantes.
129

Exercı́cio 4.20 No espaço vectorial real R2 [x] considere as sequências de vectores:

S1 = (x2 − x + 1, x2 + x) e S2 = (x2 − x + 1, x2 + x, 2x2 + 1).

(a) Verifique quais das sequências são linearmente dependentes.


(b) Para cada sequência linearmente dependente, escreva um vector como com-
binação linear dos restantes.

Exercı́cio 4.21 No espaço vectorial real M2×2 (R) considere as sequências de vectores
       
1 1 2 3 2 2 3 1
S1 = , , ,
1 1 1 2 1 1 2 1

e        
1 0 1 1 0 3 2 3
S2 = , , , .
0 2 2 1 2 1 4 3

(a) Verifique quais das sequências são linearmente dependentes.


(b) Para cada sequência linearmente dependente, escreva um vector como com-
binação linear dos restantes.

De acordo com o Critério de Independência Linear, os vectores u1 , . . . , ur ∈ E são line-


armente independentes se, e só se, o vector 0E se escreve de forma única como combinação
linear dos vectores u1 , . . . , ur . A proposição seguinte afirma que o resultado continua válido
substituindo 0E por qualquer vector que se possa escrever como combinação linear dos vec-
tores u1 , . . . , ur .

Proposição 4.27 Seja E um espaço vectorial e sejam u1 , . . . , ur vectores de E. Os vec-


tores u1 , . . . , ur são linearmente independentes se, e só se, para todo o vector que se possa
escrever como combinação linear de u1 , . . . , ur (isto é, vector de hu1 , . . . , ur i) os coeficientes
da combinação linear são únicos.

Demonstração:
Suponhamos que os vectores u1 , . . . , ur são linearmente independentes. Seja v ∈ E
tal que
v = α1 u1 + · · · + αr ur = β1 u1 + · · · + βr ur

com α1 , . . . , αr , β1 , . . . , βr ∈ K. Tem-se

(α1 + (−β1 ))u1 + · · · + (αr + (−βr ))ur = 0E ,

e como u1 , . . . , ur são linearmente independentes, pelo Critério de Independência


Linear, concluı́mos que

α1 + (−β1 ) = · · · = αr + (−βr ) = 0.

Logo
α1 = β1 ∧ · · · ∧ αr = βr
130

conforme pretendı́amos demonstrar.

Reciprocamente, suponhamos que, para todo o vector que se possa escrever como
combinação linear dos vectores u1 , . . . , ur , os coeficientes da combinação linear são
únicos. Demonstremos que

α1 u1 + · · · + αr ur = 0E =⇒ α1 = · · · = αr = 0.

De facto, tem-se

α1 u1 + · · · + αr ur = 0E = 0u1 + · · · + 0ur

e, como os coeficientes da combinação linear são únicos, concluı́mos que

α1 = 0 ∧ · · · ∧ αr = 0.

Tem-se, pois,
α1 = · · · = αr = 0

e, portanto, os vectores u1 , . . . , ur são linearmente independentes.

Na Proposição 4.23 vimos que existiam 3 tipos de “transformações” que podı́amos efec-
tuar nos vectores de uma sequência garantindo que não se alterava o subespaço gerado pelos
vectores da sequência.

O resultado seguinte garante que essas mesmas “transformações” não alteram a de-
pendência/independência linear dos vectores da sequência.

Proposição 4.28 Seja S = (u1 , . . . , ur ) uma sequência de vectores de um espaço vectorial


E e seja S 0 = (u01 , . . . , u0r ) uma sequência que se obtenha de S efectuando um número finito
de transformações dos tipos (I), (II), (III) descritos na Proposição 4.23.

Tem-se, S é linearmente dependente (respectivamente, independente) se, e só se, S 0 é


linearmente dependente (respectivamente, independente).

Demonstração:
Suponhamos que S = (u1 , . . . , ur ) é linearmente dependente, ou equivalentemente,
que existem α1 , . . . , αr ∈ K, não todos nulos, tais que

α1 u1 + · · · + αr ur = 0E .

O resultado fica demonstrado se considerarmos que S 0 é uma sequência que se


obtém de S efectuando uma única transformação do tipo (I), (II) ou (III) descritos
na Proposição 4.23.
131

Tipo (I). Trivial.

Tipo (II). Seja α ∈ K \ {0} e suponhamos que S 0 se obtém de S multiplicando o


vector ui por α. A igualdade

α1 u1 + · · · + αi−1 ui−1 + αi ui + αi+1 ui+1 + · · · + αr ur = 0E

é equivalente a

α1 u1 + · · · + αi−1 ui−1 + αi α−1 (αui ) + αi+1 ui+1 + · · · + αr ur = 0E .

Como αi = 0 se, e só se, αi α−1 = 0, concluı́mos que os escalares

α1 , . . . , αi−1 , αi α−1 , αi+1 , . . . , αr

não são todos nulos. Tal equivale a afirmar que a sequência

S 0 = (u1 , . . . , ui−1 , αui , ui+1 , . . . , ur )

é também linearmente dependente.

Tipo (III). Seja β ∈ K e suponhamos que S 0 se obtém de S substituindo o vector


ui pelo vector ui + βuj , j 6= i. Tem-se

α1 u1 + · · · + αr ur = 0E

se, e só se,

α1 u1 +· · ·+αi−1 ui−1 +αi (ui +βuj )+αi+1 ui+1 +· · ·+(αj −αi β)uj +· · ·+αr ur = 0E

em que os coeficientes desta combinação linear são os mesmos que na anterior


excepto para o vector uj .

Demonstremos que afirmar que os escalares α1 , . . . , αr não são todos nulos equivale
a afirmar que os escalares

α1 , . . . , αi , . . . , αj − αi β, . . . , αr

não são todos nulos. De facto, se existe k ∈ {1, . . . , r}, com k 6= j, tal que αk 6= 0
então o resultado é trivial.

Caso contrário, isto é, se αk = 0 para todo k ∈ {1, . . . , r}, com k 6= j, então αj 6= 0
e como αi = 0 concluı́mos que

αj 6= 0 se, só se, αj − αi β 6= 0.


132

4.4 Sequências geradoras e sequências independentes

Observemos que, em R2 , se tem:

(1, 0), (0, 1) é uma sequência geradora de R2 e é linearmente independente.




(1, 0), (0, 1), (−1, 3) é uma sequência geradora de R2 mas não é linearmente indepen-


dente.

(1, 1), (2, 2) não é geradora de R2 e não é linearmente independente.




(1, 1) não é geradora de R2 mas é linearmente independente.




Assim, podem ocorrer todos os 4 casos resultantes de se verificarem ou não, para uma
dada sequência, as propriedades de gerar um espaço ou de ser linearmente independente.

Contudo, tem-se o importante resultado.

Teorema 4.29 Num espaço vectorial E finitamente gerado qualquer sequência geradora de
E tem um número de vectores superior ou igual ao número de vectores de qualquer sequência
linearmente independente.

Demonstração:
Seja (u1 , . . . , ur ) uma sequência linearmente independente de vectores de E e
(v1 , . . . , vs ) uma sequência geradora de E. Pretendemos demonstrar que

s ≥ r.

Suponhamos que s < r e cheguemos a uma contradição.

Como
E = hv1 , . . . , vs i e u1 , . . . , ur ∈ E

existem escalares aij ∈ K, i = 1, . . . , s, j = 1, . . . , r, tais que

u1 = a11 v1 + · · · + as1 vs
..
.
ur = a1r v1 + · · · + asr vs .

Seja 2 3
a11 ··· a1r
6 7
A= 6 ··· 7 ∈ Ms×r (K).
4 5
as1 ··· asr
133

Como s < r o sistema homogéneo

AX = 0

é indeterminado. Seja (α1 , . . . , αr ) ∈ Kr uma solução não nula de tal sistema, isto
é,
2 32 3 2 3
a11 ··· a1r α1 0
6 76 7 6 7
6 76
6
. 7
7 = 6 .. 7
6 . 7,
4 ··· 54 .. 5 4 5
as1 ··· asr αr 0

ou equivalentemente,

 a11 α1

 + ··· + a1r αr = 0
··· .


as1 α1 + ··· + asr αr = 0

Tem-se

α1 u1 + · · · + αr ur = α1 (a11 v1 + · · · + as1 vs ) + · · · + αr (a1r v1 + · · · + asr vs )


= (α1 a11 + · · · + αr a1r )v1 + · · · + (α1 as1 + · · · + αr asr )vs
= (a11 α1 + · · · + a1r αr )v1 + · · · + (as1 α1 + · · · + asr αr )vs
= 0v1 + · · · + 0vs = 0E .

Como (α1 , . . . , αr ) 6= (0, . . . , 0), pelo Critério de Independência Linear, chegamos


a uma contradição com a hipótese de (u1 , . . . , ur ) ser uma sequência linearmente
independente.

Nesta secção estamos particularmente interessados nas sequências geradoras de um espaço


vectorial E que são simultaneamente linearmente independentes.

Definição 4.30 Seja E um espaço vectorial e (u1 , . . . , un ) uma sequência de vectores


de E. Dizemos que (u1 , . . . , un ) é uma base de E se é uma sequência geradora de E
e linearmente independente.
Convenciona-se que se E = {0E } então o conjunto vazio é base de E.

De acordo com o teorema anterior se tivermos uma sequência geradora de E e preten-


dermos construir, a partir dela, uma base de E, não poderá ser “acrescentando” vectores
à sequência. Eventualmente será “eliminando” vectores da sequência (não “eliminando”
nenhum vector, se a sequência já for linearmente independente). Contudo, os vectores a
134

“eliminar” não poderão ser ao acaso, porque teremos de garantir que os que permanecem na
sequência continuam a gerar E.

A Proposição 4.22 responde a esse problema, pois afirma que se eliminarmos apenas
vectores que sejam combinação linear dos restantes vamos obtendo sequências que são ainda
geradoras de E.

Notemos que, procedendo dessa forma, quando já não houver na sequência nenhum vector
que seja combinação linear dos restantes, podemos afirmar que a sequência, além de geradora
de E, é também linearmente independente e, portanto, é uma base de E.

Podemos pois afirmar que:

Teorema 4.31 Se S = (v1 , . . . , vs ) é uma sequência geradora de um espaço vectorial E


então existe uma subsequência de S que é uma base de E.

Ainda como consequência do Teorema 4.29, tem-se:

Teorema 4.32 Se um espaço vectorial E admite uma base com n elementos então todas as
bases de E têm n elementos.

Demonstração:
Suponhamos que

B = (u1 , . . . , un ) e B 0 = (v1 , . . . , vp )

são bases arbitrárias de E.

Como B é uma sequência geradora de E e B 0 é uma sequência linearmente inde-


pendente, pelo Teorema 4.29, concluı́mos que

n ≥ p.

Por outro lado, como B 0 é uma sequência geradora de E e B é uma sequência


linearmente independente, concluı́mos que

p ≥ n.

Logo
p = n.


135

Definição 4.33 Seja E um espaço vectorial. Se uma base de E (e, portanto todas)
tem n elementos dizemos que E tem dimensão n e escrevemos dim E = n.

Note que, como convencionámos que o conjunto vazio é base de E = {0E } então, neste
caso, dim E = 0.

Exemplo 4.34 1. dim Kn = n.

2. dim Mm×n (K) = mn.

3. dim Kn [x] = n + 1.

4. Se D é o conjunto das matrizes diagonais de Mn×n (K) então

dim D = n.

5. Se T é o conjunto das matrizes triangulares superiores de Mn×n (K) então


n(n + 1)
dim T = n + (n − 1) + (n − 2) + · · · + 1 = .
2

6. C é um espaço vectorial sobre C, mas também é um espaço vectorial sobre R. No primeiro


caso, a sua dimensão é 1 e no segundo caso é 2. (Porquê?) Escrevemos então

dimC C = 1 e dimR C = 2.



Exercı́cio 4.22 No espaço vectorial real R3 considere o subespaço F = (2, 3, 3) . Indi-
que duas bases de F . Justifique a sua resposta.


Exercı́cio 4.23 Seja F = (a, b, c, d, e) ∈ R5 : b − c = 0 ∧ a = b + d um subespaço
5
vectorial de R . Determine uma base de F .

  
α1 α1 + α2
Exercı́cio 4.24 Seja G = : α1 , α 2 ∈ R um subespaço vectorial
−α2 0
de M2×2 (R). Determine uma base de G.

Vejamos agora como as matrizes nos podem ser muito úteis para determinar se uma
sequência de vectores de Kn é ou não linearmente independente e, no caso de não ser,
determinar uma sequência linearmente independente que gere o mesmo subespaço (de Kn )
que a sequência inicial.

Proposição 4.35 As linhas não nulas de uma matriz em forma de escada são linearmente
independentes.
136

Demonstração:
Seja A ∈ Mm×n (K) uma matriz em forma de escada e A0 uma matriz em forma
de escada reduzida, obtida de A efectuando um número finito de transformações
elementares sobre linhas.

De acordo com a Proposição 4.28 as linhas não nulas de A são linearmente inde-
pendentes se, e só se, as linhas não nulas de A0 são linearmente independentes.

Seja
2 3
0 ··· 0 a01k1 ∗ ··· ∗ 0 ∗ ··· ∗ 0 ∗ ··· ∗
6 7
6 0 ··· 0 0 0 ··· 0 a02k2 ∗ ··· ∗ 0 ∗ ··· ∗ 7
6 7
6 7
6 ··· 7
6 7
6 7
0
A = 6 0 ··· 0 0 0 ··· 0 0 0 ··· 0 a0sks ∗ ··· ∗ 7
6 7
6 0 7
6 0 ··· 0 0 0 ··· 0 0 0 ··· 0 0 0 ··· 7
6 7
6 .. .. 7
6 . . 7
4 5
0 ··· 0 0 0 ··· 0 0 0 ··· 0 0 0 ··· 0

com a01k1 = a02k2 = · · · = a0sks = 1.

Sejam u1 , . . . , us as linhas 1, . . . , s, respectivamente, de A0 . Se α1 , . . . , αs ∈ K são


tais que
α1 u1 + · · · + αs us = 0Kn

então, igualando a ki -ésima componente, i = 1, . . . , s, em ambos os n-uplos, con-


cluı́mos que
α1 = · · · = αs = 0.

Logo, pelo Critério de Independência Linear, u1 , . . . , us são linearmente indepen-


dentes.

De acordo com a Proposição 4.23 se tivermos vectores de E = Kn que geram um deter-


minado espaço vectorial F , se considerarmos uma matriz A cujas linhas são tais vectores e se
A0 se obtém de A efectuando um número finito de transformações elementares sobre linhas
então podemos afirmar que as linhas de A0 geram o mesmo espaço vectorial F .

Se A0 estiver em forma de escada então obtemos uma base de F considerando uma


sequência cujos únicos elementos sejam as linhas não nulas de A0 .

Resumidamente, se
v1 , . . . , vs ∈ Kn

e
F = hv1 , . . . , vs i,
137

então considerando
A ∈ Ms×n (K) cuja linha i é vi , i = 1, . . . , s,

e
A −−−−−−−→ A0 em forma de escada
(linhas)

então dim F = r(A) e uma base de F é uma sequência que tenha como únicos elementos as
linhas não nulas de A0 (ou ∅ se A0 = 0).

Exemplo 4.36 Consideremos o subespaço de R3


D E
G = (1, −1, 0), (0, 1, 4), (2, −1, 4)

e determinemos uma base de G. Tem-se


2 3 2 3 2 3
1 −1 0 1 −1 0 1 −1 0
6 7−−−−−−−→6 7−−−−−−−→6 7
A=6
4 0 1 4 7 6
5l3 + (−2)l1 4 0 1 4 7 6
5l3 + (−1)l2 4 0 1 4 7
5 (f.e.).
2 −1 4 0 1 4 0 0 0

Logo
D E
G = (1, −1, 0), (0, 1, 4), (2, −1, 4)
D E
= (1, −1, 0), (0, 1, 4), (0, 1, 4)
D E
= (1, −1, 0), (0, 1, 4), (0, 0, 0)
D E
= (1, −1, 0), (0, 1, 4) .

Como a sequência (1, −1, 0), (0, 1, 4) é geradora de G e é linearmente independente (note
que os elementos da sequência são as linhas não nulas de uma matriz em forma de escada)
então tal sequência é uma base de G, tendo-se dim G = 2.

Exercı́cio 4.25 Considere em R5 o vector u = (5, 1, −1, −2, −4) e, para cada k ∈ R, os
seguintes vectores vk = (1, 0, k, −1, 2k) e wk = (3, 1, −k, 0, 0). Determine os valores de k
para os quais a sequência (u, vk , wk ) é linearmente independente.

Anteriormente considerámos o problema de dada uma sequência geradora de um espaço


vectorial obtermos, a partir dela, uma base desse espaço.

Consideremos agora o caso de termos uma sequência linearmente independente de vec-


tores de um espaço vectorial e pretendermos, a partir dela, obter uma base desse espaço.

Recordando o Teorema 4.29 não poderá ser “eliminando” vectores da sequência. Even-
tualmente será “acrescentando” vectores à sequência (não acrescentando nenhum vector se
a sequência já for geradora).
138

Os vectores a “acrescentar” não poderão ser quaisquer, pois temos de garantir que a nova
sequência continuará linearmente independente. Sabemos que se tivermos vectores u1 , . . . , ur
linearmente independentes e “acrescentarmos” um vector v que seja combinação linear de
u1 , . . . , ur então, por definição, os vectores u1 , . . . , ur , v são linearmente dependentes. Mas,
tal não significa que se “acrescentarmos” um vector v que não seja combinação linear de
u1 , . . . , ur então u1 , . . . , ur , v sejam linearmente independentes.

O resultado seguinte afirma que tal é verdadeiro.

Proposição 4.37 Seja E um espaço vectorial e sejam u1 , . . . , ur vectores de E linearmente


independentes. Se v ∈ E é tal que v não é combinação linear dos vectores u1 , . . . , ur então

u1 , . . . , ur , v são linearmente independentes

e
hu1 , . . . , ur i $ hu1 , . . . , ur , vi.

Demonstração:
Dado que a última afirmação do enunciado é trivial, demonstremos apenas que
se v não é combinação linear dos vectores u1 , . . . , ur , linearmente independentes,
então u1 , . . . , ur , v são linearmente independentes.

Suponhamos que

u1 , . . . , ur são linearmente independentes,

v não é combinação linear dos vectores u1 , . . . , ur ,

u1 , . . . , ur , v são linearmente dependentes,

e cheguemos a uma contradição.

Se u1 , . . . , ur , v são linearmente dependentes então, pelo Critério de Independência


Linear, existem escalares α1 , . . . , αr , αr+1 ∈ K não todos nulos, tais que

α1 u1 + · · · + αr ur + αr+1 v = 0E .

Tem-se
αr+1 = 0 ou αr+1 6= 0.

Se αr+1 = 0 então
α1 u1 + · · · + αr ur = 0E

e, como u1 , . . . , ur são linearmente independentes, concluı́mos que

α1 = · · · = αr = 0.
139

Logo
α1 = · · · = αr = αr+1 = 0

o que é uma contradição com o facto de os escalares α1 , . . . , αr , αr+1 não serem


todos nulos.

Se αr+1 6= 0 então, de

α1 u1 + · · · + αr ur + αr+1 v = 0E ,

resulta
αr+1 v = (−α1 )u1 + · · · + (−αr )ur ,

ou ainda,
−1 −1
v = (−αr+1 α1 )u1 + · · · + (−αr+1 αr )ur ,

que é de novo uma contradição com a hipótese de v não ser combinação linear dos
vectores u1 , . . . , ur .

Tem-se o seguinte resultado, que não demonstraremos, conhecido por Teorema do Com-
plemento ou Teorema da Base Incompleta.

Teorema 4.38 Se S = (u1 , . . . , ur ) é uma sequência linearmente independente de vectores


de um espaço vectorial E de dimensão n então existe uma base de E que tem S como
subsequência. Ou seja, existem vectores w1 , . . . , wn−r de E, com n − r ≥ 0, tais que

(u1 , . . . , ur , w1 , . . . , wn−r )

é uma base de E.

Os Teoremas 4.31 e 4.38 afirmam, pois, respectivamente que, se num espaço vectorial E de
dimensão n tivermos uma sequência S de vectores de E então:

S sequência geradora de E S 0 sequência com n vectores


−−−−−−−−−−−−−−−−→
1. com s vectores “eliminar” (∗) que é base de E
s − n vectores de S
(s ≥ n)
(∗) Em cada uma das s − n etapas de “eliminação” de um vector, o vector a “eliminar”
é um vector que seja combinação linear dos restantes.
140

S linearmente independente S 00 sequência com n vectores


−−−−−−−−−−−−−−−→
2. com r vectores “acrescentar” (∗∗) que é base de E
n − r vectores a S
(n ≥ r)
(∗∗) Em cada uma das n − r etapas de “acrescentar” um vector a uma sequência, o
vector a “acrescentar” é um vector de E que não seja combinação linear dos restantes.

O resultado seguinte estabelece que se já conhecermos a dimensão de um espaço vectorial


E e tivermos uma sequência de vectores de E com número de vectores igual à dimensão de E
então, para demonstrar que é base, basta demonstrar que se verifica uma só das propriedades:
ser geradora de E ou ser linearmente independente.

Teorema 4.39 Seja E um espaço vectorial de dimensão n. Tem-se:

1. Qualquer sequência geradora de E com n vectores é uma base de E.

2. Qualquer sequência linearmente independente de n vectores de E é uma base de E.

Demonstração:
1. Sejam u1 , . . . , un ∈ E tais que

E = hu1 , . . . , un i.

De acordo com o Teorema 4.31 existe uma subsequência S 0 de S = (u1 , . . . , un )


que é uma base de E. Como todas as bases de E têm n elementos, concluı́mos que
S 0 = S. Logo S = (u1 , . . . , un ) é uma base de E.

2. Se S = (u1 , . . . , un ) é uma sequência linearmente independente de n vectores


de E então, de acordo com o Teorema 4.38, S é subsequência de uma sequência
S 00 que é uma base de E. Como todas as bases de E têm n elementos concluı́mos
que S 00 = S e, portanto, S é uma base de E.

Se E e E 0 são espaços vectoriais tais que E = E 0 então dim E = dim E 0 . Mas, existem
obviamente espaços vectoriais que têm a mesma dimensão e não são iguais. Por exemplo,

dim M2×3 (R) = dim M6×1 (R) = dim R6 = dim R5 [x] = 6.

O resultado seguinte afirma, em particular, que se dois espaços vectoriais E e E 0 têm a


mesma dimensão e um deles é subespaço do outro então são iguais.
141

Proposição 4.40 Seja E um espaço vectorial de dimensão finita. Tem-se:

1. Se F é um subespaço de E então dim F ≤ dim E.

2. Se F é um subespaço de E e dim F = dim E então F = E.

Demonstração:
1. Suponhamos que F é subespaço de E com r = dim F > dim E = n e cheguemos
a uma contradição.

Se (u1 , . . . , ur ) é uma base de F então, como ui ∈ F ⊆ E, i = 1, . . . , r, con-


cluı́mos que (u1 , . . . , ur ) é uma sequência linearmente independente de vectores de
E. Então existia em E uma sequência linearmente independente com um número
de vectores (r) superior ao de uma sequência geradora (n) de E, o que é uma
contradição, pelo Teorema 4.29.

2. Suponhamos que F é um subespaço de E e que dim F = dim E = n.

Seja (v1 , . . . , vn ) uma base de F . Então (v1 , . . . , vn ) é uma sequência linearmente


independente de vectores de F e como F ⊆ E, (v1 , . . . , vn ) é uma sequência line-
armente independente de vectores de E.

Mas, como dim E = n, pelo Teorema 4.39, podemos afirmar que (v1 , . . . , vn ) é uma
base de E. Logo
E = hv1 , . . . , vn i.

Como
F = hv1 , . . . , vn i

concluı́mos que
F = E.

Exemplo 4.41 1. Vejamos um exemplo de, como a partir de uma sequência linearmente
independente de vectores de R4 podemos obter uma base de R4 .

Considere-se a sequência de vectores de R4


 
S = (1, 4, 3, 6), (0, 0, 0, 2), (2, 8, 1, 3) .

Tal sequência é linearmente independente se, e só se,


2 3
1 4 3 6
6 7
r 6
4 0 0 0 2 7
5
 = 3.
2 8 1 3
142

Como
2 3 2 3 2 3
1 4 3 6 1 4 3 6 1 4 3 6
6 7−−−−−−−→6 7−−−−−−→6 7
6 0 2 7 6 2 7 6 −9 7 (f.e.)
4 0 0 5l3 + (−2)l1 4 0 0 0 5l2 ←→ l3 4 0 0 −5 5
2 8 1 3 0 0 −5 −9 0 0 0 2

concluı́mos que S é linearmente independente.

Constatamos facilmente que se acrescentarmos à sequência S, por exemplo, o vector


(0, 1, 0, 0) obtemos ainda uma sequência linearmente independente. Basta atender a que
se tem
2 3 2 3 2 3
1 4 3 6 1 4 3 6 1 4 3 6
6 7 6 7 6 7
6 0 2 7 6 −9 7 6 0 7
6 0 0 7−−−−−−→6 0 0 −5 7−−−−−−→6 0 1 0 7
B= 6
6 2
7 (linhas) 6 7 (linhas) 6 7 (f.e.)
4 8 1 3 7
5
6 0
4 0 0 2 7
5
6 0
4 0 −5 −9 7
5
0 1 0 0 0 1 0 0 0 0 0 2

e
r(B) = 4.

Como a sequência
 
(1, 4, 3, 6), (0, 0, 0, 2), (2, 8, 1, 3), (0, 1, 0, 0)

é linearmente independente e tem 4 = dim(R4 ) vectores, pelo Teorema 4.39, é uma base
de R4 .

2. Seja
D E
F = (1, 4, 3, 6), (0, 0, 0, 2), (2, 8, 1, 3) .

Como vimos em 1., a sequência (1, 4, 3, 6), (0, 0, 0, 2), (2, 8, 1, 3) é linearmente indepen-
dente e, portanto,
 
Base de F = (1, 4, 3, 6), (0, 0, 0, 2), (2, 8, 1, 3) .

Determinemos se (1, 4, −2, −3) ∈ F , utilizando matrizes.

Note que (1, 4, −2, −3) ∈ F se, só se, (1, 4, −2, −3) se pode escrever como combinação
linear dos vectores (1, 4, 3, 6), (0, 0, 0, 2), (2, 8, 1, 3) ou equivalentemente, se, e só se, as
matrizes 2 3
2 3 1 4 3 6
1 4 3 6 6 7
6 7 6 0 2 7
6 0 6 0 0 7
A= 4 0 0 2 7
5 e C= 6 7
6 2 8 1 3 7
2 8 1 3 4 5
1 4 −2 −3

têm a mesma caracterı́stica.


143

Vimos em 1. que r(A) = 3 e, como


2 3 2 3 2 3
1 4 3 6 1 4 3 6 1 4 3 6
6 7 6 7 6 7
6 0 2 7−−−−−−→6 0 2 7 6 0 −5 −9 7
C =6 7l3 +(−2)l1 6 7 6 7−
0 0 0 0 −− −−−−→ 0
6 7l4 +(−1)l1 6 7l2 ←→ l4 6 7→
6 2 8 1 3 7 6 0 0 −5 −9 7 6 0 0 −5 −9 7
4 5 4 5 4 5
1 4 −2 −3 0 0 −5 −9 0 0 0 2
2 3 2 3
1 4 3 6 1 4 3 6
6 7 6 7
−−−−−−−→6 6 0 0 −5 −9 7
7−−−−−−→6 0
6 0 −5 −9 7
7
l3 + (−1)l2 6 7l3 ←→ l4 6 7 (f.e.),
6 0 0 0 0 7 6 0 0 0 2 7
4 5 4 5
0 0 0 2 0 0 0 0

concluı́mos que r(C) = 3 e, portanto,

(1, 4, −2, −3) ∈ F.

Exercı́cio 4.26 Considere, no espaço vectorial real R3 , a sequência de vectores


 
Sk = (1, 0, 2), (−1, 2, −3), (−1, 4, k) .

Determine os valores de k ∈ R para os quais Sk é uma base de R3 .

Exercı́cio 4.27 No espaço vectorial real R3 considere a sequência de vectores


 
S = (1, 1, 0), (2, 1, 0) .

(a) Verifique que S é linearmente independente.


(b) Indique uma base de R3 que contenha os vectores da sequência S.

Exercı́cio 4.28 No espaço vectorial real R4 considere o subespaço vectorial

F = h(1, 0, 1, 0), (−1, 1, 0, 1), (1, 1, 2, 1)i .

(a) Indique uma base de F .


(b) Verifique que (1, 2, 3, 2) ∈ F .
(c) Determine uma base de R4 à qual pertençam os vectores da base de F
indicada em (a).

As bases de um espaço vectorial E têm propriedades especiais como a seguidamente


referida.

Proposição 4.42 Seja E um espaço vectorial e sejam u1 , . . . , un vectores de E. Tem-se,


(u1 , . . . , un ) é uma base de E se, e só se, todo o vector de E se escreve de modo único como
combinação linear dos vectores u1 , . . . , un .

Demonstração:
É uma consequência imediata da definição de base e da Proposição 4.27.


144

Definição 4.43 Seja E um espaço vectorial sobre K e (u1 , . . . , un ) uma base de E.


Para cada v ∈ E os escalares α1 , . . . , αn ∈ K, únicos, tais que

v = α1 u1 + · · · + αn un

dizem-se as coordenadas de v na base (u1 , . . . , un ) ou, mais correctamente, dizemos


que (α1 , . . . , αn ) é a sequência das coordenadas de v na base (u1 , . . . , un ).

1. (1, 0), (0, 1) é uma base de R2 . Se (a, b) ∈ R2 então, como



Exemplo 4.44

(a, b) = a(1, 0) + b(0, 1),

a sequência das coordenadas de (a, b) na base anterior é (a, b).

(0, 1), (1, 0) é também uma base de R2 . Em relação a essa base, como


(a, b) = b(0, 1) + a(1, 0),

a sequência das coordenadas de (a, b) é (b, a).

B = (−1, 1), (0, 1) é também uma base de R2 . Determinemos a sequência das coorde-


nadas de (a, b) em relação a essa base.

(a, b) = α1 (−1, 1) + α2 (0, 1)

= (−α1 , α1 ) + (0, α2 )

= (−α1 , α1 + α2 ).

Logo 
 −α = a
1
.
 α1 + α2 = b

Tem-se, pois, um sistema de equações lineares nas incógnitas α1 , α2 , cuja solução única é

(−a, a + b).

Assim a sequência das coordenadas do vector (a, b) na base B = (−1, 1), (0, 1) é
(−a, a + b).

2. O vector que em relação à base


 
B = (−1, 2, 3), (0, 3, 4), (0, 0, 5)
145

de R3 tem a sequência de coordenadas (7, −1, 4) é o vector

7(−1, 2, 3) + (−1)(0, 3, 4) + 4(0, 0, 5) = (−7, 14, 21) + (0, −3, −4) + (0, 0, 20)

= (−7, 11, 37).

Exercı́cio 4.29 Considere, no espaço vectorial real R4 , a base


 
B = (1, 0, 0, 0), (1, 1, 0, 0), (1, 1, 1, 0), (1, 1, 1, 1)

e a base canónica de R4
 
b. c.R4 = (1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1) .

(a) Determine a sequência das coordenadas do vector (4, 3, 2, 1) em cada uma


das bases B e b. c.R4 .
(b) Determine a sequência das coordenadas de um vector arbitrário (a, b, c, d) ∈
R4 em cada uma das bases B e b. c.R4 .

Exercı́cio 4.30 Considere, no espaço vectorial real M2×2 (R), as bases


       
1 0 1 1 1 1 1 1
B= , , ,
0 0 0 0 1 0 1 1

e        
1 0 0 1 0 0 0 0
B0 = , , , .
0 0 0 0 1 0 0 1
 
4 3
(a) Determine a sequência das coordenadas do vector em cada uma
2 1
das bases B e B0 .
(b) Determine
  a sequência das coordenadas de um vector arbitrário
a b
∈ M2×2 (R) em cada uma das bases B e B0 .
c d

Exercı́cio 4.31 Considere, no espaço vectorial real R3 [x], as bases



B = x3 , x3 + x2 , x3 + x2 + x, x3 + x2 + x + 1

e 
B0 = x3 , x2 , x, 1 .

(a) Determine a sequência das coordenadas do vector 4x3 + 3x2 + 2x + 1 em


cada uma das bases B e B0 .
(b) Determine a sequência das coordenadas de um vector arbitrário ax3 + bx2 +
cx + d ∈ R3 [x] em cada uma das bases B e B0 .


Exercı́cio 4.32 (a) Mostre que (1, 0, 0), (0, i, −1), (1, 0, 1 − i) é base do espaço vecto-
3
rial complexo C .

(b) Determine a sequência das coordenadas do vector (1, 1, 1) na base indicada


em (a).

Anteriormente vimos como utilizar as matrizes para resolver os seguintes problemas no


espaço vectorial
E = Kn .
146

• Determinar se uma sequência de vectores de E é linearmente independente.

• Construir uma base de E a partir de uma sequência de vectores geradora de E.

• Construir uma base de E a partir de uma sequência linearmente independente de


vectores de E.

• Determinar se um vector de E pertence ou não ao subespaço gerado por uma dada


sequência de vectores de E.

O que sucede se E 6= Kn ? Por exemplo, como resolver os problemas anteriores se

E = Kr [x] ou E = Mm×n (K)?

Notemos que, para qualquer espaço vectorial E de dimensão n, se fixarmos em E uma base
B então a “correspondência”
f : E −→ Kn

que a cada vector u ∈ E associa a sequência das coordenadas de u na base B é uma aplicação
bijectiva.

De facto, a Proposição 4.42 garante que f é uma aplicação e é bijectiva porque, qualquer
que seja (β1 , . . . , βn ) ∈ Kn existe um, e um só, u ∈ E tal que

f (u) = (β1 , . . . , βn ).

(Se B = (e1 , . . . , en ) então u = β1 e1 + · · · + βn en .)

Uma reflexão mais exaustiva sobre este tema permitir-nos-ia concluir que a resolução dos
quatro problemas anteriores envolvendo vectores de E = Kr [x] ou de E = Mm×n (K) pode
ser feita com vectores, respectivamente, de Kr+1 ou de Kmn utilizando as sequências das
coordenadas dos vectores em causa em relação a uma base fixa B de E.

O mesmo raciocı́nio pode ser seguido para qualquer espaço vectorial E de dimensão finita
e assim continuar a utilizar as matrizes para resolver os 4 problemas anteriores.

Exemplo 4.45 1. Em R3 [x], consideremos a sequência

S = x3 + 4x2 + 3x + 6, 2, 2x3 + 8x2 + x + 3 .




Verifiquemos que S é linearmente independente e determinemos uma base de R3 [x] que


tenha S como subsequência.
147

Considere-se em R3 [x] a base


B = x3 , x2 , x, 1 .


Em relação à base B, a sequência das coordenadas de:

x3 + 4x2 + 3x + 6 é (1, 4, 3, 6),


2 é (0, 0, 0, 2),
2x3 + 8x2 + x + 3 é (2, 8, 1, 3).

Como vimos no Exemplo 4.41 a sequência


 
S 0 = (1, 4, 3, 6), (0, 0, 0, 2), (2, 8, 1, 3)

é linearmente independente e o mesmo sucede à sequência


 
(1, 4, 3, 6), (0, 0, 0, 2), (2, 8, 1, 3), (0, 1, 0, 0) .

O elemento de R3 [x] que na base B = x3 , x2 , x, 1 tem a sequência de coordenadas




(0, 1, 0, 0) é 0x3 + 1x2 + 0x + 0 = x2 .

Assim,
S = x3 + 4x2 + 3x + 6, 2, 2x3 + 8x2 + x + 3


é linearmente independente e

x3 + 4x2 + 3x + 6, 2, 2x3 + 8x2 + x + 3, x2




é também linearmente independente. Como tem 4 = dim R3 [x] vectores é uma base de
R3 [x].

2. Seja E um espaço vectorial tal que

B = (e1 , e2 , e3 , e4 )

é uma base de E. Verifiquemos que a sequência

S = (e1 + e2 + e4 , 2e1 + 2e2 + e3 + e4 )

é linearmente independente e “completemos” essa sequência de forma a obter uma base


de E, isto é, determinemos uma base de E que tenha S como subsequência.

Em relação à base B a sequência das coordenadas de:

e1 + e2 + e4 é (1, 1, 0, 1),
2e1 + 2e2 + e3 + e4 é (2, 2, 1, 1).
148

Tem-se
" # " #
1 1 0 1 −−−−−−−→ 1 1 0 1
A= l2 + (−2)l1 (f.e.)
2 2 1 1 0 0 1 −1

com

r(A) = 2

e, portanto, a sequência S é linearmente independente.

Dado que
2 3 2 3 2 3
1 1 0 1 1 1 0 1 1 1 0 1
6 7 6 7 6 7
6 2 1 7− −−−−−−→ 6 0 −1 7 6 0 0 7
0 6 2 1 7 6 0 1 7−− −−−−→ 6 1 0 7
A = 6
6 0
7l2 + (−2)l1 6 7l2 ←→ l3 6 7 (f.e.)
4 1 0 0 7
5
6 0
4 1 0 0 7
5
6 0
4 0 1 −1 7
5
0 0 0 1 0 0 0 1 0 0 0 1

r(A0 ) = 4

podemos afirmar que


 
(1, 1, 0, 1), (2, 2, 1, 1), (0, 1, 0, 0), (0, 0, 0, 1)

é uma sequência linearmente independente.

O vector de E que, na base B = (e1 , e2 , e3 , e4 ), tem a sequência de coordenadas

(0, 1, 0, 0) é 0e1 + 1e2 + 0e3 + 0e4 = e2

e o que tem a sequência de coordenadas

(0, 0, 0, 1) é 0e1 + 0e2 + 0e3 + 1e4 = e4 .

Logo, (e1 + e2 + e4 , 2e1 + 2e2 + e3 + e4 , e2 , e4 ) é linearmente independente e como tem


4 = dim E vectores é uma base de E.

Exercı́cio 4.33 Sejam E um espaço vectorial real, (e1 , e2 , e3 , e4 , e5 ) uma base de E e

F = h2e1 − e3 , e3 + e5 , 2e1 + e3 + 2e5 i .

Diga, justificando, quais das seguintes sequências de vectores são base de F :

(a) (2e1 − e3 , e3 + e5 , 2e1 + e3 + 2e5 );


(b) (2e1 − e3 , e3 + e5 );
(c) (2e1 − e3 , e1 + e3 );
(d) (2e3 + 2e5 , −e3 − e5 ).
149

4.5 Bases do espaço soma de dois subespaços

Seja E um espaço vectorial e F e G subespaços de E. Sabemos que F + G é ainda um


subespaço de E. O resultado seguinte diz-nos como obter geradores para o subespaço F + G
conhecendo geradores para F e geradores para G.

Proposição 4.46 Seja E um espaço vectorial e F e G subespaços de E. Se u1 , . . . , ur ∈ F


e v1 , . . . , vs ∈ G são tais que

F = hu1 , . . . , ur i e G = hv1 , . . . , vs i

então
F + G = hu1 , . . . , ur , v1 , . . . , vs i.

Demonstração:
Por hipótese, tem-se

∀u∈F ∃α1 ,...,αr ∈K u = α1 u1 + · · · + αr ur

e
∀v∈G ∃β1 ,...,βs ∈K v = β1 v1 + · · · + βs vs .

Seja z ∈ F + G. Então
z = u + v,

com u ∈ F e v ∈ G.

Logo

z = (α1 u1 + · · · + αr ur ) + (β1 v1 + · · · + βs vs )
= α1 u1 + · · · + αr ur + β1 v1 + · · · + βs vs

e, portanto,
z ∈ hu1 , . . . , ur , v1 , . . . , vs i.

Demonstrámos, pois, que

F + G ⊆ hu1 , . . . , ur , v1 , . . . , vs i.

Reciprocamente, seja z ∈ hu1 , . . . , ur , v1 , . . . , vs i. Então, existem escalares


γ1 , . . . , γr , γr+1 , . . . , γr+s ∈ K tais que

z = γ1 u1 + · · · + γr ur + γr+1 v1 + · · · + γr+s vs
= (γ1 u1 + · · · + γr ur ) + (γr+1 v1 + · · · + γr+s vs ).
150

Como
(γ1 u1 + · · · + γr ur ) ∈ F e (γr+1 v1 + · · · + γr+s vs ) ∈ G

concluı́mos que z ∈ F + G.

Fica então demonstrado que

hu1 , . . . , ur , v1 , . . . , vs i ⊆ F + G,

concluindo a demonstração do que pretendı́amos.

Como consequência imediata do resultado anterior tem-se:

Corolário 4.47 Se F e G são subespaços de E com dimensão finita então F + G também


tem dimensão finita.

Seja F = (x, y, z) ∈ R3 : x = y + 2z e G = (1, 0, −1), (2, 0, 4), (0, 3, 1) .




Exemplo 4.48
Pretende-se uma base para F + G.

Tem-se

F = (x, y, z) ∈ R3 : x = y + 2z


= {(y + 2z, y, z) : y, z ∈ R} .

Como, para quaisquer y, z ∈ R, se tem

(y + 2z, y, z) = y(1, 1, 0) + z(2, 0, 1)

concluı́mos que
D E
F = (1, 1, 0), (2, 0, 1) .


Dado que G = (1, 0, −1), (2, 0, 4), (0, 3, 1) concluı́mos que
D E
F + G = (1, 1, 0), (2, 0, 1), (1, 0, −1), (2, 0, 4), (0, 3, 1) .

Para obter uma base de F + G procedemos como no Exemplo 4.41.


2 3 2 3 2 3
1 1 0 1 1 0 1 1 0
6 7 6 7 6 7
6 2 0 7
1 7−−−−−−→6 0 6 −2 7
1 7−−−−→6 06 −1 −1 7
6 7−
6 7l2 +(−2)l1 6 7l2 ←→l3 6 7→
6 1 0 −1 7l3 +(−1)l1 6 0 −1 −1 7 6 0 −2 1 7
6 7l4 +(−2)l1 6 7 6 7
6
4 2 0 4 7
5
6
4 0 −2 4 7
5
6
4 0 −2 4 7
5
0 3 1 0 3 1 0 3 1
2 3 2 3
1 1 0 1 1 0
6 7 6 7
−−−−−−→6 0 −1 −1 7 6 0 −1 −1 7
l3 +(−2)l2 6
6
7−−−−−−→6
7l4 +(−2)l3 6
7
7
l4 +(−2)l2 6 0 0 3 7 2 6 0 0 3 7
l5 +3l2 6 7 l5 +( 3 )l3 6 7
6 7 6
4 0 0 6 5 4 0 0 0 7
5
0 0 −2 0 0 0
151

Logo, uma base de F + G é


 
(1, 1, 0), (0, −1, −1), (0, 0, 3) .

Se F e G são subespaços de um espaço vectorial E então F + G e F ∩ G são ainda


subespaços de E.

O resultado seguinte relaciona as dimensões de todos esses subespaços quando F e G têm


dimensão finita.

Teorema 4.49 Se E é um espaço vectorial e F e G são subespaços de E de dimensão finita


então F + G e F ∩ G também têm dimensão finita e

dim(F + G) = dim F + dim G − dim(F ∩ G).

Demonstração:
Como F ∩ G é um subespaço de F (e de G) tem-se

dim(F ∩ G) ≤ dim F

e, portanto, F ∩ G tem dimensão finita.

Como F e G têm, por hipótese, dimensão finita podemos afirmar que existem
u1 , . . . , ur ∈ F e v1 , . . . , vs ∈ G tais que

F = hu1 , . . . , ur i e G = hv1 , . . . , vs i,

com r, s ∈ N.

De acordo com a Proposição 4.46 tem-se

F + G = hu1 , . . . , ur , v1 , . . . , vs i.

Como r + s ∈ N concluı́mos que F + G também tem dimensão finita.

Demonstremos que

dim(F + G) = dim F + dim G − dim(F ∩ G)

considerando três casos.

Caso 1: F ⊆ G ou G ⊆ F .
Se F ⊆ G então F + G = G e F ∩ G = F . Logo

dim(F + G) = dim G = dim F + dim G − dim F


= dim F + dim G − dim(F ∩ G).

Se G ⊆ F a demonstração é análoga.
152

Caso 2: F 6⊆ G e G 6⊆ F e F ∩ G = {0E }.
Neste caso tem-se F 6= {0E }. Caso contrário, ter-se-ia F = {0E } ⊆ G.
De igual forma se conclui que G 6= {0E }.
Assim
{0E } = F ∩ G $ F 6= {0E }

e
{0E } = F ∩ G $ G 6= {0E }.

Suponhamos que dim F = r, dim G = s,

(u1 , . . . , ur ) é uma base de F

e
(v1 , . . . , vs ) é uma base de G.

Como
F + G = hu1 , . . . , ur , v1 , . . . , vs i,

demonstremos que (u1 , . . . , ur , v1 , . . . , vs ) é linearmente independente.


Por hipótese (u1 , . . . , ur ) é linearmente independente e (v1 , . . . , vs ) é linear-
mente independente.
Sejam α1 , . . . , αr , β1 , . . . , βs ∈ K tais que

α1 u1 + · · · + αr ur + β1 v1 + · · · + βs vs = 0E .

Logo
α1 u1 + · · · + αr ur = (−β1 )v1 + · · · + (−βs )vs .

Como

α1 u1 + · · · + αr ur ∈ F e (−β1 )v1 + · · · + (−βs )vs ∈ G

concluı́mos que

α1 u1 + · · · + αr ur = (−β1 )v1 + · · · + (−βs )vs ∈ F ∩ G.

Dado que
F ∩ G = {0E }

tem-se
α1 u1 + · · · + αr ur = (−β1 )v1 + · · · + (−βs )vs = 0E .

Pelo Critério de Independência Linear, concluı́mos que, como (u1 , . . . , ur ) é


linearmente independente, se tem

α1 = · · · = αr = 0.
153

Por outro lado, como (v1 , . . . , vs ) é linearmente independente, o mesmo


critério permite afirmar que

β1 = · · · = βs = 0.

Demonstramos pois que

α1 = · · · = αr = β1 = · · · = βs = 0

e, portanto,
(u1 , . . . , ur , v1 , . . . , vs )

é uma sequência linearmente independente. Recordando que

F + G = hu1 , . . . , ur , v1 , . . . , vs i,

concluı́mos que
(u1 , . . . , ur , v1 , . . . , vs )

é uma base de F + G. Assim

dim(F + G) = r + s

e, portanto,

dim(F + G) = r + s = r + s − 0
= dim F + dim G − dim(F ∩ G).

Caso 3: F 6⊆ G e G 6⊆ F e F ∩ G 6= {0E }.
Tem-se então

F 6= {0E } , G 6= {0E } , F ∩ G $ F e F ∩ G $ G.

Sejam r = dim F , s = dim G, t = dim(F ∩ G) e

(w1 , . . . , wt ) uma base de F ∩ G.

Como (w1 , . . . , wt ) é uma sequência linearmente independente de vectores de


F ∩ G e, portanto, de vectores de F , pelo Teorema 4.38 existem vectores
y1 , . . . , yr−t ∈ F tais que

(w1 , . . . , wt , y1 , . . . , yr−t ) é uma base de F.

Analogamente, como (w1 , . . . , wt ) é uma sequência linearmente independente


de vectores de F ∩G e, portanto, de vectores de G, pelo Teorema 4.38 existem
vectores z1 , . . . , zs−t ∈ G tais que

(w1 , . . . , wt , z1 , . . . , zs−t ) é uma base de G.


154

Dado que

F = hw1 , . . . , wt , y1 , . . . , yr−t i

G = hw1 , . . . , wt , z1 , . . . , zs−t i

então, pela Proposição 4.46 tem-se

F + G = hw1 , . . . , wt , y1 , . . . , yr−t , w1 , . . . , wt , z1 , . . . , zs−t i


= hw1 , . . . , wt , y1 , . . . , yr−t , z1 , . . . , zs−t i.

Com alguns cálculos, podemos concluir que

(w1 , . . . , wt , y1 , . . . , yr−t , z1 , . . . , zs−t )

é uma sequência linearmente independente e, portanto, é uma base de F + G.


Assim

dim(F + G) = t + (r − t) + (s − t) = r + s − t
= dim F + dim G − dim(F ∩ G).

Exercı́cio 4.34 No espaço vectorial real R4 considere os subespaços



F = (a, b, c, d) ∈ R4 : a − b = 0 ∧ a = b + d ,

G = (a, b, c, d) ∈ R4 : b − c = 0 ∧ d = 0

e D E
H = (1, 0, 0, 3), (2, 0, 0, 1) .

Determine:

(a) Uma base de F .


(b) A dimensão de G.
(c) Uma base de F ∩ G.
(d) Uma base de F + G.
(e) Uma base de G ∩ H.
(f) Uma base de F + H.
(g) A dimensão de F ∩ G.
155

Exercı́cio 4.35 No espaço vectorial real M2×2 (R) considere os subespaços


  
a b
F = ∈ M2×2 (R) : a − b = 0 ∧ a = b + d ,
c d
  
a b
G= ∈ M2×2 (R) : b − c = 0 ∧ d = 0
c d
e    
1 0 2 0
H= , .
0 3 0 1
Determine:

(a) Uma base de F .


(b) A dimensão de G.
(c) Uma base de F ∩ G.
(d) Uma base de F + G.
(e) Uma base de G ∩ H.
(f) Uma base de F + H.
(g) A dimensão de F ∩ G.

Exercı́cio 4.36 No espaço vectorial real R3 [x] considere os subespaços



F = ax3 + bx2 + cx + d ∈ R3 [x] : a − b = 0 ∧ a = b + d ,

G = ax3 + bx2 + cx + d ∈ R3 [x] : b − c = 0 ∧ d = 0
e

H = x3 + 3, 2x3 + 1 .
Determine:

(a) Uma base de F .


(b) A dimensão de G.
(c) Uma base de F ∩ G.
(d) Uma base de F + G.
(e) Uma base de G ∩ H.
(f) Uma base de F + H.
(g) A dimensão de F ∩ G.

Exercı́cio 4.37 No espaço vectorial real R4 considere os subespaços


D E
F = (1, 1, −1, 1), (2, 2, 3, −1), (3, 3, 7, −3), (0, 0, 0, 1)

e D E
G = (1, 1, −1, 1), (1, 0, 1, −1), (1, −1, −4, 4) .

(a) Determine:
(i) Uma base de F;
(ii) Uma base de R4 que inclua uma base de F ;
(iii) Uma base de G;
(iv) Uma base de F ∩ G;
(b) Mostre que F + G = R4 .
156

Exercı́cio 4.38 Considere o espaço vectorial real R4 [x] e o subespaço de R4 [x]



F = a0 + a1 x + a2 x2 + a3 x3 + a4 x4 ∈ R4 [x] : −2a0 + 2a1 + a4 = 0 ∧ −a0 + a1 + 5a4 = 0 .

(a) Determine uma base de F .


(b) Determine uma base de R4 [x] que inclua a base de F indicada em (a).
(c) Indique, caso exista, um subespaço G de R4 [x], tal que dim(F + G) = 4 e
dim(F ∩ G) = 1. Justifique.

Exercı́cio 4.39 Sejam E um espaço vectorial real, (e1 , e2 , e3 , e4 , e5 ) uma base de E e F


e G os subespaços de E definidos por

F = {α1 e1 + · · · + α5 e5 : (α1 , . . . , α5 ) é solução de (S1 )}

G = {α1 e1 + · · · + α5 e5 : (α1 , . . . , α5 ) é solução de (S2 )} ,

onde (S1 ) e (S2 ) são os seguintes sistemas de equações lineares nas incógnitas x1 , . . . , x5
sobre R:
8 8
< x1 − x2 + 2x3 + x5 = 0 < 2x1 + x2 + 2x3 + x4 = 0
(S1 ) −x1 + x2 − x3 + x4 − 2x5 = 0 e (S2 ) x1 − x2 + x3 − x4 + 3x5 = 0 .
: :
2x1 − 2x2 + 3x3 − x4 + 3x5 = 0 −x1 − 2x2 − x4 + x5 = 0

Determine:

(a) Uma base de F ;


(b) Uma base de G;
(c) Uma base de F ∩ G;
(d) Uma base de F + G.

Exercı́cio 4.40 Considere o espaço vectorial real R3 . Para cada α ∈ R, considere o


conjunto: 
Fα = (x, y, z) ∈ R3 : x = αy ∧ αy = αz .

(a) Mostre que, qualquer que seja α ∈ R, Fα é subespaço vectorial de R3 .


(b) Determine, em função de α, uma base de Fα .


(c) Seja G = (1, 1, 0), (0, 0, 2) .
(i) Discuta, em função de α, dim(G + Fα ).
(ii) Determine, em função de α, uma base de G + Fα .
157

Soluções de alguns dos exercı́cios propostos


4.5 (a) Sim 4.30 (a) (1, 1, 1, 1), na base B

(b) Não (4, 3, 2, 1), na base B0

(c) Não (b) (a − b, b − c, c − d, d), na base B


(a, b, c, d), na base B0
(d) Sim

(e) Não 4.31 (a) (1, 1, 1, 1), na base B


(4, 3, 2, 1), na base B0
(f) Sim
(b) (a − b, b − c, c − d, d), na base B
(g) Não
(a, b, c, d), na base B0
(h) Não
4.32 (b) (0, −i, 1)
4.10 (a) (i) Não
(ii) Sim 4.33 (a) Não é

(b) É
4.11 (a) Sim
(c) Não é
(d) k = −2
(d) Não é

 1 1   0 1 
4.12 (a) Por exemplo, G = 0 0 , −1 0
4.34 (a) Por exemplo,

4.13 (a) Por exemplo, (1, 1, 0, 0), (0, 0, 1, 0)


F = (1, 1, 1, 0, 0), (1, 0, 0, 1, 0), (0, 0, 0, 0, 1)
(b) 2
(b) Não
(c) Por exemplo,

4.18 (a) S1 é linearmente independente (1, 1, 1, 0)
S2 é linearmente dependente (d) Por exemplo,

(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0)
4.19 (a) S1 é linearmente independente
S2 é linearmente dependente (e) Por exemplo,

(1, 0, 0, 0)
4.20 (a) S1 é linearmente dependente
(f) Por exemplo,
S2 é linearmente independente 
(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)

4.21 (a) S1 é linearmente independente (g) 1


S2 é linearmente dependente
4.35 (a) Por exemplo,
 1 1   0 0 
4.23 Por exemplo, 00 , 10

(1, 0, 0, 1, 0), (0, 1, 1, −1, 0), (0, 0, 0, 0, 1)
(b) 2
   0 1 
4.24 Por exemplo, 10 10 , −1 0 (c) Por exemplo,
 1 1 
10
4.25 k ∈ R \ {−1}
(d) Por exemplo,
 1 0   0 1   0 0 
4.26 k ∈ R \ {−4} 00 , 00 , 10

(e) Por exemplo,


4.28 (a) Por exemplo,  1 0 

(1, 0, 1, 0), (0, 1, 1, 1) 00

(f) Por exemplo,


(c) Por exemplo,  1 0   0 1   0 0   0 0 

(1, 0, 1, 0), (0, 1, 1, 1), (0, 0, 1, 0), (0, 0, 0, 1) 00 , 00 , 10 , 01

(g) 1
4.29 (a) (1, 1, 1, 1), na base B
(4, 3, 2, 1), na base b. c.R4 4.36 (a) Por exemplo,

x3 + x2 , x
(b) (a − b, b − c, c − d, d), na base B
(a, b, c, d), na base b. c.R4 (b) 2
158

(c) Por exemplo,



x3 + x2 + x

(d) Por exemplo,



x3 , x 2 , x

(e) Por exemplo,



x3

(f) Por exemplo,



x3 , x2 , x, 1

(g) 1

4.37 (a) (i) Por exemplo,



(1, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)
(ii) Por exemplo,

(1, 1, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)
(iii) Por exemplo,

(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, −1)
(iv) Por exemplo,

(1, 1, 0, 0), (0, 0, 1, −1)

4.38 (a) Por exemplo, 1 + x, x2 , x3

(b) Por exemplo, 1, 1 + x, x2 , x3 , x4


(c) Por exemplo, G = x3 , x4

4.39 (a) Por exemplo,


(e1 + e2 , 2e1 − e3 + e4 , −3e1 + e3 + e5 )

(b) Por exemplo,


(e1 − e2 − e3 + e4 , −3e1 + 2e2 + 2e3 + e5 )

(c) Por exemplo,


(e1 − e2 − e3 + e4 )

(d) Por exemplo,


(e1 +e2 , 2e1 −e3 +e4 , −3e1 +e3 +e5 , −3e1 +
2e2 + 2e3 + e5 )

4.40 (b) Base de Fα =


( 
Por exemplo, (0, 1, 0), (0, 0, 1) se α = 0

Por exemplo, (α, 1, 1) 6 0
se α =
(
2, se α = 1
(c) (i) dim(G + Fα ) =
3, se α 6= 1
(ii) Base
8 de G + Fα =
>
> Por exemplo,
>
>
< (1, 0, 0), (0, 1, 0), (0, 0, 1)
>
se α 6= 1
>
> Por exemplo,
>
>
: (1, 1, 0), (0, 0, 1)
>
se α = 1
Capı́tulo 5

Aplicações Lineares

5.1 Aplicações lineares: Definição, exemplos e propriedades

Definição 5.1 Sejam E e E 0 espaços vectoriais sobre K (ambos sobre R ou ambos


sobre C).
Uma aplicação f : E −→ E 0 diz-se uma aplicação linear se satisfaz as duas condições
seguintes:

1. ∀u,v∈E f (u + v) = f (u) + f (v).

2. ∀α∈K ∀u∈E f (αu) = αf (u).

Notemos que, quer em E quer em E 0 , a adição está a ser representada pelo mesmo sı́mbolo
+ e o mesmo se passa em relação à multiplicação externa. Se fizéssemos a distinção e consi-
derássemos os espaços vectoriais (E, +, ·) e (E 0 , ⊕, ) as propriedades anteriores tomariam
as seguintes formas:

1. ∀u,v∈E f (u + v) = f (u) ⊕ f (v).

2. ∀α∈K ∀u∈E f (α · u) = α f (u).

No entanto, conforme sabemos, o contexto desfaz qualquer ambiguidade.

No que vai seguir-se, e mesmo que tal não seja enunciado, E, E 0 e E 00 são espaços
vectoriais sobre K (todos sobre R ou todos sobre C).
160

Exemplo 5.2 1. Seja β ∈ K. Considere-se a aplicação

f : E −→ E

tal que
∀w∈E f (w) = βw.

Tem-se

(a) ∀u,v∈E f (u + v) = β(u + v) = βu + βv = f (u) + f (v).

(b) ∀α∈K ∀u∈E f (αu) = β(αu) = (βα)u = (αβ)u = α(βu) = αf (u).

Logo, f é uma aplicação linear (designada por homotetia de razão β).

Como casos particulares importantes, consideremos β = 0 e β = 1.

No primeiro caso (β = 0) obtemos

f : E −→ E

tal que
∀u∈E f (u) = 0E ,

designada por aplicação nula de E.

No segundo caso (β = 1) obtemos

f : E −→ E

tal que
∀u∈E f (u) = u,

designada por aplicação identidade de E e que representaremos por idE . Tem-se, pois,

idE : E −→ E

tal que
∀u∈E idE (u) = u.

Os dois exemplos seguintes constituem generalizações destes dois casos particulares.

2. A aplicação
f : E −→ E 0

tal que
∀u∈E f (u) = 0E 0

é uma aplicação linear (Porquê?) designada por aplicação nula de E em E 0 .


161

3. Se F é um subespaço de E então a aplicação

f : F −→ E

tal que
∀u∈F f (u) = u

é uma aplicação linear. (Porquê?)

4. Sejam m, b ∈ R. A aplicação
f : R −→ R

tal que
∀x∈R f (x) = mx + b

é linear se, e só se, b = 0. De facto, tem-se:

f (x + y) = m(x + y) + b

= mx + my + b

f (x) + f (y) = (mx + b) + (my + b)

= mx + my + 2b.

Logo, a condição 1. da Definição 5.1 é verificada se, e só se,

mx + my + b = mx + my + 2b,

ou equivalentemente, se
b = 2b,

isto é, se
b = 0.

Vejamos se, para b = 0 a condição 2. da Definição 5.1 é satisfeita.

∀α∈R ∀x∈R f (αx) = m(αx)

= α(m(x))

= αf (x).

Concluı́mos, portanto, que f é linear se, e só se, b = 0.


162

5. A aplicação
D : Rn [x] −→ Rn [x]

definida por
∀an xn +an−1 xn−1 +···+a1 x+a0 ∈Rn [x]

D an xn + an−1 xn−1 + · · · + a1 x + a0 = nan xn−1 + (n − 1)an−1 xn−2 + · · · + a1




é uma aplicação linear (Porquê?) e é habitualmente designada por aplicação derivada em


Rn [x].

6. A aplicação
f : R −→ R

tal que
∀x∈R f (x) = x2

não é uma aplicação linear. (Porquê?)

7. A aplicação
f : R3 −→ R2

tal que
∀(x,y,z)∈R3 f (x, y, z) = (2x, y + z)

é uma aplicação linear porque para quaisquer (x, y, z), (x0 , y 0 , z 0 ) ∈ R3 e α ∈ R, se tem
 
f (x, y, z) + (x0 , y 0 , z 0 ) = f (x + x0 , y + y 0 , z + z 0 )
 
= 2(x + x0 ), (y + y 0 ) + (z + z 0 )
 
= 2x + 2x0 , (y + z) + (y 0 + z 0 )

= (2x, y + z) + (2x0 , y 0 + z 0 )

= f (x, y, z) + f (x0 , y 0 , z 0 )

e
 
f α(x, y, z) = f (αx, αy, αz)

= (2αx, αy + αz)
 
= α(2x), α(y + z)

= α(2x, y + z)

= αf (x, y, z).
163

8. A aplicação
f : M2×2 (R) −→ R2 [x]

tal que
" #
a b
f = (a + b)x2 + 2cx − d
c d

" #
a b
para toda a matriz ∈ M2×2 (R), é uma aplicação linear.
c d
" # " #
a b a0 b0
De facto, quaisquer que sejam α ∈ R e A = , A0 = ∈ M2×2 (R), tem-se
c d c0 d0

" # " #
0 a b a0 b0
f (A + A ) = f +
c d c0 d0
" #
a + a0 b + b0
=f
c+ c0 d + d0

= (a + a0 ) + (b + b0 ) x2 + 2 c + c0 x − d + d0
  

= (a + b) + (a0 + b0 ) x2 + 2c + 2c0 x − d + d0
  

= (a + b)x2 + 2cx − d + (a0 + b0 )x2 + 2c0 x − d0


 
" # " #
a b a0 b0
=f +f 0 0
c d c d
0
= f (A) + f (A ).

 " #
a b
f (αA) = f α
c d
" #
αa αb
=f
αc αd

= (αa + αb)x2 + 2(αc)x − (αd)

= α(a + b)x2 + α(2c)x − αd

= α (a + b)x2 + 2cx − d

" #
a b
= αf
c d

= αf (A).

Exercı́cio 5.1 Demonstre que na Definição 5.1, de aplicação linear, as condições 1 e 2


são equivalentes à condição

3. ∀α,β∈K ∀u,v∈E f (αu + βv) = αf (u) + βf (v)

ou, ainda, a

4. ∀α∈K ∀u,v∈E f (αu + v) = αf (u) + f (v).


164

Exercı́cio 5.2 Considere os espaços vectoriais reais R3 , R4 e R3 [x].

(a) Verifique quais das seguintes aplicações são lineares:


(i) f : R3 −→ R3 , definida por f (x, y, z) = (y, z, 0);
(ii) f : R3 −→ R3 , definida por f (x, y, z) = (x − 1, x, y);
(iii) f : R3 −→ R3 , definida por f (x, y, z) = (|x| , −z, 0);
(iv) f : R3 −→ R4 , definida por f (x, y, z) = (2x, z + y, y, x − z);
(v) f : R3 [x] −→ R3 , definida por f (a0 + a1 x + a2 x2 + a3 x3 ) = (a0 −
a1 , 0, a2 ).
(b) (i) Para a aplicação f definida em (iv) determine f (2, −1, 3).
(ii) Para a aplicação f definida em (v) determine f (x − x2 + 2x3 ).

As aplicações lineares têm propriedades especiais conforme veremos seguidamente.

Proposição 5.3 Seja f : E −→ E 0 uma aplicação linear. Tem-se:

1. f (0E ) = 0E 0 .

2. ∀u∈E f (−u) = −f (u).

Demonstração:
1. Tem-se, para todo u ∈ E,
u = u + 0E

e, portanto,
f (u) = f (u + 0E ) = f (u) + f (0E ).

Como f (u) ∈ E 0 , temos


f (u) + 0 E0 
= f (u) + f (0E ).

Assim,
f (0E ) = 0E 0 .

2. Demonstrar que, para todo u ∈ E, se tem

f (−u) = −f (u)

é equivalente a demonstrar que

f (u) + f (−u) = 0E 0 .

De facto, tem-se

f (u) + f (−u) = f (u + (−u))


= f (0E )
= 0E 0 .


165

Utilizando 1. da proposição anterior podemos justificar facilmente que as aplicações

f : R −→ R

tal que
∀x∈R f (x) = mx + b, com b 6= 0

e
g : R2 −→ R3

tal que
∀(a,b)∈R2 g(a, b) = (a − b, 2b, a + 1)

não são lineares. Basta referir que


f (0) = b 6= 0

e
g(0, 0) = (0, 0, 1) 6= (0, 0, 0).

Definição 5.4 Sendo f : E −→ E 0 e g : E −→ E 0 aplicações arbitrárias (não ne-


cessariamente lineares) define-se soma das aplicações f e g, denotada por f + g, a
aplicação
f + g : E −→ E 0

tal que
∀u ∈ E (f + g)(u) = f (u) + g(u).

Define-se produto de um escalar α ∈ K por uma aplicação f : E −→ E 0 , e


representa-se por αf , a aplicação

αf : E −→ E 0

tal que
∀u∈E (αf )(u) = αf (u).

O resultado seguinte estabelece que a soma de aplicações lineares é, ainda, uma aplicação
linear e o mesmo sucede com o produto de um escalar por uma aplicação linear.

Proposição 5.5 Sejam f : E −→ E 0 e g : E −→ E 0 aplicações lineares e α ∈ K. Tem-se:

1. f + g é uma aplicação linear.


166

2. αf é uma aplicação linear.

Demonstração:
Exercı́cio.

Exercı́cio 5.3 Seja L(E, E 0 ) o conjunto das aplicações lineares de E em E 0 . Mostre que
L(E, E 0 ) com as operações de adição de aplicações e de multiplicação de um escalar por
uma aplicação, consideradas na Definição 5.4, é um espaço vectorial sobre K.

5.2 Imagem de uma aplicação. Núcleo de uma aplicação li-


near

Recordemos que, sendo A e B conjuntos e f : A −→ B uma aplicação, se diz que

• f é sobrejectiva se
∀b∈B ∃a∈A f (a) = b.

• f é injectiva se
∀a,a0 ∈A a 6= a0 =⇒ f (a) 6= f (a0 )

ou equivalentemente,
∀a,a0 ∈A f (a) = f (a0 ) =⇒ a = a0 .

• f é bijectiva se f é sobrejectiva e injectiva, ou equivalentemente,

∀b∈B ∃1a∈A f (a) = b.

Habitualmente designa-se por contradomı́nio de f ou imagem de f , e representa-se


por f (A) ou Im f , o conjunto

Im f = {f (a) : a ∈ A} ⊆ B.

Assim, a aplicação f : A −→ B é sobrejectiva se, e só se, Im f = B.

Definição 5.6 Seja f : E −→ E 0 uma aplicação linear. Define-se núcleo de f , e


representa-se por Nuc f ou Ker f (do inglês “Kernel”), o conjunto

Nuc f = {u ∈ E : f (u) = 0E 0 } .

Pela Proposição 5.3 tem-se 0E ∈ Nuc f e, portanto, Nuc f 6= ∅. De facto, tem-se


167

Proposição 5.7 Se f : E −→ E 0 é uma aplicação linear então

1. Nuc f é um subespaço de E.

2. Im f é um subespaço de E 0 .

Demonstração:
Exercı́cio.

As definições de imagem e de núcleo de uma aplicação linear podem ser generalizadas da


seguinte forma.

Sejam f : E −→ E 0 uma aplicação linear, W um subespaço de E e W 0 um subespaço de


E 0 . Define-se imagem de W por f como sendo

f (W ) = {f (u) : u ∈ W }

e imagem inversa de W 0 por f como sendo

f ← (W 0 ) = u ∈ E : f (u) ∈ W 0 .


Note que Nuc f = f ← ({0E 0 }) e Im f = f (E).

Exercı́cio 5.4 Mostre que:

(a) f (W ) é um subespaço vectorial de E 0 .


(b) f ← (W 0 ) é um subespaço vectorial de E.

Exemplo 5.8 1. Consideremos a aplicação idE . Tem-se

Nuc idE = {u ∈ E : idE (u) = 0E }

= {u ∈ E : u = 0E }

= {0E } .

2. Consideremos a aplicação nula de E em E 0 , que aqui representamos por 0E,E 0 . Tem-se



Nuc 0E,E 0 = u ∈ E : 0E,E 0 (u) = 0E 0

= {u ∈ E : 0E 0 = 0E 0 }

= {u ∈ E}

= E.
168

3. Para a aplicação D : Rn [x] −→ Rn [x] do Exemplo 5.2 tem-se

Nuc D = {an xn + · · · + a1 x + a0 ∈ Rn [x] : D(an xn + · · · + a1 x + a0 ) = 0xn + · · · + 0x + 0}

= an xn + · · · + a1 x + a0 ∈ Rn [x] : nan xn−1 + · · · + 2a2 x + a1 = 0xn + · · · + 0x + 0




= {an xn + · · · + a1 x + a0 ∈ Rn [x] : nan = 0 ∧ · · · ∧ 2a2 = 0 ∧ a1 = 0}

= {an xn + · · · + a1 x + a0 ∈ Rn [x] : an = 0 ∧ · · · ∧ a2 = 0 ∧ a1 = 0}

= {0xn + · · · + 0x + a0 ∈ Rn [x]}

= {a0 : a0 ∈ R} .

4. Determinemos o núcleo da aplicação f : M2×2 (R) −→ R2 [x], dada no Exemplo 5.2, por
" #
a b
f = (a + b)x2 + 2cx − d
c d
" #
a b
para toda a matriz ∈ M2×2 (R).
c d

" # " # 
a b a b 2
Nuc f = ∈ M2×2 (R) : f = 0x + 0x + 0
c d c d
" # 
a b 2 2
= ∈ M2×2 (R) : (a + b)x + 2cx − d = 0x + 0x + 0
c d
" # 
a b
= ∈ M2×2 (R) : a + b = 0 ∧ 2c = 0 ∧ d = 0
c d
" # 
a b
= ∈ M2×2 (R) : a = −b ∧ c = 0 ∧ d = 0
c d
" # 
−b b
= : b∈R .
0 0

Exercı́cio 5.5 Considere os espaços vectoriais reais R4 e R3 e as aplicações

f : R4 −→ R3 , definida por f (a, b, c, d) = (a + b, b + c, c + d)

e
g : R4 −→ R3 , definida por g(a, b, c, d) = (ab, 0, 0).

(a) Mostre que f é linear.


(b) Determine f (1, 0, −1, 0) e g(0, 0, 0, 0).
(c) Averigúe se g é linear.
(d) Determine uma base de Nuc f ;
(e) Determine uma base de Im f .

Exercı́cio 5.6 Considere os espaços vectoriais reais R3 [x] e R3 e a aplicação linear

f : R3 [x] −→ R3 , definida por f (ax3 + bx2 + cx + d) = (a + b, b + c, c + d).

(a) Determine uma base de Nuc f ;


(b) Determine uma base de Im f .
169

Exercı́cio 5.7 Considere os espaços vectoriais reais M2×2 (R) e R.

(a) Mostre que a aplicação f : M2×2 (R) → R definida por f (A) = A11 + A22 ,
para todo A ∈ M2×2 (R), é linear.
(b) Diga, justificando, se F = {A ∈ M2×2 (R) : A11 + A22 = 0} é subespaço
vectorial de M2×2 (R).
(c) Determine uma base de Nuc f .

Exercı́cio 5.8 Considere os espaços vectoriais complexos C5 e C4 e a aplicação linear


f : C5 → C4 definida por

f (a, b, c, d, e) = (a − c + 3d − e, a + 2d − e, 2a − c + 5d − e, −c + d),

para qualquer (a, b, c, d, e) ∈ C5 . Determine:

(a) Uma base de Im f ;


(b) Uma base de Nuc f ;


(c) Uma base de f (F ), sendo F = (1, 1, i, 0, i), (0, 1, 0, 1, 0) .

Exercı́cio 5.9 Seja (v1 , v2 , v3 , v4 , v5 ) uma base do espaço vectorial real R5 e seja
f : R5 → R5 a aplicação linear definida por

f (av1 + bv2 + cv3 + dv4 + ev5 ) = (a + c + 2d, −a + b, a + c + 2d, −a + b, a + c + 2d),

para quaisquer a, b, c, d, e ∈ R. Determine:

(a) Uma base de Im f ;


(b) Uma base de Nuc f .

Exercı́cio 5.10 Seja n ∈ R. Considere o espaço vectorial real Rn [x] e a aplicação


D : Rn [x] → Rn [x] definida por

D (an xn + · · · + a1 x + a0 ) = nan xn−1 + · · · + 2a2 x + a1 ,

para quaisquer a0 , a1 , . . . , an ∈ R (aplicação derivada em Rn [x]).

(a) Mostre que D é linear.


(b) Determine uma base de Nuc D.
(c) Determine uma base de Im D.

Tal como a imagem de uma aplicação nos permite saber se a aplicação é sobrejectiva, o
núcleo de uma aplicação linear permite-nos saber se a aplicação é injectiva.

Proposição 5.9 Seja f : E −→ E 0 uma aplicação linear. Tem-se f é injectiva se, e só se,
Nuc f = {0E }.

Demonstração:
Suponhamos que f é injectiva e demonstremos que Nuc f = {0E }.

Seja u um vector arbitrário de Nuc f . Como

f (u) = 0E 0 = f (0E ),
170

e f é injectiva, concluı́mos que


u = 0E .

Logo, Nuc f = {0E }.

Reciprocamente, suponhamos que Nuc f = {0E } e demonstremos que f é injectiva.


Tem-se
∀u,v∈E f (u) = f (v) =⇒ f (u) + (−f (v)) = 0E 0 .

Como f é linear e −f (v) = f (−v) obtemos

f (u) + (−f (v)) = f (u) + f (−v) = f (u + (−v)) = 0E 0

e, portanto,
u + (−v) ∈ Nuc f.

Dado que Nuc f = {0E } concluı́mos que

u + (−v) = 0E .

Logo
u = v.

Vejamos agora como as aplicações lineares se comportam em relação a vectores geradores


do espaço de partida e a vectores linearmente independentes desse espaço.

Teorema 5.10 Seja f : E −→ E 0 uma aplicação linear. Tem-se:

1. Se v1 , . . . , vs ∈ E e E = hv1 , . . . , vs i então

Im f = hf (v1 ), . . . , f (vs )i .

Dizemos então que f transforma geradores de E em geradores de Im f .

2. Se u1 , . . . , ur ∈ E são linearmente independentes e f é injectiva então f (u1 ), . . . , f (ur )


são linearmente independentes.

Dizemos então que se f é injectiva então f transforma vectores de E linearmente


independentes em vectores de Im f (⊆ E 0 ) linearmente independentes.
171

Demonstração:
1. Seja u0 um vector arbitrário de Im f . Assim

∃u∈E f (u) = u0 .

Como u ∈ E e E = hv1 , . . . , vs i então

∃α1 ,...,αs ∈K u = α1 v1 + · · · + αs vs .

Logo

u0 = f (u) = f (α1 v1 + · · · + αs vs )
= α1 f (v1 ) + · · · + αs f (vs )

e, portanto, u0 ∈ hf (v1 ), . . . , f (vs )i. Demonstrámos, pois, que

Im f ⊆ hf (v1 ), . . . , f (vs )i.

Reciprocamente, se w ∈ hf (v1 ), . . . , f (vs )i então

∃β1 ,...,βs ∈K w = β1 f (v1 ) + · · · + βs f (vs )


= f (β1 v1 + · · · + βs vs ).

Como β1 v1 + · · · + βs vs ∈ E concluı́mos que w ∈ Im f e, portanto, também se tem

hf (v1 ), . . . , f (vs )i ⊆ Im f.

Obtemos, pois, como pretendı́amos que

Im f = hf (v1 ), . . . , f (vs )i.

2. Suponhamos que f : E −→ E 0 é linear e injectiva e que u1 , . . . , ur ∈ E são


linearmente independentes. Demonstremos que os vectores f (u1 ), . . . , f (ur ) são
linearmente independentes, utilizando o Critério de Independência Linear, isto é,
demonstrando que

∀α1 ,...,αr ∈K α1 f (u1 ) + · · · + αr f (ur ) = 0E 0 =⇒ α1 = · · · = αr = 0.

Notemos que

α1 f (u1 ) + · · · + αr f (ur ) = 0E 0 =⇒ f (α1 u1 + · · · + αr ur ) = 0E 0


=⇒ f (α1 u1 + · · · + αr ur ) = f (0E ).

Como f é injectiva podemos afirmar que se tem

α1 u1 + · · · + αr ur = 0E
172

e como, por hipótese, u1 , . . . , ur são linearmente independentes concluı́mos, pelo


Critério de Independência Linear, que

α1 = · · · = αr = 0,

conforme pretendı́amos.

Exercı́cio 5.11 Seja f : E −→ E 0 uma aplicação linear e W um subespaço de E.


Justifique que se u1 , . . . , ur ∈ E são tais que

W = hu1 , . . . , ur i

então
f (W ) = hf (u1 ), . . . , f (ur )i

em que
f (W ) = {f (v) : v ∈ W } .
(Note que tomando W = E se obtém f (E) = Im f e, portanto, resulta a afirmação 1. do
teorema anterior.)

Exercı́cio 5.12 Seja f : E −→ E 0 uma aplicação linear. Mostre que:

(a) f é injectiva se, e só se, transforma vectores de E linearmente independentes


em vectores de Im f (e, portanto, de E 0 ) linearmente independentes.
(b) f é sobrejectiva se, e só se, transforma geradores de E em geradores de E 0 .

Notemos que a afirmação 1. do teorema anterior é válida quando E é finitamente gerado,


isto é, quando E tem dimensão finita. De acordo com 1. se (e1 , . . . , en ) é uma base de E
então
Im f = hf (e1 ), . . . , f (en )i .

Conforme explicámos no Capı́tulo 4, conhecendo geradores para um espaço vectorial E po-


demos chegar a uma base desse espaço “eliminando” desse conjunto gerador k vectores, com
k ≥ 0. Assim, Im f é também de dimensão finita e

dim Im f ≤ n = dim E.

Notemos que, como Nuc f é um subespaço de E, se E tem dimensão finita então Nuc f
também tem dimensão finita e
dim Nuc f ≤ dim E.

Na verdade, se E tem dimensão finita então as dimensões de E, Nuc f e Im f estão rela-


cionadas conforme estabelece o resultado que seguidamente apresentamos e que é conhecido
por Teorema da Dimensão.
173

Teorema 5.11 (Teorema da Dimensão) Se f : E −→ E 0 é uma aplicação linear, com


E de dimensão finita, então Nuc f e Im f também têm dimensão finita e

dim E = dim Nuc f + dim Im f.

Demonstração:
A justificação de que se E tem dimensão finita o mesmo sucede a Im f e a Nuc f
foi feita na discussão que precede este teorema.

Demonstremos então que

dim E = dim Nuc f + dim Im f.

Seja n = dim E.

Caso 1: Nuc f = {0E }, ou equivalentemente, f é injectiva.

Se (e1 , . . . , en ) é uma base de E então podemos afirmar que


 
f (e1 ), . . . , f (en )

é uma base de Im f , pois Im f = hf (e1 ), . . . , f (en )i e, como f é injectiva, f trans-


forma vectores linearmente independentes em vectores linearmente independentes.

Assim
dim Nuc f = 0 e dim Im f = n = dim E

pelo que
dim E = dim Nuc f + dim Im f.

Caso 2: Nuc f = E, isto é, f é a aplicação nula de E em E 0 .

Neste caso tem-se, dim Nuc f = dim E. Como Im f = {0E 0 }, concluı́mos que
dim Im f = 0 e, portanto,

dim E = dim Nuc f + dim Im f.

Caso 3: dim Nuc f = p, com 1 ≤ p ≤ n − 1.

Seja (v1 , . . . , vp ) uma base de Nuc f . Note que f (v1 ) = · · · = f (vp ) = 0E 0 .

Pelo Teorema do Complemento (Teorema 4.38) sabemos que existem vectores


w1 , . . . , wn−p ∈ E tais que

(v1 , . . . , vp , w1 , . . . , wn−p )

é uma base de E.
174

Tem-se

Im f = hf (v1 ), . . . , f (vp ), f (w1 ), . . . , f (wn−p )i


= h0E 0 , . . . , 0E 0 , f (w1 ), . . . , f (wn−p )i
= hf (w1 ), . . . , f (wn−p )i .

Vejamos que f (w1 ), . . . , f (wn−p ) são linearmente independentes e, portanto, que


dim Im f = n − p. Sejam α1 , . . . , αn−p ∈ K tais que

α1 f (w1 ) + · · · + αn−p f (wn−p ) = 0E 0

e demonstremos que α1 = · · · = αn−p = 0.

A igualdade
α1 f (w1 ) + · · · + αn−p f (wn−p ) = 0E 0

pode escrever-se na forma

f (α1 w1 + · · · + αn−p wn−p ) = 0E 0

pelo que
α1 w1 + · · · + αn−p wn−p ∈ Nuc f.

Como (v1 , . . . , vp ) é uma base de Nuc f existem β1 , . . . , βp ∈ K tais que

α1 w1 + · · · + αn−p wn−p = β1 v1 + · · · + βp vp .

Logo
(−β1 )v1 + · · · + (−βp )vp + α1 w1 + · · · + αn−p wn−p = 0E

e, dado que (v1 , . . . , vp , w1 , . . . , wn−p ) é uma base de E, podemos afirmar que é


uma sequência linearmente independente e, portanto,

(−β1 ) = · · · = (−βp ) = α1 = · · · = αn−p = 0.

Neste caso tem-se, pois,

dim E = n, dim Nuc f = p e dim Im f = n − p.

Assim, continua a verificar-se que

dim E = dim Nuc f + dim Im f.

Exercı́cio 5.13 Sejam E e E 0 espaços vectoriais sobre K de dimensão finita e f : E → E 0


uma aplicação linear. Mostre que:

(a) Se dim E < dim E 0 então f não é sobrejectiva;


(b) Se dim E > dim E 0 então f não é injectiva.
175

Exercı́cio 5.14 Sejam E um espaço vectorial sobre K e (e1 , . . . , en ) uma base de E.


Seja f : E → E uma aplicação linear, tal que

f (e1 ) = e2 , f (e2 ) = e3 , . . . , f (en−1 ) = en e f (en ) = 0E .

Determine, justificando, a dimensão de Nuc f .

Como consequência do Teorema da Dimensão obtemos

Proposição 5.12 Se f : E −→ E 0 é uma aplicação linear com dim E = n = dim E 0 então


f é injectiva se, e só se, f é sobrejectiva.

Demonstração:
Suponhamos que f : E −→ E 0 é uma aplicação linear, com dim E = n = dim E 0 .
Afirmar que f é injectiva equivale a afirmar que Nuc f = {0E } ou, ainda, que
dim Nuc f = 0.

Como dim E = dim Nuc f + dim Im f concluı́mos que a afirmação

dim Nuc f = 0

é equivalente a
dim E = dim Im f.

Dado que dim E = dim E 0 , tem-se dim E = dim Im f se, e só se,

dim E 0 = dim Im f.

Vejamos que a igualdade anterior é equivalente a

Im f = E 0 .

Uma das implicações é trivial. Demonstremos então que se dim Im f = dim E 0


então Im f = E 0 . Trata-se de aplicar a Proposição 4.40, uma vez que Im f é um
subespaço de E 0 e dim Im f = dim E 0 .

Demonstrámos, então, que f é injectiva se, e só se, Im f = E 0 , ou equivalentemente,


f é sobrejectiva.

Finalizaremos esta secção com um resultado que, tal como os dois resultados anteriores,
é válido apenas quando E tem dimensão finita.
176

Teorema 5.13 (Teorema da Extensão Linear) Sejam E e E 0 espaços vectoriais, com


dim E = n. Seja B = (e1 , . . . , en ) uma base de E e sejam u01 , . . . , u0n vectores arbitrários de
E 0 . Existe uma, e uma só, aplicação linear f : E −→ E 0 tal que

f (e1 ) = u01
..
.

f (en ) = u0n

ou equivalentemente,
f (ei ) = u0i , i = 1, . . . , n.

Demonstração:
Como B = (e1 , . . . , en ) é uma base de E, podemos afirmar que,

∀u∈E ∃α1 ,...,αn ∈K u = α1 e1 + · · · + αn en

sendo α1 , . . . , αn únicos. De facto, (α1 , . . . , αn ) é a sequência das coordenadas do


vector u na base B = (e1 , . . . , en ).

Considere-se a “aplicação” f : E −→ E 0 tal que

∀u∈E f (u) = α1 u01 + · · · + αn u0n ,

sendo (α1 , . . . , αn ) a sequência das coordenadas de u na base B = (e1 , . . . , en ).

Notemos que f é, de facto, uma aplicação de E em E 0 pois cada elemento de E


tem uma, e uma só, imagem em E 0 .

Demonstremos que

f (e1 ) = u01
..
.
f (en ) = u0n

isto é, que


f (ei ) = u0i , i = 1, . . . , n.

Como ei = 0e1 + · · · + 0ei−1 + 1ei + 0ei+1 + · · · + 0en , a sequência das coordenadas


do vector ei na base B = (e1 , . . . , en ) é (0, . . . , 0, 1, 0, . . . , 0) com o 1 na i-ésima
posição. Assim

f (ei ) = 0u01 + · · · + 0u0i−1 + 1u0i + 0u0i+1 + · · · + 0u0n


= u0i , i = 1, . . . , n,

conforme pretendı́amos.
177

Demonstremos que f é linear. Tem-se


 
∀u,v∈E f (u + v) = f (α1 e1 + · · · + αn en ) + (β1 e1 + · · · + βn en )
 
= f (α1 + β1 )e1 + · · · + (αn + βn )en

= (α1 + β1 )u01 + · · · + (αn + βn )u0n


= (α1 u01 + · · · + αn u0n ) + (β1 u01 + · · · + βn u0n )
= f (α1 e1 + · · · + αn en ) + f (β1 e1 + · · · + βn en )
= f (u) + f (v).

 
∀α ∈ K ∀u∈E f (αu) = f α(α1 e1 + · · · + αn en )
 
= f (αα1 )e1 + · · · + (ααn )en

= (αα1 )u01 + · · · + (ααn )u0n


= α(α1 u01 ) + · · · + α(αn u0n )
= α(α1 u01 + · · · + αn u0n )
= αf (α1 e1 + · · · + αn en )
= αf (u),

e, portanto, f é linear.

Finalmente, demonstremos que f é a única aplicação linear nas condições preten-


didas demonstrando que se existisse uma aplicação linear g : E −→ E 0 tal que

g(ei ) = u0i , i = 1, . . . , n,

então ter-se-ia g = f .

f e g são aplicações com o mesmo conjunto de partida (E) e o mesmo conjunto de


chegada (E 0 ). Para demonstrar que são iguais falta apenas verificar que

∀u∈E f (u) = g(u).

Tem-se
∀u∈E ∃α1 ,...,αn ∈K u = α1 e1 + · · · + αn en

com α1 , . . . , αn únicos. Como f e g são aplicações lineares e para i = 1, . . . , n se


tem f (ei ) = u0i = g(ei ) resulta que

∀u∈E f (u) = f (α1 e1 + · · · + αn en )


= α1 f (e1 ) + · · · + αn f (en )
= α1 g(e1 ) + · · · + αn g(en )
= g(α1 e1 + · · · + αn en )
= g(u).
178

Concluı́mos, então, que g = f .

Exercı́cio 5.15 Diga, justificando, se

(a) existe uma aplicação linear f : R4 → R3 , tal que


D E
Nuc f = (0, 1, 1, 0), (1, 1, 1, 1) e (1, 1, 1) ∈ Im f ;

(b) existe uma aplicação linear h : R4 → R4 , tal que


D E
Im h = (1, 0, 0, 1), (0, 1, 1, 0), (0, 1, 2, 0) e dim Nuc h = 2.

5.3 Composição de aplicações. Aplicações invertı́veis/bijectivas

Seja A um conjunto. Representamos por idA , e designamos por identidade de A, a aplicação


definida por:
idA : A −→ A

e
∀a∈A idA (a) = a.

Sejam A, B e C conjuntos e f : A −→ B e g : B −→ C aplicações. Recorde que podemos


definir uma operação de composição de aplicações que a f e g faz corresponder a aplicação
que se designa por “g após f ”, e se representa por g ◦ f , definida por

g ◦ f : A −→ C

e
∀a∈A (g ◦ f )(a) = g(f (a)).

Exercı́cio 5.16 Sejam A, B, C, D conjuntos. Verifique que:

(a) Para qualquer aplicação f : A → B se tem

f ◦ idA = f e idB ◦f = f.

(b) Quaisquer que sejam f : A → B e g : B → C injectivas então g ◦ f é


injectiva.
(c) Quaisquer que sejam f : A → B e g : B → C sobrejectivas então g ◦ f é
sobrejectiva.
(d) Quaisquer que sejam f : A → B e g : B → C bijectivas então g ◦ f é
bijectiva.
(e) Se f : A → A e g : A → A então g ◦ f e f ◦ g estão ambas definidas e
g ◦ f : A → A e f ◦ g : A → A, mas pode ter-se g ◦ f 6= f ◦ g.
(f) Quaisquer que sejam f : A → B, g : B → C e h : C → D tem-se

(h ◦ g) ◦ f = h ◦ (g ◦ f ).
179

Definição 5.14 Uma aplicação f : A −→ B diz-se invertı́vel se existe uma aplicação


g : B −→ A tal que
f ◦ g = idB e g ◦ f = idA .

Demonstra-se, facilmente, que:

1. Uma aplicação f : A −→ B é invertı́vel se, e só se, f é bijectiva.

2. Se uma aplicação f : A −→ B é invertı́vel (isto é, bijectiva) então existe uma, e uma
só, aplicação g : B −→ A tal que

f ◦ g = idB e g ◦ f = idA .

Tal aplicação diz-se a (aplicação) inversa de f e representa-se por f −1 .

Obviamente tem-se
−1
f ◦ f −1 = idB , f −1 ◦ f = idA e f −1 = f.

Exercı́cio 5.17 Demonstre que se f : A → B e g : B → C são invertı́veis o mesmo


sucede à aplicação g ◦ f tendo-se

(g ◦ f )−1 = f −1 ◦ g −1 .

Tudo o que nesta secção foi já referido para aplicações arbitrárias é válido para aplicações
lineares. Pode, no entanto, colocar-se o problema de saber se uma aplicação obtida por
composição de duas aplicações lineares é, ainda, linear e se a inversa de uma aplicação linear
invertı́vel é, ainda, linear. Tem-se:

Proposição 5.15 1. A aplicação obtida por composição de duas aplicações lineares é,
ainda, uma aplicação linear.

2. A inversa de uma aplicação linear invertı́vel é, ainda, uma aplicação linear.

Demonstração:
1. Sejam E, E 0 e E 00 espaços vectoriais sobre K e sejam f : E −→ E 0 e
g : E 0 −→ E 00 aplicações lineares. Demonstremos que a aplicação

g ◦ f : E −→ E 00

tal que
∀u∈E (g ◦ f )(u) = g(f (u))
180

é uma aplicação linear.

Tem-se

∀u,v∈E (g ◦ f )(u + v) = g(f (u + v))


= g(f (u) + f (v))
= g(f (u)) + g(f (v))
= (g ◦ f )(u) + (g ◦ f )(v)

∀α∈K ∀u∈E (g ◦ f )(αu) = g(f (αu))


= g(αf (u))
= α(g(f (u)))
= α(g ◦ f )(u)

e, portanto, g ◦ f é uma aplicação linear.

2. Seja f : E −→ E 0 uma aplicação linear invertı́vel (ou equivalentemente, bi-


jectiva) e seja f −1 : E 0 −→ E a sua inversa. Demonstremos que f −1 é linear,
utilizando a afirmação 3. do Exercı́cio 5.1, isto é, demonstrando que

∀α,β∈K ∀u0 ,v0 ∈E 0 f −1 (αu0 + βv 0 ) = αf −1 (u0 ) + βf −1 (v 0 ).

Recordemos que, como f é, em particular, injectiva se

f (w) = f (z) =⇒ w = z.

Logo, basta demonstrar que

f f −1 (αu0 + βv 0 ) = f αf −1 (u0 ) + βf −1 (v 0 ) .
 
∀α,β∈K ∀u0 ,v0 ∈E 0

Tem-se

f f −1 (αu0 + βv 0 ) = f ◦ f −1 (αu0 + βv 0 )
 

= idE 0 (αu0 + βv 0 )
= αu0 + βv 0

f αf −1 (u0 ) + βf −1 (v 0 ) = f αf −1 (u0 ) + f βf −1 (v 0 )
  

= αf f −1 (u0 ) + βf f −1 (v 0 )
 

= α f ◦ f −1 (u0 ) + β f ◦ f −1 (v 0 )
 

= α idE 0 (u0 ) + β idE 0 (v 0 )


= αu0 + βv 0
181

e, portanto, f −1 é, ainda, uma aplicação linear.

Definição 5.16 Uma aplicação f : E −→ E 0 linear e bijectiva/invertı́vel diz-se um


isomorfismo entre E e E 0 .
Dizemos que E é isomorfo a E 0 , e representamos por E ' E 0 , se existe um isomor-
fismo entre E e E 0 .
Se f for um isomorfismo entre E e E 0 escrevemos então E 'E 0 .
f

Exercı́cio 5.18 Sejam E, E 0 e E 00 espaços vectoriais sobre K (todos sobre R ou todos


sobre C). Mostre que:

(a) E'E.
(b) Se E'E 0 então E 0 'E. (Dizemos então que E e E 0 são isomorfos.)
(c) Se E'E 0 e E 0 'E 00 então E'E 00 .

Teorema 5.17 Sejam E e E 0 espaços vectoriais, com E de dimensão finita. Tem-se:

1. Se E e E 0 são isomorfos então E 0 tem dimensão finita e dim E = dim E 0 .

2. Se E 0 tem dimensão finita e dim E = dim E 0 então E e E 0 são isomorfos.

Demonstração:
Suponhamos que dim E = n e seja B = (e1 , . . . , en ) uma base de E.

1. Se E e E 0 são isomorfos então existe uma aplicação linear e bijectiva f : E −→ E 0 .


Como E = he1 , . . . , en i, de acordo com o Teorema 5.10, tem-se

Im f = hf (e1 ), . . . , f (en )i .

Mas, como f é injectiva e e1 , . . . , en são linearmente independentes concluı́mos que


f (e1 ), . . . , f (en ) são linearmente independentes e, portanto,

(f (e1 ), . . . , f (en ))

é uma base de Im f .

Dado que f é também sobrejectiva, então Im f = E 0 e, portanto, (f (e1 ), . . . , f (en ))


é uma base de E 0 .

Concluı́mos pois que E 0 tem dimensão finita e dim E = n = dim E 0 .


182

2. Por hipótese dim E 0 = dim E = n. Seja B 0 = (e01 , . . . , e0n ) uma base de E 0 .


Pelo Teorema da Extensão Linear (Teorema 5.13) existe uma, e uma só, aplicação
linear
f : E −→ E 0

tal que
f (ei ) = e0i , i = 1, . . . , n.

Como

Im f = hf (e1 ), . . . , f (en )i
= he01 , . . . , e0n i = E 0

concluı́mos que tal aplicação é sobrejectiva.

De acordo com a Proposição 5.12, como dim E = n = dim E 0 e f é injectiva então


f é também sobrejectiva.

Logo f é linear e bijectiva e, portanto, é um isomorfismo entre E e E 0 .

Atendendo ao teorema anterior podemos afirmar que:

Dois espaços vectoriais de dimensão finita são isomorfos se, e só se, têm a mesma di-
mensão.

Exemplo 5.18 1. M2×3 (R) e R6 são isomorfos porque têm ambos dimensão finita e

dim M2×3 (R) = 6 = dim R6 .

Por exemplo, a aplicação


f : M2×3 (R) −→ R6

tal que " #


a b c
∀" # f = (a, b, c, d, e, f )
a b c d e f
∈M2×3 (R)
d e f

é um isomorfismo entre M2×3 (R) e R6 . (Verifique.)

2. Rn [x] e Rn+1 são isomorfos porque têm ambos dimensão finita e

dim Rn [x] = n + 1 = dim Rn+1 .

Por exemplo, a aplicação


g : Rn [x] −→ Rn+1
183

tal que

∀an xn +···+a1 x+a0 ∈Rn [x] g(an xn + · · · + a1 x + a0 ) = (an , . . . , a1 , a0 )

é um isomorfismo entre Rn [x] e Rn+1 . (Verifique.)

Exercı́cio 5.19 Justifique que M2×2 (R) e R3 [x] são isomorfos e indique um isomorfismo
entre M2×2 (R) e R3 [x].

5.4 Matriz de uma aplicação linear

No que vai seguir-se suporemos que os espaços vectoriais E e E 0 são ambos de dimensão
finita, com dim E = n ≥ 1 e dim E 0 = m ≥ 1.

Sabemos que se f : E −→ E 0 é uma aplicação linear então podemos determinar a


imagem de qualquer vector de E conhecendo apenas as imagens dos vectores de uma base
B = (e1 , . . . , en ) de E.

Por sua vez, cada vector f (ej ) ∈ E 0 , j = 1, . . . , n, fica perfeitamente determinado se


conhecermos a sequência das suas coordenadas em relação a uma base B 0 = (e01 , . . . , e0m ) de
E 0 . De facto, se (α1 , . . . , αm ) é a sequência das coordenadas de f (ej ) na base B 0 então

f (ej ) = α1 e01 + · · · + αm e0m , j = 1, . . . , n.

Pensemos que a sequência das coordenadas de f (ej ) são a coluna j de uma matriz. Tem-se
então

Definição 5.19 Seja f : E −→ E 0 uma aplicação linear. Sejam B = (e1 , . . . , en ) uma


base de E e B 0 = (e01 , . . . , e0m ) uma base de E 0 .
Designa-se por matriz de f em relação às bases B e B 0 (por esta ordem), e
representa-se por
M(f ; B, B 0 ),

a matriz A = [aij ] ∈ Mm×n (K) cuja coluna j, j = 1, . . . , n, é a sequência das coorde-


nadas de f (ej ) na base B 0 . Assim

f (ej ) = a1j e01 + · · · + amj e0m , j = 1, . . . , n.


184

Exemplo 5.20 1. Considere a aplicação idE e seja B = (e1 , . . . , en ) uma base arbitrária de
E. Determinemos
M(idE ; B, B).

Tem-se

idE (e1 ) = e1 = 1e1 + 0e2 + 0e3 + · · · + 0en−1 + 0en

idE (e2 ) = e2 = 0e1 + 1e2 + 0e3 + · · · + 0en−1 + 0en


..
.

idE (en ) = en = 0e1 + 0e2 + 0e3 + · · · + 0en−1 + 1en

pelo que
2 3
1 0 ··· 0
6 7
6 0 1 ··· 0 7
6 7
M(idE ; B, B) = 6 7 = In , com n = dim E.
6 .. .. .. .. 7
6 . . . . 7
4 5
0 0 ··· 1

Se em E considerarmos a base B 0 = (e1 , e1 + e2 , e2 + e3 , . . . , en−1 + en ) (verifique que é


base) teremos
2 3
1 1 0 ··· 0 0
6 7
6 0 1 1 ··· 0 0 7
6 7
6 7
6 0 0 1 ··· 0 0 7
6 7
M(idE ; B 0 , B) = 6
6 .. .. .. .. .. .. 7
7
.
6 . . . . . . 7
6 7
6 ··· 1 7
4 0 0 0 1 5
0 0 0 ··· 0 1

2. Seja f : R3 −→ R2 a aplicação linear tal que

∀(a,b,c)∈R3 f (a, b, c) = (2a + b, −c).

Sejam B = (1, 1, 2), (0, 2, 6), (0, 0, −4) e B 0 = (1, 0), (0, 2) bases de R3 e R2 , respec-
 

tivamente. Determinemos M(f ; B, B 0 ).

Tem-se
f (1, 1, 2) = (3, −2) = 3(1, 0) + (-1)(0, 2)
f (0, 2, 6) = (2, −6) = 2(1, 0) + (-3)(0, 2)
f (0, 0, −4) = (0, 4) = 0(1, 0) + 2(0, 2)

pelo que
" #
3 2 0
M(f ; B, B 0 ) = .
−1 −3 2
185

Sendo f : E −→ E 0 uma aplicação linear e B e B 0 bases de E e E 0 , respectivamente,


vejamos agora como utilizar M(f ; B, B 0 ) para determinar a imagem por f de qualquer vector
de E.

Proposição 5.21 Seja f : E −→ E 0 uma aplicação linear. Sejam B = (e1 , . . . , en ) uma


base de E, B 0 = (e01 , . . . , e0m ) uma base de E 0 e A = M(f ; B, B 0 ).

Se (α1 , . . . , αn ) é a sequência das coordenadas de um vector u ∈ E na base B então a


sequência das coordenadas de f (u) na base B 0 é (β1 , . . . , βm ) tal que
2 3 2 3
α1 β1
6 7 6 7
A6
6
..
.
7
7 = 6
6
..
.
7
7.
4 5 4 5
αn βm

Demonstração:
Seja A = [aij ] ∈ Mm×n (K).

Sabemos que
f (ej ) = a1j e01 + · · · + amj e0m , j = 1, . . . , n.

Pretendemos calcular f (u), para qualquer u ∈ E.

Como (e1 , . . . , en ) é uma base de E existem α1 , . . . , αn ∈ K, únicos, tais que

u = α1 e1 + · · · + αn en .

Logo

f (u) = f (α1 e1 + · · · + αn en )
= α1 f (e1 ) + · · · + αn f (en )
= α1 (a11 e01 + · · · + am1 e0m ) + · · · + αn (a1n e01 + · · · + amn e0m )
= (α1 a11 + · · · + αn a1n )e01 + · · · + (α1 am1 + · · · + αn amn )e0m
= (a11 α1 + · · · + a1n αn )e01 + · · · + (am1 α1 + · · · + amn αn )e0m .

Assim, a sequência das coordenadas de f (u) na base B 0 = (e01 , . . . , e0m ) é


 
(a11 α1 + · · · + a1n αn ), . . . , (am1 α1 + · · · + amn αn ) .

Como 2 32 3 2 3
a11 ··· a1n α1 a11 α1 + · · · + a1n αn
6 76
6
7
7
6 7
6
4 ··· 76 ..
54 . 7 =6
6
..
.
7
7
5 4 5
am1 ··· amn αn am1 α1 + · · · + amn αn

está demonstrado o que pretendı́amos.


186

Sejam B = (1, 1, 2), (0, 2, 6), (0, 0, −4) uma base de R3 , B 0 = (1, 0), (0, 2)
 
Exemplo 5.22
uma base de R2 e considere-se a aplicação linear f : R3 −→ R2 tal que

" #
0 3 2 0
A = M(f ; B, B ) = .
−1 −3 2

Determinemos f (1, −3, −6).

Comecemos por determinar a sequência das coordenadas do vector u = (1, −3, −6) na
base B. Tem-se

(1, −3, −6) = α1 (1, 1, 2) + α2 (0, 2, 6) + α3 (0, 0, −4)

com

 α1 = 1


α1 + 2α2 = −3 .


2α1 + 6α2 − 4α3 = −6

Verificamos facilmente que a sequência das coordenadas do vector u na base B é (1, −2, −1),
isto é,

(1, −3, −6) = 1(1, 1, 2) + (-2)(0, 2, 6) + (-1)(0, 0, −4).

Assim, de acordo com a Proposição 5.21, a sequência das coordenadas de f (u), na base
B 0 , é (−1, 3) pois
2 3 2 3
1 " # 1 " #
6 7 3 2 0 6 7 −1
A6 7
4 −2 5 = 6 −2 7
4 5 = .
−1 −3 2 3
−1 −1

Se (−1, 3) é a sequência das coordenadas de f (u) na base B 0 = (1, 0), (0, 2) então


ter-se-á

f (u) = -1(1, 0) + 3(0, 2)

= (−1, 6),

que é o vector pretendido.


187

Exercı́cio 5.20 Sejam R3 e R2 espaços vectoriais reais e f : R3 −→ R2 a aplicação linear


definida por f (a, b, c) = (a + b, b + c). Considere as bases de R3
 
B1 = b. c.R3 , B2 = (0, 1, 0), (1, 0, 1), (1, 0, 0)

e as bases de R2  
B10 = b. c.R2 , B20 = (1, 1), (1, 0)

onde “b. c.” significa “base canónica”.

(a) Calcule f (1, 2, 3).



(b) Determine M f ; B1 , B10 . Calcule f (1, 2, 3) utilizando esta matriz.

(c) Determine M f ; B2 , B10 . Calcule f (1, 2, 3) utilizando esta matriz.

(d) Determine M f ; B1 , B20 . Calcule f (1, 2, 3) utilizando esta matriz.

(e) Determine M f ; B2 , B20 . Calcule f (1, 2, 3) utilizando esta matriz.
(f) Diga, justificando, se
(i) g é sobrejectiva;
(ii) g é injectiva.

Como consequência imediata do resultado anterior, no caso particular

E = E0 e f = idE

tem-se

Proposição 5.23 Sejam B e B 0 bases de E e seja u ∈ E. Se (α1 , . . . , αn ) é a sequência das


coordenadas de u na base B então a sequência das coordenadas de u na base B 0 é (β1 , . . . , βn )
com 2 3 2 3
α1 β1
6 7 6 7
M(idE ; B, B 0 )6
6
..
.
7
7 = 6
6
..
.
7
7.
4 5 4 5
αn βn

Definição 5.24 Se B e B 0 são bases de E designamos por matriz de mudança de


base (B, B 0 ) a matriz
M(idE ; B, B 0 ).

Notemos que, de acordo com a proposição anterior, a matriz de mudança de base (B, B 0 )
nos permite relacionar as coordenadas de um vector, na base B, com as suas coordenadas,
na base B 0 .

Exemplo 5.25 Seja E um espaço vectorial sobre R de dimensão 3 e seja B = (e1 , e2 , e3 )


uma base de E.
188

A sequência B 0 = (e01 , e02 , e03 ) com

e01 = e1 + e2 − e3 , e02 = e2 + e3 e e03 = 2e3

é também uma base de E. (Verifique.)

Seja, por exemplo,


w = 2e01 + 1e02 − 3e03 .

A sequência das coordenadas de w, na base B 0 , é

(2, 1, −3).

Determinemos a sequência das coordenadas de w, na base B.

• Sem utilizar matrizes de mudança de base ter-se-ia:

w = 2e01 + 1e02 − 3e03

= 2(e1 + e2 − e3 ) + 1(e2 + e3 ) − 3(2e3 )

= 2e1 + 3e2 − 7e3

e, portanto, a sequência das coordenadas de w, na base B, é

(2, 3, −7).

• Um processo alternativo, para resolver o problema, é determinar a matriz de mudança


de base (B 0 , B), isto é,
M(idE ; B 0 , B).

Tem-se

idE (e01 ) = e01 = 1e1 + 1e2 + (-1)e3

idE (e02 ) = e02 = 0e1 + 1e2 + 1e3

idE (e03 ) = e03 = 0e1 + 0e2 + 2e3

pelo que 2 3
1 0 0
6 7
M(idE ; B 0 , B) = 6
4 1 1 0 7
5.
−1 1 2

De acordo com a proposição anterior teremos


2 32 3 2 3
1 0 0 2 2
6 76 7 6 7
6 1 1 0 76 7 = 6 3 7
4 54 1 5 4 5
−1 1 2 −3 −7
189

e, portanto, a sequência das coordenadas de w, na base B, é

(2, 3, −7).

Se pretendermos a sequência das coordenadas, na base B, do vector

z = α1 e01 + α2 e02 + α3 e03

procederı́amos de forma idêntica. Como


2 32 3 2 3
1 0 0 α1 α1
6 76 7 6 7
6 1 1 0 76 7 =6 7
4 54 α2 5 4 α1 + α2 5
−1 1 2 α3 −α1 + α2 + 2α3

a sequência das coordenadas, na base B, do vector z é

(α1 , α1 + α2 , −α1 + α2 + 2α3 ).

No Capı́tulo 1 pareceu-nos “natural” definir a adição de matrizes como uma operação


que associa a quaisquer duas matrizes do mesmo tipo uma matriz do mesmo tipo obtida
adicionando os elementos homólogos.

Neste sentido, surgiu ainda de forma “natural” a definição de multiplicação de um escalar


por uma matriz.

Teorema 5.26 Sejam f : E −→ E 0 e g : E −→ E 0 aplicações lineares e α ∈ K. Seja B uma


base de E e seja B 0 uma base de E 0 .

Se
M(f ; B, B 0 ) = A e M(g; B, B 0 ) = B

então
M(f + g; B, B 0 ) = A + B e M(αf ; B, B 0 ) = αA.

Demonstração:
Exercı́cio.

Contrariamente às operações anteriormente referidas de adição de matrizes e de multi-


plicação de um escalar por uma matriz, a definição de multiplicação de matrizes não surge
de forma “natural”.

Conforme referimos na altura, essa definição tem uma motivação que só agora estamos
em condições de compreender.
190

Teorema 5.27 Sejam f : E −→ E 0 e g : E 0 −→ E 00 aplicações lineares. Sejam B, B 0 e B 00


bases, respectivamente, de E, E 0 e E 00 . Se

M(f ; B, B 0 ) = A e M(g; B 0 , B 00 ) = B

então
M(g ◦ f ; B, B 00 ) = BA,

isto é,
M(g; B 0 , B 00 )M(f ; B, B 0 ) = M(g ◦ f ; B, B 00 ).

Demonstração:
Sejam n = dim E, m = dim E 0 e p = dim E 00 . Consideremos

B = (e1 , . . . , en ), B 0 = (e01 , . . . , e0m ) e B 00 = (e001 , . . . , e00p )

bases de E, E 0 e E 00 , respectivamente.

Seja C = M(g ◦ f ; B, B 00 ) e demonstremos que C = BA.

Pela definição de matriz de uma aplicação linear tem-se

M(f ; B, B 0 ) = A = [aij ] ∈ Mm×n (K),

M(g; B 0 , B 00 ) = B = [bij ] ∈ Mp×m (K)

e
M(g ◦ f ; B, B 00 ) = C = [cij ] ∈ Mp×n (K).

Assim, C e BA pertencem ambas a Mp×n (K).

Demonstremos, finalmente, que

cij = (BA)ij .

cij , sendo o elemento da posição (i, j) da matriz M(g ◦ f ; B, B 00 ), é a i-ésima


coordenada do vector (g ◦ f )(ej ) em relação à base B 00 . Como

(g ◦ f )(ej ) = g (f (ej ))
= g(a1j e01 + · · · + amj e0m )
= a1j g(e01 ) + · · · + amj g(e0m )
= a1j (b11 e001 + · · · + bp1 e00p ) + · · · + amj (b1m e001 + · · · + bpm e00p )

tem-se

cij = a1j bi1 + · · · + amj bim


= bi1 a1j + · · · + bim amj .
191

Assim
cij = (BA)ij ,

conforme pretendı́amos demonstrar.

Proposição 5.28 Toda a matriz de mudança de base é invertı́vel e se

A = M(idE ; B, B 0 )

então
A−1 = M(idE ; B 0 , B).

Demonstração:
Basta atender a que, pelo teorema anterior, se tem

M(idE ; B, B 0 )M(idE ; B 0 , B) = M(idE ◦ idE ; B 0 , B 0 )


= M(idE ; B 0 , B 0 )
= In ,

com n = dim E.

Exercı́cio 5.21 Seja f : E −→ E 0 uma aplicação linear. Sejam B uma base de E, B0


uma base de E 0 e
A = M(f ; B, B0 ).

Justifique que:

(a) A é invertı́vel se, e só se, f é invertı́vel.


(b) Nas condições de (a) se tem A−1 = M(f −1 ; B0 , B). (Note a “troca” da
ordem das bases.)

Sabemos que se f : E −→ E 0 é uma aplicação linear, em geral, a matriz de f , em relação


a bases de E e E 0 , respectivamente, muda quando, quer em E quer em E 0 , as bases mudam.
Apesar de tais matrizes serem, em geral, diferentes, por serem matrizes da mesma aplicação
linear f estão relacionadas. Vejamos como.

Teorema 5.29 Seja f : E −→ E 0 uma aplicação linear. Sejam B1 e B2 bases de E e sejam


B10 e B20 bases de E 0 .

Se
M(f ; B1 , B10 ) = A1 e M(f ; B2 , B20 ) = A2
192

então
A2 = P A1 Q

em que
P = M(idE 0 ; B10 , B20 ) e Q = M(idE ; B2 , B1 ),

isto é, P é a matriz de mudança de base (B10 , B20 ) e Q é a matriz de mudança de base (B2 , B1 ).

Demonstração:
Consideremos o seguinte diagrama
idE f idE 0
E - E - E0 - E0 .
B2 B1 B10  B20

idE 0 ◦f ◦ idE = f

Atendendo ao Teorema 5.27 podemos concluir facilmente o que pretendemos.

Exercı́cio 5.22 Sejam R3 e R2 espaços vectoriais reais e f : R3 −→ R2 a aplicação linear


tal que  
1 1 0
M (f ; b. c.R3 , b. c.R2 ) = ,
0 1 1

onde “b. c.” significa “base canónica”. Considere as bases


   
B = (0, 1, 0), (1, 0, 1), (1, 0, 0) e B0 = (1, 1), (1, 0)

de R3 e R2 , respectivamente.
Utilizando matrizes de mudança de base, determine:

(a) M (f ; B, b. c.R2 ).
(b) M (f ; b. c.R3 , B0 ).
(c) M (f ; B, B0 ).

Observações:

(1) Em relação ao teorema anterior, note que se dim E = n e dim E 0 = m então

A1 , A2 ∈ Mm×n (K), P ∈ Mm×m (K) e Q ∈ Mn×n (K).

(2) O teorema anterior sugere a seguinte definição para matrizes que se relacionam de
forma idêntica à das matrizes A1 e A2 referidas anteriormente.

Definição 5.30 Sejam A, B ∈ Mm×n (K). Dizemos que A é equivalente a B se


existem matrizes invertı́veis P ∈ Mm×m (K) e Q ∈ Mn×n (K) tais que

B = P AQ.
193

Note que se A é equivalente a B então também B é equivalente a A (porquê?) e, por


isso, dizemos apenas que A e B são equivalentes.

(3) Consideremos o seguinte caso particular do teorema anterior:

E = E0, B1 = B10 e B2 = B20 .

Se
A1 = M(f ; B1 , B1 ) e A2 = M(f ; B2 , B2 )

então
A2 = P A1 P −1

em que
P = M(idE ; B1 , B2 ) e M(idE ; B2 , B1 ) = P −1 .

Definição 5.31 Sejam A, B ∈ Mn×n (K). Dizemos que A é semelhante a B se


existe uma matriz invertı́vel P ∈ Mn×n (K) tal que

B = P AP −1 .

Esta noção de semelhança, caso particular de equivalência de matrizes, surgirá também


no capı́tulo seguinte, aquando do estudo da diagonalização de matrizes.

(4) Sendo E e E 0 espaços vectoriais de dimensão finita, pode demonstrar-se (o que não
faremos), que dada uma aplicação linear f : E −→ E 0 , a dimensão de Im f é igual
à caracterı́stica de qualquer uma das matrizes que representa f em relação a bases
fixadas de E e E 0 , respectivamente.

Caso seja necessário, utilize esse resultado, para resolver os exercı́cios seguintes.

Exercı́cio 5.23 Considere o espaço vectorial real R3 e a aplicação linear g : R3 → R3


definida por
g(a, b, c) = (3a + 6b, a − b + 3c, −2a − 3b − c),
para qualquer (a, b, c) ∈ R3 .

(a) Determine M(g; b. c., b. c.), onde “b. c.” significa “base canónica”.
(b) Determine os valores de k para os quais o vector (k, 2 + k, 1) ∈ Im g.
(c) Diga, justificando, se
(i) g é sobrejectiva;
(ii) g é injectiva.
(d) Determine uma base de Im g.
194

Exercı́cio 5.24 Sejam E e E 0 espaços vectoriais reais, B = (e1 , e2 , e3 ) uma base de E,


B0 = (v1 , v2 , v3 , v4 ) uma base de E 0 e f : E → E 0 , g : E 0 → E aplicações lineares definidas
por 8
8 > g(v1 ) = 0E
< f (e1 ) = 2v1 + v2 − v4 >
<
g(v2 ) = e2 + e3
f (e2 ) = v1 + v3 e .
: >
> g(v3 ) = e1 + e3
f (e3 ) = v2 − v4 :
g(v4 ) = e1 − e2 + 2e3

(a) Diga, justificando, se


(i) f é sobrejectiva;
(ii) f é injectiva.
(b) Determine dim Nuc g e dim Im g.
(c) Determine M(f ◦ g; B0 , B0 ).

Exercı́cio 5.25 Sejam (u1 , u2 , u3 ) uma base do espaço vectorial real R3 e f : R3 → R3


a aplicação linear definida por

f (au1 + bu2 + cu3 ) = (a + b + c)u1 + (2a + b − c)u2 + (−a − b − c)u3 ,

para quaisquer a, b, c ∈ R.

(a) Determine M(f ; (ui ), (ui )).


(b) Diga, justificando, se f é sobrejectiva.
(c) Diga, justificando, se f é injectiva.
(d) Determine uma base de Nuc f .
(e) Seja (w1 , w2 , w3 ) uma base de R3 , tal que

u1 = w1 + w2 + w3 , u2 = w1 + 2w2 + w3 e u3 = w 1 .

Determine M(f ; (wi ), (ui )).


(f) Diga, justificando, se M(f ; (wi ), (ui )) é invertı́vel.

Exercı́cio 5.26 Sejam E um espaço vectorial real, (u1 , u2 , u3 ) e (w1 , w2 , w3 ) bases de


E. Considere em R4 a base (e1 , e2 , e3 , e4 ), onde

e1 = (1, 1, 1, 1), e2 = (1, 1, 1, 0), e3 = (1, 1, 0, 0) e e4 = (1, 0, 0, 0).

Seja f : R4 → E uma aplicação linear, tal que


2 3
1 1 −1 1
M(f ; (ei ), (uj )) = 4 −1 −2 0 −3 5.
1 1 −1 1

(a) Determine f (1, 0, 1, 2).


2 3
1 1 1
(b) Sabendo que M(idE ; (wj ), (uj )) = 4 1 2 0 5, determine
1 1 0
M(f ; (ei ), (wj )).
195

Exercı́cio 5.27 Sejam E um espaço vectorial real e (u1 , u2 , u3 ) uma sua base. Considere
a aplicação linear f : R5 → E definida por

f (a, b, c, d, e) = (−b − c + d)u1 + (2a + b + 3c − 3d)u2 + (b + c − d)u3 ,

para quaisquer a, b, c, d, e ∈ R.

(a) Determine M(f ; b. c., (ui )).


(b) Determine uma base de Im f .
(c) Considere os vectores de R5

w1 = (2, 2, 0, 2, 2), w2 = (−1, −1, 1, 0, 1) e w3 = (0, 0, 0, 0, 1).

Mostre que (w1 , w2 , w3 ) é base de Nuc f .


(d) Determine uma base de R5 que inclua os vectores w1 , w2 e w3 .
(e) Sendo B a base obtida em (d), determine M(f ; B, (ui )).

Exercı́cio 5.28 Sejam (u1 , u2 , u3 , u4 ) uma base do espaço vectorial real R4 e


f : R4 → R3 a aplicação linear, tal que
2 3
−1 2 1 1
M(f ; (ui ), b. c.) = 4 0 1 1 0 5.
1 0 1 −1

(a) Diga, justificando, se


(i) f é injectiva;
(ii) f é sobrejectiva.
(b) Determine uma base de Nuc f .

Exercı́cio 5.29 Sejam E um espaço vectorial de dimensão finita sobre K e f : E → E


uma aplicação linear, tal que se tem Im f = Im(f ◦ f ). Mostre que

E = Nuc f + Im f e Nuc f = Nuc(f ◦ f ).

Exercı́cio 5.30 Sejam E um espaço vectorial sobre K de dimensão n ≥ 1 e f : E → E


uma aplicação linear. Mostre que as afirmações seguintes são equivalentes:

(a) Im f = Nuc f ;
(b) A aplicação f é não nula, f ◦ f é a aplicação linear nula, n é par e
dim Im f = n 2
.
196

Soluções de alguns dos exercı́cios propostos  


3 6 0
5.2 (a) (i) É 5.23 (a) 1 −1 3
−2 −3 −1
(ii) Não é
(b) k = − 15
8
(iii) Não é
(c) (i) Não
(iv) É
(ii) Não
(v) É 
(d) Por exemplo, (1, 0, − 59 ), (0, 1, − 13 )
(b) (i) (4, 2, −1, −1)
(ii) (−1, 0, −1) 5.24 (a) (i) Não
(ii) Sim
5.5 (b) f (1, 0, −1, 0) = (1, −1, −1)
(b) dim Im g = 3 e dim Nuc g = 1
g(0, 0, 0, 0) = (0, 0, 0) " #
0 1 2 1
 0 1 2 3
(d) Por exemplo, (−1, 1, −1, 1) (c) 0 1 0 −1
0 −1 −2 −3

(e) Por exemplo, (1, 0, 0), (0, 1, 0), (0, 0, 1)  
1 1 1
5.25 (a) 2 1 −1
 −1 −1 −1
5.6 (a) Por exemplo, −x3 + x2 − x + 1

(b) Não
(b) Por exemplo, (1, 0, 0), (0, 1, 0), (0, 0, 1)
(c) Não
5.7 (b) Sim (d) Por exemplo, (2u1 − 3u2 + u3 )
1   0 1   0 0   
0 1 0 0
(c) Por exemplo, 0 −1 , 0 0 , 1 0 (e) −1 −1 4
−1 0 0

5.8 (a) Por exemplo, (1, 0, 0, 1), (0, 1, 0, −1), (0, 0, 1, 0) (f) Não

(b) Por exemplo, (1, 0, − 21 , − 12 , 0), (0, 1, 0, 0, 0) 5.26 (a) 3u1 − 3u2 + 3u3
5 3
 h 3 4 −2 5 i
(c) Por exemplo, (1, 0, −i, 1), (0, 1, 2 + 2 i, −1) (b) −2 −3 1 −4
0 0 0 0
  
5.9 (a) Por exemplo, (1, 0, 1, 0, 1), (0, 1, 0, 1, 0) 0 −1 −1 1 0
5.27 (a) 2 1 3 −3 0
0 1 1 −1 0
(b) Por exemplo,
(b) Por exemplo, (u1 − u3 , u2 )
(−v1 − v2 + v3 , −2v1 − 2v2 + v4 , v5 )
(d) Por exemplo, (2, 2, 0, 2, 2), (−1, −1, 1, 0, 1) ,
5.10 (b) Por exemplo, (1) 
(0, 0, 0, 0, 1), (0, 1, 0, 0, 0), (0, 0, 0, 1, 0)
  
(c) Por exemplo, xn−1 , . . . , x, 1 0 0 0 −1 1
(e) 0 0 0 1 −3
0 0 0 1 −1

5.14 dim Nuc f = 1


5.28 (a) (i) Não

5.15 (a) Sim (ii) Não

(b) Não (b) Por exemplo, (−u1 − u2 + u3 , u1 + u4 )

5.20 (a) (3, 5)


 
(b) 10 11 01
 
(c) 11 11 10
 
(d) 01 10 −11

 
(e) 10 10 01

(f) (i) Sim


(ii) Não

111

5.22 (a) 110
0 1 1

(b) 1 0 −1
110

(c) 001
Capı́tulo 6

Valores e Vectores Próprios

Neste capı́tulo consideraremos apenas matrizes quadradas.

6.1 Valores, vectores e subespaços próprios de uma matriz

Definição 6.1 Seja A ∈ Mn×n (K). Dizemos que X ∈ Mn×1 (K) é um vector
próprio de A se

(i) X 6= 0

e (ii) ∃α∈K AX = αX.

Dizemos que β ∈ K é um valor próprio de A se existe X ∈ Mn×1 (K) tal que

(i) X 6= 0

e (ii) AX = βX.

Um vector X nessas condições diz-se um vector próprio de A associado ao valor próprio


β.

Notemos que na definição anterior de vector próprio de A se tem, de facto,

(ii) ∃1α∈K AX = αX,


198

pois se α, β ∈ K, são tais que

AX = αX e AX = βX,

com X 6= 0, então tem-se

αX = βX

(α − β)X = 0.

Como X 6= 0 concluı́mos que α − β = 0, isto é, α = β.

Dizemos então que α é o valor próprio de A associado ao vector próprio X. Assim, a


cada vector próprio está associado um, e um só, valor próprio.

Contudo, na definição de valor próprio de uma matriz A ∈ Mn×n (K), o vector X, que é
obviamente um vector próprio de A, não é único. Basta atender a que se

X 6= 0 e AX = βX

então, para qualquer α ∈ K \ {0} se tem

αX 6= 0 e A(αX) = α(AX)

= α(βX)

= (αβ)X

= (βα)X

= β(αX)

e, portanto, αX é também um vector próprio de A associado ao valor próprio β.

Também se Y, Z ∈ Mn×1 (K) são vectores próprios de A associados ao valor próprio β


então o mesmo sucede a Y + Z, se Y + Z 6= 0n×1 , conforme estabelece o resultado seguinte.

Proposição 6.2 Sejam A ∈ Mn×n (K), α um valor próprio de A e

Mα = {X ∈ Mn×1 (K) : AX = αX} .

Tem-se:

1. Mα é um subespaço vectorial de Mn×1 (K).

2. Os vectores próprios de A associados ao valor próprio α são os elementos de Mα \ {0n×1 }.


199

Demonstração:
1. Mα ⊆ Mn×1 (K), pela própria definição de Mα .

0n×1 ∈ Mα pois A0n×1 = 0n×1 = α0n×1 .

Demonstremos que quaisquer que sejam Y, Z ∈ Mα se tem Y + Z ∈ Mα . Por


hipótese,
AY = αY e AZ = αZ.

Logo
A(Y + Z) = AY + AZ = αY + αZ = α(Y + Z)

e, portanto, Y + Z ∈ Mα .

Finalmente, demonstremos que para qualquer β ∈ K e qualquer Y ∈ Mα se tem


βY ∈ Mα . Por hipótese, AY = αY pelo que

A(βY ) = β(AY ) = β(αY ) = (βα)Y = (αβ)Y = α(βY ).

Concluı́mos então que βY ∈ Mα .

2. É trivial, atendendo à definição de vector próprio associado ao valor próprio


α.

Definição 6.3 Sejam A ∈ Mn×n (K) e α um valor próprio de A. Ao subespaço


vectorial

Mα = {X ∈ Mn×1 (K) : AX = αX}

= {X ∈ Mn×1 (K) : (A − αIn ) X = 0}

chamamos subespaço próprio de A associado ao valor próprio α.


A dimensão do subespaço Mα designa-se por multiplicidade geométrica do valor
próprio α e é representada por mg(α).

Como Mα é um subespaço de Mn×1 (K) tem-se

mg(α) = dim Mα ≤ dim Mn×1 (K) = n.

Por outro lado, como Mα 6= {0n×1 } (porquê?) então dim Mα ≥ 1. Assim

1 ≤ mg(α) ≤ n.

O resultado seguinte vai ser muito útil para determinar, na prática, os valores próprios
de uma matriz.
200

Teorema 6.4 Seja A ∈ Mn×n (K). Tem-se, α é valor próprio de A se, e só se,

|A − αIn | = 0.

Demonstração:
Por definição, α é valor próprio de A se, e só se, existe X ∈ Mn×1 (K) tal que

X 6= 0 e AX = αX,

ou equivalentemente,

X 6= 0 e (A − αIn ) X = 0.

Notemos que o sistema homogéneo, com n incógnitas,

(A − αIn ) Y = 0

admite uma solução não nula se, e só se, é indeterminado. Tal equivale a afirmar
que
r (A − αIn ) < n

ou, ainda, que


|A − αIn | = 0.

O teorema anterior motiva a seguinte definição.

Definição 6.5 Seja A ∈ Mn×n (K). Chamamos polinómio caracterı́stico de A e


representamos por pA (x), ou simplesmente p(x) se não houver ambiguidade, o po-
linómio na variável x com coeficientes em K, dado por

|A − xIn | .

Pode demonstrar-se que se A ∈ Mn×n (K) então o seu polinómio caracterı́stico tem grau
igual a n.

Assim, de acordo com o teorema anterior, tem-se

Proposição 6.6 Se A ∈ Mn×n (K) então α ∈ K é um valor próprio de A se, e só se, α é
um zero do polinómio caracterı́stico de A, isto é, se, e só se,

pA (α) = |A − αIn | = 0.
201

Definição 6.7 Seja A ∈ Mn×n (K) e α um valor próprio de A. Designamos por


multiplicidade algébrica do valor próprio α, e representamos por ma(α), a multi-
plicidade de α como zero do polinómio caracterı́stico de A, isto é, o maior inteiro k
tal que (α − x)k divide pA (x).

Dado que um polinómio de grau n tem exactamente n zeros em C e tem, no máximo, n


zeros em R, podemos afirmar que se α1 , . . . , αr são os valores próprios, dois a dois distintos,
de A ∈ Mn×n (K) então
r
X
ma(αi ) ≤ n
i=1

e se o polinómio caracterı́stico de A ∈ Mn×n (K) tem todos os zeros em K (o que sucede se


K = C) então
r
X
ma(αi ) = n.
i=1

Observação:

Para certos autores o polinómio caracterı́stico de A ∈ Mn×n (K) é definido por

|xIn − A| .

Notemos que
|xIn − A| = |− (A − xIn )| = (−1)n |A − xIn |

e, portanto, para qualquer α ∈ K tem-se

|αIn − A| = 0 se, e só se, |A − αIn | = 0.

2 3
2 0 0
6 7
Exemplo 6.8 1. Seja A = 6
4 0 1 1 7
5 ∈ M3×3 (R). Como
0 0 1


2−x
0
0

p(x) = |A − xI3 | =
0 1−x 1
= (2 − x)(1 − x)2 ,

0 0 1−x

A tem os valores próprios


2 com ma(2) = 1

e
1 com ma(1) = 2.
202

Determinemos o subespaço próprio de A associado a cada valor próprio, bem como a


multiplicidade geométrica de cada valor próprio.

O subespaço próprio de A associado ao valor próprio 2 é:

M2 = {X ∈ M3×1 (R) : (A − 2I3 ) X = 0}


2 3 2 32 3 2 3
 a 0 0 0 a 0
6 7 6 76 7 6 7

= 6 b 7 ∈ M3×1 (R) : 6
4 0 −1 1 76 b 7 = 6 0 7 .
4 5 54 5 4 5

c 0 0 −1 c 0

Cálculo auxiliar para resolver o sistema (A − 2I3 ) X = 0:


2 3 2 3 2 3
0 0 0 0 0 −1 1 0 0 −1 1 0
6 7−−−−→6 7−−−−→6 7−

6 0 −1 1 0 7 l ↔ l 6 0 0 0 0 7l ↔ l 6 0 0 −1 0 7
4 5 1 2 4 5 2 3 4 5
0 0 −1 0 0 0 −1 0 0 0 0 0
2 3 2 3
0 1 −1 0 0 1 0 0
−−−→6 7−−−−→6 7
(−1)l1 6
(−1)l2 4 0 0 1 0 7
5l 1 + l 2
6 0 0 1
4 0 7
5 (f.e.r.).
0 0 0 0 0 0 0 0

Assim
2 3  2 3 
a a
6 7 6 7
   
M2 = 6 b 7 ∈ M3×1 (R) : b = 0 ∧ c = 0 = 6 0 7 : a∈R
4 5  4 5

c 0
 2 3  *2 3+
1 1
6 7 6 7
 
= a6 0 7: a∈R = 6 0 7 .
 4 5  4 5
0 0
2 3 2 3 2 3
1 0 1
6 7 6 7 6 7
Como 6
4 0 7
5 6= 6
4 0 7
5 a sequência 6
4 0 7
5
 é linearmente independente e, portanto, temos
0 0 0
2 3
1
6 7
Base de M2 = 6 7
4 0 5 .
0

Concluı́mos assim que


mg(2) = dim M2 = 1.

Da mesma forma, o subespaço próprio de A associado ao valor próprio 1 é:

M1 = {X ∈ M3×1 (R) : (A − 1I3 ) X = 0}


2 3 2 32 3 2 3
 a 1 0 0 a 0 
6 7 6 76 7 6 7
= 6 b 7 ∈ M3×1 (R) : 6 76 7 6
4 0 0 1 54 b 5 = 4 0 5
7
4 5 
c 0 0 0 c 0
2 3 
 a
6 7

6 7
= 4 b 5 ∈ M3×1 (R) : a = 0 ∧ c = 0
 
c
2 3   2 3  *2 3+
 0   0 0
6 7 6 7 6 7

= 6 7
4 b 5: b∈R = b6 7
4 1 5: b∈R = 6 7
4 1 5 .
   
0 0 0
203

De forma análoga concluı́mos que


2 3
0
6 7
Base de M1 = 6
4 1 7
5
 e que mg(1) = 1.
0

2. Consideremos a matriz In . O seu polinómio caracterı́stico é

p(x) = (1 − x)n .

Assim In tem apenas o valor próprio 1 com

ma(1) = n.

O subespaço próprio de In associado ao seu único valor próprio é

M1 = {X ∈ Mn×1 (K) : (In − 1In ) X = 0}

= {X ∈ Mn×1 (K) : 0X = 0}

= {X ∈ Mn×1 (K)}

= Mn×1 (K).

Logo
mg(1) = dim M1 = n.

Concluı́mos então que todo o vector X ∈ Mn×1 (K), com X 6= 0, é vector próprio de In
associado ao valor próprio 1.

É possı́vel indicar se uma matriz A ∈ Mn×n (K) é invertı́vel ou não conhecendo apenas
o seu polinómio caracterı́stico ou apenas os seus valores próprios, pois tem-se

Proposição 6.9 A ∈ Mn×n (K) é invertı́vel se, e só se, A não tem o valor próprio zero, ou
equivalentemente, se o termo constante do polinómio caracterı́stico de A é não nulo.

Demonstração:
Sabemos que A é invertı́vel se, e só se, |A| =
6 0.

Notemos que se p(x) = an xn + · · · + a1 x + a0 é o polinómio caracterı́stico de A


então
p(0) = |A − 0In | = |A|

e
p(0) = a0 .
204

Assim, são equivalentes as três afirmações

|A| =
6 0, |A − 0In | =
6 0 e a0 6= 0,

conforme pretendı́amos demonstrar.

6.2 Matrizes diagonalizáveis: Definição e caracterizações

Recordemos a definição de matrizes semelhantes, dada no final do Capı́tulo 5.

Definição 6.10 Sejam A, B ∈ Mn×n (K). Dizemos que A e B são semelhantes se


existe uma matriz invertı́vel P ∈ Mn×n (K) tal que

P −1 AP = B.

Tem-se a seguinte propriedade:

Proposição 6.11 Se A, B ∈ Mn×n (K) são semelhantes então os seus polinómios carac-
terı́sticos são iguais.

Demonstração:
Como existe P ∈ Mn×n (K), invertı́vel, tal que

P −1 AP = B

tem-se

|B − xIn | = P −1 AP − xIn = P −1 AP − xP −1 In P = P −1 (A − xIn ) P


= P −1 |A − xIn | |P | = P −1 |P | |A − xIn | = P −1 P |A − xIn |


= |In | |A − xIn | = |A − xIn | .

Exercı́cio 6.1 Sejam A, B ∈ Mn×n (K) tais que A é invertı́vel. Mostre que AB e BA
têm o mesmo polinómio caracterı́stico.
205

Definição 6.12 Seja A ∈ Mn×n (K). Dizemos que A é uma matriz diagonalizável
se A é semelhante a uma matriz diagonal, isto é, se existe uma matriz invertı́vel
P ∈ Mn×n (K) e uma matriz diagonal D ∈ Mn×n (K) tal que

P −1 AP = D.

Diz-se, ainda, que P é uma matriz diagonalizante de A.

Como os valores próprios de uma matriz diagonal são os elementos da sua diagonal
principal (porquê?) podemos concluir facilmente que

Proposição 6.13 Se A ∈ Mn×n (K) é uma matriz diagonalizável e D é uma matriz diagonal
semelhante a A então os valores próprios de A são os elementos da diagonal principal de D.

O resultado seguinte, é uma das caracterizações mais importantes das matrizes diagona-
lizáveis.

Teorema 6.14 Uma matriz A ∈ Mn×n (K) é diagonalizável se, e só se, A tem n vectores
próprios linearmente independentes.

Neste caso, se X1 , . . . , Xn ∈ Mn×1 (K) são n vectores próprios de A linearmente inde-


pendentes correspondentes, respectivamente, aos valores próprios α1 , . . . , αn (não necessa-
riamente distintos) então a matriz

P = [X1 | · · · | Xn ] ∈ Mn×n (K)

é invertı́vel e é uma matriz diagonalizante de A. Mais especificamente, tem-se


2 3
α1 0 ··· 0
6 7
6 0 α2 ··· 0 7
−1 6 7
P AP = 6 7.
6 .. . .. .. 7
6 . .. . . 7
4 5
0 0 ··· αn

Demonstração:
Suponhamos que A ∈ Mn×n (K) é diagonalizável e seja P ∈ Mn×n (K), invertı́vel,
tal que
2 3
d1 ··· 0
6 7
6 .. .. 7
P −1 AP = 6 .
..
. . 7 = D.
4 5
0 ··· dn
206

Assim
AP = P D

ou, ainda,
2 3
d1 ··· 0
6 7
A [X1 | · · · | Xn ] = [X1 | · · · | Xn ] 6
6
..
.
..
.
..
.
7
7
4 5
0 ··· dn

sendo Xi ∈ Mn×1 (K), i = 1, . . . , n, a i-ésima coluna de P .

Atendendo à forma como se multiplicam matrizes, podemos concluir que a igualdade


anterior é equivalente a

[AX1 | · · · | AXn ] = [d1 X1 | · · · | dn Xn ]

e, portanto,
AX1 = d1 X1

···

AXn = dn Xn .

Como P ∈ Mn×n (K) é invertı́vel, tem-se

r(P ) = n

e, portanto, as n linhas de P são linearmente independentes. Facilmente con-


cluı́mos que as n colunas de P também são linearmente independentes pois como

r(P ) = n

tem-se |P | = P > 6= 0 e, portanto,

r P > = n.


Assim, as n linhas de P > são linearmente independentes e, portanto, as n colunas


de P são linearmente independentes.

Logo, X1 , . . . , Xn são n vectores próprios de A linearmente independentes.

A implicação recı́proca obtém-se de forma idêntica pois, como A tem n vectores


próprios X1 , . . . , Xn linearmente independentes, basta considerar

P = [X1 | · · · | Xn ]

para se concluir que P é invertı́vel e P −1 AP é uma matriz diagonal.


207

Seja A ∈ Mn×n (K) e sejam α1 , . . . , αr os valores próprios, dois a dois distintos, da matriz
A. Sabemos que o número máximo de vectores próprios de A linearmente independentes,
existentes em
Mαi , i = 1, . . . , r,


dim Mαi = mg(αi ).

Seja
B1 = (u11 , . . . , u1k1 ) uma base de Mα1

···

Br = (ur1 , . . . , urkr ) uma base de Mαr .

Um resultado, que não demonstraremos, afirma que os vectores

u11 , . . . , u1k1 , . . . , ur1 , . . . , urkr

são ainda linearmente independentes.

Tem-se pois

Proposição 6.15 A ∈ Mn×n (K) é diagonalizável se, e só se,


r
X
mg(αi ) = n,
i=1

sendo α1 , . . . , αr os valores próprios, dois a dois distintos, da matriz A.

2 3
2 0 0
6 7
Exemplo 6.16 1. Consideremos a matriz A = 6 0 1 1 7 ∈ M3×3 (R) estudada no Exem-
4 5
0 0 1
plo 6.8. Como A tem os valores próprios

2 com mg(2) = 1

e
1 com mg(1) = 1

concluı́mos que A não é diagonalizável. De facto, sendo α1 = 2 e α2 = 1 os valores


próprios de A, tem-se
2
X
mg(αi ) = 2 6= 3.
i=1
208

2 3
0 −1 0
6 7
2. Seja A = 6 1 0 0 7 ∈ M3×3 (K), cujo polinómio caracterı́stico é
4 5
0 0 3


−x 0
−1 −x
Lapl. −1

1 −x 0 = (3 − x) = (3 − x)(x2 + 1).
l3 1 −x
0 0 3−x

Se K = R então A tem apenas o valor próprio 3 com

ma(3) = 1.

O subespaço próprio correspondente é:

M3 = {X ∈ M3×1 (R) : (A − 3I3 ) X = 0}


2 3 2 32 3 2 3
 a −3 −1 0 a 0
6 7 6 76 7 6 7

= 6 b 7 ∈ M3×1 (R) : 6
4 1 −3 0 54
76 b 7 =6 0 7
5 .
4 5 5 4

c 0 0 0 c 0

Cálculo auxiliar para resolver o sistema (A − 3I3 ) X = 0:


2 2 3 3 2 3
−3 −1 0 0 1 −3 0 0 1 −3 0 0
6 7−−−−→6 7−− −−−→ 6 7−

6 1 −3 0 0 7 l ↔ l 6 −3 −1 0 0 7l2 + 3l1 6 0 −10 0 0 7
4 5 1 2 4 5 4 5
0 0 0 0 0 0 0 0 0 0 0 0
2 3 2 3
1 −3 0 0 1 0 0 0

−− −→6 7− −−→6 7
1
− 10 l2 6 0 1 0 0 7l1−−+ 3l 6 0 1 0 0 7 (f.e.r.).
4 5 2 4 5
0 0 0 0 0 0 0 0

Então
2 3  2 3 
a 0
6 7 6 7
   
M3 = 6 7
4 b 5 ∈ M3×1 (R) : a = 0 ∧ b = 0 = 6 0 7 : c∈R
  4 5

c c
 2 3  *2 3+
 0 0
6 7 6 7

= c6 7
4 0 5: c∈R = 6 7
4 0 5 .
 
1 1

Assim mg(3) = 1 e, portanto, A ∈ M3×3 (R) não é diagonalizável (para K = R).

Se K = C então A tem os valores próprios

3, i e − i.

Se determinarmos os subespaços próprios correspondentes a cada um desses valores próprios


obteremos, respectivamente,
*2 3+ *2 3+ *2 3+
0 i −i
6 7 6 7 6 7
M3 = 6 0 7 , Mi = 6 1 7 e M−i = 6 1 7 .
4 5 4 5 4 5
1 0 0
209

Assim, para K = C, A é diagonalizável. Um exemplo de matriz diagonalizante de A é a


matriz 2 3
0 i −i
6 7
P = 6 0 1 1 7
4 5
1 0 0

e, de acordo com o Teorema 6.14, obteremos


2 3
3 0 0
6 7
P −1 AP = 6 0
4 i 0 7
5.
0 0 −i

Note que se considerarmos a matriz, também diagonalizante de A,


2 3
i −i 0
6 7
Q=6
4 1 1 0 7
5
0 0 1

então 2 3
i 0 0
6 7
Q−1 AQ = 6
4 0 −i 0 7
5.
0 0 3

Exercı́cio 6.2 Seja A ∈ Mn×n (K). Mostre que se A tem n valores próprios, α1 , . . . , αn ,
então o produto desses n valores próprios é igual ao determinante de A.

Exercı́cio 6.3 Seja A ∈ Mn×n (K) invertı́vel. Mostre que:


1
(a) Se α é valor próprio de A, então α
é valor próprio de A−1 .
(b) Se X ∈ Mn×1 (K) é vector próprio de A associado ao valor próprio α, então
1
X é vector próprio de A−1 associado ao valor próprio α .
(c) A é diagonalizável se, e só se, A−1 é diagonalizável.

Exercı́cio 6.4 Seja A ∈ Mn×n (K) e seja P ∈ Mn×n (K) uma matriz invertı́vel. Mostre
que:

(a) α é valor próprio de A se, e só se, α é valor próprio de A> .


(b) A é diagonalizável se, e só se, A> é diagonalizável.
(c) α é valor próprio de A se, e só se, α é valor próprio de P −1 AP .
(d) A é diagonalizável se, e só se, P −1 AP é diagonalizável.

Exercı́cio 6.5 Considere a matriz


2 3
3 2 0
A = 4 −4 −3 0 5 ∈ M3×3 (R).
4 2 −1

(a) Calcule os valores próprios de A e indique as respectivas multiplicidades


algébricas.
(b) Determine uma base para cada um dos subespaços próprios de A.
(c) Mostre que A é diagonalizável e indique uma matriz P ∈ M3×3 (R), in-
vertı́vel, tal que 2 3
−1 0 0
P AP = 4 0 −1
−1
0 5.
0 0 1
9
(d) Considerando a matriz P que indicou em (c) determine P −1 AP e
12
P −1 AP . Use os resultados obtidos para calcular A9 e A12 .
210

Exercı́cio 6.6 Considere a matriz de ordem 3, sobre C,


2 3
2−i 0 i
A=4 0 1+i 0 5.
i 0 2−i

Mostre que:

(a) A é diagonalizável.
(b) Existe uma matriz P ∈ M3×3 (R) invertı́vel, tal que
2 3
1+i 0 0
P −1 AP = 4 0 2 − 2i 0 5.
0 0 2

Exercı́cio 6.7 Considere as matrizes de ordem 3, sobre R,


2 3 2 3
1 0 −1 0 1 0
A=4 1 2 1 5 e B=4 0 0 1 5.
2 2 3 1 −3 3

(a) Determine os valores próprios de cada uma das matrizes.


(b) (i) Mostre que A é diagonalizável.
(ii) Diga, justificando, se B é diagonalizável.
(c) Determine uma matriz P ∈ M3×3 (R) invertı́vel tal que P −1 AP seja diago-
nal e os elementos da diagonal principal de P −1 AP estejam ordenados por
ordem crescente.

Exercı́cio 6.8 Seja A uma matriz de ordem 3 sobre R, tal que


2 3 2 3 23 2 3 2 3 2 3
1 1 0 0 0 0
A4 1 5 = 4 1 5, A4 1 5 = 4 1 5 e A4 0 5 = 4 0 5.
1 1 2 2 1 2

(a) Indique os valores próprios de A e as respectivas multiplicidades algébrica


e geométrica.
(b) Indique o polinómio caracterı́stico de A.
(c) Indique, se existir, uma matriz diagonal semelhante a A.
(d) Determine uma matriz A nas condições do enunciado.

6.3 Valores e vectores próprios de um endomorfismo

Definição 6.17 Seja E um espaço vectorial. Chamamos endomorfismo de E a


qualquer aplicação linear f : E −→ E.

Notemos que, de acordo com a observação (3) da página 193, se f é um endomorfismo


de E, com E de dimensão finita, e B e B 0 são bases de E então as matrizes

A1 = M(f ; B, B) e A2 = M(f ; B 0 , B 0 )

relacionam-se da seguinte forma:


A2 = P A1 P −1 ,
211

isto é, A1 e A2 são semelhantes.

Como vimos que matrizes semelhantes têm o mesmo polinómio caracterı́stico, tem sentido
a seguinte definição.

Definição 6.18 Seja f um endomorfismo de um espaço vectorial E, com E de di-


mensão finita, e seja B uma base arbitrária de E. Chamamos polinómio carac-
terı́stico de f ao polinómio caracterı́stico da matriz

M(f ; B, B).

Para o estudo de problemas em Fı́sica é importante conhecer, para certos endomorfismos


de um espaço vectorial E, quais os escalares α ∈ K e vectores u ∈ E que satisfazem a equação

f (u) = αu. (6.1)

Obviamente que 0E verifica a igualdade anterior, para qualquer α. No entanto, e a


tı́tulo de exemplo, refira-se que um tema interessante em teoria das vibrações é o da deter-
minação das frequências entre as quais um dado sistema pode oscilar. Para muitos sistemas
importantes, demonstra-se que tal corresponde a determinar os escalares α < 0 para os quais
a equação (6.1) tem uma solução não nula.

As considerações anteriores motivam a definição seguinte.

Definição 6.19 Seja f um endomorfismo de um espaço vectorial E. Dizemos que


u ∈ E é um vector próprio de f se

(i) u 6= 0E

e (ii) f (u) = αu, para algum α ∈ K.

Dizemos que β ∈ K é um valor próprio de f se existe u ∈ E tal que

(i) u 6= 0E

e (ii) f (u) = βu.

Um vector u nessas condições diz-se um vector próprio de f associado ao valor próprio


β.
212

O resultado seguinte permite-nos reduzir o problema de determinação dos valores próprios


e dos vectores próprios de um endomorfismo ao problema da sua determinação para uma
matriz.

Teorema 6.20 Seja f um endomorfismo de um espaço vectorial E de dimensão finita. Seja


B uma base arbitrária de E e
A = M(f ; B, B).

Tem-se:

1. u é vector próprio de f se, e só se, a matriz X ∈ Mn×1 (K), cuja coluna é a sequência
das coordenadas de u na base B, é um vector próprio de A.

2. α é valor próprio de f se, e só se, α é valor próprio de A.

Demonstração:
Note que u 6= 0E se, e só se, X 6= 0 e que

f (u) = αu

é equivalente, pela Proposição 5.21, a

AX = αX.

Exemplo 6.21 Consideremos o endomorfismo f , de R3 , dado por

∀(a,b,c)∈R3 f (a, b, c) = (a, 2b + c, c).

Pretendemos determinar se existe uma base B, de R3 , tal que M(f ; B, B) é uma matriz
diagonal e, em caso afirmativo, indicar uma base nessas condições.

Consideremos uma base arbitrária B 0 , de R3 , e determinemos M(f ; B 0 , B 0 ). Tomando


para B 0 a base canónica de R3 obtemos
2 3
1 0 0
6 7
A = M(f ; B 0 , B 0 ) = 6 0
4 2 1 7
5.
0 0 1

A matriz A tem os valores próprios 1 e 2 e os subespaços próprios


*2 3 2 3+
1 0
6 7 6 7
M1 = 6 0 7, 6 −1 7
4 5 4 5
0 1
213

e
*2 3+
0
6 7
M2 = 6 1 7 .
4 5
0

Logo, A é diagonalizável, pois tem 3 (= ordem de A) vectores próprios linearmente


independentes.
Como
2 3 2 3 2 3 2 3 2 3 2 3
1 1 0 0 0 0
6 7 6 7 6 7 6 7 6 7 6 7
A6
4 0 7
5 = 16
4 0 7
5, A6
4 −1 7
5 = 16
4 −1 7
5 e A6
4 1 7
5 = 26
4 1 7
5
0 0 1 1 0 0

podemos afirmar que

f (1, 0, 0) = 1(1, 0, 0), f (0, −1, 1) = 1(0, −1, 1) e f (0, 1, 0) = 2(0, 1, 0).

Assim, se tomarmos
 
B = (1, 0, 0), (0, −1, 1), (0, 1, 0)

concluı́mos que
2 3
1 0 0
6 7
M(f ; B, B) = 6
4 0 1 0 7
5.
0 0 2

Exercı́cio 6.9 Sejam f um endomorfismo do espaço vectorial real R3 e (e1 , e2 , e3 ) uma


base de R3 . Sabendo que
2 3
3 2 0
M (f ; (e1 , e2 , e3 ), (e1 , e2 , e3 )) = 4 −4 −3 0 5,
4 2 −1

determine:

(a) Os valores próprios de f .


(b) Uma base B, de R3 , constituı́da por vectores próprios de f .
(c) M (f ; B, B), sendo B a base indicada em (b).

Observação: Compare os resultados com os obtidos no Exercı́cio 6.5.

Exercı́cio 6.10 Considere o espaço vectorial real R3 . Seja f : R3 → R3 o endomorfismo


de R3 definido por

f (a, b, c) = (−b − c, −2a + b − c, 4a + 2b + 4c),

para qualquer (a, b, c) ∈ R3 .

(a) Determine os valores próprios de f .


(b) Determine uma base B0 de R3 constituı́da por vectores próprios de f .
(c) Determine M(f ; B0 , B0 ).
214


Exercı́cio 6.11 Considere o subespaço F = (x, y, z) ∈ R3 : x + 2y + z = 0 do espaço
3 3 3
vectorial real R . Seja f : R → R uma aplicação linear, tal que (1, −1, 0) é vector próprio
de f associado ao valor próprio 2 e

f (a, b, c) = (0, 0, 0),

para qualquer (a, b, c) ∈ F .

(a) Determine f (2, −2, 0).


(b) Mostre que 0 é valor próprio de f e que mg(0) = ma(0).

(c) Justifique que B = (1, −1, 0), (1, 1, −3), (1, 0, −1) é uma base de R3
constituı́da por vectores próprios de f .
(d) Determine M(f ; B, b. c.).

Exercı́cio 6.12 Sejam E um espaço vectorial sobre K de dimensão n ≥ 1 e f um endo-


morfismo de E. Mostre que f é um isomorfismo se, e só se, zero não é valor próprio de
f.

Exercı́cio 6.13 Considere a matriz


2 3
−1 1 0
P = 4 −4 1 4 5 ∈ M3×3 (R).
0 1 −1

Sejam E um espaço vectorial real de dimensão 3, B1 = (e1 , e2 , e3 ) e B2 = (u1 , u2 , u3 ) bases


de E tais que M(idE , B1 , B2 ) = P e f um endomorfismo de E definido por f (e1 ) = u1 ,
f (e2 ) = u2 e f (e3 ) = u3 .

(a) Determine M(f ; B1 , B1 ).


(b) Mostre que 1 é valor próprio de f .
(c) Indique, caso existam, vectores v1 , v2 ∈ E tais que v1 6= v2 e v1 , v2 sejam
vectores próprios de f associados ao valor próprio 1.
(d) Diga, justificando, se f é um isomorfismo.
215

Soluções de alguns dos exercı́cios propostos


6.5 (a) Valores próprios de A: −1 e 1
ma(−1) = 2 e ma(1) = 1

(b) Base de M−1 : por exemplo, (1, −2, 0), (0, 0, 1)

Base de M1 : por exemplo, (1, −1, 1)
h 1 0 1 i
(c) Por exemplo, −2 0 −1
0 1 1
(d) A9 = A e A12 = I3
h0 1 1
i
6.6 (b) 1 0 0
0 −1 1

6.7 (a) Valores próprios de A: 1, 2 e 3


Valores próprios de B: 1

(b) (ii) Não


h −1 −2 −1 i
(c) 1 1 1
0 2 2

6.8 (a) Valores próprios de A: 1 e 2


ma(1) = 2 e ma(2) = 1
mg(1) = 2 e mg(2) = 1

(b) −(x − 1)2 (x − 2)


h1 0 0i
(c) 0 1 0
002
h1 0 0i
(d) 0 1 0
1 −2 2

6.9 (a) Valores próprios de f : −1 e 1

(b) Por exemplo, B = (e1 − 2e2 , e3 , e1 − e2 + e3 )

h −1 0 0i
(c) M (f ; B, B) = 0 −1 0
0 0 1

6.10 (a) Valores próprios de f : 1 e 2

(b) Por exemplo,



(− 21 , − 21 , 1), (− 21 , 1, 0), (− 12 , 0, 1)
h1 0 0i
(c) 020
002

6.11 (a) f (2, −2, 0) = (4, −4, 0)


h 2 0 0i
(d) −2 0 0
0 00
 
−5 1 4
6.13 (a) −4 1 4
−4 1 3

(d) f é um isomorfismo
Capı́tulo 7

Produto Interno, Produto Externo


e Produto Misto
(Resumo)

7.1 Produto interno de vectores de R3

Definição 7.1 Sejam A e B dois pontos de R3 . Designa-se por norma ou compri-


−−→
mento do vector u = AB, e representa-se por kuk, o comprimento do segmento de
recta [AB]. Um vector u diz-se unitário se kuk = 1.

Recorde que:



1. kuk = 0 se, e só se, u = 0 .


 α se α ≥ 0
2. Se α ∈ R então kαuk = |α| kuk, em que |α| = .
 −α se α < 0
218

−→ −−→
Definição 7.2 Sejam u = OA e v = OB dois vectores não nulos. Designa-se por
ângulo formado pelos vectores u e v, e representa-se por ](u, v), o menor dos
ângulos definido pela semi-recta com origem em O que passa pelo ponto A e pela
semi-recta com origem em O que passa pelo ponto B.

− →

Se O = A ou O = B, isto é, se u = 0 ou v = 0 , convenciona-se que ](u, v) = 0.

Notemos que
0 ≤ ](u, v) = ](v, u) ≤ π.

Exemplo 7.3 Seja θ = ](u, v) = ](v, u). Tem-se

θ 
1.  q v
u
 θ=
q π -
2. v u

θ=
q 0 - -
3. v u

Definição 7.4 Sejam u e v vectores de R3 e θ = ](u, v). Chamamos produto in-


terno ou produto escalar dos vectores u e v ao número real

u | v = kukkvk cos θ.

Definição 7.5 Sejam u e v vectores de R3 . Dizemos que u e v são perpendiculares,


e escrevemos u ⊥ v, se
π
](u, v) = .
2
Dizemos que u e v são ortogonais se

u | v = 0.

Sendo u e v vectores de R3 e θ = ](u, v), notemos que são equivalentes as afirmações:

1. u | v = 0.
219

2. kukkvk cos θ = 0.

3. kuk = 0 ∨ kvk = 0 ∨ cos θ = 0.

4. kuk = 0 ∨ kvk = 0 ∨ θ = π2 .

5. kuk = 0 ∨ kvk = 0 ∨ u ⊥ v.

Tem-se pois:

1. Se u e v são perpendiculares então u e v são ortogonais.

2. u e v podem ser ortogonais e não serem perpendiculares (basta que um deles seja o
vector nulo).

3. Se u e v são ambos não nulos então u e v são ortogonais se, e só se, são perpendiculares.

Notemos que u | v pode tomar qualquer valor real. Se u e v são não nulos então

u|v>0 se, e só se, cos θ > 0

ou equivalentemente
π
0≤θ<
2
e
u|v<0 se, e só se, cos θ < 0

ou equivalentemente
π
< θ ≤ π.
2

Suponhamos que dispúnhamos de um processo para determinar o produto interno de dois


vectores sem conhecer as suas normas e o ângulo por eles formado. Nesse caso, poderı́amos
determinar facilmente normas de vectores e o ângulo formado por dois vectores. De facto,
como

u | u = kukkuk cos 0

= kuk2

ter-se-ia
p
kuk = u | u.

− −

Por outro lado, se u = 0 ou v = 0 então

θ = ](u, v) = 0.
220

Caso contrário, ter-se-ia


u|v u|v
cos θ = =p p
kuk kvk u|u v|v
e, portanto,
u|v
θ = arccos p p .
u|u v|v

Recorde que

θ cos θ sen θ

π 3 1
6 2 2 .
√ √
π 2 2
4 2 2

π 1 3
3 2 2

Vejamos as principais propriedades do produto interno.

Proposição 7.6 Sejam u, v e w vectores de R3 e α ∈ R. Tem-se:

1. u | v = v | u.

2. α (u | v) = (αu) | v = u | (αv).

3. (u + v) | w = u | w + v | w e w | (u + v) = w | u + w | v.

Demonstração:
1. É trivial, pois
u | v = kuk kvk cos θ, θ = ](u, v)

e
v | u = kvk kuk cos γ, γ = ](v, u).

Como θ = γ e em R a multiplicação é comutativa obtemos

u | v = kuk kvk cos θ = kvk kuk cos γ = v | u.

2. Consideremos a demonstração subdividida em 3 casos.

Caso 1: α = 0.

Neste caso, tem-se


α (u | v) = 0 (u | v) = 0


(αu) | v = 0 | v = 0


u | (αv) = u | 0 = 0
221

e, portanto, α (u | v) = (αu) | v = u | (αv).

Caso 2: α > 0.

Notemos que, neste caso,

](αu, v) = ](u, v) e ](u, αv) = ](u, v).

Seja θ = ](u, v). Tem-se

α (u | v) = α (kuk kvk cos θ) = αkuk kvk cos θ,

(αu) | v = kαukkvk cos θ = |α| kuk kvk cos θ = αkuk kvk cos θ,

e
u | (αv) = kuk kαvk cos θ = kuk (|α| kvk) cos θ = αkuk kvk cos θ

ficando pois demonstrado o que pretendı́amos.

Caso 3: α < 0.

Notemos que, neste caso,

](αu, v) = π − ](u, v) e ](u, αv) = π − ](u, v).

Seja θ = ](u, v). Tem-se

α (u | v) = αkuk kvk cos θ.

Como cos(π − θ) = − cos θ tem-se

(αu) | v = kαuk kvk cos(π − θ)


= |α| kuk kvk(− cos θ)
= −αkuk kvk(− cos θ)
= αkuk kvk cos θ.

Analogamente,

u | (αv) = kuk kαvk cos(π − θ)


= kuk |α| kvk(− cos θ)
= kuk(−α)kvk(− cos θ)
= αkuk kvk cos θ,

estando assim demonstrado o que pretendı́amos.

3. Para demonstrar que

(u + v) | w = u | w + v | w

utilizaremos um argumento de ordem geométrica.


222


v u + v 
1
 
δ θ
 w

HH γ HH γ -
uHHj uHHj

Notemos que
ku + vk cos θ = kuk cos γ + kvk cos δ

em que
θ = ](u + v, w), γ = ](u, w) e δ = ](v, w).

Logo
ku + vk kwk cos θ = kuk kwk cos γ + kvk kwk cos δ

e, portanto,
(u + v) | w = u | w + v | w.

A outra afirmação de 3. obtém-se facilmente da anterior e de 1., pois

w | (u + v) = (u + v) | w = u | w + v | w = w | u + w | v.

Definição 7.7 Sejam u1 , . . . , uk vectores de R3 . Dizemos que (u1 , . . . , uk ) é uma


sequência ortogonal se os vectores u1 , . . . , uk são dois a dois ortogonais, isto é, se

ui | uj = 0, i, j ∈ {1, . . . , k}, i 6= j.

Proposição 7.8 Se (u1 , . . . , uk ) é uma sequência ortogonal de vectores não nulos de R3


então (u1 , . . . , uk ) é uma sequência linearmente independente e, portanto, k ≤ 3.

Demonstração:
Sejam α1 , . . . , αk ∈ K tais que



α1 u1 + · · · + αk uk = 0

e demonstremos que α1 = · · · = αk = 0.

Para qualquer i ∈ {1, . . . , k} tem-se



ui | (α1 u1 + · · · + αk uk ) = ui | 0
223

isto é,
ui | (α1 u1 ) + · · · + ui | (αk uk ) = 0

ou ainda
α1 (ui | u1 ) + · · · + αk (ui | uk ) = 0.

Como ui | uj = 0 para i 6= j, da igualdade anterior resulta que

αi (ui | ui ) = 0.

Tem-se, pois,
2
αi kui k = 0

e, como u1 , . . . , uk são vectores não nulos, concluı́mos como pretendı́amos que

αi = 0.

Logo (u1 , . . . , uk ) é uma sequência linearmente independente. Como qualquer base


de R3 tem 3 vectores e é uma sequência geradora, concluı́mos, pelo Teorema 4.29,
que k ≤ 3.

Definição 7.9 Seja B = (e1 , e2 , e3 ) uma base de R3 .

1. B diz-se uma base ortogonal se é uma sequência ortogonal de vectores.

2. B diz-se uma base ortonormada se for uma base ortogonal constituı́da por
vectores unitários.

Proposição 7.10 Seja (e1 , e2 , e3 ) uma base de R3 . Tem-se, (e1 , e2 , e3 ) é uma base ortonor-
mada se, e só se,

 1 se i = j
ei | ej = , com i, j ∈ {1, 2, 3}.
 0 se i 6= j

Demonstração:
Suponhamos que (e1 , e2 , e3 ) é uma base ortonormada de R3 . Então, por ser orto-
gonal, concluı́mos que
ei | ej = 0 se i 6= j.
2
Para i = j, com i, j ∈ {1, 2, 3}, tem-se ei | ej = ei | ei = kei k e, como kei k = 1,
concluı́mos que
ei | ej = 1 se i = j.
224

Reciprocamente, suponhamos que (e1 , e2 , e3 ) é uma base de R3 tal que



 1 se i = j
ei | ej = , com i, j ∈ {1, 2, 3},
6 j
 0 se i =

e demonstremos que (e1 , e2 , e3 ) é uma base ortonormada.

Como, por hipótese, ei | ej = 0, para i 6= j, a base (e1 , e2 , e3 ) é uma base ortogonal.


Falta demonstrar que
kei k = 1, i = 1, 2, 3.

Dado que
ei | ei = 1

concluı́mos que
2
kei k = 1

e, portanto,
kei k = 1

conforme querı́amos demonstrar.

Proposição 7.11 Seja (e1 , e2 , e3 ) uma base de R3 . Sejam u e v vectores de R3 com

u = α1 e1 + α2 e2 + α3 e3

e
v = β1 e1 + β2 e2 + β3 e3 .

Tem-se
3
X
u|v= αi βj (ei | ej )
i,j=1

e se (e1 , e2 , e3 ) é uma base ortonormada então

u | v = α1 β1 + α2 β2 + α3 β3 .
225

Demonstração:
Utilizando as propriedades 2. e 3. referidas na Proposição 7.6, tem-se

u | v = (α1 e1 + α2 e2 + α3 e3 ) | (β1 e1 + β2 e2 + β3 e3 )
= (α1 e1 + α2 e2 + α3 e3 ) | (β1 e1 )+
(α1 e1 + α2 e2 + α3 e3 ) | (β2 e2 )+
(α1 e1 + α2 e2 + α3 e3 ) | (β3 e3 )
= (α1 e1 ) | (β1 e1 ) + (α2 e2 ) | (β1 e1 ) + (α3 e3 ) | (β1 e1 )+
(α1 e1 ) | (β2 e2 ) + (α2 e2 ) | (β2 e2 ) + (α3 e3 ) | (β2 e2 )+
(α1 e1 ) | (β3 e3 ) + (α2 e2 ) | (β3 e3 ) + (α3 e3 ) | (β3 e3 )
= α1 β1 (e1 | e1 ) + α2 β1 (e2 | e1 ) + α3 β1 (e3 | e1 ) +
α1 β2 (e1 | e2 ) + α2 β2 (e2 | e2 ) + α3 β2 (e3 | e2 ) +
α1 β3 (e1 | e3 ) + α2 β3 (e2 | e3 ) + α3 β3 (e3 | e3 ) .

Logo
3
X
u|v= αi βj (ei | ej ) .
i,j=1

Se a base (e1 , e2 , e3 ) é ortonormada então



 1 se i=j
ei | ej =
 0 se i 6= j

e a expressão anterior reduz-se a

u | v = α1 β1 + α2 β2 + α3 β3 .

Concluı́mos então que se (e1 , e2 , e3 ) é uma base ortonormada de R3 e

u = α1 e1 + α2 e2 + α3 e3 e v = β1 e1 + β2 e2 + β3 e3

então
p q
kuk = u | u = α12 + α22 + α32 .

Nestas condições, e se u e v são vectores não nulos de R3 e θ = ](u, v) então

u|v α1 β1 + α2 β2 + α3 β3
θ = arccos = arccos p 2 p .
kuk kvk α1 + α22 + α32 β12 + β22 + β32
226

Exemplo 7.12 Seja (e1 , e2 , e3 ) uma base ortonormada de R3 . Consideremos os vectores de R3

u = αe1 + 2e2 − 5e3 e v = e1 + 3αe2 + e3 ,

com α ∈ R.

1. Determinemos o conjunto C dos valores de α para os quais os vectores u e v são perpen-


diculares.

Conforme referimos na observação 3. da página 219, como u e v são ambos não nulos, u
e v são perpendiculares se, e só se, u | v = 0.

Tem-se

u | v = α × 1 + 2 × (3α) + (−5) × 1 = 7α − 5.

Assim, u e v são perpendiculares se, e só se,

7α − 5 = 0

ou equivalentemente,
5
α= .
7

Logo, o conjunto dos valores de α para os quais u e v são perpendiculares é o conjunto


 
5
C= .
7

2. Determinemos, para α = 1, o ângulo formado pelos vectores u e v.

Neste caso tem-se

u = e1 + 2e2 − 5e3 e v = e1 + 3e2 + e3 .

Assim,

u|v 1 × 1 + 2 × 3 + (−5) × 1
](u, v) = arccos = arccos p √
kukkvk 1 + 22 + (−5)2 12 + 32 + 12
2

2 2
= arccos √ √ = arccos √ .
30 11 330
227

7.2 Produto externo e produto misto de vectores de R3

Definição 7.13 Seja (e1 , e2 , e3 ) uma base de R3 e b.c. a base canónica de R3 , isto é,

a base (1, 0, 0), (0, 1, 0), (0, 0, 1) . Seja

P = M (idR3 ; (e1 , e2 , e3 ), b.c.) .

Dizemos que (e1 , e2 , e3 ) é uma base directa de R3 se

det P > 0.

Se det P < 0 dizemos que (e1 , e2 , e3 ) é uma base inversa de R3 .

Note que, na definição anterior, não pode ter-se det P = 0. (Porquê?)

Exemplo 7.14 1. A base canónica de R3 é uma base directa pois

P = M (idR3 ; b.c., b.c.) = I3

det P = 1 > 0.

2. Seja B = (1, 1, 0), (0, −2, 0), (0, 0, 3) uma base de R3 e determinemos se B é uma base


directa ou inversa. Tem-se


2 3
1 0 0
6 7
P = M (idR3 ; B, b.c.) = 6
4 1 −2 0 7
5.
0 0 3

Como

det P = 1 × (−2) × 3 = −6 < 0

a base B é inversa.

Note que se (e1 , e2 , e3 ) é uma base directa (respectivamente, inversa) e se trocarmos


a ordem de dois dos vectores então obtemos uma base inversa (respectivamente, directa).
(Porquê?)
228

Definição 7.15 Sejam u e v dois vectores de R3 . Designa-se por produto externo


ou produto vectorial do vector u pelo vector v (por esta ordem), e representa-se por
u×v ou por u ∧ v, o vector de R3 definido do seguinte modo:


1. Se u e v são linearmente dependentes então u×v = 0 .

2. Se u e v são linearmente independentes então u×v é o vector perpendicular a u


e perpendicular a v, com

ku×vk = kukkvk sen θ, θ = ](u, v)

e tal que (u, v, u×v) é uma base directa de R3 .

Demonstra-se (o que não faremos) que existe um, e um só, vector de R3 que, no caso
de u e v serem linearmente independentes, satisfaz as condições dadas em 2. da definição
anterior. Ainda neste caso, note que u e v são não nulos e, qualquer que seja α ∈ R, se tem
u 6= αv. Assim

0 < θ < π, sen θ > 0, kukkvk sen θ > 0

e, portanto,


u×v 6= 0 .

Consideremos um paralelogramo com vértices consecutivos O, A, C, B


B C

O A
e demonstremos que a sua área é igual a

−→ −−→
kOA×OBk.

De facto, tal área é igual à área do rectângulo a tracejado


B C

h
θ
O A
229

sendo pois
−→
kOAkh
−→ −−→ −→ −−→
=kOAkkOBk sen θ, θ = ](OA, OB),
−→ −−→
=kOA×OBk.

A área do triângulo [OAB] será


−→ −−→
kOA×OBk
.
2

Definição 7.16 Sejam u, v e w três vectores de R3 . Ao número real

(u×v) | w

chamamos produto misto dos vectores u, v e w (por esta ordem).

O módulo do produto misto tem uma interpretação geométrica que seguidamente expli-
camos.

Sejam
−→ −−→ −−→
u = OA, v = OB e w = OC

vectores de R3 linearmente independentes. Neste caso, u, v e w definem um paralelipı́pedo


de volume não nulo.
−→ −−→
OA×OB
6
C
 
 

-
 O
 B
 
A

O volume V desse paralelipı́pedo é o produto da área da sua base pela sua altura h.
Como a base é um paralelogramo, a sua área é
−→ −−→
kOA×OBk.

A altura do paralelipı́pedo será


−−→ −→ −−→ −−→
h = kOCk |cos θ| , θ = ](OA×OB, OC).
230

Notemos que consideramos |cos θ| porque pode suceder que se tenha cos θ ≤ 0. Por
−−→ −→
exemplo, se na figura acima considerarmos u = OB e v = OA o paralelipı́pedo seria o
mesmo mas ter-se-ia cos θ < 0.

Assim,

−→ −−→
V = kOA×OBk h
−→ −−→ −−→ −→ −−→ −−→
= kOA×OBkkOCk |cos θ| , θ = ](OA×OB, OC)
−→ −−→ −−→ −→ −−→ −−→
= kOA×OBkkOCk cos θ , θ = ](OA×OB, OC)

−→ −−→ −−→
= OA×OB | OC .

Vejamos agora algumas propriedades do produto externo.

Proposição 7.17 Sejam u, v e w vectores de R3 e seja α ∈ R. Tem-se

1. u×v = −v×u.

2. α(u×v) = (αu)×v = u×(αv).

3. (u + v)×w = (u×w) + (v×w).

4. w×(u + v) = (w×u) + (w×v).

Demonstração:
1. Atendendo à definição de produto externo, se u e v são linearmente dependentes
então

− →

u×v = 0 e v×u = 0

logo
u×v = −v×u.

Se u e v são linearmente independentes então concluı́mos facilmente que u×v e


v×u têm a mesma direcção, a mesma norma, mas sentidos contrários e, portanto,

u×v = −v×u.

2. Exercı́cio. (Considere separadamente os casos α = 0, α > 0 e α < 0.)

3. Não demonstraremos.
231

4. Consequência de 3. e 1. pois

w×(u + v) = −(u + v)×w


= − [(u×w) + (v×w)]
= − [− (w×u) + (− (w×v))]
= (w×u) + (w×v) .

Observação - Existem vectores u, v, w ∈ R3 tais que

(u×v) ×w 6= u× (v×w)

e, portanto, o produto externo não é associativo.


Por exemplo, se v = αu e v e w são linearmente independentes tem-se


→ →
− →

u×v = u×αu = 0 e (u×v) ×w = 0 ×w = 0 .

Por outro lado, como v×w é perpendicular a v (e a w), concluı́mos que v×w é perpendicular
1
a αv = u. Logo u e v×w são linearmente independentes e, portanto,



u× (v×w) 6= 0 .

Vejamos agora como obter o produto externo ou o produto misto de vectores quando
conhecemos as suas coordenadas em relação a uma base ortonormada directa de R3 .

Seja (e1 , e2 , e3 ) uma base ortonormada directa de R3 . Determinemos, pela definição de


produto externo, o vector
w = e1 ×e2 .

Por definição, w é perpendicular a e1 e a e2 , tal como e3 , e portanto tem a direcção de e3 .


A sua norma será
π
kwk = ke1 kke2 k sen =1·1·1=1
2
e, portanto,
kwk = ke3 k.

Logo w = e3 ou w = −e3 . Como (e1 , e2 , w) tem que ser uma base directa e (e1 , e2 , e3 ) é uma
base directa concluı́mos que
e1 ×e2 = e3 .
232

Analogamente concluirı́amos que

e2 ×e3 = e1 e e3 ×e1 = e2 .

Obviamente que

e2 ×e1 = − (e1 ×e2 ) = −e3

e3 ×e2 = −e1

e1 ×e3 = −e2



e1 ×e1 = 0


e2 ×e2 = 0


e3 ×e3 = 0 .

Utilizando as propriedades do produto externo e do produto interno estamos agora em


condições de calcular o produto externo de quaisquer dois vectores de R3 e o produto misto
de quaisquer três vectores de R3 , conhecendo as suas coordenadas em relação a uma base
ortonormada directa de R3 .

Teorema 7.18 Seja (e1 , e2 , e3 ) uma base ortonormada directa de R3 e sejam

u = α1 e1 + α2 e2 + α3 e3 , v = β1 e1 + β2 e2 + β3 e3 e w = γ1 e1 + γ2 e2 + γ3 e3

vectores arbitrários de R3 . Tem-se


α α3 α α3 α α2
1. u×v = 2
e1 − 1
e2 + 1
e3 .
β2 β3 β1 β3 β1 β2

α α3
α α α 1 α2
2 α3 1 α3 1 α2
2. (u×v) | w = γ1 − γ2 + γ3 = β1 β2 β3 .
β2 β1 β1
β3 β3 β2
γ1 γ2 γ3
233

Demonstração:
1.

u×v = (α1 e1 + α2 e2 + α3 e3 )×(β1 e1 + β2 e2 + β3 e3 )


= (α1 e1 + α2 e2 + α3 e3 )×(β1 e1 )+
(α1 e1 + α2 e2 + α3 e3 )×(β2 e2 )+
(α1 e1 + α2 e2 + α3 e3 )×(β3 e3 )
= (α1 e1 )×(β1 e1 ) + (α2 e2 )×(β1 e1 ) + (α3 e3 )×(β1 e1 )+
(α1 e1 )×(β2 e2 ) + (α2 e2 )×(β2 e2 ) + (α3 e3 )×(β2 e2 )+
(α1 e1 )×(β3 e3 ) + (α2 e2 )×(β3 e3 ) + (α3 e3 )×(β3 e3 )
= α1 β1 (e1 ×e1 ) + α2 β1 (e2 ×e1 ) + α3 β1 (e3 ×e1 )+
α1 β2 (e1 ×e2 ) + α2 β2 (e2 ×e2 ) + α3 β2 (e3 ×e2 )+
α1 β3 (e1 ×e3 ) + α2 β3 (e2 ×e3 ) + α3 β3 (e3 ×e3 )
= α2 β1 (−e3 ) + α3 β1 e2 + α1 β2 e3 + α3 β2 (−e1 ) + α1 β3 (−e2 ) + α2 β3 e1
= (α2 β3 − α3 β2 )e1 − (α1 β3 − α3 β1 )e2 + (α1 β2 − α2 β1 )e3

α α3 α α3 α α2
2
= e1 − 1 e2 + 1 e3 .
β2 β3 β1 β3 β1 β2

(Nota: É usual considerarmos o “determinante”



e e3
1 e2

α1 α2 α3


β1 β2 β3

que não tem significado matemático, mas que é utilizado como mnemónica para
fixar a expressão de u×v em base ortonormada directa uma vez que o seu desen-
volvimento, se pudéssemos utilizar o Teorema de Laplace aplicado à linha 1, daria
tal expressão.)

2. Atendendo à expressão do produto interno em base ortonormada e à expressão


de u×v dado em 1. resulta de imediato que

α α3 α α
(u×v) | w = 2
1
γ − 1 α3
2
γ + 1 α2
γ
β2 β3 β 1 β3 β1 β 2 3

γ α α α3
1 γ2 γ3 1 α2 α3 1 α2
Lapl.
=
α1 α2 α3 = − γ1 γ2 γ3 = β1 β2 β3 .
l1 ↔ ↔
l1 l2 l2 l3
β1 β 2 β 3 β1 β 2 β 3 γ1 γ2 γ3

Exemplo 7.19 1. Seja (e1 , e2 , e3 ) uma base ortonormada e directa de R3 . Consideremos


os vectores

u = e1 + e2 − 2e3 , v = 3e1 − e3 e w = e2 + e3 .
234

(a) Determinemos u×v.


Utilizando como mnemónica o desenvolvimento do “determinante” sem significado
matemático
e e3
1 e2

1 1 −2 ,


3 0 −1

pelo Teorema de Laplace aplicado à linha 1, obtemos



1 −2 1 −2 1 1
u×v = e1 − e2 + e3
0 −1 3 −1 3 0

= −e1 − 5e2 − 3e3 .

(b) Determinemos um vector unitário perpendicular a u e a v e um vector perpendicular


a u e a v com norma 5.
Por definição de produto externo, como u e v são linearmente independentes, u×v é
um vector perpendicular a u e a v.
Tem-se
q √
(−1)2 + (−5)2 + (−3)2 =
p
ku×vk = (u×v) | (u×v) = 35.

Como para qualquer α ∈ R \ {0} e qualquer vector z não nulo, de R3 , o vector αz


tem a direcção de z e kαzk = |α| kzk, basta considerar um vector

α(u×v)

com
1
|α| = √ ,
35
ou equivalentemente,
1 1
α= √ ou α = −√ .
35 35
Logo, o vector
1 1
w = √ (u×v) = √ (−e1 − 5e2 − 3e3 )
35 35
é, ainda, perpendicular a u e a v e tem norma 1 tal como o vector
1 1
w0 = − √ (u×v) = − √ (−e1 − 5e2 − 3e3 ).
35 35
Se pretendermos um vector perpendicular a u e a v com norma 5, basta considerar o
vector
5
z = 5w = √ (−e1 − 5e2 − 3e3 )
35
ou
5
z 0 = 5w0 = − √ (−e1 − 5e2 − 3e3 ).
35
235

2. Consideremos o referencial ortonormado e directo (O; e1 , e2 , e3 ) e os pontos

A = (0, k, −3), B = (−1, 0, −4) e C = (1, k, −3),

com k ∈ R.

(a) Determinemos o conjunto dos valores de k para os quais a área do triângulo de vértices
A, B e C é 1.
B
@
@
@
@
-
@
A C
Tem-se
−−→ −→
AB = B − A = (−1, −k, −1) e AC = C − A = (1, 0, 0).

A área do paralelogramo é
−−→ −→
kAB×ACk

e a área do triângulo é
−−→ −→
kAB×ACk
.
2
Tem-se

−−→ −→ −k −1 −1
−1 −1
−k
AB×AC = e1 − e2 + e3
0 0 1 0 1 0

= −e2 + ke3

e
−−→ −→
q p
kAB×ACk = 02 + (−1)2 + k 2 = 1 + k2 .

Como queremos que


−−→ −→
kAB×ACk
= 1,
2
isto é, √
1 + k2
= 1,
2
resulta que
1 + k 2 = 4.

Logo
√ √
k ∈ {− 3, 3}.

Assim, o conjunto dos valores de k para os quais a área do triângulo é 1 é o conjunto


√ √
{− 3, 3}.
236

(b) Determinemos o conjunto dos valores de k para os quais o volume do paralelipı́pedo


de arestas [OA], [OB] e [OC] seja igual a 6.
Sabemos que o volume desse paralelipı́pedo é igual a
−→ −−→ −−→
(OA×OB) | OC .

Determinemos
−→ −−→ −−→
(OA×OB) | OC.

Tem-se
−→ −−→ −−→
OA = A−O = (0, k, −3), OB = B−O = (−1, 0, −4), OC = C−O = (1, k, −3)

e

−3 1 −3
−→ −−→ −−→ 0 k



k

(OA×OB) | OC = −1 0 −4 = − −1 0 −4
l1 ↔ l3
1 k −3 0 k −3

1 k −3 1 −3
k

= − 0 k −7 = − 0 k −7 = −4k.

l2 + l1 l3 + (−1)l2
0 k −3 0 0 4

Assim, são equivalentes as afirmações:


−→ −−→ −−→
(OA×OB) | OC = 6

|−4k| = 6

−4k = 6 ∨ −4k = −6
3 3
k=− ∨ k= .
2 2
Logo, o conjunto dos valores de k para os quais o volume do paralelipı́pedo é 6 é
 
3 3
− , .
2 2
(c) Determinemos o conjunto D dos valores de k para os quais os pontos O, A, B e C
estão todos num mesmo plano.
Observemos que tal equivale a afirmar que
−→ −−→ −−→
(OA×OB) | OC = 0

isto é,
−4k = 0

e, portanto, o conjunto dos valores de k pretendido é

D = {0}.
Capı́tulo 8

Geometria Analı́tica
(Resumo)

8.1 Representações cartesianas da Recta e do Plano

Uma representação cartesiana de uma recta ou de um plano relativamente a um referencial é


uma equação ou um sistema de equações cujas soluções são as coordenadas dos seus pontos
nesse referencial.

No que se segue consideramos fixado um referencial ortonormado e directo.

Estudaremos primeiramente as representações cartesianas da recta.

O caso que começaremos por estudar, a que chamaremos o caso tipo, é o de uma recta
R em que conhecemos um ponto A = (a1 , a2 , a3 ) da recta e um vector u = (α1 , α2 , α3 ) com
a sua direcção, a que também chamamos vector director da recta.

Seja X = (x, y, z) um ponto arbitrário de R3 . Notemos que X = (x, y, z) ∈ R se, e só se,
existe λ ∈ R tal que (x, y, z) = (a1 , a2 , a3 ) + λ(α1 , α2 , α3 ).

À equação

(x, y, z) = (a1 , a2 , a3 ) + λ(α1 , α2 , α3 ), λ∈R

chamamos equação vectorial da recta R.


238

Da equação anterior resulta que (x, y, z) ∈ R se, e só se, existe λ ∈ R tal que

 x = a1 + α1 λ


y = a2 + α2 λ .


z = a3 + α3 λ

Ao “sistema de equações”

 x = a1 + α1 λ


y = a2 + α2 λ , λ∈R


z = a3 + α3 λ

chamamos equações paramétricas da recta R.

Considerando de novo a recta R, tem-se

u = (α1 , α2 , α3 ) 6= (0, 0, 0).

Caso 1: α1 6= 0 e α2 6= 0 e α3 6= 0.

Neste caso, tem-se (x, y, z) ∈ R se, e só se, existe λ ∈ R tal que

x−a1
 λ= α1


y−a2
λ= α2

 z−a3
λ=

α3

e, portanto, (x, y, z) ∈ R se, e só se,

x − a1 y − a2 z − a3
= = .
α1 α2 α3

Às equações anteriores chamamos equações normais da recta R.

Caso 2:

Subcaso 2.1 α1 = 0 e α2 6= 0 e α3 6= 0.

Subcaso 2.2 α1 6= 0 e α2 = 0 e α3 6= 0.

Subcaso 2.3 α1 6= 0 e α2 6= 0 e α3 = 0.

Estudaremos apenas o Subcaso 2.1, dado que os restantes são inteiramente análogos.

Subcaso 2.1 α1 = 0 e α2 6= 0 e α3 6= 0.
239

Nestas condições podemos afirmar que (x, y, z) ∈ R se, e só se, existe λ ∈ R tal
que

 x = a1


y−a2
λ= α2

 z−a3
λ=

α3

e, portanto, (x, y, z) ∈ R se, e só se,

y − a2 z − a3
x = a1 e =
α2 α3

que serão as equações normais da recta R.

Caso 3:

Subcaso 3.1 α1 = 0 e α2 = 0 e α3 6= 0.

Subcaso 3.2 α1 = 0 e α2 6= 0 e α3 = 0.

Subcaso 3.3 α1 6= 0 e α2 = 0 e α3 = 0.

Tal como anteriormente, estudaremos apenas um dos subcasos por os restantes serem
análogos.

Subcaso 3.1 α1 = 0 e α2 = 0 e α3 6= 0.
Nestas condições podemos afirmar que (x, y, z) ∈ R se, e só se, existe λ ∈ R tal
que

 x = a1


y = a2

 z−a3
λ=

α3

e, portanto, (x, y, z) ∈ R se, e só se,

x = a1 e y = a2

que serão as equações normais da recta R.

Sejam A e B dois pontos de R3 , com A 6= B. Existe uma, e uma só, recta que passa
pelos pontos A e B. O caso da determinação das equações da recta que passa pelos pontos
A e B reduz-se facilmente ao caso tipo considerando como ponto da recta o ponto A (ou o
−−→
ponto B) e como vector director da recta o vector u = AB (ou qualquer outro com a mesma
−−→ −−→ −−→
direcção, isto é, da forma αAB, com α ∈ R \ {0}). Em particular, −AB = BA.
240

Notemos que, em qualquer um dos casos anteriormente indicados, as equações normais


de uma recta são um sistema de duas equações lineares com três incógnitas, equivalentes a
um sistema do tipo

 ax + by + cz + d = 0
 a0 x + b0 y + c0 z + d0 = 0

com
" #
a b c d
r = 2.
a0 b0 c0 d0

Vejamos agora como partindo de um sistema do tipo anterior, cujas soluções são as
coordenadas dos pontos de uma recta R, podemos obter uma equação vectorial da recta R.

Notemos que basta considerar duas soluções distintas do sistema anterior, isto é, dois
pontos distintos de R, para obtermos, conforme explicámos anteriormente, uma equação
vectorial de R.

Consideremos agora as representações cartesianas do plano.

Seja A = (a1 , a2 , a3 ) um ponto de R3 e u = (α1 , α2 , α3 ) e v = (β1 , β2 , β3 ) dois vecto-


res de R3 que não tenham a mesma direcção ou, equivalentemente, que sejam linearmente
independentes.

Consideremos o plano P que passa pelo ponto A e é paralelo aos vectores u e v (este caso
será considerado o caso tipo).

Seja X = (x, y, z) um elemento arbitrário de R3 . Notemos que X = (x, y, z) ∈ P se, e só


se, existem λ, µ ∈ R tais que (x, y, z) = (a1 , a2 , a3 ) + λ(α1 , α2 , α3 ) + µ(β1 , β2 , β3 ).

À equação

(x, y, z) = (a1 , a2 , a3 ) + λ(α1 , α2 , α3 ) + µ(β1 , β2 , β3 ), λ, µ ∈ R

chamamos equação vectorial do plano P.

Da equação anterior resulta que (x, y, z) ∈ P se, e só se, existem λ, µ ∈ R tais que


 x = a1 + α1 λ + β1 µ


y = a2 + α2 λ + β2 µ .


z = a3 + α3 λ + β3 µ

241

Ao “sistema de equações”

 x = a1 + α1 λ + β1 µ


y = a2 + α2 λ + β2 µ , λ, µ ∈ R


z = a3 + α3 λ + β3 µ

chamamos equações paramétricas do plano P.

Consideremos ainda o plano P anterior que passa pelo ponto A = (a1 , a2 , a3 ) e é paralelo
aos vectores u = (α1 , α2 , α3 ) e v = (β1 , β2 , β3 ). Sendo X = (x, y, z) um ponto arbitrário de
R3 e recordando que u×v é um vector perpendicular a u e a v e, portanto, perpendicular ao
plano P, podemos também afirmar que X = (x, y, z) ∈ P se, e só se,
−−→
(u×v) | AX = 0

ou, equivalentemente,

α1 α2 α3

β1 β2 β3 = 0.


x − a1 y − a2 z − a3

Assim, (x, y, z) ∈ P se, e só se,



α α3 α α3 α α2
(x − a1 ) 2
− (y − a2 ) 1
+ (z − a3 ) 1
=0
β2 β3 β1 β3 β1 β2

ou, equivalentemente,

(α2 β3 − α3 β2 )(x − a1 ) + (α3 β1 − α1 β3 )(y − a2 ) + (α1 β2 − α2 β1 )(z − a3 ) = 0.

Assim, os pontos do plano P são os pontos de R3 cujas coordenadas são as soluções da


equação linear, nas incógnitas x, y e z,

ax + by + cz + d = 0 (8.1)

em que

a = α2 β3 − α3 β2 , b = α3 β1 − α1 β3 , c = α1 β2 − α2 β1 e d = −aa1 − ba2 − ca3 .

A qualquer equação do tipo (8.1), cujas soluções sejam as coordenadas dos pontos do
plano P, chamamos equação geral do plano P.

O vector w = (a, b, c) é exactamente o produto externo de u por v e, portanto, w = (a, b, c)


é um vector perpendicular ao plano P.

Se a0 x + b0 y + c0 z + d0 = 0 é outra equação geral do plano P então as equações

ax + by + cz + d = 0 e a0 x + b0 y + c0 z + d0 = 0
242

são equivalentes. Logo existe α ∈ R \ {0} tal que (a0 , b0 , c0 , d0 ) = α(a, b, c, d) e, portanto,

w0 = (a0 , b0 , c0 ) = αw

tem a direcção de w, pelo que é também perpendicular ao plano P.

Assim, em qualquer equação geral de um plano P, nas variáveis x, y e z, os coeficientes


dessas variáveis dão-nos as coordenadas de um vector perpendicular ao plano P.

Notemos que um plano fica completamente determinado se conhecermos um ponto


A = (a1 , a2 , a3 ) do plano e um vector w = (γ1 , γ2 , γ3 ) perpendicular ao plano. Atendendo às
observações anteriores obtemos facilmente a equação geral do plano pois será da forma

γ1 x + γ2 y + γ3 z + d = 0

com d determinado da forma a que o ponto A = (a1 , a2 , a3 ) pertença ao plano, isto é, ter-se-á

γ1 a1 + γ2 a2 + γ3 a3 + d = 0

e, portanto,
d = −(γ1 a1 + γ2 a2 + γ3 a3 ).

Sejam A, B e C três pontos de R3 não colineares, isto é, tais que não existe nenhuma
recta a que pertençam os três pontos simultaneamente.

Existe um, e só um, plano P que passe pelos pontos A, B e C. Podemos facilmente
escrever a equação vectorial do plano P tomando como ponto do plano um dos pontos A, B
ou C e para vectores u e v, por exemplo,
−−→ −→
u = AB e v = AC.

Se pretendermos escrever a equação geral basta considerar para vector perpendicular a P,


−−→ −→
w = AB×AC e como ponto do plano um dos pontos A, B ou C.

Partindo de uma equação vectorial de um plano P sabemos obter equações paramétricas


e uma equação geral do plano P que é uma equação do tipo

ax + by + cz + d = 0

cujas soluções são as coordenadas dos pontos do plano P.

Se pretendermos efectuar o “percurso inverso”, isto é, se a partir de uma equação geral
do plano P pretendermos obter uma equação vectorial do plano P basta considerarmos três
−−→ −→
soluções da equação anterior, A, B e C, tais que AB e AC sejam linearmente independentes
para escrevermos, conforme explicámos anteriormente, uma equação vectorial do plano P.
243

8.2 Problemas não métricos

Nesta secção vamos estudar as possı́veis posições relativas entre duas rectas, entre dois planos
e entre uma recta e um plano bem como processos simples para decidir o caso em questão.

1. Sejam R1 e R2 duas rectas.

As rectas R1 e R2 verificam uma, e uma só, das seguintes condições:

(a) R1 = R2 .

(b) R1 e R2 são estritamente paralelas.

(c) R1 e R2 são concorrentes, isto é, a sua intersecção é um ponto.

(d) R1 e R2 são enviesadas.

2. Sejam P1 e P2 dois planos.

Os planos P1 e P2 verificam uma, e uma só, das seguintes condições:

(a) P1 = P2 .

(b) P1 e P2 são estritamente paralelos.

(c) A intersecção de P1 e P2 é uma recta.

3. Sejam R uma recta e P um plano.

A recta R e o plano P verificam uma, e uma só, das seguintes condições:

(a) R ⊂ P.

(b) R é estritamente paralela a P.

(c) A recta R e o plano P são concorrentes, isto é, a intersecção de R e com P é um


ponto.

Vejamos como, de uma forma simples, podemos decidir qual o caso em questão.

1. Sejam R1 e R2 duas rectas.

Considere-se um vector u1 com a direcção de R1 e considere-se um vector u2 com a


direcção de R2 . Se u1 e u2 têm a mesma direcção, isto é, se existe α ∈ R tal que
u1 = αu2 , então estamos no caso (a) ou no caso (b). Caso contrário, estamos no caso
(c) ou no caso (d).
244

Para decidir entre os casos (a) e (b) basta atender que no primeiro todo o ponto de uma
recta pertence à outra recta e no segundo nenhum ponto de uma das rectas pertence à
outra. Assim, basta tomar um ponto qualquer de uma das rectas e verificar se pertence
ou não à outra.

Para decidir entre os casos (c) e (d) basta atender a que no caso (c) se tem R1 ∩ R2 6= ∅
e no caso (d) se tem R1 ∩ R2 = ∅. Assim, se considerarmos um sistema de equações
lineares A0 X = B 0 constituı́do por quatro equações nas incógnitas x, y e z, em que
duas das equações são equações que definem a recta R1 e as outras duas equações são
equações que definem a recta R2 , podemos afirmar que se o sistema for possı́vel (isto
é, se r(A0 ) = r[A0 | B 0 ]) então estamos no caso (c), caso contrário estamos no caso (d).

2. Sejam P1 e P2 dois planos.

Considere-se um vector w1 perpendicular a P1 e considere-se um vector w2 perpendi-


cular a P2 .

Se w1 e w2 têm a mesma direcção, isto é, se existe β ∈ R tal que w1 = βw2 , então
estamos no caso (a) ou no caso (b). Caso contrário, estamos no caso (c).

Para decidir entre os casos (a) e (b) basta atender a que no primeiro todo o ponto de
um dos planos pertence ao outro plano e no segundo nenhum ponto de um dos planos
pertence ao outro plano. Assim, basta tomar um ponto qualquer de um dos planos e
verificar se pertence ou não ao outro plano.

3. Sejam R uma recta e P um plano.

Considere-se um vector u com a direcção da recta R e um vector w perpendicular ao


plano P.

Se u e w são perpendiculares (o que, como u e w são não nulos, é equivalente a afirmar


que u | w = 0) então estamos no caso (a) ou no caso (b), caso contrário estamos no
caso (c).

Para decidir entre os casos (a) e (b) basta atender a que no primeiro todo o ponto da
recta R pertence ao plano P e no segundo nenhum ponto da recta R pertence ao plano
P. Assim, basta tomar um ponto qualquer da recta e verificar se pertence ou não ao
plano.

Exemplo 8.1 Consideremos fixado um referencial ortonormado e directo (O; e1 , e2 , e3 )


de R3 .
245

Seja R a recta de equações normais

y−3 z
x=2 e =
2 4

e P o plano que passa pelos pontos

A = (1, 0, −1), B = (2, 2, 0) e C = (1, 1, 1).

Vejamos que R é estritamente paralela a P.

Determinemos um vector u com a direcção de R e um vector w perpendicular a


P. Conforme referimos, R é paralela a P (podendo ser coincidente ou estritamente
paralela) se, e só se,
u | w = 0.

Para obter u basta determinar dois pontos distintos da recta R, por exemplo,

D = (2, 3, 0) e E = (2, 1, −4)

e considerar, por exemplo,

−−→
u = DE = (0, −2, −4).

−−→ −→ −−→ −→
Consideremos, por exemplo, w = AB×AC. Como AB = (1, 2, 1) e AC = (0, 1, 2)
tem-se
−−→ −→
w = AB×AC = (3, −2, 1).

e e3
 
1 e2

Mnemónica: 1 2 1 = 3e1 − 2e2 + 1e3 .


0 1 2

Assim,

u | w = (0, −2, −4) | (3, −2, 1) = 0 × 3 + (−2) × (−2) + (−4) × 1 = 0

e, portanto, R é paralela a P.
Para determinarmos se R ⊂ P ou se R é estritamente paralela a P temos de considerar
um ponto qualquer de R e verificar se pertence ou não ao plano P.
Como (3, −2, 1) é um vector perpendicular a P e P passa no ponto A = (1, 0, −1),
uma equação geral do plano P será

3x − 2y + 1z + d = 0
246

com
d = −(3 × 1 − 2 × 0 + 1 × (−1)) = −2.

Atendendo à equação geral do plano P

3x − 2y + z − 2 = 0

concluı́mos que o ponto da recta R, D = (2, 3, 0), não pertence ao plano P pois

3 × 2 − 2 × 3 + 0 − 2 6= 0.

Logo R é estritamente paralela a P.

8.3 Problemas métricos: distâncias e ângulos

Sejam A e B dois pontos de R3 . A distância entre A e B, que representaremos por d(A, B),
é, como sabemos,
−−→
d(A, B) = kABk.

Consideremos agora que F1 e F2 são pontos, rectas ou planos de R3 .

Definição 8.2 Entende-se por distância entre F1 e F2 , e representa-se por


d(F1 , F2 ), o mı́nimo das distâncias entre os pontos de F1 e os pontos de F2 , isto
é,
d(F1 , F2 ) = min{d(A, B) : A ∈ F1 , B ∈ F2 }.

Notemos que se F1 ∩ F2 6= ∅ então d(F1 , F2 ) = 0.

Veremos seguidamente que todos os casos que possam surgir de distâncias entre F1 e F2
se reduzem a um dos três casos seguintes.

Caso 1: Distância entre dois pontos.

Caso 2: Distância de um ponto a uma recta.

Caso 3: Distância de um ponto a um plano.

Caso 2: Distância de um ponto P a uma recta R.

Seja A um ponto da recta R e u um vector com a direcção de R.


247

Pr

r - R
A u

Tem-se
P
*r



 d(P, R)


r  θ
 - R
A u

−→ −→
d(P, R) = kAP k sen θ, θ = ](u, AP )
−→
−→ kAP ×uk
= kAP k −→
kAP kkuk
−→
kAP ×uk
= .
kuk

Caso 3: Distância de um ponto P a um plano P.

Seja A um ponto do plano P e w um vector perpendicular do plano P.


Pr

6
 w 
 
 r P
 A 
 
 

Tem-se
P
r
*
 θ
 d(P, P)
6
  w 
  
 r 
 P
 A 
 
 

−→ −→
d(P, P) = kAP k cos θ , com θ = ](AP , w).

π π
Note que, conforme o sentido do vector w, pode ter-se 0 ≤ θ ≤ 2 ou 2 ≤ θ ≤ π e neste
248

último caso tem-se cos θ ≤ 0. Assim,


−→ − →

AP | w
d(P, P) = kAP k −→


kAP kkwk
−→
AP | w

= .
kwk

Vejamos agora os restantes casos.

Sejam R1 e R2 duas rectas.

(a) Se R1 = R2 então d(R1 , R2 ) = 0.

(b) Se R1 e R2 são estritamente paralelas então d(R1 , R2 ) é a distância de um ponto


qualquer de R1 à recta R2 (ou equivalentemente, de um ponto qualquer de R2 à
recta R1 ).

(c) Se R1 e R2 são concorrentes então d(R1 , R2 ) = 0.

(d) Se R1 e R2 são enviesadas então considera-se o plano P que, contendo a recta R1 ,


é paralelo a R2 e d(R1 , R2 ) é a distância de um ponto qualquer de R2 ao plano P
(equivalentemente, considera-se o plano P 0 que, contendo a recta R2 , é paralelo
a R1 e d(R1 , R2 ) é a distância de um ponto qualquer de R1 ao plano P 0 ).

Sejam P1 e P2 dois planos.

(a) Se P1 = P2 então d(P1 , P2 ) = 0.

(b) Se P1 e P2 são estritamente paralelos então d(P1 , P2 ) é a distância de um ponto


qualquer de P1 ao plano P2 (ou equivalentemente, de um ponto qualquer de P2
ao plano P1 ).

(c) Se a intersecção de P1 e P2 é uma recta então d(P1 , P2 ) = 0.

Finalmente, seja R uma recta e P um plano.

(a) Se R ⊂ P então d(R, P) = 0.

(b) Se R é estritamente paralela a P então d(R, P) é a distância de um ponto qualquer


da recta R ao plano P.

(c) Se R e P se intersectam num ponto então d(R, P) = 0.


249

1. Ângulo de duas rectas

Sejam R1 e R2 duas rectas. O ângulo das rectas R1 e R2 é, por definição, o menor
dos ângulos formado por duas rectas complanares, uma delas com a direcção de R1 ,
seja R01 , e a outra com a direcção de R2 , que designamos por R02 .
0
XXX
XXX    R2
XXX 
XXX
XX θ = ](R1 , R2 ) = ](R01 , R02 )
9

v uXXzX
 XXX
 XXX
X R0


1

Seja u um vector com a direcção de R01 (igual à direcção de R1 ) e seja v um vector


com a direcção de R02 (igual à direcção de R2 ). Sendo

θ1 = ](u, v) e θ2 = π − θ1

pretendemos
θ = min {θ1 , θ2 } .

Dado que os ângulos θ1 e θ2 são suplementares, isto é, θ1 + θ2 = π, verifica-se que


cos θ1 = − cos θ2 e o menor dos ângulos será o que tem o co-seno não negativo.

Assim,
|u | v|
θ = ](R1 , R2 ) = arccos .
kukkvk
2. Ângulo de dois planos

Vejamos que este caso se reduz ao anterior.

Sejam P1 e P2 dois planos. Define-se ângulo dos planos P1 e P2 como sendo o ângulo
formado por duas rectas R1 e R2 , sendo R1 perpendicular a P1 e R2 perpendicular a
P2 .

3. Ângulo de uma recta e um plano

Este caso também se reduz ao caso 1.

Seja R uma recta e seja P um plano.


R

 

   

  
  P
 
 
 



250

O ângulo de R com P define-se como sendo o complementar do ângulo formado


por R com uma recta S perpendicular ao plano P, isto é, se α = ](R, S) então
π
θ = ](R, P) = 2 − α.
S
R


u
α w


  
  ? 
  θ

P
 
 
 

 

Sendo u um vector com a direcção da recta R e w um vector perpendicular ao plano


P (e, portanto, com a direcção da recta S) vimos no Caso 1. do ângulo de duas rectas
que
|u | w|
α = arccos
kukkwk
e, portanto,
π π |u | w|
θ= − α = − arccos .
2 2 kukkwk
Mais simplesmente, como α e θ são complementares, tem-se

|u | w|
cos α = sen θ =
kukkwk

e, portanto,
|u | w|
θ = arcsen .
kukkwk

Potrebbero piacerti anche