Sei sulla pagina 1di 164

1

Maria Teresa Fernandes de Oliveira Martins

Algebra Linear e Geometria Analtica


MI em Engenharia Civil
(Apontamentos das Aulas Teoricas)
Coimbra-1
o
Semestre-2008/2009
2
Captulo 1
Matrizes e Determinantes
1.1 Generalidades
Iremos usar K para designar
IR conjunto dos n umeros reais
C conjunto dos n umeros complexos.
Deste modo, chamaremos
n umeros ou escalares
aos elementos de K.
Sejam m e n inteiros positivos.
(1.1 a) Denicao.
Chama-se matriz do tipo m n sobre K a todo o quadro que
se obtem dispondo mn n umeros segundo m linhas e n colunas.
A =
_

_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_

_
3
4 Captulo 1. Matrizes e Determinantes
(1.1 b) Notacoes. Usamos igualmente como abreviatura
A =
_
a
ij

i=1,...,m ; j=1,...,n
ou
_
a
ij

mn
ou ainda, simplesmente
_
a
ij

caso se subentenda o tipo da matriz.


O n umero
a
ij
diz-se o elemento, entrada ou componente da matriz A. Em a
ij
o
i indica a linha onde se situa o elemento
j indica a coluna onde se situa o elemento
e, como tal,
i diz-se o ndice de linha
j diz-se o ndice de coluna
do elemento a
ij
.
O elemento a
ij
diz-se ainda o elemento (i, j) da matriz A.
Para A matriz do tipo mn de elementos sobre K
i. a matriz A diz-se quadrada sempre que m = n ;
ii. rectangular m ,= n;
iii. matriz-linha
ou vector-linha m = 1;
1.1. Generalidades 5
iv. matriz-coluna
ou vector-coluna n = 1;
Representamos por
M
mn
(K)
o conjunto de todas as matrizes do tipo mn sobre K. Com abuso de linguagem,
usamos a notacao
K
m
para representar M
m1
(K), ou seja, para representar o conjunto das matrizes
com m linhas e 1 coluna de elementos em K, identicando (

=) os conjuntos
M
m1
(K) =
_

_
_

_
a
1
a
2
.
.
.
a
m
_

_
: a
i
K, i = 1, 2, , m
_

= K
m
= (a
1
, a
2
, , a
m
) : a
i
K, i = 1, 2, , m .
(1.1 c) Denicao.
As matrizes
A =
_
a
ij

M
mn
(K), B =
_
b
k

M
pq
(K)
dizem-se iguais sse
_
m = p
n = q
e a
ij
= b
ij
, i = 1, ..., m; j = 1, ..., n.
Deste modo, as matrizes A =
_
a
ij

mn
e B =
_
b
k

pq
sao iguais sempre
que sejam do mesmo tipo, (m = p e n = q) e tenham elementos iguais em entradas
iguais, (a
ij
= b
ij
, para cada i = 1, , m, j = 1, , n).
6 Captulo 1. Matrizes e Determinantes
(1.1 d) Notacoes.
(I) Aos elementos da matriz (quadrada) A M
nn
(K) com igual ndice de linha
e coluna chamamos elementos diagonais de A,
a
11
, a
22
, a
33
, ..., a
nn
.
(II) A sequencia ordenada ( ou n-upla) constituda pelos elementos diagonais
diz-se a diagonal principal de A.
(III) A n-upla constituda pelos elementos da outra diagonal recebe o nome de
diagonal secundaria de A,
a
n1
, a
n1,2
, ..., a
1n
.
(IV) Uma matriz quadrada A M
nn
(K) diz-se
i. triangular superior sempre que a
ij=0
para i > j;
_

_
0
.
.
.
.
.
.
0 0
_

_
ii. triangular inferior sempre que a
ij
= 0 para i < j;
_

_
0 0
.
.
.
.
.
.
0
_

_
iii. diagonal sempre que a
ij
= 0 para i ,= j.
_

_
0 0
0
.
.
.
.
.
.
.
.
.
.
.
.
0
0 0
_

_
1.1. Generalidades 7
(V) A matriz identidade de ordem n, I
n
, e a matriz diagonal de ordem n com
elementos diagonais iguais a 1,
_

_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_

_
=
_

ij

nn
.

E usual representarmos o elemento (i, j) da matriz I


n
por
ij
, smbolo ou
delta de Kronecker).
Assim, uma matriz triangular-superior e caracterizada por ter todas as en-
tradas nulas abaixo da diagonal principal e uma matriz triangular-inferior e carac-
terizada por ter todas as entradas nulas acima da diagonal principal. Uma matriz
e diagonal sempre que seja, simultaneamente, triangular superior e inferior.
Matrizes Elementares
Fixemos alguns tipos de operacoes sobre as linhas de uma matriz que se
designam por operacoes elementares de linha.
1. Substituicao de uma linha de uma matriz pela soma dessa linha com um
m ultiplo de outra linha;
2. Troca entre si de duas linhas de uma matriz;
3. Multiplicacao de todos os elementos de uma linha por um n umero diferente
de zero.
(1.1 e) Denicao.
Chama-se matriz elementar de ordem n a toda a matriz que se
obtem da matriz identidade de ordem n, I
n
, por aplicacao de
uma operacao elementar `as respectivas linhas.
8 Captulo 1. Matrizes e Determinantes
Obtemos, deste modo, tres tipos diferentes de matrizes elementares de ordem
n.
1. Para i ,= j (por exemplo, i < j) e K
E
ij
() =
_

_
1 0 0 0 0
0 1 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 1
_

_
i
j
i j
A matriz E
ij
() obtem-se de I
n
adicionando `a linha i a linha j previamente
multiplicada por .
2. Para i ,= j (por exemplo, i < j)
P
ij
=
_

_
1 0 0 0 0
0 1 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 1
_

_
i
j
i j
A matriz P
ij
obtem-se de I
n
trocando entre si a linha i com a linha j.
1.2. Operacoes com Matrizes 9
3. Para K, ,= 0, 1 i n
D
i
() =
_

_
1 0 0 0
0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 1
_

_
i
i
A matriz D
i
() obtem-se de I
n
multiplicando a linha i por .
Notas.
i. Permutando apenas duas linhas entre si da matriz I
n
obtemos uma das
matrizes P
ij
.
ii. Ao efectuarmos varias permutacoes `as linhas de I
n
obtemos matrizes que
em cada linha e em cada coluna tem apenas um elemento nao-nulo e esse
elemento e 1. Sao as chamadas matrizes de permutacao.
1.2 Operacoes com Matrizes
Para cada m, n IN, xemos agora a nossa atencao no conjunto M
mn
(K), de
todas as matrizes do tipo mn com entrada no conjunto K. Nele iremos denir
dois tipos diferentes de operacoes:
i. a adicao de matrizes em M
mn
(K), que a cada par de matrizes deste con-
junto faz corresponder, univocamente, uma matriz deste conjunto,
ii. e a multiplicacao por n umeros de cada matriz de K.
10 Captulo 1. Matrizes e Determinantes
(1.2 a) Denicao.
Para A =
_
a
ij

, B =
_
b
ij

M
mn
(K) e K
1. A+B e a matriz do tipo mn cujo elemento (i, j) e a
ij
+b
ij
A+B =
_
s
ij

para s
ij
= a
ij
+b
ij
, ou simplesmente,
A+B =
_
a
ij
+b
ij

mn
;
2. A e a matriz do tipo mn cujo elemento (i, j) e a
ij
,
A =
_
a
ij

mn
.
(1.2 b) Notacoes.
(I) A matriz do tipo m n com todos os elementos iguais a zero, 0, diz-se a
matriz nula e escreve-se, simplesmente
0
mn
.
(II) Para A =
_
a
ij

dene-se
A = (1)A =
_
a
ij

.
(1.2 c) Teorema. Para A, B, C M
mn
(K) e , K tem-se
1. (A+B) +C = A+ (B +C) (Associatividade da Adicao)
2. A+B = B +A (Comutatividade da Adicao)
3. A+ 0 = 0 +A = A (0
mn
e o elemento neutro da adicao )
4. A+ (A) = (A) +A = 0 (A e a simetrica de A)
5. (A+B) = A+B
6. ( +)A = A+B
7. ()A = (A)
8. 1A = A
Demonstracao.

E deixada como exerccio.
1.2. Operacoes com Matrizes 11
Multiplicacao de Matrizes
Motivacao
Dado o sistema de equacoes lineares
_
_
_
2x
1
+x
2
+x
3
= 1
4x
1
+ 2x
2
3x
3
= 0
2x
1
3x
2
+ 5x
3
= 5
ele pode ser representado matricialmente na forma
_

_
2 1 1
4 2 3
2 3 5
_

_
_

_
x
1
x
2
x
3
_

_
=
_

_
1
0
5
_

_
A
33
x
31
= b
31

`
`
`
vector-coluna
dos termos independentes
coluna dos
coecientes de
x
1
em cada
equacao
coluna dos
coecientes de
x
2
em cada
equacao
coluna dos
coecientes de
x
3
em cada
equacao
Se designarmos por A a matriz dos coecientes das incognitas nas equacoes e
por x a matriz-coluna das incognitas, temos
Ax =
_
_
2x
1
+x
2
+x
3
4x
1
+ 2x
2
3x
3
2x
1
3x
2
+ 5x
3
_
_
31
=
_
_
1
0
5
_
_
31
.
1) O exemplo anterior pode generalizar-se (de modo evidente) para A matriz
arbitraria do tipo m n e x vector-coluna arbitrario do tipo n 1.

E
imediato que a matriz resultante, a matriz produto, sera do tipo m1
A
mn
. x
n1
= b
m1

m1
12 Captulo 1. Matrizes e Determinantes
2) A denicao anterior pode generalizar-se para qualquer matriz A do tipo mn
e qualquer matriz B do tipo n p do seguinte modo
A
mn
.B
np
=
=
_
A(coluna 1 de B) A( coluna 2 de B) . . . A(coluna p de B)

A
mn
B
np
= (A.B)
mp
_

_


.
.
.
.
.
.
.
.
.
.
.
.
. . .
_

_
_

_
[
[
.
.
.
[
_

_
=
_

_
[
[
.
.
.
[
_

_
.
j j
(1.2 d) Denicao.
Para A =
_
a
ij

M
mn
(K) e B =
_
b
jk

M
np
(K) a
matriz produto AB e a matriz do tipo m p cujo elemento
(i, k) e
a
i1
b
1k
+a
i2
b
2k
+... +a
in
b
nk
( i = 1, ..., m ; k = 1, ..., p )
AB =
_
n
j=1
a
ij
b
jk

mp
.
Nota. Como se pode inferir da denicao, o produto AB da matriz A pela
matriz B apenas esta denido se o n umero de colunas da A for igual ao n umero
de linhas de B.
Sempre que tal acontece
o n umero de linhas de AB e igual ao n umero de linhas de A;
o n umero de colunas de AB e igual ao n umero de colunas de B.
1.2. Operacoes com Matrizes 13
(1.2 e) Teorema. Para A, A

M
mn
(K)
B, B

M
np
(K)
C M
pq
(K), K
temos
1. (AB)C = A(BC)
2. AI
n
= I
m
A = A
3. A(B +B

) = AB +AB

4. (A+A

)B = AB +A

B
5. (AB) = (A)B = A(B)
6. (Se AB = 0 entao (A = 0 ou B = 0)) e falso.
7. (Se AB = AB

e A ,= 0 entao (B = B

)) e falso.
(Se AB = A

Be B ,= 0 entao (A = A

)) e falso.
8. A multiplicacao de matrizes nao e comutativa.
Demonstracao. Deixamos ao cuidado do leitor a demonstracao das primeiras
cinco alneas. Demonstremos as tres ultimas. Uma vez que nos pedem para
demonstrar que as implicacoes sao falsas basta apresentar um contra-exemplo,
isto e, um exemplo onde o antecedente seja verdadeiro e o consequente seja falso.
6. Faca A =
_
_
1 0 0
0 0 0
0 0 0
_
_
e B =
_
_
0 0 0
0 1 0
0 0 0
_
_
.

E imediato que AB = 0
33
mas A ,= 0 e B ,= 0.
7. Considere ainda A =
_
_
1 0 0
0 0 0
0 0 0
_
_
e B =
_
_
0 0 0
0 1 0
0 0 0
_
_
e B

=
_
_
0 0 0
0 0 1
0 0 0
_
_
.
Entao A ,= 0, AB = AB

mas B ,= B

.
8.
Basta considerar A =
_
_
2
3
4
_
_
31
e B =
_
1 0 0

13
. Entao A
31
.B
13
=
_
_
2 0 0
3 0 0
4 0 0
_
_
33
enquanto que (B.A)
11
=
_
2

.
14 Captulo 1. Matrizes e Determinantes
Retomemos a forma matricial de um sistema de m equacoes lineares em n
incognitas
A
mn
x
n1
= b
m1
onde
A
mn
e a matriz dos coecientes das incognitas
x
n1
e a matriz das incognitas
b
m1
e a matriz dos termos independentes
A x =
_

_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_

_
_

_
x
1
x
2
.
.
.
x
n
_

_
=
_

_
a
11
x
1
+a
12
x
2
+... +a
1n
x
n
a
21
x
1
+a
22
x
2
+... +a
2n
x
n
.
.
.
a
m1
x
1
+a
m2
x
2
+... +a
mn
x
n
_

_
= x
1
_

_
a
11
a
21
.
.
.
a
m1
_

_
+x
2
_

_
a
12
a
22
.
.
.
a
m2
_

_
+x
n
_

_
a
1n
a
2n
.
.
.
a
mn
_

_
.
Nota 1. Dados r vectores-coluna v
1
, v
2
, ..., v
r
e r escalares (n umeros)
1
,
2
, ...,
r
ao vector-coluna

1
v
1
+
2
v
2
+... +
r
v
r
chamamos combinacao linear dos r vectores-coluna com coecientes
1
,
2
, ...,
r
.
Imediatamente,
Sempre que o sistema
Ax = b
seja possvel entao o vector-coluna b e uma combinacao linear dos vectores-
coluna de A onde os coecientes dessa combinacao linear constituem uma
solucao do sistema.
1.2. Operacoes com Matrizes 15
Por exemplo, admitindo o sistema
_
_
_
2x
1
+x
2
+x
3
= 1
4x
1
+ 2x
2
3x
3
= 0
2x
1
3x
2
+ 5x
3
= 5
a solucao unica
_
_
1
1
2
_
_
temos
_
_
1
0
5
_
_
= 1
_
_
2
4
2
_
_
+ 1
_
_
1
2
3
_
_
+ 2
_
_
1
3
5
_
_
.
Nota 2. Agora, na matriz produto
A
mn
B
np
= (A.B)
mp
_

_


.
.
.
.
.
.
.
.
.
.
.
.

_

_
_

_
[
[
.
.
.
[
_

_
=
_

_
[
[
.
.
.
[
_

_
.
j j
a coluna j de AB (que e dada pelo produto A (coluna j de B)) e uma com-
binacao linear dos vectores-coluna de A sendo os coecientes dessa combinacao
linear as componentes do vector-coluna j de B.
Nota 3. Analogamente ao anteriormente exposto, a linha i da matriz produto
AB
i
_

_

_

_
_

_
[ [ [
[ [ [
.
.
.
.
.
.
.
.
.
.
.
.
[ [ [
_

_
=
_

_

_

_
i
linha i de (A.B) =
_
a
i1
a
i2
a
in

_
b
11
b
12
b
1p
b
21
b
22
b
2p
.
.
.
.
.
.
.
.
.
.
.
.
b
n1
b
n2
b
np
_

_
16 Captulo 1. Matrizes e Determinantes
=
_
a
i1
b
11
+a
i2
b
21
+... +a
in
b
n1
a
i1
b
1p
+a
i2
b
2p
+... +a
in
b
np

= a
i1
_
b
11
b
1p

+ +a
in
_
b
n1
b
np

combinacao linear dos vectores-linha de B e os coecientes dessa combinacao


linear sao as componentes do vector-linha i de A.
1.3 Inversa de uma Matriz Quadrada
Dada um n umero (real ou complexo) nao-nulo temos sempre garantida a exis-
tencia (em IR ou C) do respectivo inverso multiplicativo. Recordemos a denicao
de inverso multiplicativo de um elemento, por exemplo, em IR.
Dado a IR, a ,= 0, o elemento b IR que satisfaz
ab = ba = 1
diz-se o inverso multiplicativo de a e escreve-se b = a
1
.
Agora com matrizes...
Dada uma matriz A procuramos uma matriz B que satisfaca
A
n?
. B
?n
= I
n
= B
?n
. A
n?
.
Forcosamente
? = n.
Logo so faz sentido falar em matriz inversa para uma dada matriz quadrada.
(1.3 a) Denicao.
Uma matriz A quadrada de ordem n diz-se invertvel se existir
uma matriz B quadrada de ordem n tal que
AB = BA = I
n
.
1.3. Inversa de uma Matriz Quadrada 17
Consequencias imediatas da denicao.
(I) A matriz 0
n
nao e invertvel.
(Para A = 0
n
e B M
nn
(K) arbitraria
AB = 0
n
B = 0
n
donde 0
n
nao e invertvel.)
(II) A matriz A =
_
1 2
2 4
_
e nao-invertvel. Pelo facto de existir
_
2 6
1 3
_
tal que
_
1 2
2 4
_ _
2 6
1 3
_
=
_
0 0
0 0
_
se A fosse invertvel, existiria A
1
e
A
1
_
1 2
2 4
_ _
2 6
1 3
_
= A
1
_
0 0
0 0
_
= 0
22
I
2
_
2 6
1 3
_
= 0
22
_
2 6
1 3
_
= 0
22
o que contradiz a denicao de igualdade entre duas matrizes.
(III) A matriz I
n
e invertvel ja que
I
n
I
n
= I
n
.
Pergunta 1. Em que condicoes uma dada matriz admitira inversa?
Pergunta 2. Como calcular, quando existe, a inversa de uma dada
matriz?
Mas, mesmo antes de responder a estas questoes, podemos demonstrar algu-
mas propriedades da inversa de uma matriz.
18 Captulo 1. Matrizes e Determinantes
(1.3 b) Teorema. Para A M
nn
(K) existe no maximo uma matriz
B M
nn
(K) tal que
AB = BA = I
n
.
Demonstracao. Comecemos por admitir a existencia de duas matrizes inversas
de A e mostremos que sao iguais.
Para B, B

M
nn
(K) satisfazendo
AB = BA = I
n
AB

= B

A = I
n
temos
B

= B

I
n
= B

(AB) = (B

A)B = I
n
B = B.
Logo existe, no maximo, uma matriz B nas condicoes requeridas.
(1.3 c) Teorema. Para A e C matrizes quadradas de ordem n
invertveis o produto AC e tambem invertvel e
(AC)
1
= C
1
A
1
.
Demonstracao. Veriquemos que C
1
A
1
satisfaz as condicoes exigidas para
que seja a inversa de AC. De facto, temos
(AC)(C
1
A
1
) = A(CC
1
)A
1
= AI
n
A
1
= AA
1
= I
n
.
De modo analogo
(C
1
A
1
)(AC) = C
1
(A
1
A)C = C
1
I
n
C = C
1
C = I
n
.
Logo podemos concluir que AC e invertvel ja que C
1
A
1
satisfaz as condicoes
para ser a inversa de AC.
1.4. Transposicao de Matrizes 19
1.4 Transposicao de Matrizes
(1.4 a) Denicao.
Dada uma matriz A =
_
a
ij

M
mn
(K) a matriz A
T
=
_
b
k

M
nm
(K) com
b
k
= a
k
, k = 1, ..., n; = 1, ..., m
diz-se a transposta de A.
A matriz A diz-se simetrica se A = A
T
.
Notas.
i. A coluna i da A
T
e precisamente a linha i de A, para i = 1, ..., m.
ii. Uma matriz e simetrica sse for quadrada e forem iguais os elementos
situados em posicoes simetricas relativamente `a diagonal principal.
(1.4 b) Proposicao. A transposicao de matrizes goza das seguintes pro-
priedades:
(1) (A
T
)
T
= A
(2) (A+B)
T
= A
T
+B
T
(3) (A)
T
= A
T
, para elemento de K
(4) (AB)
T
= B
T
A
T
(5) (A
k
)
T
= (A
T
)
k
, para k natural
(6) Se A for invertvel, A
T
tambem o e, tendo-se
(A
T
)
1
= (A
1
)
T
.
Demonstracao.

E deixada como exerccio.
20 Captulo 1. Matrizes e Determinantes
(1.4 c) Denicao.
Uma matriz quadrada diz-se ortogonal se for invertvel e as
respectivas inversa e transposta coincidirem
A
1
= A
T
(A ortogonal).
(1.4 d) Denicao.
Para A =
_
a
ij

mn
matriz complexa, a conjugada de A e a
matriz

A =
_
a
ij

mn
.
Escrevemos
A

para representar

A
T
.
Uma matriz diz-se hermtica sempre que
A = A

.
(1.4 e) Proposicao. As matrizes complexas gozam das seguintes propriedades:
(1) (A

= A
(2) (A+B)

= A

+B

(3) (A)

= A

, para elemento de C
(4) (AB)

= B

(5) (A
k
)

= (A

)
k
, para k natural
(6) Se A for invertvel, A

tambem o e, tendo-se
(A

)
1
= (A
1
)

.
Demonstracao.

E deixada como exerccio.
1.5. Determinantes 21
1.5 Determinantes
Pergunta 3. Sera possvel associar a cada matriz um n umero que dependa
apenas de elementos da matriz e que nos permita decidir a existencia da matriz
inversa de uma dada matriz?
A resposta a esta questao e armativa . Tal n umero e chamado o determinante
da matriz.
O determinante de uma matriz em M
11
(K).
Um n umero e invertvel sse for nao-nulo. Portanto uma matriz 11 e invertvel
sse for nao-nula. (Mas, para matrizes de ordem superior tal ja nao se verica.)
Para A =
_
a

M
11
(K) poe-se
det A = det
_
a

= [a[ := a
e chama-se determinante de A.
Conclusao. Uma matriz A =
_
a

M
11
(K) e invertvel sse o respectivo
determinante for nao-nulo.
O determinante de uma matriz em M
22
(K).
Reparemos que dada A =
_
3 13
2 9
_
se tem
A B
..
_
3 13
2 9
_
..
_
9 13
2 3
_
=
_
1 0
0 1
_
_
9 13
2 3
_
. .
_
3 13
2 9
_
. .
=
_
1 0
0 1
_
B A
22 Captulo 1. Matrizes e Determinantes
onde a matriz B =
_
9 13
2 3
_
foi obtida a partir da matriz A trocando entre si
os elementos da diagonal principal e mudando o sinal dos restantes elementos.
Ainda para A =
_
5 8
2 3
_
se verica
_
3 8
2 5
_ _
5 8
2 3
_
=
_
1 0
0 1
_
_
5 8
2 3
_ _
3 8
2 5
_
=
_
1 0
0 1
_
.
Podamos, entao, ser levados a pensar que a inversa de uma matriz
A =
_
a b
c d
_
se poderia obter trocando entre si a e d e mudando o sinal a c e a b. Mas o facto
de se ter
_
a b
c d
_ _
d b
c a
_
=
_
ad bc 0
0 ad bc
_
leva-nos a ter um momento de reexao. Tal procedimento levar-nos-ia, imediata-
mente, `a inversa de A somente no caso de ad bc = 1. E se ad bc ,= 1? Sera
que poderemos ainda determinar a inversa de A?
Caso 1. Seja D = ad bc ,= 0.
Basta agora colocar
_
d
D

b
D

c
D
a
D
_
para obter
_
d
D

b
D

c
D
a
D
_ _
a b
c d
_
= I
2
_
a b
c d
_ _
d
D

b
D

c
D
a
D
_
= I
2
.
1.5. Determinantes 23
Caso 2. Seja D = ad bc = 0.
Entao a matriz A nao admite inversa. Suponhamos que existia A
1
, matriz
inversa de A. Teramos
_
d b
c a
_
= I
2
_
d b
c a
_
= (A
1
A)
_
d b
c a
_
= A
1
(A
_
d b
c a
_
)
= A
1
0
2
= 0
2
o que contradiz a denicao de igualdade entre duas matrizes.
Conclusao. A matriz A =
_
a c
b d
_
M
22
(K) admite inversa sse
D = ad bc ,= 0. O n umero D diz-se o determinante de A.
(1.5 a) Notacoes. Usa-se
det A = det
_
a
ij

=
a
11
a
12
a
21
a
22
:= a
11
a
22
a
12
a
21
para representar este n umero de K.
(1.5 b) Exemplo. Temos
det
_
2 1
1 4
_
= 8 1 = 7, det
_
2 3
4 5
_
= 10 + 12 = 2.
(1.5 c) Observacao. O determinante de A esta, como vimos, relacionado
com a existencia e o calculo da inversa de uma matriz A. Mas a importancia do
determinante nao se esgota aqui. Por exemplo, dado o paralelograma P
24 Captulo 1. Matrizes e Determinantes

/
/
/
/
/
/
/
/
//`
. .
a
21
. .
a
11
_

_
a
22
_

_
a
12
P
(a
21
, a
22
)
(a
11
, a
12
)
R
R

1

1

2
temos
(a
11
+a
21
)(a
12
+a
22
) = area P + 2 areaR + 2 area
1
+ 2 area
2
area P = (a
11
+a
21
)(a
12
+a
22
) 2a
12
a
21
2 (1/2)a
21
a
22
2 (1/2)a
11
a
12
= a
11
a
22
a
12
a
21
= det
_
a
11
a
12
a
21
a
22
_
.
Algumas Propriedades dos Determinantes em M
22
(K)
(d
1
) Para a, b, c, d, b

, d

, K temos
det
_
a b +b

c d +d

_
= det
_
a b
c d
_
+det
_
a b

c d

_
.
det
_
a b
c d
_
=
_
a b
c d
_
(d
2
) Se as duas colunas de uma matriz forem iguais o determinante da matriz e
igual a zero.
(d
3
) Para a matriz identidade de ordem 2 temos
det
_
1 0
0 1
_
= 1.
1.5. Determinantes 25
Demonstracao.
(d
1
) Pela denicao estabelecida para o valor do determinante em matrizes de
M
22
(K) temos imediatamente
det
_
a b +b

c d +d

_
= a(d +d

) c(b +b

)
= ad bc +ad

c
= det
_
a b
c d
_
+det
_
a b

c d

_
;
det
_
a b
c d
_
= ( a)d ( c)b = (ad bc) = det
_
a b
c d
_
( Nota.

E imediato que, para a, a

, b, b

, c, c

, d, d

, K, temos ainda
i.
det
_
a +a

b
c +c

d
_
= det
_
a b
c d
_
+det
_
a

b
c

d
_
;
ii.
det
_
a b
c d
_
= det
_
a b
c d
_
= det
_
a b
c d
_
;
iii.
det(
_
a b
c d
_
) =
2
det
_
a b
c d
_
. )
(d
2
) Para matrizes com as duas colunas iguais
det
_
a a
c c
_
= ac ac = 0,
conforme requerido.
(d
3
) Pela denicao estabelecida temos
det
_
1 0
0 1
_
= 1 1 0 0 = 0.
O determinante de uma matriz emM
22
(K) satisfaz ainda outras propriedades
adicionais. Analisemos algumas.
26 Captulo 1. Matrizes e Determinantes
(1.5 d) Proposicao.
Em M
22
(K)
(1) se adicionarmos um m ultiplo de uma coluna `a outra o valor do deter-
minante nao se altera;
(2) se trocarmos entre si as colunas o determinante muda de sinal;
(3) os determinantes de uma matriz A M
22
(K) e da respectiva trans-
posta coincidem, isto e, detA = detA
T
.
Demonstracao.
(1) Temos
det
_
a b +a
c d +c
_
= det
_
a b
c d
_
+det
_
a a
c c
_
= det
_
a b
c d
_
+ det
_
a a
c c
_
= det
_
a b
c d
_
.
(2) Temos
det
_
b a
d c
_
= bc ad = (ad bc) = det
_
a b
c d
_
.
(3) Temos
det
_
a c
b d
_
= (ad bc) = det
_
a b
c d
_
.
O determinante de uma matriz em M
33
(K).
Seja A =
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
.
1.5. Determinantes 27
Vamos denir det A de acordo com a formula
det A = a
11
a
22
a
33
+a
12
a
23
a
31
+a
13
a
21
a
32

a
31
a
22
a
13
a
32
a
23
a
11
a
33
a
21
a
12
(1)
que pode ser facilmente obtida atendendo aos seguintes diagramas:
Diagrama 1.
+ + + - - -
a
11
a
12
a
13
a
11
a
12
a
21
a
22
a
23
a
21
a
22
a
31
a
32
a
33
a
31
a
32

Diagrama 2.
termos com sinal + termos com sinal -


>
>
>
>

>
>
>
>

`
`
`
` `
`
`
`

E imediato que
5 1 3
1 2 0
0 1 1
= (5)(2)(1) + (1)(0)(0) + (1)(1)(3)
(0)(2)(3) (1)(1)(1) (5)(1)(0)
= 10 + 3 + 1 = 14.
(1.5 e) Observacoes.
(1) Uma vez que
det A
T
= det
_
_
a
11
a
21
a
31
a
12
a
22
a
32
a
13
a
23
a
33
_
_
= a
11
a
22
a
33
+a
13
a
21
a
32
+a
12
a
23
a
31
a
13
a
22
a
31
a
11
a
23
a
32
a
12
a
21
a
33
= det A
a propriedade (3) da proposicao (1.5d) continua a ser satisfeita para
matrizes de M
33
(K).
28 Captulo 1. Matrizes e Determinantes
(2) Mas os diagramas usados para os casos n = 2 e n = 3 nao se revelam
tao uteis e simples para ordens superiores. No entanto, existe outra
estrategia para a denicao que vai ser de facil generalizacao.
(3) Podemos, por exemplo, reagrupar os termos de (1) do seguinte modo
(evidenciando os elementos da coluna 1.)
det A = det
_
_
a
1
b
1
c
1
a
2
b
2
c
2
a
3
b
3
c
3
_
_
= a
1
(b
2
c
3
b
3
c
2
) a
2
(b
1
c
3
b
3
c
1
) +a
3
(b
1
c
2
b
2
c
1
)
= a
1
b
2
c
2
b
3
c
3
a
2
b
1
c
1
b
3
c
3
+a
3
b
1
c
1
b
2
c
2
. (2)
(4) De modo identico e reagrupando de acordo com as restantes colunas
ou linhas , poderamos obter outros cinco diferentes desenvolvimentos.
Por exemplo, de acordo com os elementos da linha 3, teramos
det A = a
3
b
1
c
1
b
2
c
2
b
3
a
1
c
1
a
2
c
2
+c
3
a
1
b
1
a
2
b
2
. (3)
A formula (2) diz-se um desenvolvimento em coluna do det A (em
relacao `a coluna 1) sendo (3) um desenvolvimento em linha do det A
(relativamente `a linha 3).
(5) Em cada caso os 22-determinantes (determinantes de matrizes 22)
que aparecem nas formulas dizem-se menores do det A da entrada pela
qual estao a ser multiplicados. Deste modo, por exemplo, o menor
de a
1
e o determinante da matriz que se obtem de A eliminando a
linha e a coluna onde a
1
se encontra, isto e, a linha 1 e a coluna 1.
Semelhantemente, o menor de c
2
em
a
1
b
1
c
1
a
2
b
2
c
2
a
3
b
3
c
3
e
a
1
b
1
a
3
b
3
.
(6) A cada menor esta associado um sinal determinado pela posicao do
elemento e de acordo com a seguinte tabela
+ +
+
+ +
.
1.5. Determinantes 29
Olhando para a tabela podemos dela tirar uma regra:
O sinal que vai afectar o menor do (i, j) -elemento e o sinal de
(1)
i+j
. Deste modo, se i + j for par o sinal + ira afectar o
menor da (i, j) -entrada da matriz. Sempre que i + j seja mpar o
sinal que ira afectar o menor sera .
(7) Tal leva-nos ao conceito de co-factor ou complemento algebrico de uma
entrada da matriz A.
O co-factor ou complemento algebrico da (i, j)-entrada e igual
a
(1)
i+j
(menor da (i, j) entrada).
Por exemplo, para A =
_
_
a
1
b
1
c
1
a
2
b
2
c
2
a
3
b
3
c
3
_
_
(complemento algebrico de a
1
) = (1)
1+1
b
2
c
2
b
3
c
3
=
b
2
c
2
b
3
c
3
(complemento algebrico de c
2
) = (1)
2+3
a
1
b
1
a
3
b
3
=
a
1
b
1
a
3
b
3
.
(8) Usando as nocoes agora estabelecidas podemos descrever o desenvolvi-
mento de det A para A M
33
(K) em colunas ou em linhas de acordo
com a seguinte formula (Teorema de Laplace).
Teorema de Lapace:
O det A e igual `a soma dos produtos das entradas de uma coluna (ou
linha) pelos respectivos complementos algebricos.
Por exemplo, usando o desenvolvimento em coluna (na primeira) obte-
mos
5 1 3
1 2 0
0 1 1
= 5
2 0
1 1
1
1 3
1 1
+ 0
1 3
2 0
= 10 + 4 = 14
obtendo-se o mesmo valor ao efectuarmos o desenvolvimento em linha
(por exemplo, na segunda)
30 Captulo 1. Matrizes e Determinantes
5 1 3
1 2 0
0 1 1
= 1
1 3
1 1
+ 2
5 3
0 1
0
5 1
0 1
= 4 + 10 = 14.
(1.5 f) Nota.

E agora imediato estabelecer em M
33
(K) a validade de uma
proposicao correspondente a 1.5 d.
O determinante de uma matriz em M
nn
(K), para n 4 .
Suponhamos que a nocao de determinante de uma matriz esta ja denida para
matrizes de ordem ate n 1.
Dada uma matriz A =
_
a
ij

nn
representemos por
a (n 1) (n 1)-matriz obtida
A
ij
de A por supressao
da linha i e da coluna j
Deste modo podemos denir
i. o menor de a
ij
como sendo det A
ij
;
ii. o complemento algebrico (co-factor) de a
ij
como sendo (1)
i+j
detA
ij
.

E possvel demonstrar que as somas


n

i=1
(1)
i+j
a
ij
det A
ij
, (j e constante)
n

j=1
(1)
i+j
a
ij
det A
ij
, (i e constante)
tem o mesmo valor seja qual for o j escolhido na primeira e o i escolhido na
segunda.
1.5. Determinantes 31
A primeira da-nos o desenvolvimento na coluna j e a segunda da-nos o de-
senvolvimento na linha i do det A. Deste modo podemos tomar cada uma destas
somas para estabelecer a denicao de
det A
para o caso geral de uma matriz A M
nn
(K), para n natural arbitrario.
(1.5 g) Denicao.
Para A M
nn
(K), para n natural arbitrario,
det A =
n

i=1
(1)
i+1
a
i1
det A
i1
diz-se o desenvolvimento de det A na coluna 1 de A.
(1.5 h) Exemplo. Para n = 4 temos
det A = a
11
a
22
a
23
a
24
a
32
a
33
a
34
a
42
a
43
a
44
a
21
a
12
a
13
a
14
a
32
a
33
a
34
a
42
a
43
a
44
+a
31
a
12
a
13
a
14
a
22
a
23
a
24
a
42
a
43
a
44
a
41
a
12
a
13
a
14
a
22
a
23
a
24
a
32
a
33
a
34
.
assim
det
_

_
1 2 1 1
2 5 0 2
1 0 6 0
1 2 0 3
_

_
= 1
5 0 2
0 6 0
2 0 3
2
2 0 2
1 6 0
1 0 3
+(1)
2 5 2
1 0 0
1 2 3
1
2 5 0
1 0 6
1 2 0
= (90 24) 2(36 12) (11) 6 = 1.
Mas o calculo e muito mais rapido se efectuarmos um desenvolvimento em coluna,
32 Captulo 1. Matrizes e Determinantes
por exemplo, na coluna 3. De facto,
det
_

_
1 2 1 1
2 5 0 2
1 0 6 0
1 2 0 3
_

_
= 1
2 5 2
1 0 0
1 2 3
+ 6
1 2 1
2 5 2
1 0 3
= (1)(4 + 15) + 6(15 + 4 + 4 5 4 12)
= 11 + 12 = 1.
Algumas Propriedades
(I)
O determinante de uma matriz diagonal e igual ao produto das
entradas da diagonal principal.
(Tambem para n = 4 temos
det
_

_
a 0 0 0
0 b 0 0
0 0 c 0
0 0 0 d
_

_
= a det
_
_
b 0 0
0 c 0
0 0 d
_
_
= a.bcd = abcd
conforme requerido. O caso geral demonstra-se por inducao.)
Em particular, para as matrizes elementares do tipo
D
i
(), i = 1, ..., n, K
det D
i
() = det
_

_
1 0 0 0
0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 1
_

_
= .
(II)
Tambem para as matrizes elementares do tipo E
ij
() temos
det E
ij
() = 1, i, j = 1, ..., n, K.
1.5. Determinantes 33
(Por exemplo, para n = 4, i = 3, j = 2 temos
det E
32
() =
1 0 0 0
0 1 0 0
0 1 0
0 0 0 1
= 1
1 0 0
1 0
0 0 1
= 1.1
1 0
0 1
= 1
tendo, no terceiro passo, sido efectuado um desenvolvimento na 1
a
linha.
O resultado geral demonstra-se por inducao.
(III)
Finalmente
det P
ij
= 1.
(De facto, para n = 4, i = 2, j = 4 temos
det P
24
=
1 0 0 0
0 0 0 1
0 0 1 0
0 1 0 0
= 1
0 0 1
0 1 0
1 0 0
= 1(1) = 1.)
Mais uma vez o resultado geral demonstra-se por inducao.

E ainda usando o Princpio da Inducao que se demonstra a validade do


seguinte teorema.
(1.5 i) Teorema. O determinante satisfaz as seguintes propriedades:
(d
1
) Se para j = 1, ..., n representarmos por A
(j)
a coluna j da matriz A e se para
um certo i 1, ..., n, a coluna A
(i)
for a soma de dois vectores-coluna,
A
(i)
= C +C

, entao
det
_
A
(1)
C +C

A
(n)

= det
_
A
(1)
C A
(n)

+det
_
A
(1)
C

A
(n)

.
Para K e A
(i)
= C
det
_
A
(1)
C A
(n)

= det
_
A
(1)
C A
(n)

.
34 Captulo 1. Matrizes e Determinantes
(d
2
) Se para j ,= i as colunas A
(i)
e A
(j)
da matriz A forem iguais entao
det A = 0.
(d
3
) Para n arbitrario, det I
n
= 1.
Este teorema pode (e e usualmente) utilizado para denir a funcao determi-
nante
det : M
nn
(K) K
A det A, A M
nn
(K),
impondo que ela satisfaca (d
1
), (d
2
), (d
3
).
Para n IN arbitrario, a propriedade correspondente `a Prop.1.5 d pode agora
ser estabelecida.
(1.5 j) Proposicao. Para cada n IN, em M
nn
(K) tem-se
(1) O determinante de uma matriz e da respectiva transposta coincide.
(2) Para i, j naturais, ao trocarmos entre si as colunas A
(i)
e A
(j)
da
matriz A, o determinante da matriz assim obtida e o simetrico do
detA.
(3) Seja B a matriz obtida de A por adicao `a coluna i de A do m ultiplo-
da coluna j de A. Entao detA = detB.
Demonstracao.
(1) Trata-se de uma consequencia imediata da denicao de determinante.
O desenvolvimento do determinante da matriz A
T
segundo a linha i
coincide com o desenvolvimento do determinante da matriz A segundo
a coluna i.
(2) Atendendo a (d
2
) ao substituirmos as colunas A
(i)
e A
(j)
por A
(i)
+A
(j)
obtemos uma matriz com duas colunas iguais e logo de determinante
igual a zero. Deste modo,
1.5. Determinantes 35
0 = det
_
A
(1)
A
(i)
+A
(j)
A
(i)
+A
(j)
A
(n)

= det
_
A
(1)
A
(i)
A
(i)
A
(n)

+det
_
A
(1)
A
(j)
A
(j)
A
(n)

+det
_
A
(1)
A
(i)
A
(j)
A
(n)

+det
_
A
(1)
A
(j)
A
(i)
A
(n)

donde o requerido.
(3) Para A =
_
A
(1)
A
(i)
A
(j)
A
(n)

tem-se
B =
_
A
(1)
A
(i)
+A
(j)
A
(j)
A
(n)

.
Atendendo a (d
2
) tem-se
detB = det
_
A
(1)
A
(i)
+A
(j)
A
(j)
A
(n)

=
= det
_
A
(1)
A
(i)
A
(j)
A
(n)

+
+det
_
A
(1)
A
(j)
A
(j)
A
(n)

= det
_
A
(1)
A
(i)
A
(j)
A
(n)

+
+ det
_
A
(1)
A
(j)
A
(j)
A
(n)

= detA+ 0 = detA
ja que a segunda matriz tem duas colunas iguais.
Ainda Algumas Propriedades de Determinantes
Exerccio.
Para A M
nn
(K), i, j = 1, ..., n, K
i. descreva em funcao da matriz A as matrizes
E
ij
()A D
i
()A P
ij
A
A E
ij
() A D
i
() A P
ij
;
ii. prove que
det (E
ij
()A) = det E
ij
() det A
det (D
i
() A) = det D
i
() detA
det (P
ij
A) = det P
ij
detA.
36 Captulo 1. Matrizes e Determinantes
Captulo 2
Sistemas de Equacoes Lineares
O objectivo deste captulo e descrever processos para resolver sistemas de equacoes
lineares.
2.1 Generalidades
No ensino secundario foi abordado um processo para resolver sistemas de equacoes
lineares em duas ou tres variaveis, o metodo de eliminacao (ao substituirmos
nalgumas equacoes, o valor de uma variavel pela expressao dessa variavel nas
restantes variaveis, essa variavel e eliminadanessas equacoes). Vamos refazer
essas tecnicas agora de um ponto de vista mais geral.
(2.1 a) Denicao.
Uma equacao linear em (ou nas incognitas) x
1
, x
2
, ..., x
n
e uma
igualdade do tipo
a
1
x
1
+a
2
x
2
+... +a
n
x
n
= b
onde a
1
, a
2
, ..., a
n
e b sao elementos (n umeros) de K.
A x
1
, x
2
, ..., x
n
chamamos incognitas, sendo
a
1
, a
2
, ...a
n
os coecientes das incognitas e
b o segundo membro ou termo independente.
37
38 Captulo 2. Sistemas de Equacoes Lineares
(2.1 b) Denicao.
Um sistema de equacoes lineares e uma coleccao nita de equacoes
lineares envolvendo um certo n umero de variaveis.
Um sistema de m equacoes em n incognitas
_

_
a
11
x
1
+a
12
x
2
+... +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+... +a
2n
x
n
= b
2

a
m1
x
1
+a
m2
x
2
+... +a
mn
x
n
= b
m
n

j=1
a
ij
x
j
= b
i
, i = 1, ..., m
pode representar-se abreviadamente na forma matricial
Ax = b
onde
A =
_

_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_

_
mn
, x =
_

_
x
1
x
2
.
.
.
x
n
_

_
n1
, b =
_

_
b
1
b
2
.
.
.
b
m
_

_
m1
matriz do sistema matriz-coluna segundo membro
das incognitas
(2.1 c) Denicao.
Uma solucao do sistema de equacoes lineares nas incognitas
x
1
, ..., x
n
e uma sequencia ordenada de n umeros

1
, ...,
n
tais que as substituicoes x
i
=
i
, i = 1, ..., n transformam
todas as equacoes em identidades.
Resolver um sistema de equacoes lineares e determinar o conjunto de todas as
solucoes (o conjunto solucao, C.S.) ou provar que nao existe solucao, (C.S. = ).
2.1. Generalidades 39
Tipos de sistemas relativamente ao n umero de solucoes.
Um sistema que admite pelo menos uma solucao diz-se possvel (Diz-se deter-
minado se so tiver uma, indeterminado se tiver mais do que uma). Um sistema
de equacoes que nao tenha qualquer solucao diz-se impossvel.
Interpretacao geometrica no caso K = IR e m = n = 2
Seja dado o sistema
_
a x +b y = c com a ,= 0 ou b ,= 0
a

x +b

y = c

com a

,= 0 ou b

,= 0
x x x
y y y
>
>
>
>
>
>
>
>
>
>

sistema possvel sistema possvel sistema impossvel


determinado indeterminado
(rectas concorrentes) (rectas coincidentes) (rectas paralelas)
(2.1 d) Denicao.
Sistemas com o mesmo n umero de equacoes e incognitas dizem-
se equivalentes se tiverem exactamente as mesmas solucoes.
Metodos de Resolucao
de sistemas
de equacoes lineares
Directos
Iterativos (Analise Numerica)

40 Captulo 2. Sistemas de Equacoes Lineares


2.2 O Algoritmo de Eliminacao de Gauss (metodo di-
recto)
Ideia Basica do Metodo:
Os sistemas (cujas matrizes sejam) triangulares (ou em escada)
resolvem-se facilmente por substituicao ascendente.
(Por exemplo
_
_
_
2x + 3y 4z = 1
2y + 5z = 3
2z = 3
_
_
_
z = 3/2
_
_
_
2y + 5 3/2 = 3
z = 3/2
_
_
_
x = ...
y = 21/4
z = 3/2
.)
Objectivo.
Desenvolver um algoritmo para transformar o sistema dado noutro
equivalente cuja matriz seja (triangular) em escada.
Dado o sistema
_
_
_
2x +y +z = 1 (L
1
)
4x + 2y 3z = 0 (L
2
)
2x 3y + 5z = 5 (L
3
)
vamos efectuar uma sequencia de passos-elementares que o transforme num sis-
tema equivalente de matriz (triangular) em escada.
Passo Elementar de Gauss
Um passo elementar no metodo de eliminacao de Gauss consiste
na adicao membro a membro a uma equacao de um m ultiplo de
outra de forma a que, na equacao obtida, seja nulo o coeciente
de certa incognita. Diz-se entao que se eliminou essa incognita da
equacao.
2.2. O Algoritmo de Eliminacao de Gauss (metodo directo) 41
Parte Descendente do Metodo
_
_
_
2x +y +z = 1 (L
1
)
4x + 2y 3z = 0 (L
2
)
2x 3y + 5z = 5 (L
3
)
_
_
_
2
=0
x +y +z = 1 (L

1
= L
1
)
4
=0
y z = 2 (L

2
= L
2
(2L
1
))
4 y + 4z = 4 (L

3
= L
3
L
1
)
_
_
_
2
=0
x +y +z = 1 (L

1
= L

1
)
4
=0
y z = 2 (L

2
= L

2
)
3z = 6 (L

3
= L

3
(
a
32
a

22
)L

2
)
(Por exemplo, sendo a
11
,= 0 a adicao `a segunda equacao da primeira
multiplicada por
a
21
a
11
elimina a incognita x
1
da segunda equacao.)
Em seguida, passamos a eliminar a incognita x
2
de todas as equacoes a partir
da 3
a
- para o qual e necessario que a

22
(o novo coeciente de x
2
na 2
a
equacao)
seja nao-nulo. Este processo repete-se ate nao ser possvel continua-lo mais. Os
n umeros nao-nulos
a
11
, a

22
, ...
chamam-se pivots da eliminacao.
(No presente caso ha 3 pivots havendo 3 equacoes e 3 incognitas.)
Parte Ascendente do Metodo
No caso em estudo
_
_
_
2
=0
x +y +z = 1
4
=0
y z = 2
3z = 6
_
_
_
z = 2
_
_
_
4y 2 = 2
z = 2
_
_
_
2x + 1 + 2 = 1
y = 1
z = 2
_
_
_
x = 1
y = 1
z = 2
e logo o sistema e possvel e determinado admitindo a solucao unica (1, 1, 2).
42 Captulo 2. Sistemas de Equacoes Lineares
Algoritmo de Metodo de Eliminacao de Gauss
Seja dado um sistema de m equacoes em n incognitas
_

_
a
11
x
1
+a
12
x
2
+... +a
1n
x
n
= b
1
(L
1
)
a
21
x
1
+a
22
x
2
+... +a
2n
x
n
= b
2
(L
2
)

a
m1
x
1
+a
m2
x
2
+... +a
mn
x
n
= b
m
(L
m
)
i. Se a
11
,= 0, considere
L

1
= L
1
L

2
= L
2

a
21
a
11
L
1
passos elementares
.
.
. do metodo
L

m
= L
m

a
m1
a
11
L
1
Deste modo, a incognita x
1
e eliminada de todas as equacoes a partir da
segunda.
ii. Seja agora a

22
o coeciente de x
2
na segunda equacao do sistema (equiv-
alente ao dado pelo Teorema (2.2 a) e obtido em (i.)). Se a

22
,= 0, usando
um processo ao descrito em (i.), elimine a incognita x
2
em todas as equacoes
do novo sistema a partir da 3
a
equacao.
iii. E o processo e repetido enquanto possvel.
Nota. Caso apareca um zero na posicao em que devia estar um pivot,
procura-se resolver o problema trocando a respectiva equacao por uma outra
situada abaixo dela. Se nenhuma troca resolver o problema, o pivot passa a ser
procurado entre os coecientes da incognita seguinte.
(2.2 a) Teorema. Cada passo elementar do metodo de eliminacao de Gauss
transforma um sistema noutro equivalente.
Demonstracao. Cada passo elementar pode ser descrito matricialmente pela
multiplicacao `a esquerda por uma matriz elementar do tipo E
ij
(). Basta entao
reparar que E
ij
()
1
= E
ij
().
2.2. O Algoritmo de Eliminacao de Gauss (metodo directo) 43
(Por exemplo, a eliminacao de x
1
na segunda linha e efectuada pela multi-
plicacao `a esquerda por
E
21
(
a
21
a
11
).
A partir do sistema
Ax = b (1)
obtemos o sistema
E
21
(
a
21
a
11
)Ax = E
21
(
a
21
a
11
) b. (2)
Se x
0
for solucao de (1) e imediatamente solucao de (2). Agora se x
1
for solucao
de (2) entao por multiplicacao de (2) por E
21
(
a
21
a
11
) obtemos
Ax
1
= b
e logo x
1
e tambem solucao de (1).)
Do processo de eliminacao de Gauss ao sistema Ax = b resulta um
sistema equivalente
|x = c
cuja matriz | (que e ainda do tipo m n) tem uma forma especial e
que se diz matriz-em-escada.
(2.2 b) Denicao.
Uma matriz diz-se uma matriz-em-escada (de linhas) sempre
que satisfaca:
(1) Se o primeiro elemento nao-nulo numa linha estiver
na coluna j entao a linha seguinte comeca com, pelo
menos, j elementos nulos.
(2) Se houver linhas totalmente constitudas por zeros,
elas aparecem depois das outras.
(Pela propria denicao, as matrizes triangulares superiores de elementos di-
agonais nao-nulos sao matrizes-em-escada.)
44 Captulo 2. Sistemas de Equacoes Lineares
_
_

0
0 0
_
_
_

_

0 0
0 0 0
0 0 0 0 0 0
0 0 0 0 0 0 0
_

_
_

_

0
0 0 0
0 0 0
0 0 0
_

_
Aqui
designa um elemento arbitrario de K
representa um elemento nao-nulo em K.
Com a obtencao da matriz-em-escada | termina a parte descendente do
metodo de eliminacao de Gauss.
Neste momento verica-se se o sistema obtido
|x = c
e possvel, isto e, verica-se a nao-existencia de equacoes com o primeiro membro
nulo e o segundo nao-nulo. Se o sistema for possvel resolve-se de baixo para cima
(parte ascendente do algoritmo) obtendo algumas incognitas (aquelas que estao
a ser multiplicadas por pivots) em funcao das restantes.
`
As primeiras chamamos
incognitas principais ou basicas e `as outras (que podem tomar qualquer valor em
K) chamamos incognitas nao-principais ou livres.
Casos Possveis no nal da Eliminacao (para m = n)
(1) Ha n pivots.
O sistema |x = c e do tipo
_

_
a
11
x
1
+ a
12
x
2
+... + a
1n
x
n
=

b
1
a
22
x
2
+... + a
2n
x
n
=

b
2
.
.
.
a
nn
x
n
=

b
n
e por substituicao ascendente obtemos a solucao unica. O sistema e
possvel e determinado.
2.2. O Algoritmo de Eliminacao de Gauss (metodo directo) 45
(2) Ha k pivots com k < n.
As ultimas equacoes do sistema equivalente obtido sao do tipo 0 = 0
ou 0 = a com a ,= 0.
a. Ha pelo menos uma equacao do tipo 0 = a com a ,= 0. Neste caso
o sistema e impossvel.
b. Considere as primeiras k equacoes e passe as parcelas referentes
`as n k incognitas livres para os segundos membros. Resolva o
sistema em relacao `as k incognitas basicas. Obtemos os valores
das k incognitas basicas em funcao das n k incognitas livres.
Neste caso, o sistema e possvel e indeterminado. Diz-se que o
grau de indeterminacao do sistema e
n k.
n umero de incognitas n umero de pivots
(2.2 c) Exemplos.
(I) O sistema
_
_
_
x y +z = 2 (L
1
)
3x + 3y z = 5 (L
2
)
2x 2y +z = 1 (L
3
)
_
_
_
x y +z = 2 (L

1
= L
1
)
0y + 2z = 1 (L

2
= L
2
+ 3L
1
)
0y z = 3 (L

3
= L
3
2L
1
)
_
_
_
x y +z = 2 (L

1
= L

1
= L
1
)
2z = 1 (L

2
= L

2
)
0z = 5/2 (L

3
= L
3
+ (1/2)L

2
)
e impossvel (pela existencia da 3
a
equacao, ou seja, o n umero de pivots e inferior
`a caracterstica da matriz ampliada do sistema).
(II) No sistema
_
_
_
x y +z = 2 (L
1
)
3x + 3y z = 5 (L
2
)
2x 2y +z = 7/2 (L
3
)
46 Captulo 2. Sistemas de Equacoes Lineares
_
_
_
x y +z = 2 (L

1
= L
1
)
2z = 1 (L

2
= L
2
+ 3L
1
)
z = 1/2 (L

3
= L
3
2L
1
)
_
_
_
x y +z = 2 (L

1
= L

1
= L
1
)
2z = 1 (L

2
= L

2
)
0z = 0 (L

3
= L
3
+ (1/2)L

2
)
para efeitos de determinacao da solucao do sistema, esta ultima equacao 0z = 0
e irrelevante ja que qualquer valor de z satisfaz esta equacao. Comecemos por
reparar que o n umero de pivots, 2, e inferior ao n umero de incognitas, 3, sendo
x e z as incognitas basicas (cujos coecientes sao pivots) e sendo y uma variavel
livre.
_
x +z = 2 +y
z = 1/2
_
x = y 3/2
z = 1/2
O conjunto das solucoes (solucao geral) e, portanto,
(y 3/2, y, 1/2) : y IR
sendo o grau de indeterminacao do sistema ( igual ao n umero de incognitas livres),
1 = 3 2.
(2.2 d) Denicao.
A caracterstica de A, car A, e o n umero de pivots que apare-
cem na matriz resultado da aplicacao a A do metodo de elimi-
nacao de Gauss.
Equivalentemente, car A e o n umero de linhas nao-nulas da
matriz-em-escada | produzida pelo algoritmo de eliminacao de
Gauss aplicado a A.
Uma matriz quadrada, A
nn
diz-se nao-singular se tiver carac-
terstica igual a n, isto e, se a caracterstica e a ordem coincidi-
rem.
Se car A
nn
< n a matriz A diz-se singular.
No caso de A M
nn
(K) ser nao-singular, a matriz | e triangular superior
com os elementos diagonais nao-nulos (sao os n pivots).
2.2. O Algoritmo de Eliminacao de Gauss (metodo directo) 47
Vericamos que na aplicacao do algoritmo de Gauss os coecientes a
ij
e os
termos independentes sao alterados. Para simplicar a aplicacao do metodo e
conveniente trabalhar com a seguinte matriz que se diz a matriz-ampliada do
sistema.
_
A [ b

=
_

_
a
11
a
12
a
1n
[ b
1
a
21
a
22
a
2n
[ b
2
.
.
.
.
.
.
.
.
.
.
.
. [
.
.
.
a
m1
a
m2
a
mn
[ b
m
_

_
Casos Possveis no Final da Parte Descendente do Algoritmo de
Eliminacao de Gauss
(Analise da matriz-ampliada obtida)
i. A M
mn
(K)
car A < car
_
A [ b

Sistema Impossvel
_

_
[
0 [
0 0 [
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. [
.
.
.
0 0 0 [
0 0 0 0 0 0 [
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. [
.
.
.
0 0 0 0 0 0 0 [
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. [
.
.
.
0 0 0 0 0 0 0 [
_

_
onde designa um elemento nao-nulo de K
e representa um elemento arbitrario em K.
48 Captulo 2. Sistemas de Equacoes Lineares
ii. A M
mn
(K)
car A = car
_
A [ b

Sistema Possvel e Determinado


(n umero de pivots = n umero de incognitas)
(so ha variaveis basicas)
_

_
[
0 [
0 0 [
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. [
.
.
.
0 0 0 [
_

_
ou
_

_
[
0 [
0 0 [
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. [
.
.
.
0 0 0 [
0 0 0 0 [ 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. [
.
.
.
0 0 0 0 0 [ 0
_

_
iii. A M
mn
(K)
car A = car
_
A [ b

Sistema Possvel e Indeterminado


(n umero de pivots < n umero de incognitas)
( ha variaveis livres)
_

_
[
0 [
0 0 [
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. [
.
.
.
0 0 0 [
_

_
ou
_

_
[
0 [
0 0 [
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. [
.
.
.
0 0 0 [
0 0 0 0 0 0 [ 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. [
.
.
.
0 0 0 0 0 0 0 [ 0
_

_
Todas as equacoes com o 1
o
membro igual a zero tem tambem o 2
o
membro
igual a zero.
2.3. Decomposicao L| de uma matriz (Resolucao de sistemas) 49
2.3 Decomposicao L| de uma matriz (Resolucao de
sistemas)
Dada uma matriz A M
nn
(K) sera possvel (sempre?) escreve-la como um
produto de duas matrizes
A = L|
onde
L e triangular inferior e
| e triangular superior?
E o mesmo acontecera com A M
mn
(K) ?
Caso I A matriz A e nao-singular.
Analisemos a aplicacao do metodo de eliminacao de Gauss `a resolucao do
seguinte sistema
_
_
2 1 1
4 2 3
2 3 5
_
_
_
_
x
y
z
_
_
=
_
_
1
0
5
_
_
L
2
+ 2L
1
L
3
L
1
_
_
2 1 1 [ 1
4 2 3 [ 0
2 3 5 [ 5
_
_

E
21
(2)
_
_
2 1 1 [ 1
0 4 1 [ 2
2 3 5 [ 5
_
_

E
31
(1)
A |
1
L
3
+L
2

E
31
(1)
_
_
2 1 1 [ 1
0 4 1 [ 2
0 4 4 [ 4
_
_

E
32
(1)
_
_
2 1 1 [ 1
0 4 1 [ 2
0 0 3 [ 6
_
_
|
2
|
com
50 Captulo 2. Sistemas de Equacoes Lineares
E
21
(2) A = |
1
E
31
(1)(E
21
(2) A) = |
2
E
32
(1)(E
31
(1) E
21
(2) A) = |
donde
E
32
(1) (E
32
(1)E
31
(1)E
21
(2) A) = E
32
(1) |
E
21
(2) A = E
31
(1) E
32
(1)|
A = E
21
(2) E
31
(1) E
32
(1)
. .
|
L |
onde L e dada por um produto de matrizes invertveis.
L =
_
_
1 0 0
2 1 0
0 0 1
_
_
_
_
1 0 0
0 1 0
1 0 1
_
_
E
32
(1)
=
_
_
1 0 0
2 1 0
1 0 1
_
_
_
_
1 0 0
0 1 0
0 1 1
_
_
=
_
_
1 0 0
2 1 0
1 1 1
_
_
Nota. A matriz L armazena toda a informacao do processo de eliminacao
de Gauss.
i. Caso nao haja (no processo de eliminacao de Gauss) troca de linhas,
a matriz L e uma matriz triangular inferior com elementos diagonais
iguais a 1 e os elementos sob a diagonal de L sao os simetricos dos
multiplicadores usados na eliminacao, cada um na posicao em que
gura na respectiva matriz elementar. (Assim, a matriz L e muito
facil de escrever.)
ii. Porem, se houver necessidade de troca de linhas, a unica diferenca
e que o algoritmo deve ser visto como aplicado nao a A mas a PA
onde P e uma matriz de permutacao (P e o produto das matrizes de
permutacao correspondentes `as varias trocas de linha feitas durante o
algoritmo) e ao segundo membro Pb.
2.3. Decomposicao L| de uma matriz (Resolucao de sistemas) 51
Dada a matriz
_
_
1 1 1
3 3 1
1 1 1
_
_
tem-se
L

2
= L
2
3L
1
L

3
= L

2
L

3
= L
3
L
1
L

2
= L

3
A =
_
_
1 1 1
3 3 1
1 1 1
_
_

_
_
1 1 1
0 0 4
0 2 2
_
_

_
_
1 1 1
0 2 2
0 0 4
_
_
= |
P
23
E
31
(1) E
21
(3) A = |
E
31
(1) E
21
(3) A = P
23
|
E
21
(3) A = E
31
(1) P
23
|
A = E
21
(3) E
31
(1) P
23
|
A =
_
_
1 0 0
3 1 0
1 0 1
_
_
. .
P
23
|
L

A =
_
_
1 0 0
3 0 1
1 1 0
_
_
|
P
23
A =
_
_
1 0 0
1 1 0
3 0 1
_
_
|
logo
P
23
A = L |.
Notemos que foi possvel escrever PA = L| embora a matriz L calcu-
lada nao coincida com a matriz L

encontrada no meio do processo.


Caso II A matriz A e (singular ou) do tipo mn
(2.3 a) Teorema. Sendo A uma matriz arbitraria do tipo mn existe
uma matriz de permutacao P tal que PA se pode factorizar na forma L|
onde L e triangular inferior com elementos diagonais iguais a 1 e | e uma
matriz-em-escada. Os elementos sob a diagonal de L sao os simetricos dos
multiplicadoresusados no metodo de eliminacao aplicado a A e | e a
matriz produzida pelo algoritmo (e portanto o primeiro elemento nao-nulo
em cada linha nao-nula e um pivot).
52 Captulo 2. Sistemas de Equacoes Lineares
Resolucao do sistema Ax = b usando a factorizacao L|
Caso 1. A matriz A e quadrada nao-singular.
Pretendemos resolver o sistema Ax = b. Suponhamos que PA = L|. Entao
Ax = b sse PAx = Pb
sse L|x = Pb
sse
_
Ly = Pb
|x = y
O sistema e transformado em dois sistemas triangulares tais que os elemen-
tos das diagonais em ambas as matrizes sao nao-nulos. Ambos os sistemas
sao possveis e determinados e o sistema Ax = b e ainda possvel e deter-
minado.
Caso 2. A matriz A e (singular ou) do tipo mn, (m ,= n).
Entao de PA = L| vem
Ax = b sse Ly = Pb (1)
|x = y (2)
O sistema (1) e ainda possvel e determinado. Mas na resolucao de (2)
vamos poder obter um sistema indeterminado ou um sistema impossvel. E,
desta forma, tambem o sistema Ax = b podera ser possvel indeterminado
ou impossvel.
A Decomposicao LD| para A matriz nao-singular.
Suponhamos que efectuamos a decomposicao L| da matriz A (isto e, nao foi
necessario trocar linhas). Entao teremos
A =
_

_
1 0 0 0 0

21
1 0 0 0

31

32
1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

n1,1

n1,2

n1,3
1 0

n1

n2

n3

n,n1
1
_

_
2.3. Decomposicao L| de uma matriz (Resolucao de sistemas) 53

_
u
11
u
12
u
13
u
1,n1
u
1n
0 u
22
u
23
u
2,n1
u
2n
0 0 u
33
u
3,n1
u
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 u
n1,n1
u
n1,n
0 0 0 0 u
nn
_

_
.
Os elementos u
ii
, i = 1, 2, ..., n sao os pivots do processo de eliminacao
(recordemos que car A = n). Entao podemos escrever
A =
_

_
1 0 0

21
1 0
.
.
.
.
.
.
.
.
.
.
.
.

n1

n2
1
_

_
_

_
u
11
0 0
0 u
22
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 u
nn
_

_
_

_
1
u
12
u
11

u
1,n1
u
11
u
1n
u
11
0 1
u
n1,2
u
22
u
n,2
u
22
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
u
n1,n
u
n1,n1
0 0 0 1
_

_
Esta factorizacao designa-se por factorizacao LD| da matriz A.
Resolucao de Sistemas Homogeneos

E evidente que um sistema homogeneo (com todos os segundos membros iguais


a zero) e sempre possvel (admite, pelo menos a solucao nula).
Para um sistema homogeneo
Ax = 0
m1
, A M
mn
(K) (1)
designemos por N(A) o conjunto de todas as solucoes do sistema (1).
Resolucao do Sistema Homogeneo
A
mn
x
n1
= 0
m1
, A M
mn
(K)
1
o
Passo Determinacao da matriz-em-escada |. Seja car | = r.
2
o
Passo No sistema |x = 0 (que e equivalente ao sistema Ax = 0) separam-se
as incognitas em basicas (correspondentes `as incognitas com pivots e que
sao em n umero de r) e em livres. Se nao houver incognitas livres o sistema
e possvel e determinado (admitindo somente a solucao nula).
54 Captulo 2. Sistemas de Equacoes Lineares
3
o
Passo Para cada incognita livre, da-se o valor 1 (de facto, poderia ser um
valor arbitrario mas este simplica os calculos) a essa incognita e zero `as
restantes incognitas livres e resolve-se o sistema resultante (comr equacoes).
As n r colunas assim obtidas geram o conjunto N(A) das solucoes, isto
e, qualquer solucao e combinacao linear dessas n r colunas determinadas
(uma para cada incognita livre).
(2.3 b) Exemplo.
Utilizemos o algoritmo anterior no calculo de um conjunto de geradorespara
o conjunto, N(A), de solucoes do seguinte sistema homogeneo.
Uma vez que temos
_
_
1 1 1 2
0 0 4 4
0 0 0 0
_
_
_

_
x
1
x
2
x
3
x
4
_

_
=
_
_
0
0
0
_
_
as incognitas basicas sao x
1
e x
3
sendo x
2
e x
4
as livres, logo o sistema e equiva-
lente a
_
x
1
+x
3
= x
2
2x
4
4x
3
= 4x
4
.
Referente `a incognita livre x
2
, fazendo
_
x
2
= 1
x
4
= 0
resolvendo o sistema
_
x
1
+x
3
= 1
4x
3
= 0
_
x
1
= 1
x
3
= 0
obtemos o gerador
_

_
1
1
0
0
_

_
. Agora referente `a incognita livre x
4
, fazendo
_
x
2
= 0
x
4
= 1
e resolvendo o sistema
_
x
1
+x
3
= 1
4x
3
= 4
_
x
1
= 1
x
3
= 1
obtemos o gerador
_

_
1
0
1
1
_

_
.
2.3. Decomposicao L| de uma matriz (Resolucao de sistemas) 55
Assim
_

_
_

_
1
1
0
0
_

_
,
_

_
1
0
1
1
_

_
_

_
e um sistema de geradores do conjunto N(A),
isto e, qualquer solucao do sistema homogeneo pode ser escrito como uma com-
binacao linear destas duas matrizes-coluna,
N(A) =
_

_
1
1
0
0
_

_
+
_

_
1
0
1
1
_

_
: , K
_

_
.
(2.3 c) Teorema. Um sistema homogeneo com um n umero de incognitas
superior ao n umero de equacoes e possvel indeterminado.
Demonstracao. A representacao matricial de um tal sistema e dado por
Ax = 0
m1
, A M
mn
(K) com m < n.

E imediato que car A = r m < n e portanto ha necessariamente nr incognitas


livres.
(2.3 d) Teorema. Se x

for uma solucao do sistema Ax = b entao o


conjunto das solucoes do sistema e
x

+u : u N(A).
Demonstracao.

E evidente que qualquer elemento da forma x

+ u com u
N(A) e solucao do sistema Ax = b ja que
A(x

+u) = Ax

+Au = b + 0 = b.
Reciprocamente, para x

solucao arbitraria do sistema Ax = b, faca-se


u = x

.
Entao
Au = A(x

) = Ax

Ax

= b b = 0
56 Captulo 2. Sistemas de Equacoes Lineares
o que signica que u N(A).

E claro que
x

= x

+ (x

) = x

+u
e logo da forma pretendida.
2.4 Inversao de Matrizes
Dada uma matriz quadrada de ordem n, A
nn
, pretendemos determinar uma
matriz X
nn
tal que
AX = I
n
= XA
ou seja
_
A(coluna 1 de X) A(coluna 2 de X) A(coluna n de X)

=
_

_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_

_
.
A determinacao de X que satisfaca AX = I
n
e equivalente `a resolucao de n
sistemas de equacoes lineares com a mesma matriz
Ax =
_

_
1
0
.
.
.
0
_

_
, Ax =
_

_
0
1
.
.
.
0
_

_
, ... , Ax =
_

_
0
0
.
.
.
1
_

_
. .
Estes sistemas podem ser resolvidos simultaneamente.
(2.4 a) Exemplo. Pretendemos determinar a inversa da matriz
_
1 2
3 4
_
.
Resolu cao. Por denicao a matriz inversa da matriz dada,
_
x
1
x
3
x
2
x
4
_
, devera
satisfazer a condicao
_
1 2
3 4
_ _
x
1
x
3
x
2
x
4
_
=
_
1 0
0 1
_
.
2.4. Inversao de Matrizes 57
Efectuando os passos do processo de eliminacao de Gauss
_
1 0
3 1
_ _
1 2
3 4
_ _
x
1
x
3
x
2
x
4
_
=
_
1 0
3 1
_ _
1 0
0 1
_
_
1 2
0 2
_ _
x
1
x
3
x
2
x
4
_
=
_
1 0
3 1
_
somos levados `a resolucao de dois sistemas de equacoes lineares
_

_
_
1 2
0 2
_ _
x
1
x
2
_
=
_
1
3
_
_
1 2
0 2
_ _
x
3
x
4
_
=
_
0
1
_
Mas existe outro processo possvel para a resolucao simultanea dos sistemas
(processo de eliminacao ascendente). Assim,
_
1 2
0 2
_ _
x
1
x
3
x
2
x
4
_
=
_
1 0
3 1
_
multipliquemos (para anular o (1,2)-elemento da matriz) ambos os membros por
E
12
(1). Obtemos
_
1 1
0 1
_ _
1 2
0 2
_ _
x
1
x
3
x
2
x
4
_
=
_
1 1
0 1
_ _
1 0
3 1
_
_
1
=0
0
0 2
=0
_
. .
_
x
1
x
3
x
2
x
4
_
=
_
2 1
3 1
_
.
D
Mas esta matriz D e invertvel. Logo
_
1 0
0 1/2
_ _
1
=0
0
0 2
=0
_ _
x
1
x
3
x
2
x
4
_
=
_
1 0
0 1/2
_ _
2 1
3 1
_
ou ainda,
_
x
1
x
3
x
2
x
4
_
=
_
2 1
3/2 1/2
_
.
58 Captulo 2. Sistemas de Equacoes Lineares
Atencao. Analisemos os passos efectuados. Temos
E
12
(1) E
21
(3)A = D
donde
A = E
21
(3) E
12
(1) D
e logo
A
1
= D
1
E
12
(1) E
21
(3)
A
..
_
_
1 2 [
[ I
2
3 4 [
_
_

..
_
_
1 2 [ 1 0
[
0 2 [ 3 1
_
_

..
_
_
[ 2 1
I
2
[
[ 3/2 1/2
_
_
Eliminacao Descendente Eliminacao Ascendente
. .
A
1
O Algoritmo de Gauss-Jordan para a Determinacao da Inversa de
uma Matriz
(2.4 b) Teorema. Uma matriz quadrada A e invertvel se e so se
for nao-singular.
Demonstracao. Mostremos que a condicao e necessaria, isto e, admitindo que
a matriz A e invertvel mostremos que e nao-singular.
Uma vez que A e invertvel entao qualquer sistema Ax = b (cuja matriz seja
A) e possvel e determinado ja que
A
1
(Ax) = A
1
b
determina a solucao ( unica)
x = A
1
b.
Mas entao, necessariamente, A tem n pivots, ou seja, e nao-singular.
2.4. Inversao de Matrizes 59
Resta agora mostrar que a condicao e suciente, isto e, admitindo que a matriz
A e nao-singular mostremos que e invertvel.
Representemos por E o produto de todas as matrizes elementares correspon-
dentes aos passos elementares do processo de eliminacao que permite determinar
uma matriz diagonal D de elementos diagonais nao-nulos. Entao D satisfaz
EA = D.
Mas a matriz A e invertvel porque e um produto de matrizes elementares que
sao invertveis. Entao
A = E
1
D
e logo A e invertvel ja que E
1
D o e. (De facto, A
1
= D
1
E.)
ALGORITMO. Calculo da matriz inversa de uma dada matriz A
nn
Para calcular a matriz inversa de A (se existir) efectua-se na matriz
do tipo n 2n,
_
A [ I
n

a parte descendente do metodo de elim-


inacao de Gauss aplicado a A. Se houver um n umero de pivots inferior
a n a matriz A nao e invertvel. Se houver n pivots usando-os pela
ordem contraria `a anteriormente usada, anulam-se com operacoes el-
ementares todos os elementos acima da diagonal da matriz situada `a
esquerda. Finalmente, divide-se cada linha pelo respectivo pivot. No
m deste processo a matriz obtida e
_
I
n
[ A
1

.
(2.4 c) Teorema. (Unicidade da factorizacao L| no caso nao-singular)
Se A for nao-singular a factorizacao L| de A
(ou de PA) e unica.
Demonstracao. Suponhamos que
PA = L|
60 Captulo 2. Sistemas de Equacoes Lineares
PA = L
1
|
1
com L e L
1
matrizes triangulares inferiores com elementos diagonais iguais a 1 e
| e |
1
matrizes triangulares superiors com elementos diagonais nao-nulos. Entao
L| = L
1
|
1
donde
L
1
1
L
. .
= |
1
|
1
. .
matriz matriz
triangular inferior triangular superior
Como estas matrizes sao iguais tem de ser diagonais e os elementos diagonais tem
de ser iguais a 1 (porque sao os do primeiro membro). Logo
L
1
1
L = I
n
|
1
|
1
= I
n
ou seja
L
1
= L, |
1
= |.
(2.4 d) Observacoes.
(I) No caso da matriz A ser singular ou rectangular a factorizacao L| de A
( ou de PA) pode nao ser unica. Para A =
_
_
1 2 0
2 4 0
0 0 0
_
_
temos
A =
_
_
1 2 0
2 4 0
0 0 0
_
_
=
_
_
1 0 0
2 1 0
0 0 1
_
_
. .
_
_
1 2 0
0 0 0
0 0 0
_
_
. .
L |
=
_
_
1 0 0
2 1 0
0 5 1
_
_
. .
_
_
1 2 0
0 0 0
0 0 0
_
_
. .
L

|
2.4. Inversao de Matrizes 61
com A singular (car A = 1).
Tambem, por exemplo, para A =
_
_
0 0
0 0
0 0
_
_
temos
A =
_
_
0 0
0 0
0 0
_
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
. .
_
_
0 0
0 0
0 0
_
_
. .
L |
=
_
_
1 0 0
2 1 0
3 4 1
_
_
. .
_
_
0 0
0 0
0 0
_
_
. .
L

|.
(II) Determinemos a solucao do sistema
Ax = b
para A =
_
_
1 1 1 2
3 3 1 2
1 1 1 0
_
_
(i) b =
_
_
2
6
4
_
_
; (ii) b =
_
_
2
6
1
_
_
.
Resolucao.
1) Comecemos por calcular a decomposicao L| da matriz A.
_
_
1 1 1 2
3 3 1 2
1 1 1 0
_
_

_
_
1 1 1 2
0 0 4 4
0 0 2 2
_
_

_
_
1 1 1 2
0 0 4 4
0 0 0 0
_
_
Logo
A =
_
_
1 0 0
3 1 0
1 1/2 1
_
_
. .
_
_
1 1 1 2
0 0 4 4
0 0 0 0
_
_
. .
L |
car A = 2
= n umero de linhas nao-nulas de |
= n umero de pivots de A
62 Captulo 2. Sistemas de Equacoes Lineares
2) Resolvamos agora o sistema
Ly = b
_
_
1 0 0
3 1 0
1 1/2 1
_
_
_
_
y
1
y
2
y
3
_
_
=
_
_
2
6
4
_
_
_
_
_
_
2
6
1
_
_
_
_
_
_
_
y
1
= 2
3y
1
+y
2
= 6
y
1
+ 1/2 y
2
+y
3
= 4 (= 1)
_
_
_
y
1
= 2
y
2
= 12
y
3
= 0 (y
3
= 5)
3) Resolucao do sistema |x = y.
_
_
1 1 1 2
0 0 4 4
0 0 0 0
_
_
_

_
x
1
x
2
x
3
x
4
_

_
=
_
_
2
12
0
_
_
_
_
=
_
_
2
12
5
_
_
_
_
Imediatamente no caso ii. o sistema e impossvel. Continuando com a res-
olucao da alnea i., as incognitas basicas sao x
1
e x
3
sendo as livres x
2
e x
4
.
Resolvamos entao o sistema equivalente
_
x
1
+x
3
= 2 x
2
2x
4
4x
3
= 12 + 4x
4
_
x
1
= 2 x
2
2x
4
+ 3 +x
4
x
3
= 3 x
4
_
x
1
= 1 x
2
x
4
x
3
= 3 x
4
Logo o conjunto solucao e dado por
_

_
_

_
x
1
x
2
x
3
x
4
_

_
=
_

_
1 x
2
x
4
x
2
3 x
4
x
4
_

_
=
_

_
1
0
3
0
_

_
. .
+x
2
_

_
1
1
0
0
_

_
+x
4
_

_
1
0
1
1
_

_
. .
: x
2
, x
4
IR
_

_
solucao particular de conjunto solucao de
de Ax = b correspondente de Ax = 0
a x
2
= x
4
= 0 para x
2
, x
4
arbitrarios
2.5. Determinantes (algumas propriedades) 63
2.5 Determinantes (algumas propriedades)
Pretendemos apresentar ainda outro criterio de invertibilidade de matrizes. Ele
vai aparecer como um corolario do seguinte facto.
(2.5 a) Teorema. Para A matriz quadrada e | a matriz que se obtem
de A por aplicacao do algoritmo de eliminacao
de Gauss temos
det A = det |.
Demonstracao. Vericamos anteriormente que o valor do determinante de
uma matriz nao se altera quando a uma linha adicionamos um m ultiplo de outra
linha (cf. (3) da Prop.(1.5j)). Mas tal signica que o valor do determinante de
uma matriz nao se altera com a parte descendente do algoritmo de eliminacao de
Gauss sempre que nao haja troca de linhas. Neste caso, se o algoritmo transfor-
mar A na matriz | temos det A = det |. Sempre que haja troca de linhas no
algoritmo de eliminacao aplicado a A temos det A = det | se o n umero de trocas
for par e det A = det | se o n umero de trocas for mpar.
Nota. Este teorema fornece ainda um processo de calculo de determinantes.
(2.5 b) Corolario. Uma matriz quadrada A e invertvel
se e so se det A ,= 0.
Demonstracao. Pelo teorema anterior temos det A = det |. Uma vez que
| e triangular (superior) o det | e dado pelo produto dos elementos da diagonal
principal. No caso de A ser nao-singular (que e equivalente a ser invertvel) os
elementos diagonais de | sao os n pivots que se determinam quando se aplica o
metodo de eliminacao de Gauss a A e, portanto det A = det | , = 0.
Demonstremos a implicacao recproca, isto e, sempre que det A ,= 0 entao A
e invertvel, mostrando a validade do respectivo contra-recproco. Assim iremos
admitir que A nao e invertvel e iremos mostrar que det A = 0. Sendo A nao-
64 Captulo 2. Sistemas de Equacoes Lineares
invertvel, isto e, sendo A singular, a caracterstica de A e inferior `a respectiva
ordem. Entao | tem pelo menos um elemento diagonal nulo e logo det | = 0.
Uma vez que det A = det | temos det A = 0, conforme pretendido.
(2.5 c) Teorema. Para A e B matrizes quadradas de ordem n
det(AB) = det A det B.
Demonstracao. Vamos efectuar uma demonstracao por divisao do argumento
em casos (referente a propriedades de B).
Caso 1. det B = 0
Entao B e singular e portanto o sistema Bx = 0 tem solucoes nao-nulas. Seja
v uma dessas solucoes. Entao Bv = 0. Multiplicando ambos os membros por A
obtemos
ABv = 0.
Mas tal signica que tambem o sistema ABx = 0 tem solucoes nao-nulas o que
signica que a matriz AB e tambem singular e portanto, det (AB) = 0. Logo
det (AB) = 0, det A det B = (det A) 0 = 0
vericando-se a propriedade requerida.
Caso 2. det B ,= 0
Entao a matriz B e nao-singular e logo pode escrever-se como produto de
matrizes elementares (Recordemos que existe E matriz produto de matrizes ele-
mentares tal que EB = D ou ainda, B = E
1
D ambas produto de elementares).
Imediatamente, para B = E
k
E
k1
... E
1
matrizes elementares temos, atendendo
2.5. Determinantes (algumas propriedades) 65
`a alnea (ii) do ultimo exerccio do primeiro captulo,
det (AB) = det (A E
k
E
k1
... E
1
)
= det (A E
k
E
k1
... E
2
) det E
1
...
= det A det E
k
det E
k1
... det E
1
...
= det A det(E
k
...E
1
)
= det A det B.
(2.5 d) Corolario. Para A matriz quadrada invertvel tem-se
det (A
1
) =
1
det A
.
Demonstracao. De A A
1
= I vem, usando o teorema anterior,
det A det A
1
= 1
donde o requerido.
(2.5 e) Proposicao. Para P matriz elementar de permutacao tem-se
i. P
1
= P
T
= P;
ii. det P = 1.
(2.5 f) Proposicao. Para P matriz de permutacao tem-se
i. P
1
= P
T
;
ii. det P = 1.
(2.5 g) Proposicao. Para P matriz de permutacao tem-se
det(P
T
) = det P.
66 Captulo 2. Sistemas de Equacoes Lineares
Demonstracao. Uma vez que ambas as matrizes P e P
T
sao matrizes de
permutacao, o determinante de cada uma delas e igual a 1 ou igual a 1. Mas
como a inversa de uma matriz de permutacao e a respectiva transposta temos
P P
T
= I. Imediatamente det P det P
T
= 1. Logo det P e det P
T
sao ambos
iguais a 1 ou ambos iguais a 1.
(2.5 h) Teorema. Para A matriz quadrada tem-se
det A
T
= det A.
Demonstracao. Apliquemos `a matriz A o algoritmo de eliminacao de Gauss.
Suponhamos que nao ha necessidade de efectuarmos trocas de linhas.
Entao temos
A = L|
det A = det |.
Quanto `a transposta temos
A
T
= |
T
L
T
donde
det A
T
= det |
T
det L
T
= det |
T
pois det L
T
= 1 porque L
T
e triangular com todos os elementos diagonais iguais
a 1. Mas | e |
T
tem os mesmos elementos diagonais. Logo det |
T
= det |.
Mostremos agora que o mesmo acontece caso haja necessidade de efectuarmos
trocas de linhas.
Neste caso temos
PA = L|.
Entao, pelo teorema (2.5c),
det P det A = det Ldet |
det A = det P
1
det |.
2.5. Determinantes (algumas propriedades) 67
Agora para as transpostas, de
PA = L|
vem
A
T
P
T
= |
T
L
T
det A
T
det P
T
= det |
T
det L
T
det A
T
det P = det |
T
.
Pela proposicao anterior det P
T
= det P e det |
T
= det | ja que tem os mesmos
elementos diagonais. Assim,
det A
T
= det P
1
det |
donde
det A = det A
T
.
Observacao. Atendendo ao teorema (2.5f) todas as propriedades de deter-
minantes que sao validas para linhas sao tambem validas para colunas.
A regra de Cramer
Recordemos que, para A =
_
a
ij

nn
e i, j = 1, ..., n chamamos complemento
algebrico de um elemento a
ij
de A a
(1)
i+j
det A
ij
onde A
ij
designa a (n1)(n1)-submatriz de A obtida por supressao da linha
i e da coluna j.
(2.5 i) Denicao.
Para A =
_
a
ij

nn
designamos por

A a matriz dos comple-
mentos algebricos dos elementos de A,

A =
_
(1)
i+j
det A
ij

nn
.
`
A matriz

A
T
chamamos matriz adjunta de A.
68 Captulo 2. Sistemas de Equacoes Lineares
(2.5 j) Exemplo. A matriz adjunta de A =
_
a
11
a
12
a
21
a
22
_
e

A
T
=
_
a
22
a
12
a
21
a
11
_
(2.5 k) Exemplo. A matriz adjunta da matriz A =
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
e

A
T
=
_
_
a
22
a
33
a
32
a
23
... ...
a
21
a
33
+a
31
a
23
... a
11
a
23
+a
13
a
21
a
21
a
32
a
31
a
22
... ...
_
_
(Os elementos nao apresentados sao facilmente calculados.)
(2.5 l) Teorema. Para A matriz quadrada de ordem n
A

A
T
=
_

_
det A 0 0
0 det A 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 det A
_

_
= (det A)I
n
.
Demonstracao.

E deixada como exerccio.
(2.5 m) Corolario. Para A matriz invertvel
A
1
=
1
det A

A
T
.
Demonstracao. Pelo corolario anterior temos
A

A
T
= (det A) I
n
.
Sendo A invertvel, det A ,= 0, e podemos escrever
A
1
det A

A
T
. .
= I
n
2.5. Determinantes (algumas propriedades) 69
e logo
1
det A

A
T
= A
1
.
Nota. Este corolario fornece um metodo de construcao da inversa de uma
matriz.
(2.5 n) Teorema. (Regra de Cramer)
Para A
nn
martiz invertvel a solucao unica do sistema Ax = b e a coluna
cujos elementos sao os quocientes
det A(i)
det A
, i = 1, ..., n
onde A(i) e a matriz que se obtem de A substituindo a coluna i por b.
(2.5 o) Exemplo. Sendo A =
_
a
11
a
12
a
21
a
22
_
invertvel e b =
_
b
1
b
2
_
a
solucao do sistema Ax = b e o elemento (x
1
, x
2
) dado por
det
_
b
1
a
12
b
2
a
22
_
det
_
a
11
b
1
a
21
b
2
_
x
1
= e x
2
=
det
_
a
11
a
12
a
21
a
22
_
det
_
a
11
a
12
a
21
a
22
_
,
_

_
_
_
_
_
det
_
b
1
a
12
b
2
a
22
_
det
_
a
11
b
1
a
21
b
2
_
,
detA detA
_
_
_
_
_

_
.
70 Captulo 2. Sistemas de Equacoes Lineares
Captulo 3
Espacos Vectoriais e
Transformacoes Lineares
3.1 Denicao e Exemplos
Os espacos vectoriais sao estruturas algebricas caracterizadas por ter, `a par-
tida, uma operacao de adicao e outra operacao de multiplicacao por n umeros.
Neste paragrafo vamos apresentar a denicao formal de espaco vectorial (tambem
chamado espaco linear). Mas, no entanto, antes de o fazer, e instrutivo passar
algum tempo analisando exemplos. Comecemos com IR
n
, n IN.
i. O espaco vectorial IR
n
, n IN.
Os espacos vectoriais mais elementares sao os espacos vectoriais Euclidi-
anos, IR
n
, para n IN. Por simplicidade consideremos, em primeiro lugar,
IR
2
. Vectores nao-nulos de IR
2
podem ser representados geometricamente
por segmentos de recta orientados. Esta representacao geometrica vai-nos
ajudar a visualizar como denir as operacoes de adicaoe de multiplicacao
(escalar) por n umerosem IR
2
(operacoes que iremos encontrar em qualquer
espaco vectorial).
Dado um vector nao-nulo x =
_
x
1
x
2
_
podemos-lhe associar o segmento de
71
72 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
linha recta do plano que une o ponto (0, 0) ao ponto (x
1
, x
2
).
>
>
>
>
>
>
O x
1
x
2
x
X
Y
Se identicarmos segmentos de recta que possuam a mesma direccao sentido
e o mesmo comprimento, um vector x pode ser representado por qualquer
segmento de recta que una (a, b) a (a +x
1
, a +x
2
).
>
>
>
>
>
>
>
>
>
>
>
>
O x
1
x
2
x
(x
1
, x
2
)
X
Y
(a, b)
(a +x
1
, b +x
2
)
Por exemplo, o vector x =
_
2
1
_
de IR
2
pode ser representado pelo seg-
mento de recta orientado que une (2, 2) a (4, 3) ou por aquele que une
(1, 1) a (1, 0) ou por muitos mais, todos com a mesma direccao sentido
e comprimento dos representados.
>
>
>
>
>
>
>
>
>
>
>
>
O X
Y
3.1. Denicao e Exemplos 73
Podemos pensar no comprimento de um vector Euclidiano de IR
2
como o
comprimento de qualquer segmento de recta orientado que represente x.
O comprimento do segmento de recta que une (0, 0) a (x
1
, x
2
) e
_
x
2
1
+x
2
2
(relembre o teorema de Pitagoras).
Para cada vector x =
_
x
1
x
2
_
IR
2
e cada escalar (n umero) o produto
x e denido por

_
x
1
x
2
_
=
_
x
1
x
2
_
.
Por exemplo, para x =
_
2
1
_
temos
3x =
_
6
3
_
x =
_
2
1
_
2x =
_
4
2
_
>
>
>
>
x
>
>
>
>.x
>
>
>
>
>
>.
2x
>
>
>
>
>
>
>
>
>
3x
O vector 3x tem a mesma direccao e sentido do vector x mas o comprimento
e o triplo do de x. O vector x tendo o mesmo comprimento e a mesma
direccao de x, tem, no entanto, sentido contrario ao de x.
A soma no espaco Euclidiano IR
2
de dois vectores
u =
_
u
1
u
2
_
e v =
_
v
1
v
2
_
74 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
e denido pelo vector de IR
2
u +v =
_
u
1
+v
1
u
2
+v
2
_
.
Se colocarmos o vector v no ponto terminal do vector u entao u + v e
representado pelo segmento de recta orientado que une o ponto inicial de u
ao ponto terminal de v.
/
/
/
/
/
//`

>
>
>
>
>
>
>
>
u
v
u +v
/
/
/
/
/
//`

>
>
>
>
>
>
>
>

u w
v
u +v
( Reparemos que u +w = v donde w = v u.)
ii. O espaco vectorial M
mn
(K)
Dadas A =
_
a
ij

, B =
_
b
ij

M
mn
(K) denimos ja (cf 1.2)
A+B =
_
a
ij

+
_
b
ij

=
_
s
ij

onde
s
ij
= a
ij
+b
ij
, i = 1, ..., m, j = 1, ..., n, a
ij
, b
ij
K.
e para K
A =
_
a
ij

=
_
a
ij

, a
ij
K.
Entao podemos considerar M
mn
(K) como um conjunto candidato a ter
a estrutura algebrica de espaco vectorial. Para conrmar tal facto bastara
vericar a validade de algumas regras aritmeticas que iremos impor para
que uma estrutura com tais operacoes constitua um espaco vectorial.
3.1. Denicao e Exemplos 75
(3.1 a) Denicao.
Seja V um conjunto no qual estejam denidas uma operacao de
adicao e uma operacao de multiplicacao de elementos (n umeros)
de K por elementos de V . (Com tal pretendemos armar que
a cada par x e y de elementos de V podemos associar um unico
elemento x + y tambem elemento de V e que a cada escalar
K e a cada elemento x de V podemos associar um unico
elemento x de V .) O conjunto V juntamente com estas duas
operacoes diz-se um espaco vectorial sobre K ou um espaco
linear sobre K sempre que sejam satisfeitas as seguintes pro-
priedades:
i. A adicao e comutativa.
ii. A adicao e associativa.
iii. Em V existe um elemento neutro para a adicao.
iv. Para cada elemento v de V existe em V um simetrico de
v.
v. A multiplicacao de n umeros por elementos de V e dis-
tributiva tanto em relacao `a adicao de n umeros como em
relacao `a adicao de elementos de V .
vi. O produto de 1 por qualquer elemento de v de V e igual
a v.
vii. Para v V , , K tem-se ( v) = ( ) v.
Sempre que K = IR o espaco vectorial V diz-se um espaco vectorial real. E
se K = C ira ser um espaco vectorial complexo. Os elementos de V dizem-se
vectores e para representa-los e habitual usar as letras u, v, w, x, y, z, ..., enquanto
que para os n umeros (elementos de K) usaremos, em geral, , , , , ... .
76 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
(3.1 b) Exemplos.
(I) Para S IR o conjunto de todas as funcoes f : S IR e um espaco vectorial
real relativamente `as operacoes denidas, para f, g : S IR e K, por
f +g : S IR
x (f +g)(x) = f(x) +g(x)
f : S IR
x (f)(x) = f(x), x S.
(II) O espaco vectorial real C[a, b].
Para a, b IR representemos por C[a, b] o conjunto de todas as funcoes reais
denidas e contnuas no intervalo fechado real [a, b].

E imediato vericar
que C[a, b] e fechado para as operacoes denidas no exemplo (I) .
(III) O espaco vectorial T
n
Designemos por T
n
o conjunto de todos os polinomios na variavel x com
coecientes em K de grau inferior a n. Para p, q T
n
e K facamos
(p +q)(x) = p(x) +q(x)
(p)(x) = p(x).
ou seja, para
p(x) = a
1
x
n1
+a
2
x
n2
+... +a
n1
x +a
n
e
q(x) = b
1
x
n1
+b
2
x
n2
+... +b
n1
x +b
n
teremos
(p+q)(x) = (a
1
+b
1
) x
n1
+(a
2
+b
2
) x
n2
+... +(a
n1
+b
n1
) x+(a
n
+b
n
)
Relativamente a estas operacoes T
n
constitui tambem um espaco vectorial
sobre K.
Reparemos que o polinomio nulo z(x) = 0x
n1
+ 0x
n2
+ ... + 0x + 0 e o
vector nulo de T
n
.
3.2. Subespacos Vectoriais 77
(3.1 c) Proposicao. (Propriedades em Espacos Vectoriais)
Para V espaco vectorial sobre K, , K, u, v, w V , tem-se
i. (v w) = v w
ii. ( )v = v v
iii. 0
V
= 0
V
iv. 0
K
v = 0
V
v. (w) = w
vi. ()(v) = v
vii. ()v = v
viii. Se v = 0 entao ( = 0 ou v = 0).
ix. Se v = w e ,= 0 entao v = w.
x. Se v = v e v ,= 0 entao = .
Demonstracao.

E deixada como exerccio.
3.2 Subespacos Vectoriais
Dado um espaco vectorial V e muitas vezes possvel determinar outro espaco
vectorial ao considerar um subconjunto S de V e usar as operacoes denidas em
V . Para que um subconjunto S de V seja um subespaco vectorial o conjunto S
tem de ser fechado para as operacoes de adicao e multiplicacao escalar, ou seja,
a soma de dois elementos de S devera ser um elemento de S e o produto de um
escalar por um elemento de S devera ser sempre um elemento de S.
(3.2 a) Denicao.
Para V espaco vectorial sobre K(K = IR, C) e S um subcon-
junto de V diz-se que S e um subespaco vectorial de V se S for
espaco vectorial para as operacoes denidas em V .
78 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
(3.2 b) Teorema. Para V espaco vectorial sobre K e S um subconjunto
de V , S e um subespaco de V se e so se
(1) S ,= ;
(2) Se x, y S entao x +y S (S e fechado para a adicao de V ).
(3) Se K, x S entao x S (S e fechado para a multi-
plicacao escalar denida em V ).
Demonstracao.

E imediato que a condicao e necessaria ja que sempre que S
e subespa co vectorial ele e espaco vectorial e logo (1), (2) e (3) sao satisfeitas.
Mostremos agora que (1), (2) e (3) sao sucientes.
Pelo facto de (2) e (3) serem satisfeitas, S e fechado para as operacoes de V .
Mostremos a validade de (iii).
Pelo facto de S ,= existe v V . Entao por (3)
0
K
v = 0
V
S.
.
Provemos agora (iv).
Para = 1 K e v S temos, por (3),
(1)v = v S.
As restantes propriedades (i), (ii), (v), (vi), (vii) sao validas em S porque
o sao em V e S V.
Observacao. Acabamos de mostrar que para S subconjunto de V sempre
que 0 / S entao S nao e subespaco de V .
(3.2 c) Exemplos.
i. Para qualquer espaco vectorial V , 0
V
e V sao subespacos vectoriais de V
chamados subespacos triviais de V .
3.2. Subespacos Vectoriais 79
ii. Em IR
2
as rectas que passam pela origem sao subespacos mas as que nao
contem a origem nao o sao.
iii. Em IR
3
as rectas e os planos que contem a origem do referencial sao sube-
spacos, nao o sendo as rectas e os planos que nao passem pela origem.
iv. Para A M
mn
(K) o conjunto N(A) das solucoes do sistema de equacoes
lineares Ax = 0 e um subespaco de K
n
chamado n ucleo de A ou espaco
nulo de A. Para b K
m
, b ,= 0, o conjunto das solucoes do sistema Ax = b
nao e um subespaco de K
n
.
v. O conjunto
S =
__
x
1
x
2
_
: x
2
= 2 x
1
_
IR
2
e um subespaco de IR
2
.
Em primeiro lugar, pelo facto de 0 = 2.0, o vector
_
0
0
_
S e logo S ,= .
Agora para
_
c
2c
_
S, (c IR), IR temos

_
c
2c
_
=
_
c
2c
_
S.
Tambem para
_
a
2a
_
,
_
b
2b
_
S temos
_
a
2a
_
+
_
b
2b
_
=
_
a +b
2(a +b)
_
S.
vi. O conjunto
S = A =
_
a
ij

M
22
(IR) : a
12
= a
21

constitui um subespaco vectorial de M


22
(IR).
Resolucao. Exerccio.
80 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
vii. O conjunto
S = p T
n
: p(0) = 0
constitui um subespaco vectorial de T
n
.
Resolucao. Exerccio.
viii. Seja C
n
[a, b] o conjunto das funcoes que admitem derivada de ordem n
contnua neste intervalo real, [a, b]. Entao C
n
[a, b] e um subespaco vectorial
de C[a, b].
Resolucao. Exerccio.
ix. O conjunto
S = f C
2
[a, b] : f

(x) +f(x) = 0, x [a, b]


e um subespaco vectorial de C
2
[a, b].

E imediato vericar que as funcoes
sin x, cos x sao elementos de S.
Resolucao. Exerccio.
3.3 Geracao e Conjuntos Geradores
Sendo a adicao e a multiplicacao escalares as operacoes basicas num espaco vecto-
rial, a nocao que apresentamos de seguida vai-nos permitir simplicar a linguagem
a usar.
(3.3 a) Denicao.
Para v
1
, v
2
, ..., v
k
vectores de V e
1
,
2
, ...,
k
escalares
ao vector soma

1
v
1
+
2
v
2
+... +
k
v
k
chamamos combinacao linear dos vectores v
1
, ..., v
k
com es-
calares
1
, ...,
k
.
3.3. Geracao e Conjuntos Geradores 81
Nota. Recordemos que, anteriormente, mostramos como determinar um con-
junto de vectores-coluna tal que toda a solucao de Ax = 0 ( isto e, todo o elemento
de N(A)) e dada como uma combinacao linear desses vectores.
(3.3 b) Exemplo. Em IR
3
o conjunto de todos os vectores que sao com-
binacoes lineares de e
1
=
_
_
1
0
0
_
_
e e
2
=
_
_
0
1
0
_
_
,
_
_
_
x =
_
_
1
0
0
_
_
+
_
_
0
1
0
_
_
=
_
_

0
_
_
: , IR
_
_
_
e um subespaco de IR
3
que pode ser interpretado como o conjunto dos pontos do
espaco que se situam no plano X
1
OX
2
.
O

X
3
X
2
X
1
e
2
e
1
e
3
x
(3.3 c) Denicao.
Designamos por
Lv
1
, v
2
, ..., v
k

o conjunto de todas as combinacoes lineares dos vectores v


1
, v
2
, ..., v
k
com escalares em K.
(3.3 d) Teorema. Para v
1
, v
2
, ..., v
n
elementos de um espaco vectorial
V , o conjunto Lv
1
, v
2
, ..., v
n
constitui um subespaco
vectorial de V .
82 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
Demonstracao.

E imediato que para
1
=
2
= ... =
n
= 0 o vector

1
v
1
+
2
v
2
+ ... +
n
v
n
= 0v
1
+ 0v
2
+ ... + 0v
n
= 0 Lv
1
, v
2
, ..., v
n
, donde
Lv
1
, v
2
, ..., v
n
, = .
Agora para K e v =
1
v
1
+
2
v
2
+... +
n
v
n
, uma vez que
v = (
1
v
1
+
2
v
2
+... +
n
v
n
)
= (
1
)v
1
+ (
2
)v
2
+... + (
n
)v
n
e ainda uma combinacao linear de v
1
, v
2
, ..., v
n
, logo v Lv
1
, v
2
, ..., v
n
.
Tambem para
v =
1
v
1
+
2
v
2
+... +
n
v
n
(
i
K)
w =
1
v
1
+
2
v
2
+... +
n
v
n
(
i
K)
temos
v +w = (
1
+
1
)v
1
+ (
2
+
2
)v
2
+... + (
n
+
n
)v
n
que e ainda um elemento de Lv
1
, v
2
, ..., v
n
.
Deste modo Lv
1
, v
2
, ..., v
n
e um subespaco vectorial de V .
(3.3 e) Observacoes.
(I) No exemplo anterior temos
Le
1
, e
2
, e
3
= IR
3
Le
1
, e
2
= IR
2
Le
1
, e
3
= IR
2
Le
2
, e
3
= IR
2
.
(II) O subespaco Lv
1
, v
2
, ..., v
n
de V e o menor subespaco de V que contem
v
1
, v
2
, ..., v
n
, ou seja, para qualquer subespaco S

de V tal que v
1
, v
2
, ..., v
n

S

temos, necessariamente, Lv
1
, v
2
, ..., v
n
S

E imediato que cada vector v


i
, (i = 1, ..., n) e ainda um elemento de Lv
1
, v
2
, ..., v
n

ja que pode ser escrito como combinacao linear na forma


v
i
= 1.v
i
+
n

j=i, j=1
o.v
j
Lv
1
, v
2
, ..., v
n
.
Imediatamente
v
1
, v
2
, ..., v
n
Lv
1
, v
2
, ..., v
n
.
3.3. Geracao e Conjuntos Geradores 83
Agora se S

for um subespaco de V tal que v


1
, v
2
, ..., v
n
S

, uma vez que


_
v
1
, v
2
, ..., v
n
S

e subespaco de V
temos
1
v
1
+
2
v
2
+... +
n
v
n
S

, (
1
,
2
, ...,
n
K) donde Lv
1
, v
2
, ..., v
n

S

.
(3.3 f) Denicao.
O subespaco de V , Lv
1
, v
2
, ..., v
n
, diz-se o subespaco de V ge-
rado por v
1
, v
2
, ..., v
n
(ou expansao linear de v
1
, v
2
, ..., v
n
).
Diz-se tambem que v
1
, v
2
, ..., v
n
gera Lv
1
, v
2
, ..., v
n
ou ainda que v
1
, v
2
, ..., v
n

constitui um sistema de geradores de Lv


1
, v
2
, ..., v
n
.
Imediatamente
(3.3 g) Denicao.
Um conjunto v
1
, v
2
, ..., v
n
diz-se um sistema (ou conjunto )
de geradores de V sempre que Lv
1
, v
2
, ..., v
n
= V, ou seja,
sempre que qualquer vector de V possa ser escrito como com-
binacao linear de v
1
, v
2
, ..., v
n
.
(3.3 h) Exemplos. Em IR
2
espaco vectorial sobre IR
i.
L
__
1
2
__
=
_

_
1
2
_
: IR
_
=
__

2
_
: IR
_
O 1
2

X
1
X
2
Interpretacao geometrica
de L[1 2]
T

recta do plano que passa


pela origem
84 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
ii. Agora para
L
__
1
2
_
,
_
2
4
__
=
_

_
1
2
_
+
_
2
4
_
: , IR
_
=
_
( + 2)
_
1
2
_
: , IR
_
=
_

_
1
2
_
: IR.
_
Logo
L
__
1
2
_
,
_
2
4
__
= L
__
1
2
__
= L
__
2
4
__
iii. Mas agora
L
__
1
0
_
,
_
0
1
__
=
_

_
1
0
_
+
_
0
1
_
: , IR
_
=
__

_
: , IR
_
,= L
__
1
0
__
,= L
__
0
1
__
.
De facto,
_
1
0
_
/ L
__
0
1
__
(todos os vectores deste espaco
tem a 1
a
componente igual a 0)
_
0
1
_
/ L
__
1
0
__
(todos os vectores deste espaco
tem a 2
a
componente nula.)
3.4. Dependencia e Independencia Linear 85
iv.

E de vericacao imediata que
1 x
2
, x + 2, x
2

constitui um sistema de geradores de T(3).


3.4 Dependencia e Independencia Linear
Vamos tentar analisar a estruturade espaco vectorial. Suponhamos que pre-
tendemos estudar a estrutura de espacos vectoriais que admitam um conjunto
nito de geradores. Qualquer vector pode ser construdo a partir dos elementos
desse conjunto gerador usando somente as operacoes de adicao e multiplicacao
por um escalar. Em particular e desejavel que se determine um conjunto ger-
ador minimal. Por minimal queremos armar que tal conjunto nao contem el-
ementos nao-necessarios, isto e, todos os elementos do conjunto sao necessarios
(essenciais) para gerar o espaco vectorial (qualquer sub-conjunto do conjunto dos
geradores nao gera o espaco). Para determinar um conjunto de geradores mini-
mal e necessario analisar como os vectores do conjunto dependemde cada um
deles. Para tal necessitamos introduzir o conceito de dependencia linear e de
independencia linear.
(3.4 a) Exemplo. Consideremos os seguintes vectores de IR
3
,
v
1
=
_
_
1
1
2
_
_
, v
2
=
_
_
2
3
1
_
_
, v
3
=
_
_
1
3
8
_
_
.

E imediato vericar que


v
3
= 3v
1
+ 2v
2
. (1)
Qualquer combinacao linear de v
1
, v
2
, v
3
e da forma

1
v
1
+
2
v
2
+
3
v
3
=
1
v
1
+
2
v
2
+
3
(3v
1
+ 2v
2
)
= (
1
+ 3
3
)v
1
+ (
2
+ 2
3
)v
2
86 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
donde
Lv
1
, v
2
, v
3
= Lv
1
, v
2
.
A igualdade (1) pode ser escrita na forma
3v
1
+ 2v
2
1 v
3
= 0
donde
v
1
= 2/3 v
2
+ 1/3 v
3
v
2
= 3/2 v
1
+ 1/2 v
3
v
3
= 3v
1
+ 2v
2
e logo
Lv
1
, v
2
, v
3
= Lv
1
, v
2

= Lv
2
, v
3

= Lv
1
, v
3
.
Por outro lado nao pode existir qualquer relacao de dependencia entre v
1
e
v
2
. De facto, se existissem escalares nao-nulos c
1
e c
2
tais que
c
1
v
1
+c
2
v
2
= 0 (2)
entao, pelo menos, poderamos resolver esta equacao em relacao a um dos vectores
(escrever um em funcao do outro)
v
1
=
c
2
c
1
v
2
ou v
2
=
c
1
c
2
v
1
(c
1
,= 0) (c
2
,= 0)
No entanto, nenhum dos vectores e m ultiplo do outro. Logo Lv
1
e Lv
2
sao
subespacos proprios de Lv
1
, v
2
e a igualdade (2) somente e verdadeira para
c
1
= c
2
= 0.
(3.4 b) Teorema.
i. Se em V = Lv
1
, ..., v
n
, para algum i, o vector v
i
puder ser escrito
como combinacao linear dos n1 restantes vectores entao esses n1
vectores geram V .
3.4. Dependencia e Independencia Linear 87
ii. Dados n vectores v
1
, , v
n
e possvel escrever um dos vectores
como combinacao linear dos outros n1 vectores se e so se existirem
escalares nao todos nulos
1
, ...,
n
tais que

1
v
1
+
2
v
2
+... +
n
v
n
= 0.
Demonstracao.
i. Suponhamos, por exemplo, que e v
n
que pode ser escrito como combinacao
linear de v
1
, ..., v
n1
v
n
=
1
v
1
+... +
n1
v
n1
(
i
K, i = 1, ..., n 1).
Seja v V = Lv
1
, ..., v
n
. Entao, existem
i
K, (i = 1, ..., n), para os quais
v =
1
v
1
+
2
v
2
+... +
n1
v
n1
+
n
v
n
=
1
v
1
+
2
v
2
+... +
n1
v
n1
+
n
(
1
v
1
+... +
n1
v
n1
)
= (
1
+
n

1
)v
1
+ (
2
+
n

2
)v
2
+... + (
n1
+
n

n1)
v
n1
.
Uma vez que qualquer vector v de V pode ser escrito como combinacao linear de
v
1
, v
2
, ..., v
n1
, este conjunto gera V .
ii. Suponhamos, por exemplo, que e v
n
que pode ser escrito como com-
binacao linear dos restantes,
v
n
=
1
v
1
+... +
n1
v
n1
(
i
K, i = 1, ..., n 1).
Ao fazer c
i
=
i
, i = 1, ..., n 1, c
n
= 1 obtemos
n

i=1
c
i
v
i
=
n1

i=1

i
v
i

n1

i=1

i
v
i
= 0.
Reciprocamente, se
c
1
v
1
+c
2
v
2
+... +c
n
v
n
= 0
e, se pelo menos um dos c

i
s for nao-nulo, por exemplo, se c
n
for nao-nulo, entao
c
1
c
n
v
1
+
c
2
c
n
v
2
+... +
c
n
c
n
v
n
= 0
ou seja,
v
n
=
c
1
c
n
v
1

c
2
c
n
v
2
...
c
n1
c
n
v
n1
88 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
e logo v
n
e combinacao linear dos restantes.
(3.4 c) Denicao.
Dados v
1
, ..., v
n
vectores de um espaco vectorial V sobre K
i. Se n 2, o conjunto v
1
, ..., v
n
e linearmente indepen-
dente se nenhum dos vectores for combinacao linear dos
restantes n 1 vectores do conjunto;
ii. Se n = 1 o conjunto v
1
e linearmente independente se
v
1
,= 0;
iii. O conjunto v
1
, ..., v
n
e linearmente dependente se nao
for linearmente independente.
Nota. Atendendo ao teorema (3.4b) , se v
1
, ..., v
n
for um conjunto minimal
de geradores entao v
1
, ..., v
n
e linearmente independente.
Reciprocamente, se v
1
, ..., v
n
for linearmente independente e Lv
1
, ..., v
n
=
V entao v
1
, ..., v
n
e um conjunto minimal de geradores de V . (Certique-se que
esta ciente de todos os detalhes.)
(3.4 d) Exemplos.
(I) O conjunto v
1
=
_
1
0
_
, v
2
=
_
0
1
_
M
21
(IR) e linearmente indepen-
dente.
Para IR arbitrario, temos
v
1
,= v
2
v
2
,= v
1
.
(II) O conjunto v
1
=
_
_
1
1
1
_
_
, v
2
=
_
_
0
0
0
_
_
, v
3
=
_
_
1
2
3
_
_
M
31
(IR) e linear-
mente dependente ja que
v
2
= 0 v
1
+ 0 v
3
.
3.4. Dependencia e Independencia Linear 89
(III) Tambem o conjunto v
1
=
_
_
1
1
1
_
_
, v
2
=
_
_
1
2
3
_
_
, v
3
=
_
_
2
3
4
_
_
M
31
(IR)
e linearmente dependente uma vez que
v
3
= 1 v
1
+ 1 v
2
.
(3.4 e) Observacoes. ( Consequencias Imediatas da Denicao de
Dependencia Linear e de Independencia Linear)
Para A e B conjuntos nitos de vectores de um espaco vectorial V
i. se 0 A entao A e linearmente dependente;
ii. se A for linearmente dependente e A B entao B e
tambem linearmente dependente;
iii. se A for linearmente independente e B A entao B e
linearmente independente.
(3.4 f) Teorema. (Criterio de Independencia Linear)
Para v
1
, v
2
, ..., v
m
vectores de um espaco vectorial V sobre K, o con-
junto v
1
, v
2
, ..., v
m
e linearmente independente
se e so se
o unico modo de escrever o vector 0
V
for
0
V
= 0
K
v
1
+ 0
K
v
2
+... + 0
K
v
m
(onde todos os coecientes da combinacao linear sao nulos).
Demonstracao. Ha que mostrar que a condicao apresentada para que o con-
junto seja linearmente independente e necessaria e que e suciente. Ambas se
demonstram por contra-recproco.
90 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
Para analisar se o conjunto v
1
, v
2
, ..., v
m
e linearmente independente estuda-
se a equacao

1
v
1
+
2
v
2
+... +
m
v
m
= 0
onde
1
,
2
, ...,
m
sao as incognitas.
i. Se houver apenas a solucao

1
=
2
= ... =
m
= 0
entao o conjunto v
1
, v
2
, ..., v
m
e linearmente independente.
ii. Se alem da solucao
1
=
2
= ... =
m
= 0 houver outras solucoes entao
v
1
, v
2
, ..., v
m
e linearmente dependente.
(3.4 g) Exemplos.
(1) Atendendo a que

_
_
1
0
0
_
_
. .
+
_
_
1
1
0
_
_
. .
+
_
_
1
1
1
_
_
. .
=
_
_
0
0
0
_
_
v
1
v
2
v
3
se e so se
_
_
_
+ + = 0
+ = 0
= 0
_
_
_
= 0
= 0
= 0
o conjunto v
1
, v
2
, v
3
e linearmente independente.
(2) Uma vez que

_
_
1
0
0
_
_
. .
+
_
_
0
1
1
_
_
. .
+
_
_
2
2
2
_
_
. .
=
_
_
0
0
0
_
_
v
1
v
2
v
3
se e so se
_
_
_
+ 2 = 0
+ 2 = 0
( + 2) = 0
_
_
_
= 2
= 2
IR
3.4. Dependencia e Independencia Linear 91
e sendo ainda = 0, = 0, = 0 solucao do sistema, no entanto, para,
por exemplo, ,= 0 aparecem solucoes nao-nulas. Assim, por exemplo,
= 1, = = 2 e solucao do sistema. Logo v
1
, v
2
, v
3
e linearmente
dependente.
(3.4 h) Teorema. Para v
1
, v
2
, .., v
p
vectores de K
n
e A
np
a matriz cujas colunas sao v
1
, v
2
, .., v
p
,
o conjunto v
1
, v
2
, .., v
p
e linearmente independente
se e so se
o sistema Ax = 0 for determinado.
Demonstracao. Para c
1
, ..., c
p
K, a equacao
c
1
v
1
+c
2
v
2
+... +c
p
v
p
= 0
e equivalente ao sistema
_

_
c
1
a
11
+c
2
a
12
+... +c
p
a
1p
= 0
c
1
a
21
+c
2
a
22
+... +c
p
a
2p
= 0
...
c
1
a
n1
+c
2
a
n2
+... +c
p
a
np
= 0.
O conjunto v
1
, v
2
, ..., v
p
e linearmente independente
se e so se
o sistema tiver apenas a solucao nula, isto e, for determinado.
(3.4 i) Corolario. Para v
1
, v
2
, .., v
p
vectores de K
p
e A
pp
a matriz cujas colunas sao v
1
, v
2
, .., v
p
,
o conjunto v
1
, v
2
, .., v
p
e linearmente independente
se e so se
a matriz A for nao-singular.
92 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
(3.4 j) Exemplo. Dados os vectores
v
1
=
_
_
4
2
3
_
_
, v
2
=
_
_
2
3
1
_
_
, v
3
=
_
_
2
5
3
_
_
uma vez que para a matriz
A =
_
_
4 2 2
2 3 5
3 1 3
_
_
se tem
det A = 2
2 1 1
2 3 5
3 1 3
= 2
2 1 1
12 8 0
3 2 0
= 0
(ja que a 2
a
linha e m ultipla da 3
a
), a matriz Ae singular e o conjunto v
1
, v
2
, v
3

e linearmente dependente.
(3.4 k) Corolario. Para v
1
, v
2
, .., v
p
vectores de K
n
com p > n o
conjunto v
1
, v
2
, .., v
p
e linearmente dependente.
Demonstracao. Para A
np
a matriz que tem por colunas os vectores v
1
, v
2
, .., v
p
,
sempre que p > n o sistema Ax = 0 e indeterminado ja que o n umero de
incognitas e superior ao n umero de equacoes. Entao pelo teorema (3.4h) o con-
junto v
1
, v
2
, .., v
p
e linearmente dependente.
(3.4 l) Teorema. Para v
1
, ...v
n
vectores de um espaco vectorial V , um
vector v Lv
1
, ...v
n
pode ser escrito de maneira unica como combinacao linear
de v
1
, ...v
n
se e so se
o conjunto v
1
, ...v
n
for linearmente independente.
Demonstracao. Admitindo que v
1
, ..., v
n
e linearmente independente mostremos
que todo o vector v Lv
1
, ...v
n
se escreve de modo unico como combinacao
linear de v
1
, ...v
n
.
3.4. Dependencia e Independencia Linear 93
Dado v Lv
1
, ...v
n
, por denicao de subespaco gerado, v pode ser escrito
na forma
v =
1
v
1
+... +
n
v
n
, para
i
K, i = 1, ..., n. (3)
Suponhamos que v admite ainda ser escrito na forma
v =
1
v
1
+... +
n
v
n
, para
i
K, i = 1, ..., n. (4)
Subtraindo (4) a (3) obtemos
(
1

1
) v
1
+... + (
n

n
) v
n
= 0.
Uma vez que o conjunto v
1
, v
2
, ..., v
n
e linearmente independente

1

1
=
2

2
= ... =
n

n
= 0
donde

1
=
1
,
2
=
2
, ...,
n
=
n
.
Resta agora mostrar que se cada vector v Lv
1
, ...v
n
puder ser escrito de
modo unico como combinacao linear de v
1
, ...v
n
entao o conjunto v
1
, ...v
n
e
linearmente independente.
Vamos demonstrar o contra-recproco. Supondo que v
1
, ...v
n
e linearmente
dependente e possvel determinar um vector que e combinacao linear dos restantes
(atendendo ao teorema (3.4bi)) e possvel escrever

1
v
1
+
2
v
2
+... +
n
v
n
= 0
com os escalares nao todos nulos. Mas e imediato que
0 v
1
+ 0 v
2
+...0 v
n
= 0.
Assim, o vector nulo admite ser escrito de duas maneiras distintas como com-
binacao linear de v
1
, ...v
n
.
94 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
3.5 Bases e Dimensao
Vericamos anteriormente que um sistema de geradores de um espaco vectorial e
minimal se e so se for linearmente independente. Os elementos de um conjunto
de geradores minimal formam os blocos basicosde construcao de todo o espaco
vectorial e, consequentemente, dizemos que formam uma base do espaco vectorial.
(3.5 a) Denicao.
O conjunto v
1
, ..., v
n
forma uma base de um espaco vectorial
V se e so se
i. o conjunto v
1
, ..., v
n
for linearmente independente e
ii. Lv
1
, ..., v
n
= V.
Consequencias imediatas da denicao
Atendendo ao teorema (3.4l), se B = v
1
, ..., v
n
for uma base de V , qualquer
vector de V escreve-se de modo unico como combinacao linear dos elementos de
B.
(3.5 b) Denicao.
Para B = v
1
, ..., v
n
base de V , espaco vectorial sobre K, e
para cada vector v V , os escalares unicos
1
, ...,
n
K tais
que
v =
1
v
1
+
2
v
2
+... +
n
v
n
dizem-se as componentes ou coordenadas de v na base B e
escreve-se
_
v

B
=
_

1
.
.
.

n
_

_
.
3.5. Bases e Dimensao 95
(3.5 c) Exemplos.
(I) O conjunto
__
1
0
_
,
_
0
1
__
e uma base de IR
2
. Para cada vector x IR
2
x = x
1
_
1
0
_
+x
2
_
0
1
_
= x
1
e
1
+x
2
e
2
sendo, assim, x
1
, x
2
as coordenadas de x IR
2
na base e
1
, e
2
.
>
>
>
>
>
>

`
O x
1
x
2
x e
2
e
1
X
Y
Tambem
_
_
_
_
_
1
0
0
_
_
,
_
_
0
1
0
_
_
,
_
_
0
0
1
_
_
_
_
_
e uma base de IR
3
.
Aqui para x IR
3
x = x
1
_
_
1
0
0
_
_
+x
2
_
_
0
1
0
_
_
+x
3
_
_
0
0
1
_
_
= x
1
e
1
+x
2
e
2
+x
3
e
3
sendo,assim, x
1
, x
2
, x
3
as coordenadas de x IR
3
na base e
1
, e
2
, e
3
.
O

`
X
3
X
2
X
1
x
1
x
2
e
2
e
1
e
3
(x
1
, x
2
, x
3
)
x
3
96 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
Em geral,
_

_
_

_
1
0
.
.
.
0
_

_
,
_

_
0
1
.
.
.
0
_

_
, ...,
_

_
0
0
.
.
.
1
_

_
_

_
e uma base de IR
n
que se diz a base canonica de IR
n
.
(II) Mas tambem
__
1
0
_
,
_
1
1
__
e ainda uma base de IR
2
.
Resolucao. Exerccio.
(III) O conjunto
B =
_
e
11
=
_
1 0
0 0
_
, e
12
=
_
0 1
0 0
_
, e
21
=
_
0 0
1 0
_
, e
22
=
_
0 0
0 1
__
e uma base de M
22
(K).
Comecemos por mostrar que B gera M
22
(K).
Dada A M
22
(K) matriz arbitraria, temos
A =
_
a
11
a
12
a
21
a
22
_
= a
11
_
1 0
0 0
_
+a
12
_
0 1
0 0
_
+a
21
_
0 0
1 0
_
+a
22
_
0 0
0 1
_
donde B gera M
22
(K).
Resta provar que o conjunto B e linearmente independente. Sejamc
1
, c
2
, c
3
, c
4

K tais que
c
1
e
11
+c
2
e
12
+c
3
e
21
+c
4
e
22
= 0
22
.
Tal e armar
_
c
1
c
2
c
3
c
4
_
=
_
0 0
0 0
_
ou ainda, pela denicao de igualdade entre duas matrizes, c
1
= c
2
= c
3
=
c
4
= 0. Logo B e uma base de M
22
(K).
(IV) O conjunto 1, x, x
2
e uma base de T(3).
Resolucao. Exerccio.
3.5. Bases e Dimensao 97
(3.5 d) Teorema. Para v
1
, ..., v
n
conjunto gerador de um espa co
vectorial sobre K, V , qualquer coleccao de m vectores
de V com m > n e linearmente dependente.
Demonstracao. Sejam u
1
, u
2
, ..., u
m
(m) vectores de V onde m > n. Uma vez
que v
1
, ..., v
n
gera V temos
u
i
= a
i1
v
1
+a
i2
v
2
+... +a
in
v
n
, para todo o i = 1, 2, ..., m.
Imediatamente qualquer combinacao linear
c
1
u
1
+c
2
u
2
+... +c
m
u
m
pode ser escrita na forma
c
1
n

j=1
a
1j
v
j
+c
2
n

j=1
a
2j
v
j
+... +c
m
n

j=1
a
mj
v
j
.
Reordenando os termos teremos
c
1
u
1
+c
2
u
2
+... +c
m
u
m
=

m
i=1
_
c
i
_

n
j=1
a
ij
v
j
__
=

n
j=1
(

m
i=1
a
ij
c
i
) v
j
.
Consideremos o sistema

m
i=1
a
ij
c
i
= 0, j = 1, ..., n. Trata-se de um sistema
homogeneo em que o n umero de incognitas, m, e superior ao n umero de equacoes,
n. Logo tal sistema admite, necessariamente, uma solucao nao-trivial. Seja ela
( c
1
, c
2
, ..., c
m
). Mas entao
c
1
u
1
+ c
2
u
2
+... + c
m
u
m
=
n

j=1
0 v
j
= 0
e logo o conjunto u
1
, u
2
, ..., u
m
e linearmente dependente.
98 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
(3.5 e) Corolario. Para v
1
, ..., v
n
conjunto gerador de um espaco
vectorial sobre K, V , e u
1
, u
2
, .., u
p
conjunto
linearmente independente em V tem-se
n p.
(3.5 f) Corolario. Se v
1
, ..., v
n
e u
1
, ..., u
m
forem ambas bases
de um espaco vectorial V tem-se
n = m.
Demonstracao. Sendo
B
1
= v
1
, ..., v
n

B
2
= u
1
, ..., u
m

bases de V , uma vez que B


1
gera V e B
2
e linearmente independente temos, por
(3.5e), m n. Do mesmo modo, uma vez que B
2
gera V e B
1
e linearmente
independente temos n m.
(3.5 g) Denicao.
Sempre que um espaco vectorial V admita uma base com n
vectores diz-se que V tem dimensao n.
O subespaco 0 tem dimensao igual a zero.
Um espaco vectorial tem dimensao nita sempre que seja possvel
determinar um sistema de geradores de V que seja nito.
Caso contrario diz-se que V tem dimensao innita.
(3.5 h) Exemplo.
i.

E imediato que
dim IR
2
= 2
dim IR
3
= 3
dim M
22
(K) = 4.
3.5. Bases e Dimensao 99
A dimensao de qualquer recta que passa pela origem do plano (ou espaco)
tem dimensao igual a 1 enquanto que qualquer plano que passe pela origem
constitui um subespaco de dimensao 2.
ii. Seja P o espaco vectorial de todos os polinomios numa variavel x. O espaco
P tem dimensao innita.
Suponhamos que P tem dimensao nita. Seja ela igual a n. No entanto, o
conjunto
1, x, x
2
, , x
n

e linearmente independente o que e uma contradicao ao exposto no teorema


(3.5d). Logo P nao pode ter dimensao nita.
Apresentamos, de seguida, o enunciado de tres resultados importantes cujas
demonstracoes podem ser encontradas, por exemplo, em [Leon, 2002].
(3.5 i) Teorema. Num espaco vectorial V de dimensao nita n > 0
i. Qualquer conjunto linearmente independente de n vec-
tores gera V.
ii. Todo o conjunto gerador de V com n vectores e linear-
mente independente.
(3.5 j) Exerccio. Mostremos que
_
_
_
_
_
1
2
3
_
_
,
_
_
2
1
0
_
_
,
_
_
1
0
1
_
_
_
_
_
e uma base de IR
3
.
Resolucao. Uma vez que dim IR
3
= 3 basta mostrar que os vectores sao
linearmente independentes. Mas sendo
1 2 1
2 1 0
3 0 1
= 1
2 1
3 0
+ 1
1 2
2 1
= 3 + 5 = 2 ,= 0
os vectores sao linearmente independentes.
100 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
(3.5 k) Teorema.
Num espaco vectorial V de dimensao nita n > 0
i. Nenhum conjunto com um n umero de vectores inferior a n pode
gerar V .
ii. Todo o conjunto linearmente independente com um n umero de
vectores inferior a n pode ser acrescentado ate formar uma base
de V .
iii. Qualquer conjunto gerador com um n umero de vectores superior
a n pode ser reduzido (retirando-lhe elementos) de tal modo que
o conjunto resultante seja uma base.
(3.5 l) Teorema.
Para F subespaco de um espaco vectorial V de dimensao nita n
i. dim F n
ii. dim F = n se e so se F = V .
(3.5 m) Denicao.
Chama-se matriz de mudanca (ou de transicao) da base B =
v
1
, ..., v
k
para a base B

= u
1
, ..., u
k
a matriz k k cuja
coluna j contem as coordenadas do vector u
j
relativamente `a
base B e representa-se por
M
(B, B

)
.
Nota. Toda a matriz de mudanca de base e uma matriz invertvel (nao-
singular) ja que as colunas de M
(B,B

)
sao vectores linearmente independentes.

E
imediato vericar-se que a matriz inversa da matriz M
(B,B

)
e a matriz M
(B

,B)
.
(3.5 n) Exemplo. Para B = e
1
, e
2
e B

=
__
1
1
_
,
_
2
3
__
temos
M
(B,B

)
=
_
1 2
1 3
_
3.5. Bases e Dimensao 101
enquanto que
M
(B

,B)
=
_
3 2
1 1
_
pois
e
1
=
1
_
1
1
_
+
2
_
2
3
_
=
_

1
2
2

1
+ 3
2
_
=
_
1
0
_
para
_

1
2
2
= 1

1
+ 3
2
= 0
_

2
= 1

1
= 3
2
_

2
= 1

1
= 3
e
2
=
1
_
1
1
_
+
2
_
2
3
_
=
_

1
2
2

1
+ 3
2
_
=
_
0
1
_
_

1
2
2
= 0

1
+ 3
2
= 1
_

1
= 2
2

2
= 1
_

1
= 2

2
= 1.
(3.5 o) Teorema. Para B e B

bases de um espaco vectorial V e x V


tem-se
_
x

B
= M
(B,B

)
_
x

.
Demonstracao. Sejam
B = v
1
, v
2
, ..., v
k

= u
1
, u
2
, ..., u
k
e
M
(B,B

)
= [p
ij
]
kk
.
Tal signica que
u
j
=
k

i=1
p
ij
v
i
, j = 1, ..., k.
Seja ainda
x =

k
i=1
x
i
v
i
x =

k
j=1
x

j
u
j
102 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
ou seja,
_
x

B
=
_

_
x
1
.
.
.
x
k
_

_
,
_
x

B
=
_

_
x

1
.
.
.
x

k
_

_
.
Entao temos
x =

k
j=1
x

j
u
j
=

k
j=1
x

j
(

k
i=1
p
ij
v
i
)
=

k
i=1
(

k
j=1
p
ij
x

j
) v
i
=

k
i=1
x
i
v
i
.
Uma vez que as coordenadas de um vector relativamente a uma base sao unicas
vem
x
i
=
k

j=1
p
ij
x

j
, i = 1, ..., k
o que traduz o facto requerido,
_

_
.
.
.
x
i
.
.
.
_

_
B
=
_
_

p
i1
p
ik

_
_
(B,B

)
_

_
x

1
.
.
.
x

k
_

_
B

.
(3.5 p) Exemplo. Relativamente `as bases de IR
2
apresentadas no exemplo
anterior determinemos
_
x

para
_
x

B
=
_
1
2
_
.
Resolu cao. Pelo teorema anterior
_
x

= M
(B

,B)
_
x

B
.
Uma vez que
M
(B

, B)
=
_
3 2
1 1
_
vem, imediatamente,
_
x

=
_
3 2
1 1
_ _
1
2
_
=
_
7
3
_
(e logo x = 7
_
1
1
_
+ 3
_
2
3
_
).
3.6. Caracterstica e Nulidade de uma Matriz 103
3.6 Caracterstica e Nulidade de uma Matriz
Seja A M
mn
(K).
(3.6 a) Denicao.
Para A M
mn
(K) o subespaco de M
1n
(K) gerado pelos
vectores-linha de A diz-se o espaco das linhas de A e representa-
se por R(A). O subespaco de M
m1
(K) gerado pelos vectores-
coluna de A diz-se o espaco das colunas de A e representa-se
por C(A).
(3.6 b) Exemplo. Para A =
_
1 0 0
0 1 0
_
o espaco das linhas de A e o
conjunto de todos os triplos da forma
R(A) = (1, 0, 0) +(0, 1, 0) = (, , 0) : , K
e logo um subespaco de dimensao 2 de M
13
(K) enquanto que
C(A) =
_

_
1
0
_
+
_
0
1
_
+
_
0
0
_
=
_

_
: , K
_
ou seja
C(A) = M
21
(K).
(3.6 c) Teorema. Para A e B matrizes obtidas uma da outra por uma
operacao elementar de linhas tem-se R(A) = R(B).
Demonstracao. Uma vez que a matriz B e obtida a partir da matriz A por
aplicacao de uma operacao elementar de linhas, as linhas de B sao combinacoes
lineares das linhas de A. Consequentemente
R(B) R(A).
Pelas mesmas razoes R(A) R(B). Logo R(A) = R(B).
104 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
(3.6 d) Teorema. Para A M
mn
(K) seja | a matriz obtida por aplicacao
a A do processo de eliminacao de Gauss.
Entao
i. R(A) = R(|);
ii. se A for nao-nula entao as linhas nao-nulas de | formam uma
base de R(A);
iii. dim R(A) = dim R(|) = car A.
Demonstracao.
i. Consequencia imedita do teorema (3.6c).
ii. As linhas de | geram R(A). As linhas nao-nulas sao linearmente indepen-
dentes.
iii. Pela alnea i.
dim R(A) = dim R(|)
que e igual ao n umero de linhas nao-nulas de | pela alnea anterior. Mas,
por denicao, a caracterstica de A e dada por tal n umero.
Nota. Em geral,
C(A) ,= C(|).
Para, por exemplo,
A =
_
_
1 2 3 4
2 4 7 10
3 6 9 12
_
_

. .
_
_
1 2 3 4
0 0 1 2
0 0 0 0
_
_
Eliminacao
de Gauss
3.6. Caracterstica e Nulidade de uma Matriz 105
temos
C(|) =
_
_
_

_
_
1
0
0
_
_
+
_
_
2
0
0
_
_
+
_
_
3
1
0
_
_
+
_
_
4
2
0
_
_
: , , , K
_
_
_
=
_
_
_
_
_
+ 2 + 3 + 4
+ 2
0
_
_
: , , , K
_
_
_
e, imediatamente, nenhuma coluna de A pertence ao espaco C(|).
(3.6 e) Teorema. Para A M
mn
(K) seja | a matriz obtida por aplicacao
a A do processo de eliminacao de Gauss.
Entao
i. dim C(A) = dim C(|);
ii. se a matriz A for nao-nula as colunas de | que possuem piv-
otsformam uma base de C(|);
iii. se a matriz A for nao-nula as colunas de A correspondentes `as
colunas de | que possuem pivotsformam uma base de C(A);
iv. dim C(A) = car A.
Demonstracao.
i. Como C(A) e, por denicao, o subespaco de M
m1
(K) gerado pelas colunas
de A, esta determinado um sistema de geradores de C(A). Se tal sistema
for linearmente independente sera uma base de C(A). Caso contrario, para
determinar uma base ha que excluir as colunas que sejam combinacao linear
de outras.
Analisemos, portanto, a dependencia e independencia linear das colunas de
A.
Representemos por
c
A
1
, ..., c
A
n
as colunas de A
e
c
U
1
, ..., c
U
n
as colunas de |
.
106 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
Por denicao de produto de matrizes
A x =
_
c
A
1
c
A
2
c
A
n

_
x
1
x
2
.
.
.
x
n
_

_
= x
1
c
A
1
+x
2
c
A
2
+... +x
n
c
A
n
e, analogamente,
| x =
_
c
U
1
c
U
2
c
U
n

_
x
1
x
2
.
.
.
x
n
_

_
= x
1
c
U
1
+x
2
c
U
2
+... +x
n
c
U
n
.
Mas os sistemas A x = 0 e | x = 0 sao equivalentes. Assim, as dependencias
que existam entre as colunas de A sao exactamente as mesmas das que
existem entre as colunas de |. Logo o n umero maximo de colunas de
A linearmente independentes e igual ao n umero maximo de colunas de |
linearmente independentes, ou seja, dim C(A) = dim C(|).
ii. O conjunto das colunas de | gera C(|) e logo contem uma base de |.
Sejam c
U
1
, ..., c
U
q
as colunas de C(|) que possuem pivots. Entao o sistema
_
c
U
1
c
U
2
c
U
q

x = 0
e determinado (uma vez que o n umero de pivotscoincide com o n umero
de colunas) e, portanto, o conjunto c
U
1
, ..., c
U
q
e linearmente indepen-
dente. Seja c uma coluna sem pivot, caso exista. Entao o sistema
_
c
U
1
c
U
2
c
U
q
c

x = 0 e indeterminado (ja que o n umero de col-


unas e superior ao n umero de pivots) e logo o conjunto c
U
1
, ..., c
U
q
c e
linearmente dependente. Imediatamente o conjunto das colunas de | que
possuam os pivots e uma base de C(|).
iii. Sabemos por (i.) que dim C(A) = dim C(|). As colunas de A correspon-
dentes `as colunas de | com pivots sao tambem linearmente independentes.
3.6. Caracterstica e Nulidade de uma Matriz 107
E nao pode haver em A um n umero de colunas linearmente independentes
superior ao n umero dim C(|) porque tal originaria um n umero superior de
colunas de | linearmente independentes.
iv. Pela alnea (iii)
dim C(A) = n umero de colunas de | com pivots
= car A
por denicao de caracterstica de A.
(3.6 f) Denicao.
Para A M
mn
(K) `a dimensao do espaco nulo da matriz A,
dim N(A), chamamos nulidade de A e representa-se por nul A.
(3.6 g) Teorema. Para A M
mn
(K) tem-se
n = car A+nul A.
Demonstracao. Seja | a matriz obtida por aplicacao do metodo de eliminacao
de Gauss `a matriz A. O sistema A x = 0 e equivalente ao sistema | x = 0. Se
car A = r entao | tem r linhas nao-nulas e, consequentemente, o sistema | x = 0
tem r variaveis basicas e n r variaveis livres. A dimensao de N(A) e igual ao
n umero de variaveis livres. Logo n = r + (n r), conforme requerido.
108 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
Podemos resumir o estudo da resolubilidade de sistemas de equacoes lineares
ate agora efectuado na seguinte tabela:
Sistemas de Equacoes Lineares
Para A M
mn
(K) e b K
m
tem-se
1. O sistema A x = b e impossvel sse b / C(A);
2. O sistema A x = b e possvel determinado
sse
b C(A) e
_

_
car A = n
ou seja
nul A = 0
ou seja
as colunas de A forem
linearmente independentes
3.6. Caracterstica e Nulidade de uma Matriz 109
3. O sistema A x = b e possvel indeterminado
sse
b C(A) e
_

_
car A < n
ou seja
nul A > 0
ou seja
as colunas de A forem
linearmente dependentes
Podemos ainda armar que:
(I)
A x = b e possvel
para todo o b K
m
sse
_
_
_
C(A) = K
m
ou seja
car A = m
(II)
A x = b tem no
maximo uma
solucao para cada
b K
m
sse
_
_
_
car A = n
ou seja
nul A = 0
(III) Para A M
nn
(K), sao equivalentes as seguintes condicoes:
1. A matriz A e nao-singular.
2. A matriz A e invertvel.
3. car A = n
4. nul A = 0
5. As linhas de A sao linearmente independentes e, por-
tanto, fomam uma base de K
n
.
6. As colunas de A sao linearmente independentes e,
portanto, fomam uma base de K
n
.
7. R(A) = K
n
(= M
1n
(K))
8. C(A) = K
n
(= M
n1
(K))
9. Para qualquer b K
n
o sistema A x = b e possvel
determinado.
110 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
3.7 Transformacoes Lineares
No estudo dos espacos vectoriais o tipo mais importante de aplicacoes entre dois
espacos vectoriais e o das transformacoes lineares.
(3.7 a) Denicao.
Uma aplicacao T de um espaco vectorial V num espaco vectorial
W ambos sobre K diz-se uma transformacao linear ou operador
linear se
i. T(x +y) = T(x) +T(y), x, y V ;
ii. T( x) = T(x), K, x V.
(3.7 b) Proposicao. (Propriedades Imediatas)
Para T transformacao linear de V em W tem-se
(1) T(0
V
) = 0
W
;
(2) T(x) = T(x), para x V ,
(3) T(

n
i=1

i
x
i
) =

n
i=1

i
T(x
i
) ,

i
K, x
i
V, (i = 1, ..., n).
Demonstracao.
(1) De facto, fazendo em ii. = 0
K
temos
T(0 x) = 0 T(x) = 0
W
e logo
T(0
V
) = 0
W
.
(2) Pela denicao de simetrico de um elemento em V temos
(x) +x = 0
V
= x + (x)
3.7. Transformacoes Lineares 111
donde, pelo facto de T ser linear,
T((x) +x) = T(0
V
) = T(x + (x))
T((x)) +T(x) = 0
W
= T(x) +T((x))
ou seja
T(x) = T(x).
(3) Pretendemos mostrar que a imagem de uma combinacao linear de vectores
de V e igual `a combinacao linear, com os mesmos escalares, das imagens desses
vectores (em W). Temos
T(

n
i=1

i
x
i
) = T(
1
x
1
+
2
x
2
+... +
n
x
n
)
= T(
1
x
1
) +T(
2
x
2
) +... +T(
n
x
n
) (por i. de (3.7a))
=
1
T(x
1
) +
2
T(x
2
) +... +
n
T(x
n
)(por ii. de (3.7a)).
(3.7 c) Exemplos.
i. Seja T : IR
2
IR
2
a aplicacao denida por, T(x) = 3x, x IR
2
. Entao
para cada x IR
2
, IR
T( x) = 3( x) = (3x) = T(x).
Agora para x, y IR
2
, IR
T(x +y) = 3(x +y) = 3x + 3y = T(x) +T(y)
e logo as condicoes i.e ii. de (3.7a) sao satisfeitas sendo, portanto, T um
operador linear.
ii. No entanto, a aplicacao
T : IR IR
T(x) = 2x + 1, x IR
nao dene um operador linear ja que
T(x +y) = 2(x +y) + 1
= 2x + 2y + 1,
112 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
enquanto que
T(x) +T(y) = 2x + 1 + 2y + 1
donde, em geral, T(x) +T(y) ,= T(x +y).
iii. A aplicacao T : IR
2
IR denida por
T
_
x
1
x
2
_
= x
1
+x
2
, x
1
, x
2
IR
e um operador linear.
iv. A aplicacao T : IR
2
IR
3
denida por
T
_
x
1
x
2
_
=
_
_
x
1
x
2
x
1
+x
2
_
_
, x
1
, x
2
IR
e uma transformacao linear.
v. Para uma matriz xa A M
mn
(K), a aplicacao
T
A
: K
n
K
m
denida por
x T
A
(x) = A x, x K
n
,
e uma transformacao linear.
(De facto, para x, y K
n
temos
T
A
(x +y) = A x +A y = T
A
(x) +T
A
(y),
enquanto que para K, x K
n
T
A
( x) = (A x) = T
A
(x). )
vi. Seja T : C
1
[a, b] C[a, b] a aplicacao denida por
T(f) = f

(funcao derivada de f) , f C
1
[a, b].
Entao e imediato que T e uma transformacao linear.
3.7. Transformacoes Lineares 113
Representacao Matricial de Transformacoes Lineares
No exemplo v. anterior vericamos ja que cada matriz, A
mn
, dene uma
transformacao linear de K
n
em K
m
,
T
A
: K
n
K
m
T
A
(x) = A x, x K
n
.
Vamos agora mostrar como cada operador linear entre espacos vectoriais de
dimensao nita pode ser representado por uma matriz.
Sejam
V espaco vectorial sobre K, dim V = n > 0
W espaco vectorial sobre K, dim W = m > 0
T : V W uma transformacao linear
B
V
= (v
1
, ...v
n
) uma base ordenada de V
B
W
= (w
1
, ...w
m
) uma base ordenada de W.
Entao, para cada x V , com coordenadas x
1
, x
2
, ..., x
n
na base B
V
T(x) = T(x
1
v
1
+x
2
v
2
+... +x
n
v
n
)
= x
1
T(v
1
) +x
2
T(v
2
) +... +x
n
T(v
n
)
e logo as imagens T(v
1
), ..., T(v
n
) determinam T(x).
Se
T(v
1
) = a
11
w
1
+a
21
w
2
+... +a
m1
w
m
T(v
2
) = a
12
w
1
+a
22
w
2
+... +a
m2
w
m
.
.
.
T(v
n
) = a
1n
w
1
+a
2n
w
2
+... +a
mn
w
m
teremos
114 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
T(x) = x
1
(a
11
w
1
+a
21
w
2
+... +a
m1
w
m
)+
+x
2
(a
12
w
1
+a
22
w
2
+... +a
m2
w
m
)+
+...+
+x
n
(a
1n
w
1
+a
2n
w
2
+... +a
mn
w
m
)
= (a
11
x
1
+a
12
x
2
+... +a
1n
x
n
) w
1
+
+(a
21
x
1
+a
22
x
2
+... +a
2n
x
n
) w
2
+
+...+
(a
m1
x
1
+a
m2
x
2
+... +a
mn
x
n
) w
m
.
Se, agora, designarmos por y
1
, y
2
, ..., y
m
as coordenadas do vector imagem de
x por T, T(x),
y = T(x) = y
1
w
1
+y
2
w
2
+... +y
m
w
m
e, pela unicidade das coordenads de um vector numa dada base,
y
1
= a
11
x
1
+a
12
x
2
+... +a
1n
x
n
y
2
= a
21
x
1
+a
22
x
2
+... +a
2n
x
n
.
.
.
y
m
= a
m1
x
1
+a
m2
x
2
+... +a
mn
x
n
ou seja,
_

_
y
1
y
2
.
.
.
y
m
_

_
=
_

_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_

_
. .
_

_
x
1
x
2
.
.
.
x
n
_

_
Representacao Matricial de T
relativamente `as bases B
V
e B
W
(3.7 d) Teorema. Para T transformacao linear de um espaco n-dimensional
V num espaco m-dimensional W, B
V
= (v
1
, v
2
, ..., v
n
) base (ordenada) de V ,
B
W
= (w
1
, w
2
, ..., w
m
) base (ordenada) de W, existe uma matriz do tipo mn,
A, tal que
_
T(x)

B
W
= A
_
x

B
V
para cada x V . A coluna j da matriz A (j = 1, ..., n) e dada pelas componentes
do vector T(v
j
) relativamente `a base B
W
de W e representa-se por
A = M(T; B
V
, B
W
).
3.7. Transformacoes Lineares 115
(3.7 e) Denicao.
Nas condicoes anteriores do teorema (3.7d) a matriz
A = M(T; B
V
, B
W
)
diz-se a matriz da transformacao linear T relativamente `as
bases (ordenadas) B
V
de V e B
W
de W.
(3.7 f) Exemplos. (Exemplos de Representacao Matricial de Trans-
formacoes Lineares)
(I) Seja T : IR
3
IR
2
a transformacao linear denida por
T
_
_
_
_
x
1
x
2
x
3
_
_
_
_
= x
1
_
1
1
_
. .
+(x
2
+x
3
)
_
1
1
_
. .
.
v
1
v
2
Determinemos a matriz A que representa T relativamente `as bases B
1
=
(e
1
, e
2
, e
3
) de IR
3
e B
2
= (v
1
, v
2
) de IR
2
. Uma vez que
T(e
1
) = T
_
_
1
0
0
_
_
= 1
_
1
1
_
+ 0
_
1
1
_
= 1 v
1
+ 0 v
2
a primeira coluna da matriz M(T ; B
1
, B
2
) sera
_
1
0
_
. Analogamente,
agora para e
2
,
T(e
2
) = T
_
_
0
1
0
_
_
= 0
_
1
1
_
+ 1
_
1
1
_
= 0 v
1
+ 1 v
2
116 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
donde a segunda coluna de M(T ; B
1
, B
2
) tera como componentes 0 e 1.
Tambem para e
3
,
T(e
3
) = T
_
_
0
0
1
_
_
= 0
_
1
1
_
+ 1
_
1
1
_
= 0 v
1
+ 1 v
2
e logo a terceira coluna coincide com a segunda. Assim
M(T ; B
1
, B
2
) =
_
1 0 0
0 1 1
_
.
Determinemos agora M(T ; B
1
, B

) onde B

designa a base canonica de


IR
2
. Uma vez que
T(e
1
) =
_
1
1
_
, T(e
2
) =
_
1
1
_
, T(e
3
) =
_
1
1
_
temos
M(T ; B
1
, B

) =
_
1 1 1
1 1 1
_
.
(II) Seja T : IR
2
IR
2
a transformacao linear denida por
T( e
1
+ e
2
) = ( +)e
1
+ 2 e
2
onde B = (e
1
, e
2
) e a base canonica de IR
2
. Pelo facto de
T(e
1
) = T(1 e
1
+ 0 e
2
)
= e
1
+ 0 e
2
T(e
2
) = T(0 e
1
+ 1 e
2
)
= 1 e
1
+ 2 e
2
M(T ; B) =
_
1 1
0 2
_
.
(Reparemos que, para , IR
_
1 1
0 2
_ _

_
=
_
+
2
_
.)
3.7. Transformacoes Lineares 117
(III) Para T : T
3
T
2
a transformacao linear denida por
T(p) = p

, p T
3
determinemos M(T; (x
2
, x, 1), (x, 1)). Pelo facto de
T(x
2
) = 2x
T(x) = 1
T(1) = 0
imediatamente
M(T; (x
2
, x, 1), (x, 1)) =
_
2 0 0
0 1 0
_
.
(Reparemos que, para , IR
_
2 0 0
0 1 0
_ _

_
=
_
2

_
.)
Matrizes Equivalentes
Para cada transformacao linear
T : V W
onde dim V > 0, dim W > 0, a matriz que representa T depende das bases
ordenadas que se xem em V e em W. Fixando bases diferentes obtemos matrizes
diferentes a representar a mesma transformacao linear T.
Seja entao T : V W uma transformacao linear, dim V = n, dim W = m
e sejam
B
V
= (v
1
, ..., v
n
)
B

V
= (v

1
, ..., v

n
) bases distintas de V
e ainda
B
W
= (w
1
, ..., w
m
)
B

V
= (w

1
, ..., w

m
) bases distintas de W.
118 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
Pretendemos determinar a relacao existente entre as matrizes
A
mn
= M(T; B
V
, B
W
)
A

mn
= M(T; B

V
, B

W
).
Por deni cao de matriz de uma transformacao linear relativamente a bases xadas
nos espacos
_
T(x)

B
W
= A
_
x

B
V
_
T(x)

B

W
= A

_
x

V
mas ainda por (3.5o)
M
(B

W
, B
W
)
_
T(x)

B
W
. .
= A

M
(B

V
, B
V
)
_
x

B
V
A
_
x

B
V
.
Agora se representarmos por
P = M
(B
V
, B

V
)
Q = M
(B
W
, B

W
)
a igualdade anterior pode ser re-escrita na forma
Q
1
A
_
x

B
V
= A

P
1
_
x

B
V
para todo o vector
_
x

B
V
. Mas tal signica que
Q
1
A = A

P
1
ou ainda
A

= Q
1
A P.
(3.7 g) Denicao.
Matrizes A, B M
mn
(K) dizem-se equivalentes se existirem
matrizes invertveis Q
mm
, P
nn
tal que
B = Q
1
A P.
3.7. Transformacoes Lineares 119
Duas matrizes A, B M
nn
(K) dizem-se semelhantes se existir
uma matriz invertvel P
nn
tal que
B = P
1
A P.
Consequencia Imediata da Denicao Anterior
Matrizes que representam uma transformacao linear em bases difer-
entes sao semelhantes ou equivalentes.
(3.7 h) Exemplo. Seja dada a transformacao linear T : IR
3
IR
3
denida por
T(x) = A x, x IR
3
onde
A =
_
_
2 2 0
1 1 2
1 1 2
_
_
.
Entao A representa T na base canonica B = (e
1
, e
2
, e
3
). Determinemos a matriz
que representa T na base B

= (y
1
, y
2
, y
3
) onde
y
1
=
_
_
1
1
0
_
_
, y
2
=
_
_
2
1
1
_
_
, y
3
=
_
_
1
1
1
_
_
.
Apresentamos, de seguida, duas resolucoes.
i. Resolucao n
o
1.
Temos
T(y
1
) =
_
_
2 2 0
1 1 2
1 1 2
_
_
_
_
1
1
0
_
_
=
_
_
0
0
0
_
_
= 0 y
1
+ 0 y
2
+ 0 y
3
;
T(y
2
) =
_
_
2 2 0
1 1 2
1 1 2
_
_
_
_
2
1
1
_
_
=
_
_
2
1
1
_
_
= 0 y
1
+ 1 y
2
+ 0 y
3
;
120 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
T(y
3
) =
_
_
2 2 0
1 1 2
1 1 2
_
_
_
_
1
1
1
_
_
=
_
_
4
4
4
_
_
= 0 y
1
+ 0 y
2
+ 4 y
3
donde
M(T; B

, B

) =
_
_
0 0 0
0 1 0
0 0 4
_
_
= A

.
ii. Resolucao n
o
2.
Basta calcular
P = M
(B, B

)
, e P
1
= M
(B

, B)
.
Por denicao,
y
1
y
2
y
3
P =
_
_
_
_
e
1
e
2
e
3
=
_
_
1 2 1
1 1 1
0 1 1
_
_
enquanto que
e
1
e
2
e
3
P
1
=
_
_
_
_
y
1
y
2
y
3
=
_
_
0 1 1
1/3 1/3 2/3
1/3 1/3 1/3
_
_
ja que
_
_
1
0
0
_
_
=
_
_
1
1
0
_
_
+
_
_
2
1
1
_
_
+
_
_
1
1
1
_
_
_
_
1 2 1 [ 1
1 1 1 [ 0
0 1 1 [ 0
_
_

_
_
1 2 1 [ 1
0 1 2 [ 1
0 1 1 [ 0
_
_

_
_
1 2 1 [ 1
0 1 2 [ 1
0 0 3 [ 1
_
_
_
_
_
2 + = 1
= 2/3 + 1
= 1/3
_
_
_
= 0
= 1/3
= 1/3
3.7. Transformacoes Lineares 121
_
_
1 2 1 [ 0
1 1 1 [ 1
0 1 1 [ 0
_
_

_
_
1 2 1 [ 0
0 1 2 [ 1
0 1 1 [ 0
_
_

_
_
1 2 1 [ 0
0 1 2 [ 1
0 0 3 [ 1
_
_
_
_
_
2 + = 0
= 2/3 + 1
= 1/3
_
_
_
= 1
= 1/3
= 1/3
_
_
1 2 1 [ 0
1 1 1 [ 0
0 1 1 [ 1
_
_

_
_
1 2 1 [ 0
0 1 2 [ 0
0 1 1 [ 1
_
_

_
_
1 2 1 [ 0
0 1 2 [ 0
0 0 3 [ 1
_
_
_
_
_
2 + = 0
= 2/3
= 1/3
_
_
_
= 1
= 2/3
= 1/3

E imediato vericarmos que


P
1
A P =
_
_
0 1 1
1/3 1/3 2/3
1/3 1/3 1/3
_
_
_
_
2 2 0
1 1 2
1 1 2
_
_
_
_
1 2 1
1 1 1
0 1 1
_
_
=
_
_
0 1 1
1/3 1/3 2/3
1/3 1/3 1/3
_
_
_
_
0 2 4
0 1 4
0 1 4
_
_
=
_
_
0 0 0
0 1 0
0 0 4
_
_
= A

.
122 Captulo 3. Espacos Vectoriais e Transformacoes Lineares
Captulo 4
Espacos Vectoriais com
Produto Interno
Vamos acrescentar `a estrutura de espaco vectorial uma nova operacao, a de pro-
duto interno.
(Por exemplo, para x, y IR
2
< x, y >= x
T
y IR
dene um produto interno em IR
2
.)
Problema 1.
Motivacao. Se interpretarmos os elementos de IR
2
como segmentos de recta
iniciados na origem de um referencial iremos vericar que o angulo entre dois
segmentos de recta e um angulo recto se e so se o produto interno entre esses
segmentos for igual a zero.
Generalizacao. Num espaco vectorial V iremos armar que dois vectores de
V sao ortogonais sempre que o respectivo produto interno for igual a zero.
Problema 2.
Motivacao 1. Seja uma linha recta que passa pela origem O de um referencial
e seja Q um ponto que nao pertenca a . Determine o ponto P da recta mais
perto de Q.
123
124 Captulo 4. Espacos Vectoriais com Produto Interno
A solucao deste problema, o ponto P, e determinado pela condicao de

QP ser
perpendicular a

OP.

'
'
'
'
Q
v p
P

O
p
v

Motivacao 2.
Tambem em IR
2
, se pensarmos na linha recta como subespaco de IR
2
e
v =

OQ como um vector de IR
2
entao o problema e determinar um vector no
subespaco que esteja mais perto de v.
A solucao p e caracterizada pela propriedade de p ser ortogonal a v p.
Generalizacao.
Dado um vector v de um espaco vectorial V e um subespaco W de V pre-
tendemos determinar um vector p de W que esteja mais perto de v.
A solucao p vai ser novamente obtida pela condicao de v e v p serem ortog-
onais.
4.1 Alguns conceitos geometricos em IR
2
Comprimento de um vector
Em IR
2
sabemos que dado um vector v
>
>
>
>
>
>
O v
1
v
2
v
X
Y
4.1. Alguns conceitos geometricos em IR
2
125
representando por [[v[[
o comprimento do vector v, temos
[[v[[
2
= v
2
1
+v
2
2
ou seja
[[v[[ =
_
v
2
1
+v
2
2
=

< v, v > .
Distancia entre dois vectores
Dados u, v vectores de IR
2
>
>
>
>
>
>

u
v
u v
. .
. .
u
1
v
1
u
2
_
v
2
_

_
A distancia entre u e v e dada pelo comprimento do vector u v,
dist(u, v) = [[u v[[ =
_
(u
1
v
1
)
2
+ (u
2
v
2
)
2
=

< u v, u v > .

Angulo entre dois vectores


O angulo, , entre dois vectores u e v para os quais
[[u[[ = a, [[v[[ = b, [[u v[[ = c

x c
b
d
. .
a d
. .

126 Captulo 4. Espacos Vectoriais com Produto Interno


satisfaz
cos =
d
b
_
x
2
+d
2
= b
2
x
2
+ (a d)
2
= c
2
_
c
2
a
2
+ 2ad d
2
+d
2
= b
2
x
2
+a
2
2ad +d
2
= c
2
_
2ad = b
2
c
2
+a
2
d =
c
2
+b
2
+a
2
2a
donde
cos =
d
b
=
c
2
+b
2
+a
2
2ab
=
[[u v[[
2
+[[v[[
2
+[[u[[
2
2[[u[[ [[v[[
=
(u
1
v
1
)
2
(u
2
v
2
)
2
+v
2
1
+v
2
2
+u
2
1
+u
2
2
2[[u[[ [[v[[
=
u
1
v
1
+u
2
v
2
[[u[[ [[v[[
ou seja
= arc cos
u
1
v
1
+u
2
v
2
[[u[[ [[v[[
(Logo u e v sao ortogonais se e so se u
1
v
1
+u
2
v
2
= 0 ou seja < u, v >= 0.)
Ainda para < u, v >= u
1
v
1
+u
2
v
2
(u, v IR
2
) teremos a expressao do valor
do angulo entre dois vectores em funcao do produto interno na forma
= arc cos
< u, v >
[[u[[ [[v[[
.
4.2. Espacos Euclidianos 127
Projeccao ortogonal de u sobre v
>
>
>
>
>
>
>
>
>
>

. .
p
v
u
Seja p o vector projeccao ortogonal de u sobre v.

E imediato que
p = v
para algum IR. Sendo cos =
||p||
||u||
=
<u,v>
||u||||v||
[[p[[ =
< u, v > [[u[[
[[u[[[[v[[
=
< u, v >
[[v[[
donde
p =
< u, v >
[[v[[
v
[[v[[
ou ainda
p =
< u, v >
< v, v >
v.
4.2 Espacos Euclidianos
Reparemos que todos os conceitos apresentados no paragrafo anterior em IR
2
dependem do n umero real
< u, v >= u
1
v
1
+u
2
v
2
, u, v IR
2
.
E o que acontecera em IR
3
? E se pretendermos generalizar para IR
n
, n IN ou
para um espaco vectorial arbitrario, V ?

E assim que vao aparecer os espacos
vectoriais com produto interno.
128 Captulo 4. Espacos Vectoriais com Produto Interno
(4.2 a) Denicao.
Para V espaco vectorial real, chama-se produto interno em V
a toda a operacao que a cada par de vectores u e v de V faz
corresponder um n umero real representado por < u, v > tal que
as seguintes propriedades sao satisfeitas.
Para x, y V, IR
i. < x, y >=< y, x >;
ii. < x +x

, y >=< x, y > + < x

, y >;
iii. < x, y >= < x, y >;
iv. < x, x > 0 e (< x, x >= 0 sse x = 0).
Diz-se entao que V e um espaco com produto interno ou espaco
Euclidiano.
Consequencias Imediatas da Denicao.
Para x, y, y

V, IR
i. < x, y +y

>=< x, y > + < x, y

>, < x, y >= < x, y >;


ii. < 0
V
, x >= 0
IR
=< x, 0
V
> .
iii. Se < x, y >= 0 para todo o y entao x = 0.
iv. Se < x, y >=< x

, y > para todo o y entao x = x

.
(4.2 b) Exemplos.
1) Para V = IR
n
, x =
_

_
x
1
.
.
.
x
n
_

_
, y =
_

_
y
1
.
.
.
y
n
_

_
IR
n
< x, y >= x
1
y
1
+... +x
n
y
n
IR
4.2. Espacos Euclidianos 129
dene um produto interno em IR
n
(isto e, satisfaz as propriedades i., ii., iii.
e iv.). Abreviadamente temos
< x, y >=
n

i=1
x
i
y
i
= x
T
y.
2) Agora para V = C[a, b], f, g V
< f, g >=
_
b
a
f(x) g(x) dx
dene um produto interno em V .
(4.2 c) Denicao.
Para V espaco Euclidiano e x, y V chama-se
(1) norma ou comprimento de x a [[x[[ =

< x, x >;
(2) distancia entre x e y a [[x y[[;
(3) angulo entre x ,= 0 e y ,= 0 a
arc cos
< x, y >
[[x[[ [[y[[
;
(4) x e y sao ortogonais ou perpendiculares se
< x, y >= 0;
(5) projeccao ortogonal de y sobre x ,= 0 ao vector de V
proj
x
y =
< x, y >
[[x[[
2
x.
Nota. Sera que em 3) o quociente
<x,y>
||x|| ||y||
satisfaz
1
< x, y >
[[x[[ [[y[[
1?
A resposta e armativa e e uma consequencia da proposicao que segue.
130 Captulo 4. Espacos Vectoriais com Produto Interno
(4.2 d) Proposicao. (Desigualdade de Cauchy-Schwarz)
Para x e y vectores de um espaco Euclidiano V tem-se
[ < x, y > [ [[x[[ [[y[[ (1)
sendo a igualdade verdadeira sse o conjunto x, y
for linearmente dependente.
Demonstracao. Como ambos os membros da desigualdade sao nao-negativos
basta provar a desigualdade entre os respectivos quadrados. Para t IR, por
denicao de produto interno, temos
< x ty, x ty > 0.
Entao
< x, x ty > < ty, x ty > 0
ou ainda
< x, x > + < x, ty > < ty, x > + < ty, ty > 0
< x, x > 2t < x, y > +t
2
< y, y > 0.
No primeiro membro temos um polinomio do 2
o
grau em t. Uma vez que ele e nao-
negativo qualquer que seja o valor de t, este polinomio nao pode ter duas razes
distintas e portanto o respectivo discriminante nao pode ser positivo. Assim,
< x, y >
2
< x, x >< y, y > 0
ou ainda
< x, y >
2
[[x[[
2
[[y[[
2
0
conforme pretendido.
Mostremos agora que sempre que o conjunto x, y e linearmente dependente
se da a igualdade em (1).
Para, por exemplo, y = x para algum IR, temos
[ < x, x > [ = [ < x, x > [ = [[ < x, x >
4.2. Espacos Euclidianos 131
enquanto que
[[x[[ [[y[[ =

< x, x >
_
< x, x >
=

< x, x >
_

2
< x, x > = [[ < x, x >,
sendo a igualdade satisfeita.
Resta-nos mostrar que sempre que [ < x, y > [ = [[x[[ [[y[[ entao o conjunto
x, y e linearmente dependente.
Entao a equacao em t
< x, x > 2t < x, y > +t
2
< y, y >= 0
tem duas solucoes nao-nulas. Seja t
1
uma delas. Mas tal acarreta que
< x t
1
y, x t
1
y >= 0
donde, por denicao de produto interno,
x t
1
y = 0
ou seja
x = t
1
y
e, portanto, o conjunto x, y e linearmente dependente.
(4.2 e) Proposicao. (Propriedades da Norma)
Para x, y vectores de V e IR tem-se
(1) [[x[[ 0 e [[x[[ = 0 sse x = 0;
(2) [[x[[ = [[ [[x[[ ;
(3) [[x +y[[ [[x[[ +[[y[[ (Desigualdade Triangular).
Demonstracao. As alneas (1) e (2) sao consequencias imediatas da denicao
de norma e dos axiomas de denicao de produto interno.
132 Captulo 4. Espacos Vectoriais com Produto Interno
Para (3) temos
[[x +y[[
2
=< x +y, x +y >=< x, x > +2 < x, y > + < y, y >
[[x[[
2
+ 2[[x[[ [[y[[ +[[y[[
2
= ([[x[[ +[[y[[)
2
onde utilizamos a desigualdade de Cauchy-Schwarz. Como ambos os membros
da desigualdade sao nao-negativos, segue-se o resultado enunciado.
(4.2 f) Teorema. (de Pitagoras) Para x, y vectores ortogonais
de um espaco vectorial V com produto interno tem-se
[[x y[[
2
= [[x[[
2
+[[y[[
2
.
Demonstracao. Temos
[[x y[[
2
=< x y, x y >
=< x, x > 2 < x, y > + < y, y >
= [[x[[
2
+[[y[[
2
uma vez que, por hipotese, < x, y >= 0.
(4.2 g) Denicao.
Num espaco vectorial V com produto interno n-dimensional
i. uma base v
1
, ..., v
n
de V diz-se ortogonal se for cons-
tituda por vectores ortogonais dois a dois
(< v
i
, v
j
>= 0 para i ,= j) ;
ii. uma base v
1
, ..., v
n
de V diz-se ortonormada se for
ortogonal e todos os vectores tiverem norma igual a um
([[v
1
[[ = ... = [[v
n
[[ = 1).
4.2. Espacos Euclidianos 133
Nota. Uma base v
1
, ..., v
n
de V e ortonormada sse
< v
i
, v
j
>=
ij
=
_
0 se i ,= j
1 se i = j
(Aqui
ij
diz-se o smbolo de Kron ecker.)
(4.2 h) Exemplo. A base canonica de IR
n
e ortonormada.
Para n = 2 n = 3

(0, 1)
(1, 0)
(0, 1, 0)
(0, 0, 1)
(1, 0, 0)
as bases e
1
, e
2
e e
1
, e
2
, e
3
sao bases ortonormadas, respectivamente, em IR
2
e IR
3
.
Notacoes. Usamos o smbolo para armar
xy sse < x, y >= 0
e o.n. para abreviar ortonormada.
(4.2 i) Teorema. Para v
1
, ..., v
n
vectores nao-nulos ortogonais dois a
dois de um espaco Euclidiano V , o conjunto v
1
, ..., v
n

e linearmente independente.
Demonstracao. Seja

1
v
1
+
2
v
2
+... +
n
v
n
= 0,
i
IR, i = 1, ..., n.
134 Captulo 4. Espacos Vectoriais com Produto Interno
Calculemos o produto interno de ambos os membros por v
1
. Entao temos
<
1
v
1
+
2
v
2
+... +
n
v
n
, v
1
>=< 0, v
1
>= 0
ou seja
<
1
v
1
, v
1
> + <
2
v
2
, v
1
> +...+ <
n
v
n
, v
1
>= 0.
Como os vectores sao ortogonais dois a dois todas as parcelas sao nulas com
excepcao da primeira. Entao

1
[[v
1
[[
2
= 0.
Mas como todos os vectores sao nao-nulos, v
1
,= 0, logo [[v
1
[[
2
,= 0 e imediata-
mente

1
= 0
O raciocnio pode ser repetido usando agora v
2
, ..., v
n
no lugar de v
1
. Entao te-
remos tambem
2
= ... =
n
= 0 o que signica que o conjunto v
1
, ..., v
n
e
linearmente independente.
(4.2 j) Corolario. Para dimV = n, n vectores nao-nulos ortogonais
dois a dois de V constituem uma base ortogonal de V .
4.3 Metodo de Ortogonalizacao de Gram-Schmidt
Neste paragrafo vamos descrever um processo de construcao de uma base orto-
gonal (ortonormada) para um espaco Euclidiano V de dimensao nita n a partir
de uma base dada de V .
(4.3 a) Denicao.
Para V espaco Euclidiano e F subespaco de V o conjunto
F

= v V :< v, z >= 0, para todo o z F


constitui um subespaco vectorial de V que se diz o subespaco
complemento ortogonal de F em V .
(

E imediato vericar que F

e um subespaco vectorial de V .)
4.3. Metodo de Ortogonalizacao de Gram-Schmidt 135
(4.3 b) Exemplo. Os subespacos de IR
3
X = Le
1

Y = Le
2

sao ortogonais , XY , mas nao sao complementos ortogonais um do outro ja que


X

= Le
2
, e
3
e Y

= Le
1
, e
3
.
(4.3 c) Denicao.
Para F subespaco de um espaco Euclidiano V e x V , um
vector x
F
F diz-se a projeccao ortogonal de x sobre F se
x x
F
F

.
(4.3 d) Exemplo. Em IR
3
, para F = IR
2
, x IR
3
, a situacao e particular-
mente evidente.

`
`
`

`
F
x x
F
x
O
x
F
(4.3 e) Teorema. Para F subespaco de um espaco Euclidiano V e x V
sempre que x
F
exista tem-se
i. [[x x
F
[[ [[z x[[ para todo o z F;
ii. [[x x
F
[[ = [[x z[[ sse z = x
F
.
136 Captulo 4. Espacos Vectoriais com Produto Interno
(A distancia entre x e x
F
e

distancia entre z e x, para todo o z F.)


Diz-se ainda que x
F
e o vector de F mais perto ou mais proximo de x V.
Demonstracao.
i. Se existir x
F
entao, pelo facto de z F e x
F
F temos z x
F
F.
Mas como x x
F
F

vem
< x x
F
. .
, z x
F
. .
>= 0
F

F
Mas
[[x z[[
2
= [[(x x
F
) (z x
F
)[[
2
= [[x x
F
[[
2
+[[z x
F
[[
2
peolo teorema de Pitagoras, donde obtemos
[[x x
F
[[
2
= [[x z[[
2
[[z x
F
[[
2
(1)
logo
[[x x
F
[[
2
[[x z[[
2
ou ainda
[[x x
F
[[ [[x z[[
conforme requerido.
ii. Agora temos, usando (1),
[[x x
F
[[ = [[x z[[ sse [[z x
F
[[ = 0
ou ainda z x
F
= 0, ou seja, z = x
F
.
4.3. Metodo de Ortogonalizacao de Gram-Schmidt 137
(4.3 f) Teorema. Seja F um subespaco de dimensao nita n de um espaco
Euclidiano V e seja x um vector de V . Entao existe x
F
.
Para v
1
, ..., v
n
uma base ortogonal de F temos
x
F
=
n

i=1
< x, v
i
>
[[v
i
[[
2
v
i
soma das projeccoes ortogonais de x sobre v
i
, i = 1, ..., n.
Demonstracao.

E imediato que x
F
F ja que se escreve como combinacao
linear dos vectores de uma base de F. Resta vericar que x x
F
e um vector
do subespaco ortogonal de F, isto e , que x x
F
F

, ou seja, que x x
F
e
ortogonal a qualquer vector de F. Para tal basta calcular o produto interno de
x x
F
por v
j
para j = 1, ..., n. Ora para cada j temos
< x x
F
, v
j
>=< x, v
j
> < x
F
, v
j
>
=< x, v
j
>
n

i=1
< x, v
i
>
[[v
i
[[
2
< v
i
, v
j
>
=< x, v
j
> < x, v
j
>= 0.
Pergunta. Mas sera que existe sempre uma base ortogonal num espaco
Euclidiano de dimensao nita?
A resposta e armativa.
Processo de Ortogonalizacao de Gram-Schmidt
i. Seja v
1
, v
2
um conjunto linearmente independente de vectores de V .
Consideremos
u
1
= v
1
u
2
= v
2

< v
2
, u
1
>
[[u
1
[[
2
u
1
. .
projeccao ortogonal
de v
2
sobre u
1
138 Captulo 4. Espacos Vectoriais com Produto Interno
v
1
= u
1
`
v
2
>
>
>
>
>
u
2
. .
p = proj
u
1
v
2
Uma vez que
_
_
_
u
1
u
2
u
1
,= 0, u
2
,= 0
por (4.2i) u
1
, u
2
e linearmente
independente.

E tambem imediato que


Lv
1
, v
2
= Lu
1
, u
2
.
ii. Seja v
1
, v
2
, v
3
um conjunto linearmente independente de vectores de V .
Consideremos
u
1
= v
1
u
2
= v
2

<v
2
,u
1
>
||u
1
||
2
u
1
u
3
= v
3

< v
3
, u
1
>
[[u
1
[[
2
u
1
. .

< v
3
, u
2
>
[[u
2
[[
2
u
2
. .
projeccao de v
3
projeccao de v
3
sobre u
1
sobre u
2
(4.3 g) Teorema. (Processo de Ortogonalizacao de Gram-Schmidt)
Para v
1
, v
2
, ..., v
n
base de um espaco Euclidiano V o conjunto u
1
, u
2
, ..., u
n

denido recorrentemente por


u
1
= v
1
u
i
= v
i

i1
j=1
<v
i
,u
j
>
||u
j
||
2
u
j
, i 2
constitui uma base ortogonal de V .
4.3. Metodo de Ortogonalizacao de Gram-Schmidt 139
Demonstracao.

E imediato que para n = 1 o facto e verdadeiro. Vamos
mostrar que para n = 2 o facto e verdadeiro. O facto de
u
2
u
1
foi ja demonstrado em (4.3f) uma vez que
< v
2
, u
1
>
[[u
1
[[
2
u
1
= proj
u
1
v
2
= v
2 L{u
1
}
e logo
v
2
v
2 L{u
1
}
Lu
1

.
O facto de Lu
1
, u
2
= Lv
1
, v
2
e imediato ja que tanto u
1
como u
2
se
escrevem como combinacao linear de v
1
e de v
2
e vice-versa.
Suponhamos agora que para algum 2 k
u
1
, ..., u
k

e um conjunto ortogonal e seja


u
k+1
= v
k+1

k

j=1
< v
k+1
, u
j
>
[[u
j
[[
2
u
j
.
Pelo facto de
k

j=1
< v
k+1
, u
j
>
[[u
j
[[
2
u
j
= v
k+1 L{u
1
,...,u
k
}
temos
(v
k+1

k

j=1
< v
k+1
, u
j
>
[[u
j
[[
2
u
j
) u
j
, j = 1, ..., k.
Logo u
1
, ..., u
k
, u
k+1
e um conjunto ortogonal. Mas entao por (4.2i) e um con-
junto linearmente independente. Por inducao o facto e verdadeiro para qualquer
n.
140 Captulo 4. Espacos Vectoriais com Produto Interno
4.4 Metodo dos Mnimos Quadrados
Consideremos um sistema de equacoes lineares com um n umero de equacoes su-
perior ao n umero de incognitas,
Ax = b com A
mn
para m > n.
Tais sistemas sao, em geral, impossveis. Em geral, nao e possvel determinar
um vector, x IR
n
tal que Ax seja b. Em sua substituicao poderemos procurar
um vector x para o qual Ax e b estejam perto um do outro, isto e, vamos minimizar
a distancia entre estes dois vectores.
Dado um sistema Ax = b onde A e uma matriz mn com m > n e b IR
n
,
para cada x IR
n
formemos
r(x) = b Ax.
Como sabemos a distancia entre b e Ax e dada por
[[b Ax[[ = [[r(x)[[.
O nosso objectivo e determinar um vector x IR
n
para o qual [[r(x)[[ seja mnima.
Minimizar [[r(x)[[ e equivalente a minimizar [[r(x)[[
2
. Logo pretendemos um
vector x cujo quadrado da norma
[[r(x)[[
2
seja mnimo. Tal vector , x, diz-se uma solucao de Ax = b no sentido do quadrado
da norma de r(x) ser mnimo. Da se chamar uma solucao de Ax = b no sen-
tido dos mnimos quadrados. Mas, imediatamente tal vector e determinado pela
condicao
A x = proj
C(A)
b.
(4.4 a) Proposicao. Para A M
mn
(IR) e b IR
n
existe uma unica
solucao do sistema Ax = b no sentido dos mnimos
quadrados sse car A = n.
4.4. Metodo dos Mnimos Quadrados 141
Demonstracao. Neste caso as colunas de A formam uma base de IR
n
e logo
proj
C(A)
b
escreve-se de modo unico como combinacao linear das colunas de A. Assim o
sistema Ax = proj
C(A)
b admite uma unica solucao.
ALGORITMO
Metodo dos Mnimos Quadrados
Sistema Ax = b, A
mn
, m > n
1
o
Passo Determinar uma base de C(A).
2
o
Passo A partir da base anterior determinar uma base ortogonal de C(A).
3
o
Passo Determinar a projeccao ortogonal de b sobre C(A), b
C(A)
.
4
o
Passo Resolver o sistema (sempre possvel ja que b
C(A)
C(A)),
Ax = b
C(A).
Processo Alternativo
(4.4 b) Teorema. Para A M
mn
(IR) e b IR
m
, uma coluna x IR
n
e
uma solucao do sistema Ax = b no sentido dos mnimos quadrados
sse
x for uma solucao do sistema A
T
Ax = A
T
b.
Demonstracao. Uma coluna x IR
n
e uma solucao do sistema Ax = b no
sentido dos mnimos quadrados sse A x for a projeccao ortogonal de b sobre C(A),
o que e equivalente a
b A x (C(A))

.
142 Captulo 4. Espacos Vectoriais com Produto Interno
Mas tal e equivalente a armar que para todo o vector de C(A), isto e, para todo
o vector Ay, y IR
n
< Ay, b A x >= 0, y IR
n
que em traducao matricial e o mesmo que armar que
(Ay)
T
(b A x) = 0, y IR
n
.
Mas sendo (Ay)
T
= y
T
A
T
, a condicao e equivalente a
y
T
A
T
(b A x) = 0, y IR
n
o que signica que
< y, A
T
(b A x) >= 0 y IR
n
ou seja, A
T
(b A x) e ortogonal a todo o vector de IR
n
. Mas tal e armar que
A
T
(b A x) = 0
ou seja
A
T
A x = A
T
b
conforme requerido.
Conclusao.
Para calcular as solucoes do sistema Ax = b no sentido dos mnimos quadrados
basta resolver o sistema
A
T
Ax = A
T
b.
Aplicacao.
Suponhamos que temos n pontos de IR
2
,
(
1
,
1
), (
2
,
2
), ..., (
n
,
n
)
e que procuramos uma recta y = kx + que passe por eles. Em geral uma tal
recta nao existe, isto e, o sistema nas incognitas k e
_

_
k
1
+ =
1
k
2
+ =
2
.
.
.
k
n
+ =
n
4.4. Metodo dos Mnimos Quadrados 143
nao tem solucao.
A recta y =

kx +

obtida a partir da solucao (

k,

) no sentido dos mnimos
quadrados deste sistema e a recta que melhor se ajusta no sentido dos mnimos
quadrados aos n pontos dados.
Repare que a solucao do sistema
_

_
k
1
+ =
1
k
2
+ =
2
.
.
.
k
n
+ =
n
e unica porque a matriz do sistema
_

1
1

2
1
.
.
.
.
.
.

n
1
_

_
tem caracterstica 2 (excepto se os
i
forem todos iguais, caso em que os pontos
estariam alinhados verticalmente).
Notas.
i. Exactamente da mesma forma poderamos determinar, por exemplo, a
parabola y = cx
2
+ dx + h que melhor se ajuste, no sentido dos mnimos
quadrados, aos pontos dados. E analogamente para outras funcoes.
ii. O mesmo poderia ser armado para pontos de IR
3
(ou de IR
n
, n IN).
(4.4 c) Exemplo. Determinemos a solucao, no sentido dos mnimos quadra-
dos, do sistema
_
_
_
x
1
+x
2
= 3
2x
1
+ 3x
2
= 1
2x
1
x
2
= 2
Resolucao. Basta resolver o sistema
A
T
Ax = A
T
b
144 Captulo 4. Espacos Vectoriais com Produto Interno
para
A =
_
_
1 1
2 3
2 1
_
_
.
Entao
_
1 2 2
1 3 1
_
_
_
1 1
2 3
2 1
_
_
_
x
1
x
2
_
=
_
1 2 2
1 3 1
_
_
_
3
1
2
_
_
reduz-se a
_
9 7
7 11
_ _
x
1
x
2
_
=
_
5
4
_
e logo a solucao e
_
x
1
x
2
_
=
_
83/50
71/50
_
.
(4.4 d) Exemplo. Determinemos a melhor funcao quadratica que aproxi-
ma, no sentido dos mnimos quadrados, os seguintes dados obtidos experimen-
talmente
x 0 1 2 3
y 3 2 4 4
Resolucao. Pretendemos determinar
y = cx
2
+dx +h
que melhor se ajuste aos dados obtidos. Logo ha que resolver o sistema
_

_
h = 3
c +d +h = 2
4c + 2d +h = 4
9c + 3d +h = 4
ou seja
_

_
0 0 1
1 1 1
4 2 1
9 3 1
_

_
_
_
c
d
h
_
_
=
_

_
3
2
4
4
_

_
4.4. Metodo dos Mnimos Quadrados 145
pelo metodo dos mnimos quadrados, ou seja,
_
_
0 1 4 9
0 1 2 3
1 1 1 1
_
_
_

_
0 0 1
1 1 1
4 2 1
9 3 1
_

_
_
_
c
d
h
_
_
=
_
_
0 1 4 9
0 1 2 3
1 1 1 1
_
_
_

_
3
2
4
4
_

_
_
_
98 36 14
36 14 6
14 6 4
_
_
_
_
c
d
h
_
_
=
_
_
54
22
13
_
_
com solucao
_
_
_
c = 0.25
d = 0.25
h = 2.75
O polinomio quadratico que melhor aproxima os pontos obtidos e p(x) =
0.25x
2
0.25x + 2.75.
146 Captulo 4. Espacos Vectoriais com Produto Interno
Captulo 5
Diagonalizacao de Matrizes
5.1 Vectores-proprios e Valores-proprios de uma Trans-
formacao Linear
Seja V um espaco vectorial real de dimensao n, B = e
1
, e
2
, ..., e
n
uma base
(ordenada) de V e seja A = n n a matriz de uma transformacao linear
T : V V
relativamente `a base B, isto e,
M(T; B) = A =
_
a
ij

i,j=1,...,n
T(e
j
) =
n

i=1
a
ij
e
i
, j = 1, ..., n.
(5.1 a) Denicao.
Diz-se que e um valor-proprio de A se existir um vector nao-
nulo x IR
n
tal que
Ax = x. (1)
Entao diz-se tambem que x ,= 0 e um vector-proprio de A
associado ou correspondente ao valor-proprio .
147
148 Captulo 5. Diagonalizacao de Matrizes
Assim, para A M
nn
(IR)
i. a todo o vector-proprio x de A esta associado um unico valor-proprio
vericando (1);
ii. a todo o valor-proprio de A esta associado um conjunto de vectores x
que vericam a condicao (1) e que constitui um subespaco vectorial de IR
n
chamado subespaco proprio associado (ou correspondente) ao valor-proprio
de A, V

,
V

= x IR
n
: Ax = x = N(AI).
A equacao Ax = x e equivalente ao sistema
_

_
a
11
x
1
+a
12
x
2
+... +a
1n
x
n
= x
1
a
21
x
1
+a
22
x
2
+... +a
2n
x
n
= x
2

a
n1
x
1
+a
n2
x
2
+... +a
nn
x
n
= x
n
ou ainda
_

_
(a
11
)x
1
+a
12
x
2
+... +a
1n
x
n
= 0
a
21
x
1
+ (a
22
)x
2
+... +a
2n
x
n
= 0

a
n1
x
1
+a
n2
x
2
+... + (a
nn
)x
n
= 0
que e um sistema homogeneo nas incognitas x
1
, x
2
, ..., x
n
. Como, por denicao de
vector-proprio, procuramos x ,= 0, o sistema tem de admitir solucoes diferentes
da trivial (solucao nula). Logo a caracterstica da matriz deste sistema tera de
ser inferior `a ordem, ou seja,
a
11
a
12
a
1n
a
21
a
22
a
2n

a
n1
a
n2
a
nn

= 0
(5.1 b) Denicao.
5.1. Vectores-proprios e Valores-proprios de uma Transformacao Linear 149
A equacao [AI
n
[ = 0 (onde I
n
representa a matriz identidade
de ordem n) diz-se a equacao caracterstica da matriz A. O
primeiro membro e um polinomio de grau n em que se diz o
polinomio caracterstico de A.
A equacao caracterstica permite-nos determinar os valores-proprios da matriz
A.
(5.1 c) Exemplo. Para a matriz A =
_
cos sin
sin cos
_
sendo o polinomio
caracterstico
det(AI) = det
_
cos sin
sin cos
_
os respectivos valores-proprios sao os n umeros complexos

1
= cos +i sin e
2
= cos i sin.
Os respectivos vectores-proprios vao ser as solucoes de sistemas homogeneos com
matrizes do tipo 2 2 de elementos complexos e portanto vao pertencer a C
2
.
(5.1 d) Denicao.
As matrizes A, B quadradas de ordem n dizem-se semelhantes
se existir uma matriz nao-singular (isto e, invertvel) P tal que
B = P
1
AP.
(Recorde que matrizes que representam uma transformacao linear T num
espaco vectorial V relativamente a bases distintas sao semelhantes.)
(5.1 e) Proposicao. Para A e B matrizes semelhantes tem-se
det A = det B.
150 Captulo 5. Diagonalizacao de Matrizes
Demonstracao. Sendo B = P
1
AP para P matriz nao-singular temos
det B = det(P
1
AP)
= det(P
1
) det A det P
= det(P
1
) det P det A
= det(P
1
P) det A
= det I
n
det A
= det A.
(5.1 f) Teorema.
i. Matrizes semelhantes tem o mesmo polinomio caracterstico e logo os mes-
mos valores proprios.
ii. Se x for um vector-proprio de A associado ao valor-proprio entao P
1
x
e um vector-proprio de P
1
AP associado ao mesmo valor-proprio.
Demonstracao.
i. Atendendo `a lei distributiva da multiplicacao de matrizes
P
1
(AI)P = P
1
AP P
1
IP
= P
1
AP I
e portanto
det(P
1
AP I) = det(P
1
(AI)P)
= det(AI)
por (5.1e).
5.1. Vectores-proprios e Valores-proprios de uma Transformacao Linear 151
ii. Agora para valor-proprio de A e x ,= 0 um vector-proprio de A associado
a temos
Ax = x, (x ,= 0).
Entao
(P
1
AP)(P
1
x) = P
1
A(PP
1
)x
= P
1
Ax
= P
1
x
= P
1
x
ou seja P
1
x ,= 0 e um vector-proprio de P
1
AP associado ao mesmo
valor-proprio.
(5.1 g) Corolario. Para A
nn
semelhante a uma matriz diagonal
D = diag(
1
,
2
, ...,
n
) os elementos diagonais de D
sao os valores-proprios de A.
Demonstracao. Pelo teorema anterior as matrizes A e D tem os mesmos
valores-proprios. Mas e evidente que os elementos diagonais de D sao os respec-
tivos valores-proprios.
Notas.
i. Os subespacos caractersticos de A e de P
1
AP coincidem ja que P
1
x
e x representam o mesmo vector em bases diferentes.
ii. A alnea i. do teorema (5.1f) permite-nos denir o polinomio caracte-
rstico de uma transformacao linear T como sendo o polinomio caracterstico
de qualquer matriz que a represente. Assim, iremos armar que a condicao
T(v) = v, v ,= 0, v V
pode ser expressa por
Ax = x, x ,= 0, x =
_
v

B
para A = M(T; B), B base arbitraria de V .
152 Captulo 5. Diagonalizacao de Matrizes
Portanto os valores-proprios e os vectores-proprios de uma transformacao lin-
ear T sao independentes da xacao da base B de V .
(5.1 h) Exemplo. Para A =
_
_
2 3 1
1 2 1
1 3 2
_
_
determinemos os valores-
proprios e os correspondentes subespacos-proprios.
Resolucao. Sendo a equacao caracterstica
det(AI) = 0
2 -3 1
1 2 1
1 -3 2
= 0 = ( 1)
2
os valores-proprios de A sao
1
= 0 e
2
=
3
= 1.
O subespaco-proprio associado a
1
= 0 e N(A) que pode ser determinado da
maneira usual
_
_
2 3 1 0
1 2 1 0
1 3 2 0
_
_

_
_
0 3 3 0
0 1 1 0
1 3 2 0
_
_

_
_
0 0 0 0
0 1 1 0
1 3 2 0
_
_
logo x
3
e arbitrario. Facamos x
3
= . Entao de x
2
x
3
= 0, x
2
= x
3
vem
x
2
=
e de x
1
3x
2
+2x
3
= 0 vem x
1
= 32 = donde x =
_
_

_
_
, IR formara
o subespaco N(A),
V

1
= V
0
=
_
_
_

_
_
1
1
1
_
_
: IR
_
_
_
= L
_
_
_
_
_
1
1
1
_
_
_
_
_
.
Agora para determinar V

2
=
3
=1
ha que resolver o sistema
(AI)x = 0
_
_
1 3 1 0
1 3 1 0
1 3 1 0
_
_

_
_
1 3 1 0
0 0 0 0
0 0 0 0
_
_
5.2. Diagonalizacao de matrizes 153
logo x
2
e x
3
sao arbitrarios. Para x
2
= e x
3
= vem x
1
3x
2
+ x
3
= 0 ou
ainda x
1
= 3 logo
_
_
3

_
_
=
_
_
3

0
_
_
+
_
_

_
_
V
1
=
_
_
_

_
_
3
1
0
_
_
+
_
_
1
0
1
_
_
: , IR
_
_
_
= L
_
_
_
_
_
3
1
0
_
_
,
_
_
1
0
1
_
_
_
_
_
.
5.2 Diagonalizacao de matrizes
Neste paragrafo vamos abordar o problema de factorizar uma matriz A
nn
num
produto da forma
A = XDX
1
onde D e uma matriz diagonal.
Iremos apresentar uma condicao necessaria e suciente e uma outra condicao
somente suciente para a existencia de uma tal factorizacao.
Comecamos por mostrar que vectores-proprios associados a valores-proprios
distintos sao linearmente independentes.
(5.2 a) Teorema. Para
1
,
2
, ...,
k
valores-proprios distintos de uma
matriz A
nn
com vectores-proprios correspondentes x
1
, x
2
, ..., x
k
o conjunto x
1
, x
2
, ..., x
k
e linearmente independente.
Demonstracao.(Por contradicao.) Seja r = dimLx
1
, ..., x
k
e vamos admitir
que
r < k.
Podemos considerar (reordenando os x
i
e os
i
se necessario) que
x
1
, ..., x
r
e linearmente independente.
154 Captulo 5. Diagonalizacao de Matrizes
Uma vez que x
1
, x
2
, ..., x
r
, x
r+1
e linearmente dependente, existem escalares

1
, ...,
k
,
k+1
nao todos nulos tal que

1
x
1
+
2
x
2
+... +
r
x
r
+
r+1
x
r+1
= 0 (2)
Comecemos por reparar que
r+1
,= 0. Caso contrario x
1
, ..., x
r
seria linear-
mente dependente. Logo
r+1
x
r+1
,= 0 donde
1
, ...,
r
nao podem ser todos
nulos. Multiplicando A por (2) obtemos

1
Ax
1
+
2
Ax
2
+... +
r
Ax
r
+
r+1
Ax
r+1
= 0 (3)
ou

1
x
1
+
2

2
x
2
+... +
r

r
x
r
+
r+1

r+1
x
r+1
= 0 (4).
Multiplicando (2) por
r+1
e subtraindo a (4) obtemos

1
(
1

r+1
)x
1
+
2
(
2

r+1
)x
2
+... +
r
(
r

r+1
)x
r
= 0.
Tal e uma contradicao `a hipotese de x
1
, ..., x
r
ser linearmente independente.
Logo r = k.
(5.2 b) Denicao.
Uma matriz A quadrada de ordem n diz-se diagonalizavel se for
semelhante a uma matriz diagonal. A matriz P tal que P
1
AP
seja diagonal diz-se uma matriz diagonalizante de A, diz-se que
P diagonaliza A ou que P leva A `a forma diagonal.
(5.2 c) Teorema.

E condicao necessaria e suciente para que uma matriz
A quadrada de ordem n seja diagonalizavel que a matriz A tenha n vectores-
proprios linearmente independentes.
Ainda
P
1
AP =
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_

_
= diag(
1
, ...,
n
)
5.2. Diagonalizacao de matrizes 155
sse
onde a coluna j da matriz P, p
j
, e um vector-proprio de A correspondente ao
valor-proprio
j
de A (j = 1, ..., n) e o conjunto das n colunas, p
1
, p
2
, ..., p
n
, e
linearmente independente.
Demonstracao.
Parte 1. Comecemos por mostrar que a condicao e necessaria. Admi-
tindo que a matriz A e semelhante a uma matriz diagonal P
1
AP = D =
diag(
1
,
2
, ...,
n
) provemos que a coluna j de P, p
j
, e um vector proprio de
A associado ao valor-proprio
j
e que o conjunto p
1
, p
2
, ..., p
n
e linearmente
independente.
Da hipotese P
1
AP = D = diag(
1
,
2
, ...,
n
) vem
AP = PD.
Uma vez que
1
,
2
, ...,
n
sao os valores-proprios de A (cf. Corolario (5.1g)) a
igualdade AP = PD pode ser escrita na forma
Ap
j
=
j
p
j
, j = 1, ..., n
A
_
p
1
p
n

=
_
p
1
p
n

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_

_
demonstrando-se o requerido, ou seja, p
j
e um vector-proprio de A associado ao
valor-proprio
j
. Uma vez que P e invertvel ela e nao-singular e logo a carac-
terstica tem de coincidir com a ordem, isto e, o conjunto p
1
, ..., p
n
e linearmente
independente.
Parte 2. Resta agora mostrar que a condicao e suciente. Admitindo agora
que o conjunto, p
1
, ..., p
n
, dos n vectores-proprios da matriz A e linearmente
independente, mostremos que a matriz A e diagonalizavel.
Sendo p
1
, ...p
n
vectores-proprios da matriz A associados, respectivamente, aos
valores-proprios
1
, ...,
n
,
Ap
i
=
i
p
i
, i = 1, ..., n
156 Captulo 5. Diagonalizacao de Matrizes
temos igualmente
AP = PD (5)
para D = diag(
1
, ...,
n
). Como o conjunto p
1
, ...p
n
e, por hipotese, linear-
mente independente, a matriz P =
_
p
1
p
n

e uma matriz quadrada de


ordem n nao-singular. De (5) obtemos
P
1
AP = D
como requerido.
(5.2 d) Teorema. Uma matriz A quadrada de ordem n que admite n
valores-proprios distintos e diagonalizavel.
Demonstracao.Trata-de de uma consequencia imediata dos teoremas (5.2a) e
(5.2c).
Nota. O recproco deste teorema e falso. Uma matriz quadrada de ordem n
com s < n valores-proprios distintos pode ser diagonalizavel.
(5.2 e) Exemplo. A matriz A =
_
_
2 3 1
1 2 1
1 3 2
_
_
apresentada no exemplo
anterior e diagonalizavel.
A matriz A admite dois valores-proprios distintos
1
= 0 e
2
=
3
= 1, mas
o conjunto dos vectores-proprios associados
_
_
_
_
_
1
1
1
_
_
,
_
_
3
1
0
_
_
,
_
_
1
0
1
_
_
_
_
_
e linearmente independente, sendo
_
_
1 3 1
1 1 0
1 0 1
_
_
1
. .
A
_
_
1 3 1
1 1 0
1 0 1
_
_
. .
=
_
_
0 0 0
0 1 0
0 0 1
_
_
. .
P
1
A P = D.
5.2. Diagonalizacao de matrizes 157
Sejam
1
, ...,
s
os valores-proprios distintos da matriz A quadrada de ordem
n e V

1
, ..., V

s
os respectivos subespacos-proprios. Sempre que
s

i=1
= dimV

i
= n
a matriz A e diagonalizavel.
(5.2 f) Denicao.
Sendo
s

i=1
(
i
)

i
o polinomio caracterstico da matriz A,
i
diz-se a multiplici-
dade algebrica do valor-proprio
i
de A, i = 1, ..., s e chama-se
multiplicidade geometrica do valor-proprio
i
`a dimensao do
subespaco-proprio correspondente, dimV

i
.
Imediatamente, a matriz A e diagonalizavel se e so se para cada valor-proprio

i
de A as correspondentes multiplicidades algebricas e geometricas coincidirem,
ou seja,

i
= dimV

i
, i = 1, ..., s.
(5.2 g) Proposicao. Para
i
multiplicidade algebrica do valor-proprio

i
da matriz A = M(T) onde T e uma transformacao
linear num espaco vectorial V de dimensao n tem-se
1 dimV

i

i
, i = 1, ..., s.
Demonstracao. Seja dimV

i
= n
i
e seja e
1
, e
2
, ..., e
n
i
uma base de V

i
.

E
possvel determinar e
n
i
+1
, ..., e
n
, tal que
B = e
1
, e
2
, ..., e
n
i
, e
n
i
+1
, ..., e
n

158 Captulo 5. Diagonalizacao de Matrizes


constitua uma base de V. Relativamente `a base B
M(T; B) =
_
_
I
n
i
A
0 A
1
_
_
e o polinomio caracterstico da matriz de M(T; B) vem assim
P() = (
i
)
n
i
P

()
onde P

() representa o polinomio caracterstico da matriz A


1
. Logo a multipli-
cidade algebrica de
i
e, necessariamente superior ou igual a n
i
(caso de
i
ser
ou nao raz do polinomio P

(), isto e,
i
ser ou nao valor-proprio da matriz A
1
).
5.3 Matrizes Simetricas Reais
Recordemos que uma matriz A e simetrica sempre que coincida com a respec-
tiva transposta. Neste paragrafo iremos provar que as matrizes simetricas reais
formam uma classe de matrizes diagonalizaveis.
(5.3 a) Teorema. Os valores-proprios de uma matriz simetrica real
sao n umeros reais.
Demonstracao. Seja A uma matriz simetrica real que admite
r +is
como valor-proprio. Iremos provar que entao s = 0. Sendo r + is valor-proprio
de A, r +is e raz do polinomio caracterstico
det(AI)
ou seja,
det(A(r +is)I) = 0
o que nos permite armar ser a matriz A (r + is)I singular. Imediatamente a
matriz
B = (A(r +is)I)(A(r is)I)
5.3. Matrizes Simetricas Reais 159
= A
2
(r is)A(r +is)A+ (r
2
+s
2
)I
= A
2
2rA+ (r
2
+s
2
)I
= (ArI)
2
+s
2
I
e uma matriz real igualmente singular. Portanto existe um vector nao-nulo X tal
que
BX = 0
e logo
X
T
BX = 0.
Entao
0 = X
T
BX = X
T
(ArI)
2
X +s
2
X
T
X
= X
T
(ArI)
. .
(ArI)X
. .
+s
2
X
T
X (8)
Y
T
Y
(uma vez que a matriz A rI e simetrica) e para Y = (A rI)X podemos
escrever (8) na forma
Y
T
Y +s
2
X
T
X = 0. (9)
Mas sendo X e Y ambas matrizes reais e X ,= 0, temos
Y
T
Y 0 e X
T
X > 0.
Mas entao, para que a soma de dois n umeros nao-negativos seja zero, e forcoso
que ambos o sejam. Logo
s = 0
e o valor-proprio r +is e real, como pretendido.
(5.3 b) Teorema. Para A matriz simetrica real existe uma matriz
ortogonal P tal que P
1
AP e uma matriz diagonal.
(Assim, toda a matriz simetrica real e ortogonalmente diagonalizavel.)
Demonstracao. (Por inducao)
160 Captulo 5. Diagonalizacao de Matrizes
Sejam
1
, ...,
n
os valores-proprios de A. Uma vez que
1
e real existe um
vector-proprio de A, seja ele s
1
, unitario associado a
1
.

E possvel (pelo metodo
de ortonormalizacao de Gram-Schmidt) determinar um conjunto de n vectores
mutuamente ortogonais e unitarios. Seja S a matriz (ortogonal) cujas colunas
sao esses n vectores. Assim, s
1
e a coluna 1 de S. Mas entao a primeira coluna
de AS e As
1
=
1
s
1
. Deste modo a primeira coluna de S
1
AS vai ser
1
S
1
s
1
que constitui igualmente a primeira coluna de
1
S
1
S, sendo portanto
_

1
0
.
.
.
0
_

_
.
Uma vez que a matriz S
1
AS e simetrica (ja que (S
1
AS)
T
= (S
T
AS)
T
=
S
T
A
T
S = S
1
AS)
S
1
AS =
_

1
0 0
0
.
.
. A
1
0
_

_
onde A
1
e uma matriz simetrica real de ordem n 1 admitindo como valores-
proprios
2
, ...,
n
. Estamos entao em condicoes para poder concluir a demon-
stracao por inducao em n. Sendo Q a matriz ortogonal que diagonaliza A
1
entao
SR para R =
_
1 0
0 Q
_
e tambem ortogonal e diagonaliza A. De facto, temos
(SR)
1
ASR = R
1
S
1
ASR
= R
1
_

1
0
0 A
1
_
R
=
_
1 0
0 Q
1
_ _

1
0
0 A
1
_ _
1 0
0 Q
_
=
_

1
0
0 Q
1
A
1
Q
_
=
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_

_
.
5.3. Matrizes Simetricas Reais 161
(5.3 c) Corolario. Uma matriz simetrica real de ordem n admite n
vectores-proprios mutuamente ortogonais (relativamente
ao produto interno canonico de IR
n
).
Demonstracao. Pelo teorema (5.2c) as colunas de P sao vectores-proprios de
A. Estes vectores-coluna sao mutuamente ortogonais e unitarios uma vez que a
matriz P e ortogonal.
Reciprocamente, a determinacao de n vectores-proprios unitarios mutuamente
ortogonais de A permite determinar a matriz P que diagonaliza A. O problema da
diagonalizacao de uma matriz simetrica real reduz-se, portanto, `a determinacao
de n vectores-proprios unitarios mutuamente ortogonais de A. O processo para
tal determinacao vai ser descrito no teorema seguinte.
(5.3 d) Teorema. Vectores-proprios de uma matriz simetrica real
correspondentes a valores-proprios distintos sao
ortogonais.
Demonstracao. Sejam
1
e
2
valores-proprios distintos de uma matriz simetrica
real A e sejam s
1
e s
2
vectores-proprios correspondentes. Entao de
As
1
=
1
s
1
vem
s
T
2
As
1
=
1
s
T
2
s
1
.
No entanto, uma vez que A e simetrica

1
s
T
2
s
1
= s
T
2
As
1
= (As
2
)
T
s
1
= (
2
s
2
)
T
s
1
=
2
s
T
2
s
1
donde

1
s
T
2
s
1
=
2
s
T
2
s
1
.
Mas como
1
,=
2
de
(
1

2
)s
T
2
s
1
= 0
vem
s
T
2
s
1
= 0
ou seja, os vectores s
2
e s
1
sao ortogonais.
162 Captulo 5. Diagonalizacao de Matrizes
(5.3 e) Exemplo. Determinemos uma matriz ortogonal P que diagonalize
a matriz simetrica real
A =
_
_
0 1 1
1 0 1
1 1 0
_
_
.
Resolucao. A equacao caracterstica da matriz A e, neste caso,
det(AI) = 0
1 1
1 1
1 1
=
3
+ 3 2 = ( 1)
2
( + 2) = 0
Logo

1
= 1 de multiplicidade algebrica igual a 2

2
= 2 de multiplicidade algebrica igual a 1
sao os valores-proprios de A.
Correspondente a
1
= 1 o subespaco-proprio V

1
= N(A
1
I) vai ser
denido pelos vectores
_
x
1
x
2
x
3

T
que satisfazem
_
_
1 1 1
1 1 1
1 1 1
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
0
0
0
_
_
ou ainda x
1
+x
2
+x
3
= 0
V
1
= N(AI) =
_
_
_
_
_
x
1
x
2
x
3
_
_
IR
3
: x
1
+x
2
+x
3
= 0
_
_
_
=
_
_
_
_
_
x
1
x
2
x
1
x
2
_
_
IR
3
: x
1
, x
2
IR
_
_
_
5.3. Matrizes Simetricas Reais 163
=
_
_
_
x
1
_
_
1
0
1
_
_
+x
2
_
_
0
1
1
_
_
IR
3
: x
1
, x
2
IR
_
_
_
= L
_
_
_
_
_
1
0
1
_
_
,
_
_
0
1
1
_
_
_
_
_
.
No entanto, estes geradores de V
1
nao sao ortogonais. Pretendemos, portanto,
determinar um vector
_
_
x
1
x
2
x
3
_
_
em V
1
(satisfazendo x
1
+ x
2
+ x
3
= 0) mas
ortogonal, por exemplo, ao vector s
1
=
_
_
1
0
1
_
_
. O vector s
2
e assim determinado
pela condicao
_
x
1
+x
2
+x
3
= 0
x
1
+x
3
= 0
ou ainda
_
x
2
= 2x
3
x
1
= x
3
Seja ele s
2
=
_
_
1
2
1
_
_
.
Entao
s
1
=
_
_
1
0
1
_
_
e s
2
=
_
_
1
2
1
_
_
sao vectores-proprios de A ortogonais do subespaco-proprio V
1
.
Um vector-proprio associado ao valor-proprio
2
= 2 e dado pela solucao
do sistema
(A+ 2I)x = 0
_
_
2 1 1
1 2 1
1 1 2
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
0
0
0
_
_
_
_
_
2x
1
+x
2
+x
3
= 0
x
1
+ 2x
2
x
3
= 0
x
1
x
2
+ 2x
3
= 0
164 Captulo 5. Diagonalizacao de Matrizes
que origina
_
_
2 1 1 [ 0
1 2 1 [ 0
1 1 2 [ 0
_
_

_
_
0 3 3 [ 0
0 3 3 [ 0
1 1 2 [ 0
_
_

_
_
0 0 0 [ 0
0 3 3 [ 0
1 1 2 [ 0
_
_
_
x
2
= x
3
x
1
= x
2
2x
3
Para x
3
= 1 , s
3
=
_
_
1
1
1
_
_
e ortogonal a s
1
e a s
2
.
A matriz P e, portanto, constituda pelos vectores unitarios, m ultiplos es-
calares de s
1
, s
2
e s
3
, nomeadamente,
P =
_
_
1/

2 1/

6 1/

3
0 2/

6 1/

3
1/

2 1/

6 1/

3
_
_
.
Bibliograa
[D.Agudo,1972] F.R. Dias Agudo, Introducao `a

Algebra Linear e Geometria
Analtica, Escolar Editora, Lisboa, 1972
[S.Leon,2002] Steven J. Leon, Linear Algebra with Applications,(Sixth Edi-
tion), Prentice Hall, New Jersey, 2002
[Santana-Queiro,2000] Ana Paula Santana, Joao Filipe Queiro,

Algebra Linear
e Geometria Analtica, Departamento de Matematica - Universidade de
Coimbra, 2000
[Strang,1988] Gilbert Strang, Linear Algebra and its Applications, Harcourt
Brace Jovanovich Publishers, San Diego, 1988

Potrebbero piacerti anche