Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
!
!
Álgebra!Linear!
Computacional!
!
!
! !
Álgebra!Linear!Computacional!2014.2!
Professor!Nelson!Borges!
nborgesster@gmail.com!
9960759788!
Horário!e!Avaliações!
Terças!8:30h!às!11:30h!–!14!Semanas!(27/05!até!26/08)!
Avaliação:!Listas!de!Exercícios!e!Prova!
Sumário!
Capítulo!1!Espaço!Vetorial!Euclidiano!..........................................................................................1!
Capítulo!2!Matrizes!.....................................................................................................................17!
Capítulo!3!Resolução!de!Sistemas!Lineares!................................................................................36!
Capítulo!4!Espaços!Vetoriais!.......................................................................................................56!
Capítulo!5!Transformações!Lineares!..........................................................................................80!
Capítulo!6!Subespaços!Ortogonais,!Projeções!e!Aplicações!.....................................................106!
Capítulo!7!Determinantes!........................................................................................................127!
Capítulo!8!Autovalores!e!Autovetores!.....................................................................................136!
Capítulo!9!Decomposição!em!Valores!Singulares!(SVD)!...........................................................149!
Bibliografia!
Strang,!G.!5!Álgebra!Linear!e!suas!Aplicações,!Cengage!Learning!Ed.,!456!p.,!2010.!
Anton,!H.!e!Rorres,!C.!5!Álgebra!Linear!com!Aplicações,!Bookman!Ed.,!572!p.,!2008.!
Golub,G.!and!Van!Loan,!C.!5!Matrix!Computations,!Johns!Hopkins!Univ.!Press,!694!p.,!1996!
Leon,!S.J.!5!Álgebra!Linear!com!Aplicações,!LTC!Ed.,!390!p.,!2008.!!
Apostol,!T.!5!Cálculo!com!Funções!de!uma!Variável,!Reverté!Ed.,!771!p.,2006.!
Apostol,!T.!5!Cálculo!com!Funções!de!Várias!Variáveis!e!Álgebra!Linear,!Reverté!Ed.,!752!
p.,2008.!
Cap¶³tulo 1
1
escalar entre eles , satisfazem um certo conjunto de axiomas. Assim, tratamos os
vetores como elementos de um conjunto abstrato.
2
O vetor (¡1)A, tamb¶em denotado por ¡A, chamado negativo de A. Da¶³, es-
crevemos:
A ¡ B = A + (¡B) (diferen»ca entre A e B).
Note que: 0A = 0 e 1A = A.
3
Figura 1.2: Regra do Paralelogramo
¶e negativo.
De¯ni»
c~
ao 3
¡! ¡! ¡! ¡!
Dois vetores OA e OB em Rn t^em a mesma dire»c~ao se OB = ®OA para algum
¡! ¡!
escalar ® positivo, e dire»c~ao oposta se OB = ®OA para algum escalar ® negativo.
^ ¡! ¡!
Eles s~ao chamados paralelos se OB = ®OA para algum escalar ® n~ao nulo.
Exemplo
Sejam os pontos A, B, C e D representado na
4
Figura 1.4: Vetores Paralelos e Proporcionais
Exemplo
Sejam A = (1; 2; 3) e B = (¡1; 2; ¡1) Temos que: A:B = 1 £ (¡1) + 2 £ 2 + 3 £
(¡1) = 0
Propriedades
8A , B , C 2 Rn e 8® 2 R, valem as seguintes propriedades:
a) A:B = B:A (comutatividade)
b) A:(B + C) = (A:B) + (A:C) (distributividade)
c) ®(A:B) = (®A):B (homogeneidade)
d) A:A > 0 se A 6= 0 (positividade)
e) A:A = 0 se A = 0
Daremos agora, um teorema que estabelece a desigualdade no produto interno
de dois vetores:
Teorema 1.1 ( Desigualdade de Cauchy Schwarz)
Se A e B s~ao vetores em Rn , temos:
5
Prova
Daremos aqui uma prova baseada nas propriedades do produto interno. Se A ou
B ¶e um vetor nulo, a prova segue trivialmente. Assumamos que A e B s~ao vetores
n~ao nulos. Seja C o vetor:
C = xA ¡ yB, onde x = B:B e y = A:B
Pelas propriedades d) e e) temos que C:C ¸ 0. Vamos expressar C:C em termos
de x e y.
C:C = (xA ¡ yB):(xA ¡ yB) = xA:(xA ¡ yB) ¡ yB:(xA ¡ yB) = x2 (A:A) ¡
2xy(A:B) + y 2 (B:B),
onde foram usadas as propriedades a), b) e c).
Usando as de¯ni»c~oes de x e y e a desigualdade C:C ¸ 0, obtemos:
(B:B)2 (A:A) ¡ 2(A:B)2 (B:B) + (A:B)2 (B:B) ¸ 0
Por d), temos que B:B > 0, desde que B 6 = 0. Dividindo a equa»c~ao anterior por
(B:B), obtemos:
(B:B)(A:A) ¡ (A:B)2 ¸ 0 () (A:B)2 · (A:A)(B:B)
Al¶em do mais, a igualdade vale quando C = 0, ou seja,xA = yB, isto ¶e, quando
A ¶e m¶ultiplo de B.
6
Figura 1.6: Comprimento de A em R3
p
comp(A) = a21 + a22 + a23
Prosseguindo desta forma, introduzimos o conceito de comprimento de um vetor
em Rn .
De¯ni»c~
ao 5
Seja A um vetor em Rn , o seu comprimento ou norma, denotado por jjAjj, ¶e
de¯nido por:
7
Desenvolvendo o lado esquerdo desta desigualdade, obtemos:
Comparando (1.8) e (1.9), vemos que a desigualdade jjA + Bjj2 · (jjAjj + jjBjj)2
vale () A:B · jjAjjjjBjj
Ora, A:B · jA:Bj · jjAjjjjBjj
Reciprocamente, se jjA + Bjj2 · (jjAjj + jjBjj)2 , ent~ao A:B · jjAjjjjBjj vale para
A e ¡A e assim (A:B)2 · jjAjj2 jjBjj2
Quando jjA + Bjj = jjAjj + jjBjj, devemos ter: A:B = jjAjjjjBjj. Isto acontece
quando B = ®A para algum ®.
Portanto, A:B = ®jjAjj2 e jjAjjjjBjj = j®jjjAjj2 .
Se A 6
= 0 =) ® = j®j ¸ 0.
Se B 6
= 0 =) B = ®A com ® > 0.
que vale para quaisquer vetores A e B em Rn . Vemos que a rela»c~ao de Pit¶agoras vale
somente quando A:B = 0. Assim, vamos de¯nir a ortogonalidade de dois vetores
em Rn . Veja Figura 1.7
e Figura 1.8
8
Figura 1.8: Rela»c~ao de Pit¶agoras
De¯ni» c~
ao 6
Dois vetores n~ao nulos A e B em Rn s~ao perpendiculares ou ortogonais, quando
A:B = 0
Desta forma, quando a igualdade na equa»c~ao 1.10 ocorre para A:B = 0, temos a
rela»c~ao de Pit¶agoras em Rn .
Exemplo
Sejam A = (a1 ; a2 ; :::; an ) e B = (b1 ; b2 ; :::; bn ) 2 Rn tais que: aj 6
= 0 para
algum j = k e aj = 0 8j 6 = k; (j = 1; 2; :::; n) e bl = 0 para l = k e bj 6 = 0
8j 6
= l; (j = 1; 2; :::; n). Temos que: A:B = 0 £ b1 + 0 £ b2 + ::: + ak £ 0::: + 0 £ bn =
0 + 0 + ::: + 0::: + 0 = 0
1.7 Proje»c~ ^
oes. Angulo entre vetores em Rn
Vamos dar uma interpreta»c~ao geom¶etrica do produto interno de dois vetores n~ao
nulos em R2 . Para isto, consideramos o ^angulo µ formado pelos vetores dados na
Figura 1.9
Na Figura 1.9, temos dois vetores geom¶etricos n~ao nulos A e B fazendo um ^angulo
µ, 0 < µ · ¼=2. Na Figura1.10, temos o mesmo vetor A, os vetores C e tB (perpen-
diculares) cuja soma ¶e o vetor A. O vetor tB ¶e chamado proje»c~ao de A ao longo de B.
Na Figura 1.10, t ¶e positivo, desde que 0 < µ · ¼=2.
Vamos usar o produto interno para expressar t em termos de A e B. Para isto,
escrevemos tB + C = A e efetuamos o produto interno desta igualdade por B,
obtendo:
tB:B + C:B = A:B Mas, C:B = 0, uma vez que C ? B. Portanto, tB:B = A:B
e assim,
A:B A:B
t= = (1.11)
B:B jjBjj2
, onde B 6
=0
9
^
Figura 1.9: Angulo entre vetores
jjtBjj tjjBjj
cos(µ) = = ;t > 0 (1.12)
jjAjj jjAjj
ou ainda:
jA:Bj jjAjjjBj
· = 1; (1.14)
jjAjjjjBjj jjAjjjjBjj
10
ou seja:
A:B
¡1 · · 1; (1.15)
jjAjjjjBjj
para 0 · µ · ¼
De¯ni» c~
ao 7
Sejam A e B dois vetores em Rn , com B 6
= 0. O vetor tB, onde
A:B
t= (1.16)
jjBjj2
X
n
X = x1 e1 + x2 e2 + ::: + xn en = xk ek (1.18)
k=1
Pn
Al¶em do mais, esta representa»c~ao ¶e u ¶nica. Isto ¶e, se X = k=1 xk ek e Y =
Pn
ao xk = yk 8k (k = 1; 2; :::; n).
k=1 yk ek , ent~
Prova
11
A primeira a¯rma»c~ao segue imediatamente da de¯ni»c~ao de adi»c~ao entre vetores
e multiplica»c~ao de vetor por escalar. A unicidade segue da de¯ni»c~ao de igualdade
de vetores.
P
Um somat¶orio do tipo ci Ai ¶e chamada uma combina»c~ao linear de vetores
A1 ; A2 ; :::; An . Assim, este teorema a¯rma que todo vetor pode ser escrito como
combina»c~ao de vetores coordenados unit¶arios. Descrevemos isto, dizendo que os
vetores e1 ; e2 ; :::; en geram o espa»co Rn . Tamb¶em, dizemos que estes vetores geram
Rn unicamente, porque cada representa»c~ao de um vetor como combina»c~ao linear de
e1 ; e2 ; :::; en ¶e u
¶ nica.
Frequentemente, em R2 os vetores e1 e e2 s~ao representados pelas letras i e j,
respectivamente, e em R3 os vetores e1 , e2 e e3 s~ao representados pelas letras i, j
e k, respectivamente.
k x kp = (j x1 jp + j x2 jp + : : : + j xn jp )1=p ; p ¸ 1 (1.19)
k x k1 = (j x1 j + j x2 j + : : : + j xn j) (1.20)
k x k2 = (j x1 j2 + j x2 j2 + : : : + j xn j2 )1=2 (1.21)
k x k1 = max1·i·n j xi j (1.22)
12
k : k para efeito de simpli¯ca»c~ao. Um vetor unit¶ario com respeito µa norma k : kp ¶e
um vetor x que satisfaz k x kp = 1.
Propriedades da Norma Vetorial
1 - Um resultado cl¶assico s^obre p-normas ¶e a desigualdade de Holder:
1 1
j xt y j·k x kp k y kq ; + =1 (1.23)
p q
Um caso mais importante disto ¶e a desigualdade de Cauchy-Schwarz na norma
Euclidiana:
j xt y j·k x k2 k y k2 (1.24)
2 - Todas as normas vetoriais em Rn s~ao equivalentes, isto ¶e, se k : k® e k : k¯ s~ao
normas vetoriais em Rn , ent~ao existem constantes positivas c1 e c2 tais que:
c1 k x k® · k x k¯ · c2 k x k® 8x 2 Rn (1.25)
Por exemplo, se x 2 Rn , ent~ao:
p
k x k2 · k x k1 · n k x k2 (1.26)
p
k x k1 · k x k2 · n k x k1 (1.27)
k x k1 · k x k1 · n k x k1 (1.28)
Exemplo
Seja o vetor
2 3
1
6 ¡2 7
6 7
x=6 7 2 R4
4 4 5
¡5
Temos:
k x k1 = 12
p
k x k2 = 46
k x k1 = 5
Observe que:
p p p
46 · 12 · 4 £ 46
p p
5· 46 · 4 £ 5
5 · 12 · 4 £ 5
13
1.10 Produto Interno Euclidiano em Cn
De¯ni»
c~ao 10
Se x; y 2 Cn , de¯nimos o Produto Interno Euclidiano Complexo por:
n
X
(x; y)C := xi y i (1.29)
i=1
Desde que o produto interno de um vetor por si mesmo ¶e n~ao negativo , podemos
introduzir a norma de um vetor em Cn pela f¶ormula:
1=2
k x k= (x; x)C (1.31)
14
Exerc¶³cios Cap¶³tulo I
1 - Sejam A = (1; 1; 1), B = (0; 1; 1) e C = (1; 1; 0) tr^es vetores em lR3 e seja
D = xA + yB + zC, onde x, y e z s~ao escalares.
a) Determine as componentes de D;
b) Se D = (0; 0; 0), mostre que x = y = z = 0;
c) Encontre x; y; z tais que D = (1; 2; 3).
2 - Dados os vetores A = (2; ¡1; 1), B = (1; 2; ¡1) e C = (1; 1; ¡2) em lR3 .
Encontre o vetor D = xB + yC que ¶e ortogonal aµ A e tem comprimento 1.
3 - Sejam dados dois vetores A e B em lRn . Encontre dois vetores C e D em
lRn satisfazendo as tr^es condi»co~es seguintes: C ¶e paralelo µa A, D ¶e ortogonal µa A e
B = C + D. Encontre C e D em lR3 , sendo dados A = (1; 2; 3) e B = (1; 1=2; 1=3).
4 - Dados os vetores A = (cosµ; ¡senµ) e B = (senµ; cosµ) em lR2 .
a) Mostre que A e B s~ao vetores ortogonais e de comprimento 1. Fa»ca uma
¯gura ilustrando A e B quando µ = ¼=6 ;
b) Encontre todos os vetores (x; y) em lR2 tal que (x; y) = xA + yB. (Considere
todas as possibilidades para µ).
5 - Tr^es vetores A; B e C em lR3 satisfazem as seguintes propriedades: jjAjj =
jjCjj = 5, jjBjj = 1, jjA ¡ B + Cjj = jjA + B + Cjj.
Se o ^angulo entre A e B ¶e ¼=8, encontre o ^angulo entre B e C.
6 - Se µ ¶e o ^angulo entre dois vetores n~ao nulos A e B em lRn , prove que
15
8 - Suponha que, ao inv¶es de se de¯nir o produto interno de dois vetores A =
P
(a1 ; a2 ; :::; an ) e B = (b1 ; b2 ; :::; bn ) 2 Rn pela f¶ormula: A ¢ B = nk=1 ak bk , usou-se
a seguinte de¯ni»c~ao:
n
X
A¢B = jak bk j
k=1
n
X
jjAjj = jak j
k=1
16
Cap¶³tulo 2
Matrizes
2.1 Introdu»c~
ao
No cap¶³tulo 3, iremos de¯nir aplica»c~oes lineares de um espa»co vetorial Rn em out-
ro espa»co vetorial Rm . Estas s~ao chamadas transforma»c~oes lineares. As matrizes
aparecem de forma natural na representa»c~ao destas transforma»c~oes lineares. Pode-
mos usar esta conex~ao com as transforma»c~oes lineares para de¯nir matrizes. Por
enquanto, vamos tratar matrizes como classe de objetos matem¶aticos, onde de¯ni-
mos opera»c~oes alg¶ebricas.
De¯ni» c~ao 1
Sejam m e n dois inteiros positivos, e seja Im;n o conjunto de todos os pares de
inteiros (i; j) tais que 1 · i · m ; 1 · j · n. Qualquer fun»c~ao A cujo dom¶³nio ¶e
Im;n ¶e chamada uma matriz m £ n. A fun»c~ao cujo valor ¶e A(i; j) ¶e chamada o valor
de entrada-ij ou elemento-ij ou coe¯ciente-ij da matriz A ( tamb¶em denotado por
aij ). Usualmente, representamos uma matriz retangular A com m linhas e n colunas
por:
2 3
a11 a12 ::: a1n
6 7
6 a21 a22 ::: a2n 7
A=6
6 .. .. ... .. 7
7
4 . . . 5
am1 am2 : : : amn
Os elementos aij podem pertencer a qualquer conjunto. Aqui, tomamos estes ele-
mentos pertencentes ao conjunto dos n¶umeros reais (R) ou ao conjunto dos n¶
umeros
complexos (C).
Muitas vezes, ser¶a conveniente representar as matrizes na forma compacta:
A = (aij )m;n
i;j=1 ou A = (aij ) (2.1)
17
Se m = n, a matriz A ¶e dita quadrada de ordem n.
Matriz coluna ¶e a matriz:
2 3
a1k
6 7
6 a2k 7
6 . 7
6 . 7
4 . 5
amk
onde
18
2.2 Opera»c~
oes com Matrizes
1 - Adi»
c~
ao e Subtra» c~
ao
Sejam as matrizes A; B e C, m £ n. Diz-se que A = B § C quando
D = ®A (2.6)
Observe que cij ¶e o produto interno entre a i-¶esima linha da matriz A e a j-¶esima
coluna da matriz B.
Um caso especial de multiplica»c~ao de matriz ocorre quando a segunda matriz ¶e
um vetor coluna x, isto ¶e, o produto matriz vetor Ax. Este produto ¶e interpretado
como combina»c~ao linear das componentes do vetor x. Assim, suponhamos que:
h i
A = a1 a2 : : : an 2 Rm;n com ai 2 Rn
e
2 3
x1
6 7
6 x2 7
x=6
6 .. 7
7
4 . 5
xn
Ent~ao,
Ax = a1 x1 + a2 x2 + : : : + an xn 2 Rm
19
Exemplo
Sejam:
" #
9 8 7
A=
6 5 4
e
3 2
3
6 7
x=4 2 5
1
Calculando o produto Ax, obtemos:
" #
50
Ax =
32
Este mesmo produto pode ainda ser calculado por xt At , onde xt ¶e o transposto do
vetor coluna x e At ¶e a matriz A transposta. Assim:
2 3
" #
h i 9 6 50
6 7
xt At = 3 2 1 4 8 5 5 =
32
7 4
Para multiplica»c~ao matricial, suponhamos que A 2 Rm;n e
h i
B = b1 b2 : : : bp 2 Rn;p com bi 2 Rn :
Ent~ao, a matriz produto AB pode ser tratada como anteriormente, aplicada p vezes:
h i h i
AB = A b1 b2 : : : bp = Ab1 Ab2 : : : Abp 2 Rm;p
e
h i
V= v1 v2 : : : vn 2 Rp;n com vi 2 Rp :
Ent~ao,
n
X
t
UV = ui vit 2 Rm;p (2.8)
i=1
20
Este teorema nos permite escrever o produto interno Euclidiano para vetores x; y 2
Rn na forma de produto matricial. Ou seja, considerando x e y como vetores coluna
em Rn , na forma matricial escrevemos:
2 3 2 3
x1 y1
6 7 6 7
6 x2 7 6 y2 7
x=6 . 7 ey=6 . 7
6 7 6
7
4 .. 5 4 .. 5
xn yn
21
4) (AB)t = B t At .
Obs.: Para a propriedade 4), basta que a matriz A seja m £ p e que a matriz
B seja p £ n, sendo poss¶³vel de¯nir o produto C = AB, onde C ser¶a uma matriz
m £ n. Note que, o produto B t At dar¶a uma matriz C,m £ n.
¶e a inversa da matriz
" #
2 ¡5
A=
¡1 3
pois, AB = BA = I.
2 - A matriz
2 3
1 4 0
6 7
A=4 2 5 0 5
3 6 0
¶e singular.
De fato, seja
2 3
b11 b12 b13
6 7
B = 4 b21 b22 b23 5
b31 b32 b33
22
uma matriz qualquer.
3 2
0
6 7
O produto da terceira coluna da matriz B pela matriz A nos d¶a o vetor coluna 4 0 5 ;
0
2 3
0
6 7
que deveria ser igual aµ 4 0 5 caso a matriz A fosse invert¶³vel.
1
Propriedades
1 - Se B e C s~ao matrizes, n £ n, ambas inversas da matriz A, n £ n, ent~ao
B = C.
2 - Se A e B s~ao matrizes, n £ n, invert¶³veis, ent~ao a matriz produto AB ¶e
invert¶³vel e:
(AB)¡1 = B ¡1 A¡1 :
2.6 C¶
alculo da Matriz Inversa por opera»c~
oes Ele-
mentares
De¯ni» c~
ao 5
Uma matriz elementar E ¶e uma matriz n £ n que pode ser obtida da matriz
identidade I, n £ n, executando uma u
¶ nica opera»c~ao elementar s^obre as linhas da
mesma.
23
S~ao opera»c~oes elementares em matrizes:
1 - Multiplicar uma linha da matriz por uma constante;
2 - Trocar duas linhas da matriz entre si;
3 - Somar um m¶ ultiplo de uma linha da matriz a uma outra linha da mesma.
Exemplo
As seguintes matrizes s~ao elementares:
2 3 2 3
" # 1 0 0 5 0 0
0 1 6 7 6 7
E1 = ; E2 = 4 0 1 0 5 ; E3 = 4 0 1 0 5
1 0
0 2 1 0 0 1
Proposi»c~ ao 2.1
Se a matriz elementar E, m £ m, resulta em efetuar uma certa opera»c~ao sobre
as linhas de I, m £ m, e se A ¶e uma matriz, m £ n, ent~ao o produto EA ¶e a matriz
que resulta quando esta mesma opera»ca~o sobre linhas ¶e efetuada na matriz A.
Exemplo
Seja a matriz:
2 3
1 0 2 3
6 7
A = 4 2 ¡1 3 6 5
1 4 4 0
Temos que,
2 3
1 0 2 3
6 7
EA = 4 2 ¡1 3 6 5
4 4 10 9
onde a terceira linha da matriz produto EA ¶e igual a tr^es vezes a primeira linha de
A mais a terceira linha de A.
Proposi»c~ ao 2.2
Qualquer matriz elementar E, n £ n, ¶e invert¶³vel e a sua inversa E ¡1 , ¶e tamb¶em
uma matriz elementar. Da¶³, se a matriz A, n £ n, ¶e invert¶³vel, ent~ao sua inversa
A¡1 , pode ser escrita como um produto de matrizes elementares.
Vamos utilizar este u ¶ ltimo resultado no c¶alculo da inversa de uma matriz A,
n £ n, invert¶³vel.
24
C¶
alculo da inversa de matriz
ao 2.2, caso exista A¡1 , escrevemos:
Assim, de acordo com a proposi»c~
Escrevendo:
A¡1 A = I
obtemos:
¡1
Ek Ek¡1 : : : E2 E1 A = I =) A = E1¡1 E2¡1 : : : Ek¡1 Ek¡1 I =) A = E1¡1 E2¡1 : : : Ek¡1
¡1
Ek¡1
obtendo:
2 3
1 2 3 1 0 0
6 7
4 0 1 ¡3 ¡2 1 0 5
0 ¡2 5 ¡1 0 1
25
obtendo:
2 3
1 0 9 5 ¡2 0
6 7
4 0 1 ¡3 ¡2 1 0 5
0 0 ¡1 ¡5 2 1
obtendo:
2 3
1 0 0 ¡40 16 9
6 7
4 0 1 0 13 ¡5 ¡3 5
0 0 1 5 ¡2 ¡1
com aij 2 R; i = 1; 2; 3 e j = 1; 2; 3; 4.
De¯nindo-se
" # " #
a11 a12 a13 a14 h i h i
A11 = ; A12 = ; A21 = a31 a32 ; A22 = a33 a34
a21 a22 a23 a24
26
Regras
- O ¶³ndices das matrizes bloco indicam as suas posi»c~oes na matriz original.
- O particionamento pode ser empregado para contemplar matrizes de quaisquer
dimens~oes.
- Para uma mesma matriz existem v¶arias maneiras de particionamento. A re-
gra utilizada para particionamento ¶e fazer com que as submatrizes que possuem o
primeiro sub¶³ndice igual contenham a mesma quantidade de linhas e as que posuem
o segundo sub¶³ndice igual contenham a mesma quantidade de colunas.
2.8 Opera»c~
oes com matrizes particionadas
Assumindo que,
2 3 2 3
A11 : : : A1l B11 : : : B1l
6 .. 7 e B = 6 .. .. 7
A = 4 ... ...
. 5 4 . ...
. 5
Ak1 : : : Akl Bk1 : : : Bkl
2 3 2 3
A11 : : : A1l ®A11 : : : ®A1l
6 . ... .. 7 6 . ... .. 7
®A = 4 .. . 5 = 4 .. . 5
Ak1 : : : Akl ®Ak1 : : : ®Akl
onde ® 2 R.
Adi»c~
ao de Matrizes
Assumindo k = m; ; l = n; ; ¹i = ºi , e ¸j = ¯j , temos que:
2 3
C11 : : : C1l
6 . . . .. 7
C = A + B = 4 ... . 5
Ck1 : : : Ckl
27
Multiplica»c~ao de Matrizes
Assumindo que as dimens~oes das matrizes A e B s~ao compat¶³veis para realizar o
produto AB, ou seja, A, r £ p, e B, p £ s, e que l = m e ¸i = ºi (ou seja, o produto
das subamtrizes possa ser obtido, temos:
2 3
C11 : : : C1l
6 .. 7
C = AB = 4 ... ...
. 5
Ck1 : : : Ckl
P
onde Cij = ls=1 Ais Bsj .
O particionamento de matrizes em bloco ¶e utilizado em alguns m¶etodos envolven-
do opera»c~oes com matrizes em bloco como Decomposi»c~ao em Valor Singular(SVD),
que veremos no ¯nal deste curso.
28
8A 2 Rm£n ; 8x 2 Rn
k Ax k·k A k k x k (2.11)
De¯ni»c~
ao 8
Uma norma matricial ¶e dita subordinada a uma norma vetorial quando,
8A 2 Rm£n ; 9y 2 Rn ; y 6
=0
k Ay k=k A k k y k (2.12)
¶
As normas mais frequentes em Algebra Linear Num¶erica s~ao:
i) A norma de Frobenius
v
uX
u m X
n
k A kF = t j aij j2 =j tr(AAt )1=2 j (2.13)
i=1 j=1
e ii) as p-normas:
k Ax kp
k A kp = sup (2.14)
x6
=0 k x kp
Propriedades
As normas de Frobenius e p-normas (especialmente p = 1; 2; 1)satisfazem certas
desigualdades que s~ao frequentemente usadas na an¶alise de c¶alculos matriciais. Para
A 2 Rm£n ,temos:
1)
p
k A k2 ·k A kF · n k A k2 (2.16)
onde
p
k A k2 = max j ¹i j; sendo ¹i os autovalores de At A
1·i·n
pPn
Esta norma ¶e subordinada µa norma vetorial Euclidiana k x k2 = i=1 x2i . Ela ¶e
tamb¶em conhecida como norma Espectral.
29
2)
p
max j aij j·k A k2 · mn max j aij j (2.17)
i;j i;j
3)
1 p
p k A k1 ·k A k2 · m k A k1 (2.22)
n
4)
1 p
p k A k1 ·k A k1· n k A k1 (2.23)
m
Obs.: A norma matricial de Frobenius ¶e consistente, mas n~ao subordinada µa norma
vetorial Euclidiana.
30
Portanto,
De
k ±x k k A¡1 k k ±b k
· (2.27)
kxk k b kk A k¡1
k ±x k k ±b k
· K(A) ; com K(A) =k A k k A¡1 k (2.28)
kxk kbk
De¯ni»
c~
ao 9
O n¶
umero
2 3 2 3 2 3
10 7 8 7 x1 32
6 7 5 6 5 7 6 x2 7 6 23 7
6 7 6 7 6 7
6 7 6 7 = 6 7
4 8 6 10 9 5 4 x3 5 4 33 5
7 5 9 10 x4 31
31
Consideremos as duas aproxima»c~oes abaixo para solu»c~ao deste sistema linear:
1) x1 = 9:2; x2 = ¡12:6; x3 = 4:5; x4 = ¡1:1;
2) x1 = 1:82; x2 = ¡0:36; x3 = 1:35; x4 = 0:79.
Substituindo estas aproxima»c~oes no lado direito do sistema linear, obtemos:
1) b1 = 32:1; b2 = 22:9; b3 = 33:1; b4 = 30:9;
2) b1 = 32:01; b2 = 22:99; b3 = 33:01; b4 = 30:99.
Acreditamos que estas duas aproxima»c~oes s~ao boas para a solu»c~ao deste sistema
linear, contudo est~ao longe da realidade, uma vez que a solu»c~ao correta do problema
¶e:
x1 = x2 = x3 = x4 = 1:0.
Calculando o n¶ umero de condi»c~ao da matriz A, obtemos:
K(A) =k A k2 k A¡1 k2 = 30:29 £ 98:52 = 2984:17
Donde concluimos que o sistema linear ¶e mal condicionado. Assim, pequenas
varia»co~es no termo independente acarreta grandes varia»c~oes na solu»c~ao do sistema
linear.
Seja, agora, E a matriz erro, n £ n, devido µa pequenas perturba»c~oes nos coe¯-
cientes da matriz A, n £ n. Seja calcular a matriz inversa A¡1 a partir da matriz
A + E. Damos o seguinte lema:
Lema 2.1
Se F 2 Rn£n e k F kp · 1, ent~ao I ¡ F ¶e n~ao singular e:
1
X
¡1
(I ¡ F ) = Fk (2.31)
k=0
com
1
k (I ¡ F )¡1 kp · (2.32)
1¡ k F kp
Prova
Suponhamos que (I ¡ F ) seja singular. Segue-se que (I ¡ F )x = 0 para algum
vetor x n~ao nulo. Ent~ao, k x kp = k F x kp =)k F kp ¸ 1, que ¶e uma contradi»c~ao.
Assim, (I ¡ F ) ¶e n~ao singular.
Consideremos, agora, a identidade:
N
X
F k (I ¡ F ) = I ¡ F N+1 (2.33)
k=0
32
e segue-se que:
1
X
(I ¡ F )¡1 = lim Fk (2.35)
N !1
k=0
1
X
¡1 1
k (I ¡ F ) kp · k F kkp = (2.36)
k=0
1¡ k F kp
Observe que
k F kp
k (I ¡ F )¡1 ¡ I kp · (2.37)
1¡ k F kp
¶e uma consequ^encia do lema 2.1. Assim, se " << 1; #(") perturba»c~oes em I induz
#(") perturba»c~oes na inversa. Passamos ao caso geral para qualquer matriz A; n£n.
Teorema 2.3
Se A ¶e uma matriz,n £ n, n~ao singualr e r = k A¡1 E kp < 1, ent~ao A + E ¶e n~ao
singular e
k E kp k A¡1 k2p
k (A + E)¡1 ¡ A¡1 kp · (2.38)
1¡r
Prova
Desde que a matriz A ¶e n~ao singular A + E = A(I ¡ F ) onde F = ¡A¡1 E e
sendo k F kp = r < 1,segue-se do lema 2.1 que I ¡ F ¶e n~ao singular e
1
k (I ¡ F )¡1 kp · : (2.39)
1¡r
Agora, (A + E)¡1 = (I ¡ F )¡1 A¡1 e ent~ao:
k A¡1 kp
k (A + E)¡1 kp · : (2.40)
1¡r
Da rela»c~ao:
¡1 ¡1 ¡1 ¡1
k E kp k A¡1 k2p
k (A + E) ¡A kp · k A kp k E kp k (A + E) kp · : (2.42)
1¡r
33
Exerc¶³cios Cap¶³tulo II
1 - Dada a matriz:
2 3
6 1 4
6 7
A = 4 ¡3 8 ¡5 5
2 ¡6 7
2 3
cosµ ¡senµ 0
6 7
M = 4 senµ cosµ 0 5
0 0 1
34
4 - Seja A uma matriz, n £ n.
a) Mostre que (I ¡ A)¡1 = I + A + A2 + A3 , onde I ¶e a matriz identidade, n £ n,
e sendo A4 = 0 (matriz nula);
b) Sejam as matrizes C,D,n £ n, e I ¶e a matriz identidade, n £ n. Supondo que
as matrizes inversas envolvidas existem, mostre que:
(C + DDt )¡1 D = C ¡1 D(I + Dt C ¡1 D)¡1 .
35
Cap¶³tulo 3
Resolu»
c~ao de Sistemas Lineares
3.1 Introdu»c~
ao
Existem diversos problemas de engenharia que envolvem ¶algebra linear. O prob-
lema central da ¶algebra linear consiste na resolu»c~ao de sistemas de equa»c~oes lineares
e m¶etodos de resolu»c~ao dos mesmos, quando estas solu»c~oes existem. Por exemplo,
seja calcular as tens~oes do circuito el¶etrico da ¯gura 3.1:
Solu»c~
ao
Pela lei de Kircho®, a soma das correntes que chegam a cada n¶o do circuito ¶e
nula. Pela lei de Ohm, a corrente el¶etrica que °ui do n¶o j para o n¶o k de um circuito
¶e:
(Vj ¡ Vk )
Ijk = (3.1)
Rjk
36
leis combinadas permitem o c¶alculo da tens~ao em cada n¶o do circu¶³to. Por exemplo,
no n¶o 1, pela lei de Kircho®, IA1 + I21 + I31 + I41 = 0. Utilizando a lei de Ohm,
obtemos:
0 ¡ V1 V2 ¡ V1 V3 ¡ V1 V4 ¡ V1
+ + + =0
1 1 2 2
ou seja,
¡6V1 + 2V2 + V3 + V4 = 0
Fazendo o mesmo para os n¶os 2,3 e 4, obtemos um sistema de 4 equa»c~oes lineares,
a saber:
¡6V1 + 2V2 + V3 + V4 = 0
3V1 ¡ 4V2 + V3 = 0
3V1 + 2V2 ¡ 13V3 + 6V4 = ¡254
1V1 + 2V3 ¡ 3V4 = 0
As coordenadas do vetor solu»c~ao V = (25:80; 31:75; 49:61; 41:67) fornece a tens~ao
em cada n¶o do circuito el¶etrico.
Iniciamos o estudo com o problemas b¶asico de encontrar a solu»c~ao de um sistema
linear de n equa»c~oes com n inc¶ognitas. Um sistema linear com n equa»c~oes e n
inc¶ognitas ¶e escrito usualmente na forma:
a11 x1 + a12 x2 + : : : + a1n xn = b1
a21 x1 + a22 x2 + : : : + a2n xn = b2
.... . . ..
.. . .
an1 x1 + an2 x2 + : : : + ann xn = bn
onde
aij : coe¯cientes 1 · i; j · n
xj : inc¶ognitas j = 1; 2; : : : ; n
.
bj : constantes j = 1; 2; . . ; n
A resolu»c~ao de um sistema linear consiste em calcular os valores de xj ; j =
1; 2; :::; n, caso eles existam, que satisfa»cam as n equa»c~oes simult^aneas.
Usando nota»c~ao matricial, escrevemos este sistema linear como:
Ax = b; (3.2)
onde:
37
2 3
a11 a12 : : : a1n
6 7
6 a21 a22 : : : a2n 7
A=6
6 .. .. . . .. 7
7
4 . . . . 5
an1 an2 : : : ann
2 3
x1
6 7
6 x2 7
x=6
6 .. 7
7
4 . 5
xn
2 3
b1
6 7
6 b2 7
b=6
6 .. 7
7
4 . 5
bn
¶e o vetor constante.
Chamaremos de x¤ o vetor solu»c~ao do sistema linear Ax = b.
No caso geral em que o sistema linear envolve n equa»c~oes com n inc¶ognitas,
apenas uma entre as situa»c~oes abaixo ir¶a ocorrer:
i) o sistema linear tem u ¶nica solu»c~ao;
ii) o sistema linear admite in¯nitas solu»c~oes(indeterminado);
iii) o sistema linear n~ao admite solu»c~ao( imposs¶³vel ou inconsistente).
Estaremos interessados em sistemas lineares n £ n com uma u ¶nica solu»c~ao. A
solu»ca~o destes sistemas lineares ¶e dada por: x¤ = A¡1 b. No entanto, calcular a
matriz A¡1 e em seguida efetuar o produto A¡1 b ¶e desaconselh¶avel, uma vez que o
n¶
umero de opera»c~oes envolvidas ¶e muito grande. Usaremos aqui o M¶etodo de Elimina»ca~o de Gaus
para encontrar a solu»c~ao destes sistemas lineares.
3.2 M¶
etodo da Elimina»c~
ao de Gauss
O M¶etodo de Elimina»c~ao de Gauss consiste em transformar o sistema linear original
num sistema linear equivalente com matriz dos coe¯cientes triangular superior, pois
38
a resolu»c~ao torna-se imediata. Dizemos que dois sistemas lineares s~ao equivalentes
quando possuem a mesma solu»ca~o. Descreveremos, a seguir, o M¶etodo de Elimi-
na»c~ao de Gauss, aplicando uma sequ^encia de opera»c~oes elementares na matriz A no
processo de triangulariza»c~ao da mesma. Vamos supor que det(A) 6 = 0 (A invert¶³vel).
Triangulariza»c~ ao da matriz A
O processo de triangulariza»c~ao consiste em eliminar a inc¶ognita xk na k-¶esima
(k)
etapa nas equa»c~oes k + 1; k + 2; k + 3; ::::; n. Usaremos a nota»c~ao aij para denotar
(k)
o coe¯ciente da linha i e coluna j no ¯nal da k-¶esima etapa, e bi para denotar a i-
¶esima componente do vetor constante no ¯nal da mesma etapa. Sendo det(A) 6 = 0 ¶e
a
sempre poss¶³vel encontrar um elemento a11 6 = 0 na 1 coluna. Caso a11 = 0 fazemos
a troca de linhas. Escrevemos, inicialmente a matriz aumentada:
2 3
a(0)
11 a(0)
12 : : : a(0)
1n j b(0)
1
6 (1) (1) (1) 7
6 0 a22 : : : a2n j b2 7
(1)
A jb (1)
=6
6 .. .. ... .. . 7
7
4 . . . j .. 5
(1) (1) (1)
0 an2 : : : ann j bn
(1) (0) (0)
onde aij = aij ¡ mi1 a1j , i = 2; 3:::::n e j = 1; 2; :::; n
(1) (0) (0)
bi = bi ¡ mi1 b1 , i = 2; 3:::::n
2a etapa:
Como det(A) 6 = 0, devemos encontrar pelo menos um elemento ai2 6 = 0 na 2a
(1)
coluna para i = 2; 3:::::n. Desta forma, tomamos o piv^ o a22 6 = 0 e temos os seguintes
multiplicadores:
(1)
ai2
mi2 = (1) , i = 3; 4; ::::; n.
a22
39
Eliminamos a inc¶ognita x2 nas equa»c~oes i = 3; :::; n fazendo a seguinte opera»c~ao:
da equa»c~ao i subtra¶³mos a 2a equa»c~ao multiplicada por mi2 .
No ¯nal desta etapa obtemos a seguinte matriz aumentada:
equivalente ao sistema linear inicial, onde A(n¡1) ¶e uma matriz triangular supe-
rior.
Resolu»c~ao do sistema triangular
O sistema triangular ¶e resolvido por resolu»c~ao regressiva como segue:
Da u
¶ltima equa»c~ao, obtemos:
(n¡1)
bn
xn = (n¡1)
ann
e da pen¶
ultima equa»c~ao, obtemos:
(n¡2) (n¡2)
(bn ¡ an¡1;n xn )
xn¡1 = (n¡2)
an¡1;n¡1
40
Exemplo
Seja resolver o sistema linear abaixo pelo m¶etodo de elimina»c~ao de Gauss.
2x1 + x2 + x3 = 7
4x1 + 4x2 + 3x3 = 21
6x1 + 7x2 + 4x3 = 32
Triangulariza»c~ ao da matriz A
a
1 etapa: Elimina»c~ao da inc¶ognita x1 .
Inicialmente, temos a seguinte matriz aumentada:
2 3
2 1 1 j 7
6 7
A(0) jb(0) = 4 4 4 3 j 21 5
6 7 4 j 32
Calculamos m21 = 4=2 e m31 = 6=2 e substitu¶³mos a linha2 pela linha2 menos
m21 vezes linha1 e tamb¶em, a linha3 pela linha3 menos m31 vezes linha1. Obtendo,
assim, a seguinte matriz aumentada:
2 3
2 1 1 j 7
6 7
A(1) jb(1) =4 0 2 1 j 7 5
0 4 1 j 11
2 3
2 1 1 j 7
6 7
A(1) jb(1) =4 0 2 1 j 7 5
0 0 ¡1 j ¡3
41
3.3 Pivoteamento Parcial
No processo de escalonamento da matriz A pelo m¶etodo de elimina»c~ao de Gauss
devemos calcular os multiplicadores:
(k¡1) (k¡1)
mik = aik =akk ; i = k + 1; 3; ::::; n (3.3)
2 3
3 ¡4 1 j 9
6 7
A(0) jb(0) =4 1 2 2 j 3 5
4 0 ¡3 j ¡2
Triangulariza»c~ao da matriz A
a
1 etapa: Elimina»c~ao da inc¶ognita x1 .
Antes de eliminar a inc¶ognita x1 , fazemos a troca dos coe¯cientes da coluna1.
Assim, temos a seguinte matriz aumentada:
2 3
4 0 ¡3 j ¡2
6 7
A(0) jb(0) =4 1 2 2 j 3 5
3 ¡4 1 j 9
Calculamos m21 = 1=4 e m31 = 3=4 e substitu¶³mos a linha2 pela linha2 - m21 £
linha1 e tamb¶em, a linha3 pela linha3 - m31 £ linha1. Obtemos a seguinte matriz
aumentada:
42
2 3
4 0 ¡3 j ¡2
6 7
A(1) jb(1) = 4 0 2 2:75 j 3:5 5
0 ¡4 3:25 j 10:5
2 3
4 0 ¡3 j ¡2
6 7
A(2) jb(2) = 4 0 ¡4 3:25 j 10:5 5
0 0 4:375 j 8:75
3.4 Decomposi»c~
ao LU
A decomposi»c~ao da matriz A, n £ n, no produto de duas matrizes triangulares L e
U ¶e assegurada pelo seguinte teorema:
Teorema 3.1
Dada uma matriz A, n £ n, seja Ak a matriz constitu¶³da das primeiras k linhas
e colunas da matriz A. Suponha que det(Ak ) 6 = 0 para k = 1; 2; :::; (n ¡ 1). Ent~ao,
existe uma u ¶ nica matriz triangular inferior L = (mij ), com mii = 1; i; j = 1; 2; :::; n
e uma u ¶ nica matriz triangular superior U = (uij ) tais que A = LU . Ainda mais,
det(A) = u11 u22 :::unn .
Prova
Seja o sistema linear Ax = b que resolvemos pelo M¶etodo de Elimina»ca~o de
Gauss. Na decomposi»c~ao da matriz A no produto LU , temos:
43
A = LU =) Ax = b =) LU x = b
onde, L ¶e uma matriz triangular inferior,n £ n, com coe¯cientes da diagonal
principal iguais a 1,
U ¶e uma matriz triangular superior,n£n, encontrada pelo M¶etodo de Elimina»c~ao
de Gauss.
C¶alculo de L
Sejam
2 3
1 0 0 0 ::: 0
6 7
6 ¡m21 1 0 0 ::: 0
7
6 7
M1 = 6
6 ¡m31 0 1 0 ::: 7
0
7
6 .. .. .. . . .. 7
4 . . . . . 0 5
¡mn1 0 0 0 ::: 1
2 3
1 0 0 0 ::: 0
6 7
6 0 1 0 0 ::: 0 7
6 7
M2 = 6
6 0 ¡m32 1 0 ::: 0 7
7
6 .. .. .. . . . 7
4 . . . . .. 0 5
0 ¡mn2 0 0 ::: 1
e
2 3
1 0 0 0 ::: 0
6 7
6 0 1 0 ::: 0 0 7
6 7
Mn¡1 =6
6 0 0 1 0 ::: 0 7
7
6 .. .. .. . . .. 7
4 . . . . . 5
0 0 0 ::: ¡mnn¡1 1
C¶ alculo de U
No M¶etodo de Elimina»c~ao de Gauss transformamos o sistema linear Ax = b no
sistema equivalente U x = d, onde U ¶e uma matriz triangular superior.
O sistema linear obtido na 1a etapa do M¶etodo de Elimina»c~ao de Gauss ¶e A(1) x =
b(1) ¶e equivalente a:
M1 Ax = M1 b =) A(1) = M1 A e b(1) = M1 b
O sistema linear obtido na 2a etapa do M¶etodo de Elimina»c~ao de Gauss ¶e A(2) x =
b(2) ¶e equivalente a:
44
=) A = M1¡1 M2¡1 A(2) ; b = M1¡1 M2¡1 b(2)
onde
2 3
1 0 0 0 ::: 0
6 7
6 m21 1 0 0 : : : 0 7
6 7
M¡1
1 =6
6 m31 0 1 0 : : : 0 7
7
6 .. .. .. .. . . .. 7
4 . . . . . . 5
mn1 0 0 : : : 0 1
e
2 3
1 0 0 0::: 0
6 7
6 0 1 0 0::: 0 7
6 7
M¡1
2 =6
6 0 m32 1 0::: 0 7 7
6 .. .. .. . . . .. 7
..
4 . . . . . 5
0 mn2 0 ::: 0 1
45
L¡1 ¡1
2 L1 = I e U2 U1 = I =) L1 = L2 e U1 = U2 .
Para o c¶alculo de det(A), temos:
det(A) = det(LU) = det(L)det(U ) = 1 £ det(U ) = u11 u22 u33 : : : unn .
Uma vez decomposta a matriz A,n £ n, no produto LU , temos de resolver os
seguintes sistemas lineares:
1) Ly = b;
2) U x = y, pois Ax = b =) LUx = b, onde U x = y
Exemplo
Seja resolver o sistema linear abaixo pela decomposi»c~ao LU .
e
2 3
2 2 ¡1
6 7
U=4 0 4 3:5 5
0 0 ¡3:125
Agora, podemos resolver o sistema linear acima s¶o operando com o vetor b:
1) Ly = b
y1 = 1
0:5y1 +y2 = 4
y1 ¡0:25y2 +y3 = ¡3
Dando x3 = 1; x2 = 0; x1 = 1.
46
3.5 C¶
alculo da Inversa da Matriz A
Da de¯ni»c~ao de inversa de uma matriz A, n £ n, sabe-se que:
AA¡1 = A¡1 A = I
Colocando X = A¡1 , ou AXp = ep , p = 1; 2; :::; n,
onde Xp ¶e a p-¶esima coluna da matriz X e ep ¶e a p-¶esima coluna da matriz I, ou
seja: o vetor da base can^onica de Rp .
Ent~ao, as colunas de A¡1 s~ao as solu»co~es dos sistemas de equa»co~es lineares:
AXp = ep , p = 1; 2; :::; n.
O M¶etodo de Elimin»c~ao de Gauss pode ser empregado para a resolu»c~ao destes
sistemas lineares, por¶em os mesmos c¶alculos ser~ao repetidos p vezes.
Uma outra maneira de calcular A¡1 ¶e usar a Decombposi»c~ao LU. Uma vez sendo
conhecida a Decomposi»c~ao LU da matriz A, calcula-se A¡1 como segue:
47
Usando a decomposi»c~ao LU obtemos:
2 3
1
6 7
L = 4 0:5 1 5
2 ¡0:67 1
e
2 3
2 1 2
6 7
U=4 1:5 2 5
¡0:67
Em seguida, calculamos:
2 3
¡0:5 0 0:5
6 7
A¡1 = L¡1 U¡1 = 4 ¡5:02 2:01 2 5
3:51 ¡1 ¡1:5
3.6 Decomposi»c~
ao para Tipos Especiais de Ma-
trizes
De¯nimos, inicialmente, as matrizes estritamente diagonais dominantes, onde o
M¶etodo de Elimina»c~ao de Gauss funciona e¯cazmente sem interc^ambio de linhas.
De¯ni»c~ao 3.1
48
A matriz A, n £ n, ¶e chamada estritamente diagonal dominante quando
n
X
jaii j > jaij j; i = 1; 2; :::; n (3.8)
j=1
j6
=i
Exemplo
A matriz
2 3
7 2 0
6 7
A = 4 3 5 ¡1 5
0 5 ¡6
0 < j xk j = max j xj j
1·j·n
Pn
Como j=1 aij xj = 0 para cada i = 1; 2; : : : ; n, temos que para i = k,
X
n
akk xk = ¡ akj xj
j=1
j6
=k
Da¶³ temos,
n
X
j akk jj xk j· j akj jj xj j
j=1
j6
=k
49
ou
n
X n
X
j xj j
j akk j· j akj j · j akj j
j xk j
j=1 j=1
j6
=k j6
=k
xt Ax > 0 8x 2 Rn ; x 6
=0 (3.9)
Exemplo
A matriz
2 3
2 ¡1 0
6 7
A = 4 ¡1 2 ¡1 5
0 ¡1 2
xt Ax = 2x21 ¡ 2x1 x2 + 2x22 ¡ 2x2 x3 + 2x23 = x21 + (x1 ¡ x2 )2 + (x2 ¡ x3 )2 + x23 > 0
a menos que x1 = x2 = x3 = 0.
Damos o seguinte teorema:
Teorema 3.3
Uma matriz A, n £ n, sim¶etrica positiva de¯nida(sdp) ¶e n~ao singular. Al¶em
do mais, a elimina»c~ao de Gauss pode ser executada em qualquer sistema linear da
forma Ax = b com todos os piv^ os positivos para obter sua u
¶ nica solu»c~ao sem troca
de linhas, e n~ao h¶a propaga»c~ao de erros de arredondamento durante o processo de
elimina»c~ao.
50
Prova
Para a demonstra»c~ao deste teorema veja os resultados encontrados em Burden e
Faires [5] e tamb¶em em Wendro® [9].
Agora, apresentamos dois corol¶arios que fornecem a decomposi»c~ao para as ma-
trizes sim¶etricas de¯nidas positivas(sdp) (Veja Burden e Faires [5]).
Corol¶ ario 3.1
A matriz A, n £ n, ¶e sim¶etrica positiva de¯nida(sdp) () A pode ser fatorada
na forma LDLt , onde L ¶e a matriz triangular inferior, n £ n, com coe¯cientes iguais
a 1 em sua diagonal e D ¶e uma matriz diagonal, n £ n, com coe¯cientes positivos.
Obs.1: Sendo a matriz A, n £ n, que pode ser fatorada de forma u ¶ nica como
A = LU, de acordo com o teorema 3.1. Tamb¶em, esta matriz pode ser fatorada
de forma u ¶nica com A = LDU, ¹ onde:
L, n £ n, matriz triangular inferior com diagonal unit¶aria;
D, n £ n, matriz diagonal;
U¹ , n £ n, matriz triangular superior com diagonal unit¶aria.
No caso, sendo A, n £ n, matriz sim¶etrica, temos que: U¹ = Lt . Portanto, a
matriz A, n £ n, pode ser fatorada na forma A = LDLt .
Temos que a matriz diagonal D ¶e constituida dos coe¯cientes uii da matriz U ,
n £ n, e os coe¯cientes da matriz U ¹ ser~ao u¹ij = uij =uii , i = 1; 2; :::; n; j = i; :::; n,
onde para A, n £ n, matriz sim¶etrica U¹ = Lt .
Corol¶ ario 3.2
A matriz A, n£n, ¶e sim¶etrica positiva de¯nida(sdp) () A pode ser fatorada na
forma LLt , onde L ¶e a matriz triangular inferior, n £ n, com coe¯cientes diagonais
diferentes de zero.
Obs.2: No caso da matriz A, n £ n, sim¶etrica positiva de¯nida, temos que os
coe¯cientes de D s~ao tais que: dii > 0; i = 1; 2; :::; n.
Fazendo D ¹ = D1=2 , obtemos:
¹ DL
A = LDLt = LD ¹ t = (LD)(
¹ DL¹ t) (3.10)
51
Corol¶ario 3.3
Seja a matriz A, n £ n, sim¶etrica para a qual a elimina»c~ao de Gauss poder ser
aplicada sem a troca de linhas. Ent~ao, a matriz A pode ser fatorada na forma
LDLt , onde L ¶e a matriz triangular inferior, n £ n, com coe¯cientes iguais a 1 em
(0) (1) (n¡1)
sua diagonal e D ¶e uma matriz diagonal, n £ n, com coe¯cientes a11 ; a22 ; :::; ann
obtidos na elimina»c~ao de Gauss.
Exemplo
Vimos que a matriz
2 3
2 ¡1 0
6 7
A = 4 ¡1 2 ¡1 5
0 ¡1 2
xt Ax = xt Lt Lx = y t :y > 0;
pois y = Lx ¶e real, 8x 2 Rn ; x 6
=0
(=)) Se A ¶e positiva de¯nida, ent~ao 8x 2 Rn ; x 6
=0
xt Ax = xt Lt Lx > 0;
52
donde Lx ¶e real e, consequentemente, L ¶e real.
Exemplo
A matriz
2 3
4 2 2
6 7
A = 4 2 0 ¡1 5
2 ¡1 3
53
Exerc¶³cios Cap¶³tulo III
1 - a) Se a matriz A ¶e o produto:
2 32 32 3
¡1 0 0 d1 0 0 1 ¡1 0
6 76 76 7
A = 4 ¡1 1 0 5 4 0 d2 0 5 4 0 1 ¡1 5 ;
0 ¡1 1 0 0 d3 0 0 1
sob que condi»co~es A ¶e n~ao singular?
b) Resolva o sistema linear Ax = b iniciando com Lc = b, onde:
2 3 2 3 2 3
c1 0 1 0 0
6 7 6 7 6 7
c = 4 c2 5 ; b = 4 0 5 e L = 4 ¡1 1 0 5
c3 1 0 ¡1 1
2 3
2 3 1 ¡2 3 0
0 2 3 6 7
6 7 6 1 ¡2 3 1 7
a) A = 4 1 1 ¡1 5 b) A = 6 7
4 1 ¡2 2 ¡2 5
0 ¡1 1
2 1 3 ¡1
5 - Encontre o valor de ® de modo que a matriz:
2 3
® 1 ¡1
6 7
A=4 1 2 1 5
¡1 1 4
54
seja positiva de¯nida.
6 - Encontre a fatora»c~ao LDLt para as seguintes matrizes sim¶etricas:
2 3
2 3 2 ¡2 4 ¡4
3 ¡3 6 6 7
6 7 6 ¡2 3 ¡4 5 7
a) A = 4 ¡3 2 ¡7 5 b) A = 6 7
4 4 ¡4 10 ¡10 5
6 ¡7 13
¡4 5 ¡10 14
k x ¡ x k1 e k Ax ¡ b k1 :
9 - Seja
" #
1 1
An =
1 1 ¡ 1=n
55
Cap¶³tulo 4
Espa»cos Vetoriais
4.1 Introdu»c~
ao
No Cap¶³tulo 1 introduzimos o espa»co vetorial das n-uplas em Rn , onde ve-
tores e opera»c~oes vetoriais foram introduzidos de forma anal¶³tica com interpreta»c~ao
geom¶etrica para n · 3. Daremos aqui a de¯ni»c~ao de espa»co vetorial de forma
axiom¶atica, onde trabalharemos com elementos de um conjunto que satisfazem de-
terminadas propriedades.
De¯ni» c~
ao 1
O conjunto V ¶e chamado um espa»co vetorial se satisfaz os dez axiomas a seguir,
classi¯cados em tr^es grupos:
Axiomas do fecho
Axioma 1. (Fechamento da adi»c~ao)
Para qualquer par de elementos x; y 2 V , existe um u ¶ nico elementos em V ,
chamado soma de x e y, denotado por x + y;
Axioma 2. (Fechamento da multiplica»c~ao por escalar)
Para qualquer elemento x 2 V e para qualquer escalar ® 2 R, existe um u ¶nico
elemento em V , chamado produto de ® por x, denotado ®x;
Axiomas da Adi»c~ ao
Axioma 3. (Comutatividade)
x + y = y + x, 8x; y 2 V ;
Axioma 4. (Associatividade)
(x + y) + z = x + (y + z), 8x; y; z 2 V ;
Axioma 5. (Exist^encia do zero)
9 0 2 V tal que x + 0 = x; 8x 2 V ;
Axioma 6. (Exist^encia do negativo)
8x 2 V; 9 (¡1)x 2 V tal que x + (¡1)x = 0;
56
Axiomas da Multiplica»c~
ao por Escalar
Axioma 7. (Associatividade)
®¯(x) = ®(¯x) 8®; ¯ 2 R; 8x 2 V ;
Axioma 8. (Distributividade para adi»c~ao em V )
®(x + y) = ®x + ®y 8x; y 2 V; 8® 2 R;
Axioma 9. (Distributividade para adi»c~ao em R)
(® + ¯)x = ®x + ¯x 8x 2 V; 8®; ¯ 2 R;
Axioma 10. (Exist^encia da identidade)
8x 2 V , temos 1x = x.
Obs.: Os escalares podem ser tomados no conjunto do n¶ umeros complexos (C)
e o conjunto V ser¶a constituido de n-uplas tamb¶em em C. Desta forma, podemos
de¯nir o espa»co vetorial complexo V
Exemplo 1 O conjunto V = Rn, munido das opera»c~oes da ¶algebra vetorial visto
no Cap¶³tulo 1 ¶e um espa»co vetorial.
Exemplo 2 O conjunto V = Cn , munido das opera»c~oes da ¶algebra vetorial nos
complexos, conforme a observa»c~ao anterior, ¶e um espa»co vetorial.
Exemplo 3 O conjunto das matrizes retangulares, m £ n, com coe¯cientes com-
plexos, denotado por M (m; n), munido das opera»c~oes de adi»c~ao de matrizes e mul-
tiplica»c~ao por escalar em C ¶e um espa»co vetorial.
Exemplo 4 O conjunto do polin^omios com coe¯cientes reais de grau · n, deno-
tado por Pn , munido das opera»c~oes de adi»c~ao de polin^omios em Pn e multiplica»c~ao
por escalar em R ¶e um espa»co vetorial.
O teorema a seguir,diz respeito sobre a unicidade dos elementos zero e sim¶etricos,
cuja prova baseia-se nos axiomas anteriores.
Teorema 4.1
a) Em qualquer espa»co vetorial V existe um e s¶o um elemento zero;
b) Em qualquer espa»co vetorial V todo elemento x admite um e s¶o um elemento
y, tal que x + y = 0.
Prova
Prova do item a):
O axioma 5 nos diz que existe pelo menos um elemento zero. Suponhamos
que existam dois, digamos 01 e 02 . Tomando x = 01 e 0 = 01 no axioma 5,
obtemos 01 + 02 = 01 . Do mesmo modo, tomando x = 02 e 0 = 02, encontramos
02 + 01 = 01 . Mas, pelo axioma 3, 01 + 02 = 02 + 01 . Logo, 01 = 02 .
Prova do item b);
O axioma 6 nos diz que existe pelo menos um elemento negativo, a saber (¡1)x.
Suponhamos que x tenham dois negativos, digamos y1 e y2 . Ent~ao x + y1 = 0 e
57
x + y2 = 0. Adicionando y2 a ambos membros da primeira equa»c~ao e usando os
axiomas 5,4,3, obtemos y2 +(x+y1 ) = y2 +0 = y2 e, por outro lado, y2 +(x+y1 ) =
(y2 + x) + y1 = 0 + y1 = y1 + 0 = y1 .Logo, y1 = y2 , de modo que x tem exatamente
um negativo.
As seguintes propriedades regem os c¶alculos alg¶ebricos elementares em um espa»co
vetorial.
Propriedades
Sejam x e y elementos quaisquer em um espa»co vetorial V e ® e ¯ escalares
quaisquer. Ent~ao veri¯cam-se as seguintes propriedades:
a) 0x = 0;
b) ®0 = 0;
c) (¡®)x = ¡(®x) = ®(¡x);
d) Se ®x = 0, ent~ao ou ® = 0 ou x = 0;
e) Se ®x = ®y e ® 6= 0 , ent~ao x = y;
f) Se ®x = ¯x e x 6= 0 , ent~ao ® = ¯;
g) ¡(x + y) = (¡x) + (¡y) = ¡x ¡ y;
P
h) x + x = 2x; x + x + x = 3x, em geral ni=1 x = nx.
Prova: (ver Apostol,Vol. II [3])
58
Teorema 4.2
Seja um espa»co vetorial V e um subconjunto n~ao vazio W µ V . Ent~ao, W ¶e um
subespa»co vetorial de V () (®w1 + ¯w2 ) 2 W 8®; ¯ 2 R e 8w1 ; w2 2 W .
Prova
Seja o subconjunto n~ao vazio W µ V . Sejam w1 ; w2 2 W e ®; ¯ 2 R, como por
hip¶otese (®w1 + ¯w2 ) 2 W . Tomando ®; ¯ = 1, temos que w1 + w2 = 1w1 + w2 2 W .
Al¶em do mais, tomando ¯ = 0, temos que ®w1 = ®w1 + 0w1 2 W . Logo, conforme
a de¯ni»c~ao anterior, W ¶e um subespa»co vetorial de V .
Reciprocamente, se W ¶e um subespa»co vetorial de V , ent~ao obviamente
(®w1 + ¯w2 ) 2 W 8®; ¯ 2 R e 8w1 ; w2 2 W .
Exemplo 1 Seja W o conjunto de todos os vetores em R2 tais que a 2a. com-
ponente ¶e nula. W ¶e um subespa»co vetorial, constitu¶³do pelo Eixo ¡ x do plano
cartesiano, pois os axiomas i) e ii) s~ao satisfeitos para W .
Exemplo 2 Seja M (3; 3) o espa»co vetorial das matrizes, 3 £ 3. Tomando neste
espa»co o subconjunto W formado pelas matrizes, 3 £ 3, triangulares superiores.
Temos que s~ao v¶alidos os axiomas i) e ii) para W . Portanto, W ¶e um subespa»co
vetorial de M (3; 3). Note que a matriz nula, 3 £ 3, ¶e o vetor nulo deste subespa»co
vetorial.
4.3 Independ^
encia linear, subespa»co gerado, base
e dimens~
ao
O objetivo desta se»c~ao ¶e introduzir e usar os seguintes conceitos:
1 - Subespa»co vetorial gerado;
2 - Depend^encia e indeped^encia linear em um espa»co vetorial V ;
3 - Base para um subespa»co vetorial;
4 - Dimens~ao em um subespa»co vetorial.
De¯ni» c~
ao 3
Seja W um subconjunto n~ao vazio de um espa»co vetorial V . Um elemento x de
V da forma:
k
X
x= ¸i vi
i=1
59
Exemplo 1 Tomamos no espa»co vetorial R2 os seguintes conjuntos de vetores
fi; jg, f0; i ¡ j; i + jg. Todos estes conjuntos geram o espa»co vetorial R2 , apesar de
serem distintos.
Exemplo 2 O conjunto fw1 ; w2 ; w3 g onde w1 = (1; 0; 0); w2 = (0; 1; 0) e w3 =
(2; 0; 0) gera o plano xy em R3 .
Vamos tratar agora das combina»c~oes lineares nulas.
De¯ni»
c~
ao 4
Um conjunto W de elementos de um espa»co vetorial V ¶e chamado linearmente dependente
se existe um conjunto ¯nito de elementos distintos em W , digamos v1 ; v2 ; ¢ ¢ ¢ ; vk , e
escalares correspondentes ¸1 ; ¸2 ; ¢ ¢ ¢ ; ¸k , n~ao todos nulos, tais que:
k
X
¸i vi = 0
i=1
k
X
¸i vi = 0
i=1
60
Exemplo 2 Seja M (2; 2) o espa»co vetorial das matrizes, 2 £ 2. Uma base para
este espa»co vetorial ¶e conjunto formado pelas matrizes:
" #
1 0
M1 =
0 0
" #
0 1
M2 =
0 0
" #
0 0
M3 =
1 0
" #
0 0
M4 =
0 1
uma vez que qualquer matriz M; 2 £ 2,onde
" #
a11 a12
M=
a21 a22
pode ser escrita como: M = a11 M1 + a12 M2 + a21 M3 + a22 M4 e
" #
0 0
M=
0 0
somente quando a11 = a12 = a21 = a22 = 0.
De¯ni» c~
ao 6
De¯nimos dimens~ao de um espa»co vetorial V o n¶ umero de vetores da base de V ,
visto que qualquer base de V contem o mesmo n¶ umero de vetores.
Exemplo 1
O espa»co vetorial Rn tem dimens~ao n.
Exemplo 2 O espa»co vetorial das matrizes M(2; 2) , 2 £ 2 tem dimens~ao 4.
Seja V um espa»co vetorial de dimens~ao n e consideremos uma base cujos elemen-
tos s~ao dados na ordem v1 ; v2 ; ¢ ¢ ¢ ; vn . Representamos esta base por um n sistema
linear em (v1 ; v2 ; ¢ ¢ ¢ ; vn ). Se x 2 V , podemos expressar x como uma combina»c~ao
linear destes elementos da base, de forma similar como ¯zemos no Cap¶³tulo 1 para
vetores em Rn :
Xn
x= ai vi
i=1
umeros (a1 ; a2 ; ¢ ¢ ¢ ; an )
Os coe¯cientes nesta igualdade formam um n sistema linear de n¶
que ¯cam univocamente determinados para x. Estes coe¯cientes s~ao chamados de
componentes ou coordenadas da base ordenada.
61
4.4 Soma e Interse»c~
ao de Subespa»cos
De¯ni» c~ao 7
Sejam W1 e W2 subespa»cos vetoriais de um espa»co veorial V . De¯nimos soma e
interse»c~ao de W1 e W2 , respectivamente, por:
1 - W1 + W2 = fw1 + w2 tal que w1 2 W1 ; w2 2 W2 g
T
2 - W1 W2 = fv tal que v 2 W1 e v 2 W2 g
De¯ni» c~
ao 8
Sejam W1 e W2 subespa»cos vetoriais de um espa»co vetorial V . De¯nimos soma direta
de W1 e W2 , notada por W = W1 © W2 , quando:
1 - W = W1 + W2 ;
T
2 - W1 W2 = 0.
Os subespa»cos W1 e W2 s~ao ditos complementares um do outro em W .
Teorema 4.3
Sejam W1 e W2 subespa»cos vetoriais de um espa»co vetorial V , onde V = W1 ©W2 .
Ent~ao,
a) Todo vetor v 2 V , pode ser escrito unicamente na forma v = r + s, onde
r 2 W1 e s 2 W2 ;
b) dim(V ) = dim(W1 ) + dim(W2 ).
Prova
a) Suponha que um vetor qualquer v 2 V pode ser escrito como:
v = r1 + s1 = r2 + s2 ;
De¯ni» c~
ao 9
Seja fv1 ; v2 ; ¢ ¢ ¢ ; vk g um conjunto ortogonal de vetores em Rn , ou seja:
vit vj = 0 8i; j; i 6
= j:
62
Dizemos que este conjunto ¶e ortonormal quando:
vit vj = ±ij ;
onde
(
1 se i = j
±ij =
0 se i 6
=j
De¯ni»
c~
ao 10
Seja W um subespa»co vetorial de Rn . O complemento ortogonal de W ¶e de¯nido
por:
W ? = fv 2 Rn tal que v t s = 0; 8s 2 W g
Teorema 4.4
Seja W um subespa»co de Rn . Ent~ao,
a) W © W ? = Rn ;
b) (W ? )? = W .
Prova
Vamos provar a).
Seja fv1 ; v2 ; ¢ ¢ ¢ ; vk g uma base ortonormal de W e seja x 2 Rn um vetor qualquer.
Sejam:
k
X
x1 = (xt vi )vi
i=1
x2 = x ¡ x1
xt2 vj = xt vj ¡ xt1 vj = xt vj ¡ xt vj = 0; j = 1; 2; : : : ; k
63
4.5 Espa»cos Linha e Coluna de A
Seja A uma matriz, m £ n, onde tomamos cada linha de A como uma n-upla de
n¶umeros reais, constituida de vetores em R1£n . De forma similar, tomamos cada
coluna de A como uma m-upla de n¶ umeros reais, constituida de vetores em Rm£1 .
Estes vetores formam subespa»cos vetoriais que nos d~ao informa»c~oes acerca do sistema
linear Ax = b. Damos a seguinte de¯ni»c~ao:
De¯ni» c~
ao 11
Seja A uma matriz, m £ n, o subespa»co de R1£n gerado pelos vetores linha de A
¶e chamado de espa»co linha de A. Denotaremos este subespa»co por R(A)t . O sube-
spa»co de Rm£1 gerado pelos vetores coluna de A ¶e chamado de espa»co coluna de A.
Denotaremos este subespa»co por R(A).
Exemplo 1 Seja o sistema linear Ax = b:
2 3 2 3
1 0 " # b1
6 7 x1 6 7
4 5 3 5 = 4 b2 5
x2
4 3 b3
Observe que para este exemplo, m > n, temos mais equa»c~oes do que inc¶oginitas.
uvel para somente certos termos independentes b¶s que
Este sistema linear ser¶a sol¶
3
s~ao subconjuntos de R .
Antes de passarmos µa discuss~ao s^obre a solubilidade de um sistema linear, vamos
dar o seguinte teorema:
Teorema 4.5
Duas matrizes A e U , m £ n, equivalentes por linhas t^em o mesmo espa»co linha.
Prova
Se U ¶e equivalente por linhas a A, ent~ao U pode ser formada por uma sequ^encia
¯nita de opera»c~oes elementares sobre as linhas de A. Assim, as linhas de U s~ao
combina»c~oes lineares dos vetores linhas de A. Consequ^entemente, R(U )t tem que
ser um subespa»co de R(A)t . Como A ¶e equivalente por linhas a U , R(A)t tem que
ser um subespa»co de R(U )t pelo mesmo argumento.
64
De¯ni» c~
ao 12
De¯nimos o posto de uma matriz A, m £ n, a dimens~ao do seu espa»co linha
(R(A)t ).
Exemplo 2
Seja a matriz A, abaixo:
2 3
1 3 3
6 7
A=4 2 6 9 5
¡1 ¡3 3
formam uma base para R(U )t e para R(A)t , pois estas matrizes s~ao equivalentes por
linhas. Portanto, dim (R(A)t ) = dim (R(U )t ).
Por outro lado, temos que os vetores
2 3 2 3
1 3
6 7 6 7
4 0 5;4 3 5
0 0
formam uma base para R(U ). Contudo, estes vetores n~ao formam uma base para
R(A). Para encontrar os vetores da base de R(A), buscamos os vetores colunas que
correspondem µa posi»c~ao destes em U na matriz A, que s~ao dados por:
2 3 2 3
1 3
6 7 6 7
4 2 5;4 9 5
¡1 3
65
uvel () o
Segue-se desta representa»c~ao que: "O sistema linear Ax = b ¶e sol¶
vetor b est¶a no espa»co coluna de A (R(A))".
Substituindo o vetor b pelo vetor nulo 0,escrevemos:
x1 a1 + x2 a2 + ¢ ¢ ¢ + xn an = 0;
Logo, x1 ¡ x2 = 0 =) x1 = x2 .
Seja A uma matriz, m £ n.Se os vetores coluna de A geram Rm , ent~ao n tem que
ser maior ou igual a m, j¶a que um conjunto com menos que m vetores n~ao pode gerar
Rm . Se as colunas de A s~ao linearmente dependentes, ent~ao n tem que ser menor
ou igual a m, j¶a que qualquer conjunto com mais de m vetores em Rm ¶e linearmente
dependente. Portanto, se os vetores coluna de A formam uma base para Rm , ent~ao
n = m. Isto ocorre quando a matriz A, n £ n, ¶e invert¶³vel.
Teorema 4.7
Seja A uma matriz, m £ n, de posto(A) = r. A dimens~ao do espa»co linha de A
( igual ao posto(A)) ¶e igual a dimens~ao do espa»co coluna.
Prova
66
Seja A uma matriz, m £ n, de posto(A). Reduzindo esta matriz µa sua forma
escada U, temos que as r primeiras linhas destas t^em primeiros coe¯cientes 6 = 0,
cujas colunas correspondentes s~ao linearmente independentes. Retiramos da matriz
U as colunas correspondentes µa vari¶aveis livres e fazemos o mesmo com as colunas
correspondentes da matriz A. Chamando estas matrizes de Ul e Al , respectivamente,
temos que estas s~ao equivalentes por linhas. Assim, x ¶e solu»c~ao de Al x = 0 () x
¶e solu»c~ao de Ul x = 0 . Ou seja, as colunas de Al tamb¶em devem ser linearmente
independentes. Assim, a dimens~ao do espa»co coluna de A deve ser pelo menos igual
µa r, ou seja: (¸ r). Aplicando este mesmo racioc¶³nio µa matriz At , concluimos que
dimens~ao do espa»co coluna de At ¸ dimens~ao do espa»co linha de At . Portanto,
dim(R(A)) = dim(R(At )) = r.
67
Temos que, n~ao alteramos o espa»co coluna de A, uma vez que dim (R(A)) =
dim (R(B)) = 2, mas o espa»co nulo de B contem o vetor cujas componentes s~ao
1; ; 1; ¡1 e cont¶em o m¶
ultiplo deste vetor, ou seja:
2 32 3 2 3
1 0 1 c 0
6 76 7 6 7
4 5 3 8 54 c 5 = 4 0 5
4 3 7 ¡c 0
Assim,
r + dim(N (At )) = m
68
Para encontrar y 2 N (At ), ou seja y 2 Rm , tal que y t A = 0, basta calcular
o espa»co nulo para a matriz At . Outra forma de calcul¶a-lo,consiste em encontrar
a decomposi»c~ao P A = LU , onde P ¶e uma matriz de permuta»c~ao. Em seguida,
calculamos L¡1 P A. As u¶ ltimas m ¡ r linhas de L¡1 P formar~ao a base do espa»co
nulo µa esquerda de A, porque estas multiplicadas por A d~ao as linhas nulas em U .
Contudo, o c¶alculo de L¡1 n~ao ¶e t~ao imediato como ¯zemos para a decomposi»c~ao
de LU da matriz A, n £ n.
Exemplo 2
Seja a matriz A:
2 3
1 0
6 7
A=4 5 3 5
4 3
Como a matriz At j¶a est¶a na forma escalonada, basta resolver o sistema linear
homog^eneo At y = 0, ou seja:
2 3 2 3
" # y1 0
t 1 5 4 6 7 6 7
Ay= 4 y2 5 = y3 4 0 5
0 3 3
y3 0
Outra forma de obter este vetor y tal que y t A = 0 consiste em calcular L¡1 P . Ora,
temos que:
2 3
1 0 0
6 7
L¡1 = 4 ¡5 1 0 5
1 ¡1 1
69
Como n~ao houve permuta»c~ao de linhas no processo da decomposi»c~ao da matriz A,
tomamos a u¶ ltima linha de L¡1 na forma transposta.
Observe que este vetor ¶e perpendicular aos vetores do espa»co coluna de A, R(A):
2 3 2 3
1 0
6 7 6 7
4 5 5;4 3 5
4 3
e temos que dim (R(A)) = 2, dim (N(At )) = 1 e dim (R(A)) + dim (N (At )) = 3.
Exemplo 1
Seja a matriz A, 3 £ 4:
2 3
1 3 3 2
6 7
A=4 2 6 9 5 5
¡1 ¡3 3 0
70
Procedendo o escalonamento da matriz A, obtemos a seguinte matriz U , 3 £ 4:
2 3
1 3 3 2
6 7
U=4 0 0 3 1 5
0 0 0 0
Observe que nenhuma opera»c~ao de troca de linhas foi necess¶aria neste exemplo.
Mas, caso haja necessidade, usaremos uma matriz de permuta»c~ao P para a troca de
linhas. Damos o seguinte teorema:
Teorema 4.8
Para qualquer matriz A, m £ n, existem uma matriz de permuta»c~ao P , m £ m,
uma matriz triangular inferior L, m £ m, com diagonal unit¶aria e uma matriz na
forma escada U , m £ n, correspondentes, tais que P A = LU .
Prova
Aplicamos sucessivamente matrizes de permuta»c~oes P1 ; P2 ; P3 ; : : : ; Pk , m£m, no
sistema linear Ax = b de tal forma que assegure que nenhum interc^ambio de linhas
seja necess¶ario para resolver o sistema linear por meio da elimina»c~ao de Gauss. Desta
forma, colocando a matriz de permuta»c~ao P , m £ m, como:
P = Pk Pk¡1 Pk¡2 : : : ; P2 P1 ;
o sistema linear
P Ax = P b
pode ser resolvido sem interc^ambio de linhas. Mas, essa matriz P A pode ser fatorada
em
P A = LU;
A = P ¡1 LU = (P t L)U:
71
Vamos agora analisar os dois casos de sistemas lineares: homog^eneo e n~ao ho-
mog^eneo.
Caso homog^ eneo
Vamos considerar agora, a solu»c~ao do sistema linear Ux = 0. Temos:
2 3
2 3 x1 2 3
1 3 3 2 6 7 0
6 76 x2 7 6 7
Ux = 4 0 0 3 1 5 6 7=4 0 5
4 x3 5
0 0 0 0 0
x4
72
Enunciamos o seguinte teorema:
Teorema 4.9
Seja A uma matriz, m £ n. Se o sistema linear homog^eneo Ax = 0 tem mais
inc¶ognitas do que equa»c~oes (n > m), ele tem solu»c~ao diferente da solu»c~ao trivial.
Prova
Desde que a matriz A tem mais colunas do que linhas, n > m, existir¶a no
m¶aximo m piv^ os, da¶³ existir¶a pelo menos n ¡ m vari¶aveis livres. Existir¶a sempre
mais vari¶aveis livres se algumas linhas de U reduzem µa zero, n~ao mais do que isso,
pelo menos uma vari¶avel dever¶a ser livre. Atribuindo um valor a esta vari¶avel,
obtemos uma solu»c~ao n~ao trivial x. Na verdade, m¶ ultiplas solu»c~oes cx satisfazendo
A(cx) = 0.
Observe que o espa»co nulo ¶e um subespa»co de R4 , com a dimens~ao igual ao
n¶
umero de vari¶aveis livres. Trataremos a dimens~ao deste subespa»co posteriormente.
Caso n~
ao homog^
eneo
No caso n~ao homog^eneo, o sistema orginal ¯ca Ax = b, onde b 6
= 0. Voltando
ao exemplo anterior, obtemos ap¶os o escalonamento o sistema linear equivalente
U x = c:
2 3
2 3 x1 2 3
1 3 3 2 6 7 b1
6 76 x2 7 6 7
Ux = 4 0 0 3 1 5 6 7=4 b2 ¡ 2 b1 5
4 x3 5
0 0 0 0 b3 ¡ 2 b2 + 5 b1
x4
onde o vetor c do lado direito desta equa»c~ao ¶e obtido atrav¶es da opera»c~ao: L¡1 .
O sistema linear Ux = c ser¶a inconsistente a menos que b3 ¡ 2 b2 + 5 b1 = 0.
Outra forma de interpretar a solu»c~ao do sistema linear n~ao homog^eneo consiste
em tomar o espa»co coluna (R(A)). Este espa»co ¶e gerado pelos vetores coluna:
2 3 2 3
1 3
6 7 6 7
4 2 5;4 9 5
¡1 3
sendo que estes vetores coluna em A correspondem aos vetores coluna da matriz
U com piv^ os. Estes vetores geram um plano em R3 , que consite no conjunto dos
pontos (b1 ; b2 ; b3 ) 2 R3 tais que b3 ¡2 b2 +5 b1 = 0, condi»c~ao imposta para o sistema
linear ser sol¶uvel, for»cando o valor do vetor b 2 R3 . Geometricamente, dizemos que
o vetor (5; ¡2; 1) ¶e perpendicular a cada coluna de A.
Assim, tomando como termo independente o vetor (1; 5; 5) que ¶e perpendicular
73
ao vetor (5; ¡2; 1), obtemos o seguinte sistema linear sol¶
uvel:
2 3
2 3 x1 2 3
1 3 3 2 6 7 1
6 7 6 x2 7 6 7
Ax = 4 2 6 9 5 56 7=4 5 5
4 x3 5
¡1 ¡3 3 0 5
x4
Observe que obtemos a u¶ ltima linha nula e as outras duas equa»c~oes nos d~ao a solu»c~ao:
x3 = 1 ¡ 1=3 x4 e x1 = ¡2 ¡ 3 x2 ¡ x4 , onde x2 e x4 s~ao vari¶aveis livres.
Colocando a solu»c~ao geral xgeral na forma:
2 3 2 3 2 3
¡2 ¡3 ¡1
6 0 7 6 1 7 6 0 7
6 7 6 7 6 7
xgeral = 6 7 + x2 6 7 + x4 6 7
4 1 5 4 0 5 4 ¡1=3 5
0 0 1
onde temos: xgeral = xparticular + xhomgeneo , sendo que o primeiro vetor coluna corre-
sponde a solu»ca~o particular para o sistema linear n~ao homog^eneo e as duas u ¶ltimas
parcelas fornecem a solu»c~ao para o sistema linear homog^eneo Ax = 0, bastando
atribuir valores x2 = 1; x4 = 0 e x2 = 0; x4 = 1, respectivamente.
Geometricamente, a solu»c~ao geral est¶a em uma superf¶³cie bidimensional, mas
que n~ao ¶e um subespa»co vetorial por n~ao conter a origem. Esta superf¶³cie ¶e paralela
ao espa»co nulo anterior, mas deslocado pela solu»c~ao particular.
Assim, os c¶alculos para a solu»c~ao n~ao homog^enea incluem um novo passo:
1) Reduz-se Ax = b µa forma escalonada U x = c;
2) Tome todas as vari¶aveis livres iguais µa zero e encontre a solu»ca~o particular;
3) Fa»ca o lado direito da equa»c~ao Ux = c igual a zero e para cada vari¶avel livre
igual µa 1 e com as outras nulas, encontre as solu»c~oes homog^eneas.
A elimin»c~ao por escalonamento nos d¶a o n¶ umero de piv^ os e o n¶
umero de vari¶aveis
livres. Se existem r piv^ os, existem r vari¶aveis b¶asicas e n ¡ r vari¶aveis livres.
4.8 Inversa µ
a Direita e µ
a Esquerda de Matriz
De¯ni»
c~ao 15
74
Seja a matriz A, m £ n. Dizemos que a matriz B,n £ m, ¶e a inversa µa esquerda
da matriz A, quando esta existe e BA = In , onde In ¶e a matriz identidade de ordem
n. Dizemos que a matriz C,n £ m, ¶e a inversa µa direita da matriz A, quando esta
existe e AC = Im , onde Im ¶e a matriz identidade de ordem m.
Temos que para matrizes A, n£n, quando estas inversas existem, elas s~ao iguais.
De fato:
Ax = ACb = Im b = b:
x = In x = BAx = Bb:
75
Exemplo 1
Vamos considerar a matriz A, 2 £ 3, de posto = 2, abaixo:
" #
4 0 0
A=
0 5 0
Como c31 e c32 s~ao arbitr¶arios, existem diversas inversas aµ direita. Quando c31 =
c32 = 0, obtemos a matriz "pseudoinversa".
A matriz A n~ao tem inversa µa esquerda, uma vez que BA tem a terceira coluna
nula.
Neste exemplo, a f¶ormula C = At (AAt )¡1 nos d¶a a escolha espec¶³¯ca para a
inversa µa direita de A, a "pseudoinversa":
2 3 2 3
4 0 " # 1=4 0
6 7 1=16 0 6 7
C=4 0 5 5 = 4 0 1=5 5
0 1=25
0 0 0 0
vari¶aveis livres.
76
Para uma matriz A, m £ n, n~ao ¶e poss¶³vel haver ambos, exist^encia e unicidade.
Se m 6= n, n~ao podemos ter (posto(A) = n) e (posto(A) = m). Em contrapartida,
uma matriz A, n £ n, tem inversa µa esquerda () ela tem inversa µa direita. Neste
¶nica: B = C = A¡1 .
caso, a inversa da matriz existe e ¶e u
77
Exerc¶³cios Cap¶³tulo IV
1 - Dados os vetores coluna abaixo:
2 3 2 3 2 3 2 3
1 1 1 2
6 7 6 7 6 7 6 7
v1 = 4 0 5 ; v2 = 4 1 5 ; v3 = 4 1 5 e v4 = 4 3 5 :
0 0 1 4
Mostre que:
a) os vetores v1 ; v2 e v3 s~ao linearmente independentes;
b) os vetores v1 ; v2 ; v3 e v4 s~ao linearmente dependentes.
2 - Dada a matriz:
2 3
1 2 2 3 1 4
6 7
A=4 2 4 5 5 4 9 5
3 6 7 8 5 9
a) Encontre uma base para o espa»co linha de A;
b) Encontre uma base para o espa»co coluna de A;
c) Encontre uma base para o espa»co nulo de A;
d) Qual o posto(A)?
2 32 3 2 3
1 4 2 x1 b1
6 76 7 6 7
4 2 8 4 5 4 x2 5 = 4 b2 5
¡1 ¡4 ¡2 x3 b3
b)
2 3 2 3
1 4 " # b1
6 7 x1 6 7
4 2 9 5 = 4 b2 5
x2
¡1 ¡4 b3
4 - Encontre, quando existirem, uma inversa µa esquerda e/ou uma inversa µa direita
para as matrizes a seguir:
a)
" #
1 2 0
A=
0 2 1
78
b)
2 3
1 0
6 7
B=4 2 2 5
0 1
5 - Para uma matriz A, m £ n, pode ser provado que existe uma u ¶nica matriz
] ] ] ] ] ] ]
A , m £ n, tal que AA A = A e A AA = A , com ambas AA e A A sim¶etricas. A
matriz A] ¶e chamada inversa de Moore-Penrose de A.
a) Se a matriz A ¶e quadrada e invers¶³vel, mostre que A] = A¡1 ;
b) Se (posto(A) = r = m), mostre que A] = At (AAt )¡1 ;
c) Se (posto(A) = r = n), mostre que A] = (At A)¡1 At .
79
Cap¶³tulo 5
Transforma»c~
oes Lineares
5.1 Introdu»c~
ao
Trataremos aqui das fun»c~oes cujos dom¶³nios e contradom¶³nios s~ao espa»cos vetori-
ais. Chamamos tais fun»c~oes de transforma»c~oes, aplica»c~oes ou operadores. Seguimos
as nota»c~oes de Apostol,Vol. II [3])
Sejam V e W , dois espa»cos arbitr¶arios. Usaremos a nota»c~ao:
T : V ¡! W
80
Exemplo 1
A transforma»c~ao identidade T : V ¡! V , onde T (x) = x; 8x 2 V , que ¶e
representada por I.
Exemplo 2
A transforma»c~ao nula T : V ¡! V , onde T (x) = 0x = 0; 8x 2 V , que aplica
cada elemento x 2 V em 0.
Exemplo 3
A transforma»c~ao multiplica»c~ao por escalar ¯xo c tal que T : V ¡! V , onde
T (x) = c x; 8x 2 V .
Exemplo 4
A transforma»c~ao dada por equa»c~oes lineares onde de¯nimos T : Rn ¡! Rm , que
aplica cada vetor x = (x1 ; x2 ; : : : ; xn ) 2 Rn no vetor y = (y1 ; y2 ; : : : ; ym ) 2 Rm
pelas equa»c~oes:
n
X
yi = aik xk ; i = 1; 2; : : : ; m
k=1
Exemplo 5
Seja V um espa»co vetorial Euclidiano e seja z um vetor ¯xo em V . De¯nimos:
Exemplo 6
Seja p = p(x) = c0 +c1 x+: : :+cn xn um polin^omio em Pn , conjunto de polin^omios
de grau · n, e de¯nimos a fun»c~ao:
81
Exemplo 8
Seja Co [a; b] o espa»co vetorial de todas as fun»c~oes reais cont¶³nuas em um intervalo
fechado [a; b]. Se f 2 Co [a; b], de¯nimos g = T (f ) como sendo a fun»c~ao de f 2 Co
[a; b] de¯nida por:
Z x
g(x) = f (t)d(t); a · x · b:
a
Exemplo 1
Seja T : R3 ¡! R3 dada por: T (x; y; z) = (0; y; z).
82
Por outro lado, v pode ser escrito como:
v = a1 v1 + a2 v2 + : : : + an vn ; com escalares ai ; i = 1; 2; : : : ; n:
Assim,
Ou seja,
De¯ni» c~
ao 3
O conjunto de todos os elementos de V tal que T aplica em 0 2 W chama-se o
espa»co nulo de T e representa-se por N (T ). Assim, escrevemos:
T (x; y; z) = (x ¡ y + z; 2x + y + z)
Temos que:
83
Para isto, basta resolver o sistema linear homog^eneo:
( (
x¡y+z = 0 y = ¡x
=)
2x + y + z = 0 z = ¡2x
Assim, temos:
que corresponde ao subespa»co vetorial gerado pelo vetor (1; ¡1; ¡2).
Exemplo 4
Seja a transforma»c~ao linear:T : R3 ¡! R3 dada por:
T (x; y; z) = (x + y + z; x + y ¡ z; x + y ¡ z)
Assim, temos:
N (T ) = f(¡y; y; 0) 2 R3 g;
Im(T ) = f(a; b; b) 2 R3 g:
Teorema 5.4
Uma transforma»c~ao linear T : V ¡! W ¶e injetiva () N(T ) = f0g.
Prova
Obs. T ¶e injetiva quando:
T (v1 ) = T (v2 ); v1 ; v2 2 V =) v1 = v2 ;
84
ou ainda: v1 6= v2 ; v1 ; v2 2 V =) T (v1 ) 6
= T (v2 ): (=)) Se v 2 N (T ), ent~ao
T (v) = 0. Como T (0) = 0 =) T (v) = 0. Por hip¶otese, T sendo injetora, v = 0.
Portanto, N(T ) = 0.
((=) Seja, v1 ; v2 2 V , tais que T (v1 ) = T (v2 ). Ou seja, T (v1 ) ¡ T (v2 ) = 0
e como T ¶e linear: T (v1 ¡ v2 ) = 0 =) v1 ¡ v2 2 N (T ). Como, por hip¶otese
N(T ) = f0g =) v1 ¡ v2 = 0 =) v1 = v2 . Portanto, T ¶e injetora.
Teorema 5: (Dimens~ ao: n¶
ucleo e imagem)
Seja V um espa»co vetorial de dimens~ao ¯nita, onde dim(V ) = n. Tem-se que
T (V ) tamb¶em ¶e de dimens~ao ¯nita e al¶em do mais,
Prova
Sejam n = dim (V ) e fv1 ; v2 ; : : : ; vk g uma base para N(T ), onde k = dim N (T ) ·
n. Pelo teorema da complementa»c~ao da base, este conjunto de vetores formam parte
de uma certa base de V , por exemplo, a base:
formam uma base para T (V ), o que prova dim T (V ) = r. Uma vez que, k + r = n,
isto tamb¶em prova (I).
Inicialmente, vamos provar que os r vetores em (III) geram T (V ).
Se y 2 T (V ), temos y = T (x) para algum x 2 V , e podemos escrever:
Da¶³, temos:
k+r
X k
X k+r
X k+r
X
y = T (x) = ci T (vi ) = ci T (vi ) + ci T (vi ) = ci T (vi )
i=1 i=1 k+1 i=k+1
85
Ent~ao,
k+r
X
T( ci (vi )) = 0;
i=k+1
e assim,
k+r
X
ci (vi ) 2 N (T ); ou ainda: x ¡ x = c1 v1 + c2 v2 + : : : + ck vk :
i=k+1
Assim, escrevemos:
k
X k+r
X
x¡x= ci vi ¡ = 0:
i=1 i=k+1
5.3 Opera»c~
oes Alg¶
ebricas em Transforma»c~
oes Lin-
eares
De¯ni» c~
ao 4
Sejam S : V ¡! W e T : V ¡! W duas transforma»c~oes lineares pertencentes
ao L(V; W ) (conjunto das aplica»c~oes lineares de V em W ). Se c ¶e qualquer escalar
em K, de¯nimos a soma S + T e o produto por escalar cT pelas igualdades:
i) (S + T )(x) = S(x) + T (x) e,
ii) (cT )(x) = cT (x); 8x 2 V .
Obs. L(V; W ) ¶e um espa»co vetorial com as opera»c~oes de¯nidas acima.
De¯ni»c~ ao 5:(Composi»c~ ao de aplica»c~
oes)
Sejam T : U ¡! V e S : V ¡! W duas aplica»c~oes, onde U; V e W s~ao conjuntos.
A composi»c~ao ST ¶e a aplica»c~ao ST : U ¡! W de¯nida por:
Exemplo 1
Sejam as aplica»c~oes S; T : R ¡! R de¯nidas por S(x) = x e T (x) = x + 1.
Temos:
86
e
Exemplo 2
Sejam as aplica»c~oes S; T : R ¡! R de¯nidas por S(x) = 2x e T (x) = x + 1.
Temos:
T 0 = I; T n = T T n¡1 (para) ¸ 1
(ST )(ax + by) = S(T (ax + by)) = S(aT (x) + bT (y)) = a(ST )(x) + b(ST )(x)
(S + T )R = SR + T R
(cS)R = c(SR);
87
b) Para qualquer transforma»c~ao linear R : W ¡! U temos:
R(S + T ) = RS + RT
R(cS) = c(RS):
5.4 Transforma»c~
oes Inversa µ
a Direita e Inversa µ
a
Esquerda
Dada uma transforma»c~ao linear T , queremos encontrar uma transforma»c~ao linear
S, cuja composi»c~ao com T seja a transforma»ca~o linear id^entica. Como ST 6= T S,
vamos introduzir dois tipos de transforma»co~es inversas.
De¯ni» c~ao 7
Uma transforma»c~ao linear R : T (V ) ¡! V chama-se uma inversa µa direita da
transforma»c~ao linear T : V ¡! W quando se tem T ± R = IT (V ) , ou seja,quando:
T (R(y)) = y; 8y 2 T (V )
Exemplo 1
Seja a transforma»c~ao linear:
A transforma»c~ao linear:
S(T (x)) = x; 8x 2 V
Exemplo 2
88
Seja a transforma»c~ao linear:
A transforma»c~ao linear:
= (¡3(x + 2y) + 2(2x + 3y); 2(2x + 3y) ¡ (2x + 3y)) = (x; y); 8 (x; y) 2 R2
8x; y 2 V; x 6
= y =) T (x) 6
= T (y) (T ¶e injetiva)
89
ou, de forma equivalente:
Prova
" =) "Assumindo que T tenha uma inversa µa esquerda S, e assumindo que
T (x) = T (y), queremos provar que x = y.
Aplicando S, a igualdade anterior, obtemos: S(T (x)) = S(T (y)), ou seja, x = y,
uma vez que S(T (x)) = x e S(T (y)) = y.
" (= "Vamos assumir agora, que T ¶e injetiva em V . Temos de encontrar uma
transforma»c~ao S : T (V ) ¡! V , inversa µa esquerda de T .
Se y 2 T (V ), ent~ao y = T (x) para algum x 2 V . Mas, por hip¶otese, existe um
¶ nico x tal que y = T (x). Colocando S(y) = x, podemos de¯nir S em T (V ) como
u
segue:
5.5 Transforma»c~
oes Lineares Inversas
Vamos generalisar o estudo de transforma»c~ao linear inversa para o caso T : V ¡! W
injetiva, onde V e W s~ao espa»cos vetoriais quaisquer. A linearidade de T nos permite
espressar a propriedade injetiva de diversas formas equivalentes.
Teorema 5.10
Seja a transforma»c~ao linear T : V ¡! W . Ent~ao, as a¯rma»c~oes seguintes s~ao
equivalentes:
90
a) T ¶e injetiva em V ;
b) T ¶e invert¶³vel e sua inversa T ¡1 : T (V ) ¡! V ¶e linear;
c) 8x 2 V; T (x) = 0 () x = 0. Isto ¶e, o espa»co nulo N(T ) contem somente o
vetor nulo em V .
Prova
Vamos provar que a) implica b), b) implica c) e c) implica a).
a) =) b) Se T ¶e injetiva em V , ent~ao T tem uma inversa, de acordo com o
Teorema 9. Vamos mostrar agora que T ¡1 ¶e linear. Para isto, tomamos dois vetores
u e v 2 T (V ). Ent~ao, u = T (x) e v = T (y) para algum x e algum y em V . Para
quaisquer escalares ® e ¯, temos:
uma vez que T ¶e linear. Portanto, aplicando T ¡1 a ambos os membros desta igual-
dade, obtemos:
T ¡1 (® u + ¯ v) = ® x + ¯ y = ® = ® T ¡1 (u) + ¯ T ¡1 (v);
ou seja, T ¡1 ¶e linear.
b) =) c) Vamos assumir que vale b). Vamos tomar um vetor x qualquer em V
tal que T (x) = 0. Aplicando T ¡1 , obtemos: x = T ¡1 0 = 0, uma vez que T ¡1 ¶e
linear. Logo, b) =) c).
c) =) a) Vamos assumir que vale c).Sejam u e v quaisquer em V tal que T (u) =
T (v). Como T ¶e linear, temos que:T (u ¡ v) = T (u) ¡ T (v) = 0, e usando a hip¶otese
em c) temos que u ¡ v = 0. Logo, T ¶e injetiva, e a prova do teorema ¶e completa.
Exemplo 1
Seja T : R2 ¡! R2 o operador de rota»c~ao do vetor (x1 ; y1 ) 2 R2 de um ^angulo
µ.
(Figura)
Temos que o operador T leva o vetor (x1 ; y1 ) = (rcos ®; rsin ®) no vetor (x2 ; y2 ) =
(rcos (® + µ); rsin (® + µ)).Da¶³, obtemos:
91
Exemplo 2
Seja T : Pn ¡! Pn+1 a transforma»c~ao linear T (p) = T (p(x)) = xp(x). Temos
que, se
p = p(x) = c0 + c1 x + c2 x2 + : : : + cn xn e q = q(x) = d0 + d1 x + d2 x2 + : : : + dn xn
T ¡1 : Pn+1 ¡! Pn
¶e dada por:
T ¡1 (c0 x + c1 x2 + : : : + cn xn+1 ) = c0 + c1 x + c2 x2 + : : : + cn xn
Desta forma, dada uma transforma»c~ao linear T : V ¡! W que seja injetiva, pode-
mos de¯nir uma transforma»c~ao linear inversa T ¡1 , tal que T ¡1 : Im(T ) ¡! V , onde
cada T ¡1 (w) = v; 8w 2 Im(T ), sendo v 2 V .
Temos que:
92
c) dim(V ) = n;
d) Se fe1 ; e2 ; : : : ; ep g ¶e uma base em V , ent~ao fT (e1 ); T (e2 ); : : : ; T (ep )g ¶e uma
base em T (V ).
Prova
a) =) b) Asumamos que T ¶e injetiva. Sejam os vetores e1 ; e2 ; : : : ; ep lineramente
independentes em V e consideremos os vetores T (e1 ); T (e2 ); : : : ; T (ep ) em T (V ).
Suponhamos que:
p
X
ci T (ei ) = 0
i=1
93
Podemos sempre sonstruir uma transforma»c~ao linear T : V ¡! W com valores
determinados para vetores de uma base de V , conforme teorema:
Teorema 5.12
Se fe1 ; e2 ; : : : ; en g ¶e uma base em V , sendo dim(V ) = n, e u1 ; u2 ; : : : ; un s~ao
vetores arbitr¶arios de um espa»co vetorial W , ent~ao existe uma u ¶ nica transforma»c~ao
linear T : V ¡! W tal que:
T (ek ) = uk ; k = 1; 2; : : : ; n (¤)
X
n X
n
x= xk ek =) T (x) = xk uk
k=1 k=1
Prova
Qualquer vetor x 2 V pode ser expresso unicamente como uma combina»c~ao
linear dos vetores e1 ; e2 ; : : : ; en , sendo x1 ; x2 ; : : : ; xn as componentes do vetor x em
rela»c~ao µa base ordenada fe1 ; e2 ; : : : ; eng. A transforma»c~ao T de¯nida acima ¶e linear.
Se x = ek para algum k, ent~ao todas as componentes de x s~ao nulas exceto a k-¶esima,
que ¶e igual a 1, de modo que T (ek ) = uk , como requerido em (¤).
Para provar que a transforma»c~ao linear ¶e u
¶nica,tomamos outra transforma»c~ao
0 0
linear T e calculamos T (x). Temos que:
Xn n
X n
X
0 0 0
T (x) = T ( xk ek ) = xk T (ek ) = xk uk = T (x)
k=1 k=1 k=1
0 0
Desde que, T (x) = T (x); 8x 2 V , temos que T = T .
Exemplo 1
Seja encontrar a transforma»c~ao linear T : R2 ¡! R2 tal que T (i) = i + j e
T (j) = 2i ¡ j, onde i; j s~ao os vetores da base can^onica de R2 .
Seja x = x1 i + x2 j um vetor qualquer de R2 . Temos que:
94
5.6 Representa»c~
ao Matricial das Transforma»c~
oes
Lineares
Seja a transforma»c~ao linear T : V ¡! W , onde dim(V ) = n e dim(W ) = m, e sendo
dadas bases de V e W , respectivamente, pretendemos encontrar uma representa»c~ao
matricial para a transforam»c~ao linear T em rela»c~ao a estas bases. Enunciamos o
seguinte teorema:
Teorema 5.13
Seja a transforma»c~ao linear T : V ¡! W , onde dim(V ) = n e dim(W ) = m,
sendo fe1 ; e2 ; : : : ; en g base ordenada de V e fw1 ; w2 ; : : : ; wm g base ordenada de W .
Seja uma matriz [tij ], m £ n, cujos coe¯cientes s~ao representados por:
n
X
T (ek ) = tik wi ; k = 1; 2; : : : ; n
i=1
Prova
Desde que T tem valores em W , cada elemento T (ek ) pode ser expresso unica-
mente como combina»c~ao dos vetores w1 ; w2 ; : : : ; wm da base de W , a saber:
m
X
T (ek ) = tik wi
i=1
onde t1k ; t2k ; : : : ; tmk s~ao as componentes de T (ek ) em rela»c~ao µa base fw1 ; w2 ; : : : ; wm g.
Podemos colocar a m-upla (t1k ; t2k ; : : : ; tmk ) como o vetor coluna:
2 3
t1k
6 7
6 t2k 7
6 . 7
6 . 7
4 . 5
tmk
95
Em seguida, podemos dispor cada vetor coluna para os n vetores T (e1 ); T (e2 ); : : : ; T (en )
na matriz [T ] como segue:
2 3
t11 t12 : : : t1n
6 7
6 t21 t22 : : : t2n 7
[T] = 6
6 .. .. ... .. 7
7
4 . . . 5
tm1 tm2 : : : tmn
Aplicando a matriz [T ] em cada membro da equa»c~ao (¤¤) e usando a rela»c~ao (¤),
obtemos:
X
n X
n X
m X
m X n X
m
T (x) = xk T (ek ) = xk tik wi = ( tik xk )wi = yi wi ;
k=1 k=1 i=1 i=1 k=1 i=1
96
onde [x]B e [T (x)]B0 s~ao os vetores colunas em Rn e Rm , respectivamente.
Temos que, em particular, para os vetores da base B, u1 ; u2 ; : : : ; un :
A[u1 ]B = [T (u1 )]B0 ; A[u2 ]B = [T (u2 )]B0 ; : : : ; A[un ]B = [T (un )]B 0 (2)
Como
2 3 2 3 2 3
1 0 0
6 7 6 7 6 7
6 0 7 6 1 7 6 0 7
[u1 ]B = 6
6 .. 7 ; [u2 ] = 6
7 B 6 .. 7 ; : : : ; [un ] = 6
7 B 6 .. 7
7
4 . 5 4 . 5 4 . 5
0 0 1
obtemos:
2 3 2 3 2 3
t11 t12 t1n
6 7 6 7 6 7
6 t12 7 6 t22 7 6 t2n 7
A[u1]B = 6
6 .. 7 ; A[u2 ] = 6
7 B 6 .. 7 ; : : : ; A[un ] = 6
7 B 6 .. 7
7
4 . 5 4 . 5 4 . 5
tm1 tm2 tmn
Assim, escrevemos:
[T ]B 0 ;B (4)
[T ]B 0 ;B = [T ]B (6)
97
e
obtemos:
" # " #
1+1 2
[T(u1 )] = = = 2u1
¡2 £ 1 + 4 £ 1 2
e
" # " #
1+2 3
[T(u2 )] = = = 3u2
¡2 £ 1 + 4 £ 2 6
Portanto,
" #
h i 2 0
[T]B = [T (u1 )]B [T (u2 )]B =
0 3
Exemplo 2
Seja o operador linear D : P2 ¡! P1 , onde Pk (k = 1; 2) ¶e o espa»co vetorial dos
0
polin^omios de grau · k, dada por D(p) = p para cada p 2 P2 . Tomando as bases
0
ordenadas B = fx2 ; x; 1g e B = fx; 1g em P2 e P1 , respectivamente, obtemos:
98
Obtendo, assim, a matriz DB0 ;B correspondente a esta transforma»c~ao:
" #
2 0 0
DB0 ;B =
0 1 0
ou seja,
v = Au;
99
onde v = [v1 v2 : : : vn ]t e u = [u1 u2 : : : un ]t , e A, a matriz n £ n acima.
A matriz P = At ¶e chamada matriz de transi»c~ao da base "velha" B para a base
0
"nova" B .
Propriedade
1 - A matriz de transi»c~ao de base P ¶e invert¶³vel, e sua inversa P ¡1 ¶e a matriz
0
de transi»c~ao da base B para a base B;
2 - Seja P , a matriz de transi»c~ao da base can^onica E 2 Rn para outra base B.
Ent~ao, P ¶e a matriz cujas colunas s~ao precisamente os vetores colunas u1 ; u2 ; : : : ; un ;
0
2 - Seja P , a matriz de transi»c~ao de uma base B para outra base B em V .
Ent~ao, para qualquer v 2 V , temos:
P [v]B0 = [v]B
e da¶³, temos:
P ¡1 [v]B = [v]B0
[T ]B 0 = P ¡1 [T ]P
P [v]B0 = [v]B
Portanto,
Assim,
(P ¡1 [T ]B P ) = [T ]B0 :
100
Exemplo 1
Consideremos as seguintes bases em R2 :
E = fe1 = (1; 0); e2 = (0; 1)g e B = fu1 = (1; ¡2); u2 = (2; ¡5)g:
T (1) = x; T (x) = x2
0
onde dispomos as componentes de T (1) e T (x) em rela»c~ao µa base E = f1; x; x2 g na
forma do vetores colunas, seguintes:
2 3 2 3
0 0
6 7 6 7
[T(1)]E0 = 4 1 5 ; [T(x)]E0 = 4 0 5
0 1
101
Obtendo, assim, a matriz TE0 ;E correspondente a este operador:
2 3
0 0
6 7
TE0 ;E =4 1 0 5
0 1
0
Seja a base B = f1; 1 + x; x + x2 g de P2 . Vamos escrever [T ]B 0 ;E .
Temos que:
2 3
1 1 0
6 7
P=4 0 1 1 5
0 0 1
0 0
¶e a matriz de mudan»ca (transi»c~ao) da base B para a base can^onica E (P [v]E 0 =
[v]B 0 ).
Calculando P ¡1 , obtemos:
2 3
1 ¡1 1
¡1 6 7
P =4 0 1 ¡1 5 ;
0 0 1
0 0
que ¶e a matriz de mudan»ca da base E para a base B de P2 .
Da¶³, obtemos:
2 32 3 2 3
1 ¡1 1 0 0 ¡1 1
¡1 6 7 6 7 6 7
[T]B0 ;E = P [T]E0 ;E = 4 0 1 ¡1 5 4 1 0 5 = 4 1 ¡1 5
0 0 1 0 1 0 1
Observe, neste exemplo, que s¶o houve mudan»ca de base na imagem do operador
linear.
102
Um isomor¯smo T : V ¡! W transforma toda base de V numa base de W .
Reciprocamente, se uma transforma»c~ao linear T : V ¡! W leva alguma base de V
numa base de W , ent~ao a transforma»c~ao T ¶e um isomor¯smo.
Teorema 5.15
Sejam V e W dois espa»cos vetoriais de dimens~ao ¯nita. V e W t^em a mesma
dimens~ao () existe um isomor¯smo entre eles.
Prova
=) Seja V um espa»co vetorial de dimens~ao ¯nita n. Fixando uma base fv1 ; v2 ; : : : ; vn g ½
V , podemos de¯nir uma transforma»ca~o linear T : Rn ¡! V colocando para v =
(®1 ; ®2 ; : : : ; ®n ) 2 Rn ; T (v) = ®1 v1 + ®2 v2 + : : : + ®n vn . Temos que: T (e1 ) =
®1 v1 ; T (e2 ) = ®2 v2 ; : : : ; T (en ) = ®n vn . Assim, T transforma a base can^onica
fe1 ; e2 ; : : : ; en g ½ Rn na base fv1 ; v2 ; : : : ; vn g ½ V . Portanto, T ¶e um isomor-
¯smo entre Rn e V . Ou seja, todo espa»co vetorial de dimens~ao ¯nita n ¶e isomorfo
µa Rn .
(= Sejam os isomor¯smos T : Rn ¡! V e S : Rn ¡! W . Como o inverso
T ¡1 : V ¡! Rn e o produto ST ¡1 : V ¡! W s~ao isomor¯smos, temos que V e W
t^em a mesma dimens~ao n.
Exemplo 1
O espa»co Pn , dos polin^omios de grau · n tem dimens~ao n + 1. Portanto, Pn ¶e
isomorfo µa Rn+1 .
Exemplo 2
O espa»co M (m £ p), das matrizes retangulares m £ p, ¶e isomorfo µa Rmp . Por
exemplo, o espa»co das matrizes quadradas M (2 £ 2) ¶e isomorfo µa R4 . Mais precisa-
mente, podemos de¯nir uma transforma»c~ao linear bijetiva T : M(2 £ 2) ¡! R4 ,
levando a base ordenada de M (2 £ 2):
" # " # " # " #
1 0 0 1 0 0 0 0
f ; ; ; g
0 0 0 0 1 0 0 1
103
Exerc¶³cios Cap¶³tulo V
1 - Em cada item a seguir, use a matriz can^onica da transforma»c~ao T para
encontrar T (x). Em seguida, con¯ra o resultado calculando T (x) diretamente.
a) T (x1 ; x2 ) = (¡x1 + x2 ; x2 ), onde x = (¡1; 4);
b) T (x1 ; x2 ; x3 ) = (2x1 ¡ x2 ; x2 + x3 ; 0), onde x = (2; 1; ¡3).
2 - Use multiplica»c~ao matricial para encontrar a re°ex~ao do vetor (¡1; 2),
a) no eixo ¡ x;
b) no eixo ¡ y;
c) na reta y = x.
3 - Use multiplica»c~ao matricial para encontrar a re°ex~ao do vetor (2; ¡5; 3),
a) no plano ¡ xy;
b) no plano ¡ xz;
c) no plano ¡ yz.
4 - Use multiplica»c~ao matricial para encontrar a proje»c~ao ortogonal do vetor
(2; ¡5),
a) sobre o eixo ¡ x;
b) sobre o eixo ¡ y.
5 - Use multiplica»c~ao matricial para encontrar a proje»c~ao ortogonal do vetor
(¡2; 1; 3),
a) sobre o plano ¡ xy;
b) sobre o plano ¡ xz;
c) sobre o plano ¡ yz.
6 - Use multiplica»c~ao matricial para encontrar a imagem do vetor (3; ¡4) quando
este for rotacionado de um ^angulo de:
a) µ = 30± ; b) µ = ¡60± ;
c) µ = 45± ; d) µ = 90± .
7 - Use multiplica»c~ao matricial para encontrar a imagem do vetor (¡2; 1; 2)
quando este for rotacionado de um a^ngulo de:
a) µ = 30± em torno do eixo ¡ x;
b) µ = 45± em torno do eixo ¡ y;
c) µ = 90± em torno do eixo ¡ z.
8 - Encontre a matriz can^onica do operador que efetua a rota»c~ao de um vetor
em R3 por um ^angulo de µ = ¡60±
a) em torno do eixo ¡ x;
b) em torno do eixo ¡ y;
c) em torno do eixo ¡ z.
104
9 - Use multiplica»c~ao matricial para encontrar a imagem do vetor (¡2; 1; 2)
quando este for rotacionado de um a^ngulo de:
a) µ = ¡30± em torno do eixo ¡ x;
b) µ = ¡45± em torno do eixo ¡ y;
c) µ = ¡90± em torno do eixo ¡ z;
d) sobre o plano ¡ xz;
10 - Sejam B = fu1 ; u2 ; u3 g uma base para o espa»co vetorial R3 e T : R3 ¡! R3
um operador linear tal que:
2 3
¡3 4 7
6 7
[T]B = 4 1 0 ¡2 5
0 1 0
0
Encontre [T ]B 0 , sendo B = fv1 ; v2 ; v3 g a base de R3 de¯nida por v1 = u1 ,v2 = u1 +u2
e v3 = u1 + u2 + u3 .
105
Cap¶³tulo 6
6.1 Introdu»c~
ao
No Cap¶³tulo 3 de¯nimos ortogonalidade de vetores em Rn . Vamos utilizar este
conceito de ortogonalidade nos quatro subespa»cos fundamentais (R(A),R(At ),N (A)
e N(At ))( ver Strang [8]). Antes por¶em, vamos estabelecer a liga»c~ao da ortogonali-
dade com a independ^encia linear entre vetores ortogonais.
Teorema 6.1
Se os vetores v1 ; v2 ; : : : ; vk 2 Rn s~ao mutuamente ortogonais, ent~ao eles s~ao
linearmente independentes.
Prova
Vamos tomar a combina»c~ao linear nula c1 v1 + c2 v2 + : : : + ck vk = 0. Vamos
mostrar que ci = 0; 8i = 1; 2; : : : ; k, tomando como hip¶otese que v1 ; v2 ; : : : ; vk 2 Rn
s~ao mutuamente ortogonais.
Para mostrar que c1 = 0, fazemos o produto interno:
Assim, ci vit vi = 0 8i 6
= k e como vit vi 6 = 0 , tem-se: ci = 0 8i = 2; 3; : : : ; k.
n
Logo, os vetores v1 ; v2 ; : : : ; vk 2 R s~ao linearmente independentes.
106
6.2 Subespa»cos Ortogonais
Vamos iniciar esta se»c~ao enunciando o teorema sobre a ortogonalide entre os sube-
spa»cos fundamentais para uma matriz A, m £ n.
Teorema 6.2
O espa»co linha de A; (R(At )) de uma matriz retangular A, m £ n, ¶e ortogonal ao
espa»co nulo de A; (N(A)) (em Rn ). O espa»co coluna de A; (R(A)) de uma matriz
retangular A, m£ n, ¶e ortogonal ao espa»co nulo µa esquerda de A; (N (At )) (em Rm ).
Prova
Suponha que x 2 N (A); x 2 Rn e v 2 R(At ). Ent~ao, Ax = 0 e v = At z
para lagum vetor z 2 Rm , onde v ¶e a combina»c~ao linear das linhas de A. Devemos
mostrar que v t x = 0.
De fato:
v t x = (At z)t x = z t Ax = z t 0 = 0:
v t y = (Az)t y = z t At y = z t 0 = 0:
Ilustra»c~
ao
2 32 3 2 3
linha 1 x1 0
6 76 7 6 7
6 linha 2 7 6 x2 7 6 0 7
Ax = 6
6 .. 7 6 7 6
7 6 .. 7 = 6 .. 7
7
4 . 54 . 5 4 . 5
linha m xn 0
2 3
0
h ih i 6 7
6 0 7
t
y A= y1 y2 ¢ ¢ ¢ ym coluna 1 coluna 2 ¢ ¢ ¢ coluna n =6
6 .. 7
7
4 . 5
0
Exemplo
Seja a matriz A, 3 x 2, cujo posto(A) = 1, abaixo:
2 3
1 3
6 7
A=4 2 6 5
3 9
107
ultiplas do vetor (1; 3) e s~ao ortogonais ao vetor (¡3; 1) 2
As linhas da matriz A s~ao m¶
N(A).
De fato:
" # " # " #
h i x h i x h i x
1 1 1
1 3 = 0; 2 6 = 0; 3 9 =0
x2 x2 x2
Observe que R(At ) e N(A) s~ao retas em R2 . Em contraste, R(A) ¶e uma reta
com vetor dire»c~ao
2 3
1
6 7
4 2 5
3
e N (At ) ¶e o plano de equa»c~ao 1y1 + 2y2 + 3y3 = 0, uma vez que y t A = 0.
Podemos estabelecer agora, o seguinte corol¶ario:
Corol¶ ario 1
O epa»co nulo de A; (N (A)) ¶e o complemento ortogonal do espa»co linha de
A; (R(At )) em Rn, ou seja, N (A)t = R(At ) . O espa»co nulo µa esquerda de A; (N(At ))
¶e o complemento ortogonal ao espa»co coluna de A; (R(A)) em Rm , ou seja, N (At )t =
R(A).
Prova A prova se baseia nos resultados do teorema anterior e na de¯ni»c~ao de
complemento ortogonal.
Queremos saber quando a equa»c~ao linear Ax = b ¶e sol¶ uvel sob a ¶otica dos
subespa»cos fundamentais. Assim, damos o seguinte teorema:
Teorema 6.3
A equa»c~ao linear Ax = b ¶e sol¶uvel () bt y = 0 sempre que At y = 0.
Prova A prova ¶e decorrente dos resultados anteriores.
Como resultado direto temos que: "o vetor b deve ser combina»c~ao linear das
colunas de A". E como resultado indireto temos que: "o vetor b deve ser ortogonal
a todo vetor que ¶e ortogonal µas colunas de A".
Exemplo
Seja o seguinte sistema linear:
x1 ¡ x2 = b1
x2 ¡ x3 = b2
x3 ¡ x1 = b3
que na forma matricial se escreve:
2 32 3 2 3
1 ¡1 0 x1 b1
6 76 7 6 7
4 0 1 ¡1 5 4 x2 5 = 4 b2 5
¡1 0 1 x3 b3
108
uvel para b1 +b2 +b3 = 0,
Somando todas as equa»c~oes, temos que o sistema linear ¶e sol¶
ou seja, quando o vetor
2 3 2 3
b1 1
6 7 6 7
b = 4 b2 5 ¶e ortogonal ao vetor y = 4 1 5
b3 1
109
Damos o seguinte teorema:
Teorema 6.4
A aplica»c~ao do espa»co linha no espa»co coluna ¶e invert¶³vel. Todo vetor b 2 Rm
no espa»co coluna ¶e imagem de um u ¶ nico vetor xlinha 2 Rn , no espa»co linha.
Prova Se o vetor b est¶a no espa»co coluna, ^ele ¶e uma combina»c~ao linear Ax das
colunas de A. Com efeito, ^ele ¶e Axlinha , com xlinha no espa»co linha, uma vez que as
componentes do espa»co nulo de A d~ao Axnulo = 0. Seja um outro vetor ylinha no
espa»co linha dando Aylinha = b, assim obtemos A(xlinha ¡ ylinha ) = b ¡ b = 0. Da¶³,
temos que xlinha ¡ ylinha pertence ao espa»co nulo de A e espa»co linha de A, e como
estes s~ao complementares temos que xlinha ¡ ylinha = 0, ou seja: xlinha = ylinha .
Logo, um u ¶ nico vetor do espa»co linha de A ¶e levado no vetor b 2 Rm .
Conclus~ ao
"Toda matriz A, m £ n, transforma seu espa»co linha no seu espa»co coluna."
Nestes espa»cos r- dimensionais, a matriz A ¶e invert¶³vel quando o seu espa»co nulo
¶e zero. Quando vamos na dire»c~ao oposta,ou seja, quando aplicamos At de R(A) para
R(At ), ela n~ao de¯ne a aplica»c~ao inversa. At move os espa»cos corretamente, mas
esta aplica»c~ao n~ao ¶e biun¶³voca. Temos que A¡1 existe () posto(A) = r = m = n.
Quando falha a exist^encia de A¡1 , procuramos sua substituta natural. Ela ¶e
chamada pseudoinversa, e a denotamos por A+ . Ela inverte a matriz A quando ¶e
poss¶³vel: A+ Ax = x para x 2 R(At ). No espa»co nulo µa esquerda nada pode ser
feito:A+ y = 0.
6.4 Proje»c~
ao em Subespa»cos
Suponhamos que dado um ponto b 2 Rn queremos encontrar sua dist^ancia a uma
reta com vetor dire»c~ao a 2 Rn . Queremos encontrar nesta reta um ponto p, o mais
pr¶oximo de b. Geometricamente, temos em R3 , a reta que liga o ponto b ao ponto
p ¶e perpendicular ao vetor a. (Veja Figura 6.2)
A situa»c~ao ¶e a mesma quando, ao inv¶es de uma reta na dire»c~ao do vetor a, temos
um plano em uma dada dire»c~ao - ou mais geralmente, qualquer subespa»co S de Rn .
Neste caso, o problema consiste em encontrar o ponto p no subespa»co S que ¶e mais
pr¶oximo de b. Este ponto p ¶e a proje»c~ao de b neste subepa»co S. Quando projetamos
b em S, p ¶e um ponto onde a perpendicular encontra o subespa»co S.
Uma das aplica»c~oes desta proje»c~ao consiste exatamente no problema da solu»c~ao
pelo m¶etodo dos m¶³nimos quadrados para um sistema sobredeterminado. Neste
problema, o vetor b representa os dados, por exemplo, coletados de um experimento,
e estes dados contem alguns erros neste subespa»co. Quando queremos escrever o
110
Figura 6.2: Proje»c~ao em Subespa»cos
vetor b como uma combina»c~ao linear dos vetores da base neste subespa»co, isto n~ao
pode ser feito, pois as equa»c~oes s~ao inconsistentes e n~ao t^em solu»c~ao."O m¶etodo dos
m¶³nimos quadrados seleciona o ponto p como uma melhor escolha poss¶³vel.
Retornando ao Cap¶³tulo 1, dados dois vetores a e b 2 Rn , com a 6 = 0 podemos
t t
de¯nir o vetor ta, onde t = a b=a a, como a proje»c~ao do vetor b ao longo do vetor
a. Assim, a proje»c~ao p deve ser um m¶ ultiplo do vetor a, que aqui escrevemos como:
p = xa, onde queremos encontrar x. Usando a interpreta»c~ao geom¶etrica em R3 ,
temos que o segmento de reta que vai de b µa p = xa ¶e perpendicular ao vetor a:
Assim, de¯nimos:
De¯ni»c~
ao 1
De¯nimos a proje»c~ao b na reta que passa pela origem 0 e dire»c~ao a como:
at b
p = xa = a
at a
Em R3 , temos a seguinte interpreta»c~ao correta para p. (Figura abaixo)
Temos que k b ¡ p k2 n~ao pode ser negativa, assim:
111
Schwarz:
j at b j·k a k k b k
at b
x=
at a
ap¶os o vetor a. Procedendo desta forma, escrevemos:
p = Pb
onde
aat
P =
at a
P ¶e de¯nida como a matriz de proje»c~ao que multiplicada pelo vetor b produz a
proje»c~ao p.
Observe que o produto de um vetor coluna por um vetor linha d¶a uma matriz
quadrada, que em seguida, ¶e dividida pelo n¶umero at a.
Exemplo 1
A matriz P que projeta na reta de dire»ca~o de a = (1; 1; 1) ¶e:
2 3 2 3
1 1=3 1=3 1=3
aat 1 6 7h i
6 7
P = t = 4 1 5 1 1 1 = 4 1=3 1=3 1=3 5
aa 3
1 1=3 1=3 1=3
112
iii) O espa»co nulo N(P ) consiste do plano perpendicutar µa a.
Toda coluna ¶e um m¶ ultiplo do vetor a, de modo que P b est¶a na reta de dire»c~ao a.
Estes vetores que projetam em p = 0 s~ao especialmente importantes. Eles ^ satisfazem
a rela»c~ao at b = 0, isto ¶e, eles s~ao perpendiculares ao vetor a e suas componentes ao
longo da reta s~ao nulas. Eles^ pertencem ao plano perpendicular, que ¶e o espa»co nulo
de P .
Por outro, lado como a matriz P ¶e sim¶etrica, o espa»co linha ¶e igual ao espa»co
coluna.
Exemplo 2
Vamos tomar a proje»c~ao no plano-xy na dire»c~ao do ^angulo µ. A reta tem dire»c~ao
a = (cos µ; sen µ) e a matriz de proje»c~ao ¶e:
" #
c h i
c s " #
aat s c2 cs
P= t = " #=
aa h i c cs s2
c s
s
onde c = cos µ; s = sen µ e c2 + s2 = 1.
Vimos esta matriz de proje»c~ao em transforma»c~oes lineares.
6.5 Proje»c~
oes e Aproxima»c~
ao pelos M¶³nimos Quadra-
dos
Vimos que o sistema linear Ax = b tem ou n~ao solu»c~ao. Se o vetor b n~ao est¶a no
espa»co coluna, (R(A)),o sistema linear ¶e inconsistente e n~ao temos como resolver
o sistema linear. Contudo, existem situa»c~oes pr¶aticas em que erros em algumas
das equa»c~oes provocam inconsit^encia do sistema linear. Um exemplo cl¶assico disso ¶e
quando temos diversas medidas de valores (x; y) no plano e queremos encontrar a reta
que passa por estes pontos. Geralmente, procuramos o valor do vetor x 2 Rn que
minimiza a m¶edia do erro nas m equa»c~oes dadas. Como existem diversas maneiras
de calcular esta m¶edia, ¶e mais conveniente tomar a soma dos quadrados dos erros.
Caso 1: Regress~ ao linear simples
Vamos descrever o M¶etodo da Regress~ao Linear usando o seguinte exemplo:
Exemplo
Seja o sistema linear a uma vari¶avel:
2x = b1
3x = b2
4x = b3
113
A solu»c~ao x deste problema existe somente quando o vetor b = (b1 ; b2 ; b3 ) est¶a
na mesma dire»c~ao da reta de dire»c~ao a = (2; 3; 4). Apesar da insolubilidade do
sistema linear, equa»co~es inconsistentes aparecem na pr¶
atica e o problema deve ser
resolvido. Assim, apelamos pelo M¶etodo de Aproxima»c~ao pelo M¶³nimos Quadrados
que consiste em encontrar um valor de x que minimiza a m¶edia dos erros nas m
equa»c~oes (m = 3, no exemplo dado). Existem diversas maneiras de se de¯nir tal
m¶edia, mas a mais conveniente ¶e a soma dos quadrados.
Quando a solu»c~ao existe, o erro m¶³nimo ¶e E = 0. Caso n~ao exista, o m¶³nimo ser¶a
dado pelo valor de x quando a derivada primeira da fun»ca~o par¶abola E 2 ¶e igual a
zero, ou seja, quando:
dE 2
= 2((2x ¡ b1 )2 + (3x ¡ b2 )3 + (4x ¡ b3 )4) = 0
dx
Resolvendo esta equa»c~ao em x, obtemos a solu»c~ao pelos m¶³nimos quadrados do
sistema linear ax = b:
2b1 + 3b2 + 4b3
x=
22 + 32 + 42
Identi¯camos, nesta equa»c~ao, o valor at b no numerador e o valor at a no denominador.
No caso geral para m equa»c~oes, pretendemos resolver o sistema linear ax = b
minimizando a fun»c~ao:
dE 2
= 2((a1 x ¡ b1 )a1 + (a2 x ¡ b2 )a2 + ¢ ¢ ¢ + (am x ¡ bm )am ) = 0
dx
e assim, escrevemos:
"A solu»c~ao pelos M¶etodo dos M¶³nimos Quadrados ¶e dada por:
at b
x= :"
at a
A interpreta»c~ao geom¶etrica para o M¶etodo dos M¶³nimos Quadrados nos indica que
a reta que liga b ao ponto p na reta de dire»c~ao do vetor a deve ser perpendicular µa
a, ou seja:
at b t
at (b ¡ xa) = at b ¡ a a = 0:
at a
114
Caso 2: M¶ etodo dos M¶³nimos Quadrados Multivari¶ avel
Vamos considerar o problema similar ao anterior, onde agora x 2 Rn ; b 2 Rm .
Neste caso, temos de considerar o sistema linear
Ax = b
E =k Ax ¡ b k
At (b ¡ Ax) = 0 ou At Ax = At b;
At Ax = At b
115
Se as colunas da matriz A s~ao linearmente independntes, ent~ao At A ¶e invert¶³vel e
x = (At A)¡1 At b:
Exemplo
Seja encontrar a solu»c~ao pelo M¶etodo do M¶³nimos Quadrados do sistema linear:
x1 ¡ x2 = 4
3x1 + 2x2 = 1
¡2x1 + 4x2 = 3
ou seja:
x1 ¡ x2 = ¡0:3228
3x1 + 2x2 = 1:5404
¡2x1 + 4x2 = 1:6491
Observe que:
3 2
h i 4:3228
6 7
at1 (b ¡ Ax) = 1 3 ¡2 4 ¡0:5404 5 = 0
1:3509
2 3
h i 4:3228
6 7
at2 (b ¡ Ax) = ¡1 2 4 4 ¡0:5404 5 = 0
1:3509
qit qj = ±ij ;
117
onde
(
1 se i = j
±ij =
0 se i 6
=j
Propriedades
1 - Se as colunas da matriz Q, n £ n, s~ao ortonormais ent~ao:
2 3 2 3
q1t 1 0 ::: 0
6 t 7h i 6 7
6 q2 7 6 0 1 ::: 0 7
Qt Q = 6 7 6
6 .. 7 q1 q2 : : : qn = 6 .. .. . . .
7
7
4 . 5 4 . . 0 5
t
qn 0 0 ::: 1
Portanto, Qt Q = I () Qt = Q¡1 .
Exemplo 1
Seja a matriz de rota»c~ao dada no cap¶³tulo anterior:
" #
cos µ ¡sen µ
Q=
sen µ cos µ
Temos que:
" #
cos µ sen µ
Qt = Q¡1 =
¡sen µ cos µ
Vimos que a transforma»c~ao dada por esta matriz Q gira todo vetor em R2 de um
^angulo µ e Qt gira este vetor de volta de um ^angulo ¡ µ.
Exemplo 2
Toda matriz de permuta»c~ao P ¶e uma matriz ortogonal.
De fato, a posi»c~ao do coe¯ciente 1 na k-¶esima coluna de P corresponder¶a µa
posi»c~ao deste mesmo coe¯ciente na k-¶esima linha de P t . Por exemplo, se
2 3
0 1 0
6 7
P = 4 0 0 1 5;
1 0 0
temos que:
2 3
0 0 1
6 7
Pt = P¡1 =4 1 0 0 5
0 1 0
2 - A multiplica»c~ao de uma matriz ortogonal Q, n £ n, por um vetor x 2 Rn
preserva seu comprimento, ou seja:
k Qx k=k x k 8x 2 Rn
118
A matriz ortogonal Q, tamb¶em preserva produtos internos e ^angulos, uma vez que:
(Qx)t (Qy) = xt Qt Qy = xt y
k Qx k2 =k x k2 8x 2 Rn
pois,
(Qx)t (Qx) = xt Qt Qx = xt x:
b = x1 q1 + x2 q2 + : : : + xn qn (¤)
qit b = xi qit qi ; i = 1; 2; : : : ; n
xi = qit b; i = 1; 2; : : : ; n
Portanto,
Qx = b
x = Q¡1 b
119
Como Q¡1 = Qt a solu»c~ao se escreve:
2 3 2 3
q1t q1t b
6 7h i 6 7
6 q2t 7 6 q2t b 7
x=Q b=6
6
t
.. 7 b =6
7 6 .. 7
7
4 . 5 4 . 5
qnt qnt b
Obs.1:
A interpreta»c~ao para o vetor b na f¶ormula (**) em termos de proje»c~oes ¶e a
seguinte: "Todo vetor b ¶e a soma de suas proje»c~oes unidimensionais nas retas de
dire»c~oes qi ; i = 1; 2; : : : ; n."
Uma vez que as proje»c~oes s~ao ortogonais, podemos usar a rela»c~ao de Pit¶agoras
em Rn :
ou seja:
k b k2 =k Qt b k2
120
onde Qt ¶e a inversa µa esquerda de Q.
Se a colunas da matriz Q s~ao ortonormais, ent~ao o problema dos m¶³nimos quadra-
dos torna-se f¶acil. Assim fazemos:
Qx = b (sistema retangular insol¶ uvel);
Q Qx = Q b (equa»c~ao normal para x, na qual Qt Q = I)
t t
x = Qt b (xi = qit b)
p = Qx (proje»c~ao do vetor b nas colunas ¶e:(q1t b)q1 + (q2t b)q2 + : : : + (qnt b)qn )
p = QQt b (de modo que a matriz de proje»c~ao ¶e P = QQt ).
As f¶ormulas s~ao do tipo p = Ax e P = A(At A)¡1 At , para matriz A retangular.
No caso, como Q ¶e uma matriz ortogonal, Qt Q = I, e a parte pesada do M¶etodo
dos M¶³nimos Quadarados desaparece. As proje»c~oes nos eixos s~ao acopladas e p ¶e a
soma das proje»co~es unidimensionais. (Veja ¯gura 3.10)
Vale a pena ressaltar que Qt Q ¶e a matriz identidade I, n £ n, enquanto que QQt
¶e uma matriz de proje»c~ao P , m £ m.
Exemplo
Suponhamos que queremos projetar o ponto b = (x; y; z) do espa»co no plano-xy.
Sua proje»c~ao ¶e p = (x; y; 0) onde pode ser visto como a soma das proje»c~oes nos eixos
x e y, como segue:
2 3 2 3
1 x
6 7 t 6 7
q1 = 4 0 5 e (q1 b)q1 = 4 0 5
0 0
2 3 2 3
0 0
6 7 t 6 7
q2 = 4 1 5 e (q2 b)q2 = 4 1 5
0 0
121
3 - Processo de Ortogonaliza»c~ ao de Gram-Schmidt
O processo de Ortogonaliza»c~ao de Gram-Schmidt consiste em (no caso particular
de R3 ), dados tr^es vetores a; b; c 2 R3 , encontrar os vetores q1 ; q2 e q3 a partir destes
vetores iniciais de tal forma que os vetores q1 ; q2 e q3 sejam ortonormais.
Inicialmente, calculamos:
a
q1 =
kak
e, em seguida, calculamos:
~b = b ¡ (q t b)q1
1
Finalmente, calculamos:
Exemplo
Dados os tr^es vetores linearmente independentes:
2 3 2 3 2 3
1 1 2
6 7 6 7 6 7
a = 4 0 5; b = 4 0 5; c = 4 1 5
1 0 0
122
2 p 3
~b 2=2
6 7
q2 = =4 0 5
~
kbk p
¡ 2=2
2 3
0
c~ 6 7
q3 = =4 1 5
k c~ k
0
6.7 Fatora»c~
ao QR
Vamos considerar a matriz A, m£n, com vetores coluna linearmente independentes.
Pretendemos decompor a matriz A no produto das matrizes Q,m £ n, e R, n £ n,
onde Q ¶e uma matriz ortogonal e R ¶e uma matriz triangular superior. Assim, seja
a matriz A, com os vetores colunas a; b; c 2 Rm :
2 3
.. .. ..
. . .
6 7
A=6 4 a b c 7
5
.. .. ..
. . .
123
para iniciarmos o processo. Vamos ¯nalizar com a matriz Q seguinte:
2 3
.. .. ..
. . .
6 7
Q = 4 q1 q2 q3 7
6
5
.. .. ..
. . .
Exemplo
Vamos tomar a matriz A, 3 £ 3, seguinte:
2 3
1 1 2
6 7
A=4 0 0 1 5
1 0 0
124
na matriz R s~ao q1t b; q1t c e q2t c e os coe¯cientes extradiagonais inferiores s~ao nulos
decorrente da forma construtiva do m¶etodo de ortogonaliza»c~ao de Gram-Schimidt.
"Toda matriz A, n£n, com colunas linearmente independentes pode ser fatorada
em A = QR. As colunas da matriz Q, m £ n, s~ao ortonormais, e a matriz R, n £ n, ¶e
triangular superior e invert¶³vel. Quando m = n, todas as matrizes s~ao quadradas."
A import^ancia principal da ortogonaliza»c~ao reside no fato que ela simpli¯ca o
Problema dos M¶³nimos Quadrados Ax = b. No caso, temos:
At A = Rt Qt QR = Rt R
Rt Rx = Rt Qt b ou Rx = Qt b
onde a resolu»c~ao desta u ¶ltima equa»c~ao ¶e simples, uma vez que R ¶e uma matriz
triangular superior. O custo real do m¶etodo ¶e de mn2 opera»c~oes, decorrrente das
opera»c~oes na obten»c~ao da matriz Q e da matriz R usando o processo de ortogonal-
iza»c~ao de Gram-Schimidt.
125
Exerc¶³cios Cap¶³tulo VI
1 - Considerando que S ¶e um plano gerado pelos vetores (x1 ; x2 ; x3 ; x4 ) 2 R4
que satisfaz
x1 + x2 + x3 + x4 = 0;
escreva uma base para S ? . Crie uma matriz P que tenha S como seu espa»co
nulo.
2 - Encontre a matriz de proje»c~ao P no espa»co gerado pelos vetores coluna
2 3 2 3
1 1
6 7 6 7
a1 = 4 0 5 ; a2 = 4 1 5 :
1 ¡1
a) Esboce e encontre uma reta que leva µa minimiza»c~ao da soma dos quadrados
(C ¡ D ¡ 4)2 + (C ¡ 5)2 + (C + D ¡ 9)2 ;
b) Qual a proje»c~ao de b no espas»co coluna de A?
4 - Aplique o processo de Gram-Schimidt nos vetores
2 3 2 3 2 3
0 0 1
6 7 6 7 6 7
a = 4 0 5;b = 4 1 5;c = 4 1 5:
1 1 1
126
Cap¶³tulo 7
Determinantes
7.1 Fun»c~
ao Determinante
Um determinante ¶e um certo tipo de fun»c~ao que associa um n¶
umero real a uma
matriz quadrada.
Antes de di¯nir a func~ao determinate, vamos dar as seguintes de¯ni»co~es:
De¯ni»
c~ao 1
Uma permuta»c~ao do conjunto de inteiros f1; 2; 3; : : : ; ng ¶e um rearranjo destes
inteiros em alguma ordem sem omiss~oes ou repeti»c~oes.
Nota»c~ ao:Permuta»c~ao arbitr¶aria no conjunto Sn = conjunto das permuta»c~oes em
1; 2; 3; : : : ; n ¶e dada por: ¾ = j1 j2 : : : jn ; onde ji = ¾(i).
De¯ni»
c~ao 2
Uma permuta»c~ao ¶e chamada par se o n¶
umero total de invers~
oes ¶e um inteiro par
e ¶e chamda ¶³mpar se o n¶umero total de invers~oes ¶e ¶³mpar.
Obs.: Ocorre uma invers~ao numa permuta»c~ao sempre que um inteiro maior
precede um menor.
Exemplo
S3 = f1; 2; 3g
127
De¯ni»
c~
ao 3
De¯nimos o sinal da permuta»c~ao ¾ por:
(
1 se ¾ ¶e par
sn(¾) =
¡1 se ¾ ¶e ¶³mpar
De¯ni»
c~
ao 4
De¯nimos a fun»c~ao det para uma matriz A; n £ n,por:
Temos que:
det(A) = a11 a22 a33 ¡ a11 a23 a32 ¡ a12 a21 a33 + a12 a23 a31 + a13 a21 a32 ¡ a13 a22 a31
7.2 C¶
alculo de Determinantes - Redu»c~
ao por Lin-
has
Propriedades B¶ asicas
Teorema 7.1
Seja A uma matriz quadrada n £ n. Se a matriz A tem uma linha ou uma coluna
de zeros, ent~ao det(A) = 0.
Prova
De fato, cada produto elementar ter¶a um zero como fator. Assim, o somat¶orio
dos produtos elementares ser¶a igual µa zero.
Teorema 7.2
Se a matriz A; n £ n ¶e triangular superior (inferior ou diagonal), ent~ao det(A)
¶e o produto das entradas na diagonal principal da matriz, ou seja, det(A) =
a11 a22 : : : ann .
Prova
128
De fato, cada produto elementar ter¶a um fator n~ao nulo da diagonal, sendo os
outros fatores nulos. Assim, o somat¶orio dos produtos elementares ser¶a igual µa zero.
Exemplo 2
Seja a matriz A; 4 £ 4, triangular inferior:
2 3
a11 0 0 0
6 a 0 7
6 21 a22 0 7
A=6 7
4 a31 a32 a33 0 5
a41 a42 a43 a44
Vamos considerar o produto elementar a1j1 a2j2 a3j3 a4j4 t¶³pico. Como a12 = a13 =
a14 = 0, precisamos de j1 = 1, ent~ao j2 6
= 1. Assim, j2 = 2; 3; 4. Como a23 = a24 = 0,
para ter um produto elementar n~ao nulo devemos ter j2 = 2. Continuando deste
modo, obtemos: det(A) = a11 a22 a33 a44 .
Teorema 7.3
Seja A uma matriz quadrada n £ n:T emosque : det(A) = det(At ).
Prova
Se A = (aij ); n £ n, ent~ao At = (bij ), onde bij = aji ; i = 1; 2; : : : ; n; j =
1; 2; : : : ; n.
Logo,
De¯ni» c~ao 5
Uma matriz E; n £ n, que pode ser obtida da matriz identidade In ; n £ n, execu-
tando uma u ¶nica opera»c~ao elementar sobre linhas ¶e chamada uma matriz elementar.
Teorema 7.4
Seja A uma matriz quadrada n £ n.
a) Se B ¶e a matriz, n £ n, que resulta da multiplica»c~ao de uma u ¶ nica linha ou
uma u¶ nica coluna de A por um escalar k, ent~ao: det(B) = k det(A);
b) Se B ¶e a matriz, n £ n, que resulta da permuta»c~ao de duas linhas ou duas
colunas de A, ent~ao:det(B) = ¡ det(A);
c) Se B ¶e a matriz, n £ n, que resulta quando um m¶ ultiplo de uma linha de A ¶e
somado a outra linha de A ou quando um m¶ ultiplo de uma coluna de A ¶e somado
a outra coluna de A, ent~ao: det(B) = det(A).
129
Prova( ver Apostol,Vol II [3])
Corol¶ ario 1
Seja E uma matriz elementar n £ n.
a) Se E resulta da multiplica»c~ao de uma u ¶nica linha ou uma u¶ nica coluna de In
por um escalar k, ent~ao: det(E) = k;
b) Se E resulta da permuta»c~ao de duas linhas ou duas colunas de In , ent~ao:det(E) =
¡1;
c) Se E resulta quando um m¶ ultiplo de uma linha de In ¶e somado a outra linha
de In ou quando um m¶ ultiplo de uma coluna de In ¶e somado a outra coluna de In ,
ent~ao: det(E) = 1.
Prova
Consequ^encia imediata do teorema anterior.
Teorema 7.5
Se A uma matriz n £ n, com duas linhas proporcionais ou duas colunas propor-
cionais, ent~ao:det(A) = 0.
Prova
Basta fazer a redu»c~ao da matriz A introduzindo uma linha de zeros.
Exemplo 3
Seja calcular det(A), onde:
2 3
0 1 5
6 7
A = 4 3 ¡6 9 5
2 6 1
? ? ? ? ? ?
? 0 1 5 ? ? 3 ¡6 9 ? ? 1 ¡2 3 ?
? ? ? ? ? ?
? ? ? ? ? ?
det(A) = ? 3 ¡6 9 ? = ¡ ? 0 1 5 ? = ¡3 ? 0 1 5 ? =
? ? ? ? ? ?
? 2 6 1 ? ? 2 6 1 ? ? 2 6 1 ?
? ? ? ?
? 1 ¡2 3 ? ? 1 ¡2 3 ?
? ? ? ?
? ? ? ?
= ¡3 ? 0 1 5 ? = ¡3 ? 0 1 5 ? = ¡3 £ 1 £ (¡55) = 165
? ? ? ?
? 0 10 ¡5 ? ? 0 0 ¡55 ?
Teorema 7.6
Sejam A e B matrizes, n £ n, e seja k um escalar qualquer. Temos que:
a) det(k A) = kn det(A);
b) Na maioria dos casos, det(A + B) 6= det(A) + det(B);
130
c) det(AB) = det(A) det(B);
d) Uma matriz quadrada A; n £ n, ¶e invert¶³vel () det(A) 6
= 0;
¡1 1
e) det(A ) = det(A) .
Prova( ver Apostol,Vol II [3])
7.3 C¶
alculo de Determinantes - Expans~
ao em Cofa-
tores
De¯ni» c~ao 6
Seja a matriz A; n£n. O determinante menor da entrada aij , ou simplesmente, o
menor de aij ¶e denotado por Mij e ¶e de¯nido como o determinante da submatriz por
umero (¡1)(i+j) Mij
supress~ao da i-¶esima linha e da j-¶esima coluna da matriz A. O n¶
¶e denotado por Cij e ¶e chamado o cofator do coe¯ciente aij .
Exemplo 4
Dada a matriz A; 3 £ 3:
2 3
3 1 ¡4
6 7
A=4 2 5 6 5
1 4 8
O cofator de a11 = 3 ¶e:
? ?
? ?
1+1 ? 5 6 ?
C11 = (¡1) ? ? = 16
? 4 8 ?
ou,
n
X
det(A) = aik Cik = a1k C1k + a2k C2k + : : : + ank Cnkn
i=1
131
Prova( ver Apostol,Vol II [3])
Exemplo 4
Dada a matriz A; 3 £ 3:
2 3
0 2 3
6 7
A=4 4 5 1 5
2 ¡1 3
Temos que:
? ? ? ? ? ?
? 5 1 ? ? ? ? ?
1+1 ? ? 1+2 ? 4 1 ? 1+3 ? 4 5 ?
det(A) = 0 £ (¡1) ? ? + 2 £ (¡1) ? ? + 3 £ (¡1) ? ?=
? ¡1 3 ? ? 2 3 ? ? 2 ¡1 ?
= 0 ¡ 2 £ 10 + 3 £ (¡14) = ¡62:
7.4 C¶
alculo da inversa da matriz A usando Ad-
junta Cl¶
assica
De¯ni»c~ao 7
Seja a matriz A; n £ n. De¯nimos a matriz dos cofatores de A, denotada por C,
a matriz n £ n, cujos coe¯cientes s~ao os cofatores da matriz A, ou seja:
2 3
C11 C12 : : : C1n
6 7
6 C21 C22 : : : C2n 7
C=6 .6 .. .. 7
. ... 7
4 . . . 5
Cn1 Cn2 : : : Cnn
Teorema 7.8
Se A ¶e uma matriz, n £ n, invert¶³vel, ent~ao:
1
A¡1 = Adj(A)
det(A)
132
Prova( ver Apostol,Vol II [3])
Exemplo
Seja calcular a inversa da matriz A do exemplo anterior, onde det(A) = ¡62
(det(A) 6
= 0,A ¶e invert¶³vel).
2 3
0 2 3
6 7
A=4 4 5 1 5
2 ¡1 3
alculo de Adj(A)
C¶
Temos que:
? ? ? ? ? ?
? 5 1 ? ? 4 1 ? ? 4 5 ?
? ? ? ? ? ?
C11 = ? ? = 16; C12 = ? ? = 10; C13 = ? ? = ¡14;
? ¡1 3 ? ? 2 3 ? ? 2 ¡1 ?
? ? ? ? ? ?
? 2 3 ? ? 0 3 ? ? 0 2 ?
? ? ? ? ? ?
C21 =? ? = 9; C22 = ? ? = ¡6; C23 = ? ? = ¡4;
? ¡1 3 ? ? 2 3 ? ? 2 ¡1 ?
? ? ? ? ? ?
? 2 3 ? ? 0 3 ? ? 0 2 ?
? ? ? ? ? ?
C31 =? ? = ¡13; C32 = ? ? = ¡12; C33 = ? ? = ¡8;
? 5 1 ? ? 4 1 ? ? 4 5 ?
2 3
16 9 ¡13
6 7
Adj(A) = 4 10 ¡6 ¡12 5
¡14 ¡4 ¡8
alculo de A¡1 Usando a f¶ormula do teorema 8, obtemos:
C¶
2 3
16 9 ¡13
1 6 7
A¡1 = 4 10 ¡6 ¡12 5
(¡62)
¡14 ¡4 ¡8
133
que pode tamb¶em ser expresso utilizando os vetores coordenados unit¶arios i; j e k:
? ? ? ? ? ?
? a a ? ? a a ? ? a a ?
? 2 3 ? ? 3 1 ? ? 1 2 ?
C= A£B =? ?i + ? ?j + ? ?k
? b2 b3 ? ? b3 b1 ? ? b1 b2 ?
ou melhor:
? ?
? i j k ?
? ?
? ?
C = A £ B = ? a1 a2 a3 ?
? ?
? b1 b2 b3 ?
Exemplo
Qual o produto vetorial dos vetores A = ¡i + 2k e B = 2i + j ¡ k?
Solu»c~
ao
? ?
? i j k ?
? ?
? ?
C = A £ B = ? ¡1 0 2 ? =
? ?
? 2 1 ¡1 ?
? ? ? ? ? ?
? 0 2 ? ? ¡1 2 ? ? ¡1 0 ?
? ? ? ? ? ?
=? ?i ¡ ? ?j + ? ? k = ¡2i + 3j ¡ k:
? 1 ¡1 ? ? 2 ¡1 ? ? 2 1 ?
Observe que:
C?AeC?B
De fato:
A ¢ C = (¡1; 0; 2) ¢ (¡2; 3; ¡1) = 2 ¡ 2 = 0 e B ¢ C = (2; 1; ¡1) ¢ (¡2; 3; ¡1) =
¡4 + 3 + 1 = 0.
Interpreta»c~ao geom¶ etrica do Produto Vetorial
Sejam A e B dois vetores n~ao nulos em R3 fazendo um ^angulo µ entre ^eles, onde
0 · µ · ¼. Podemos escrever:
A ¢ B =k A k k B k cos µ
k A £ B k2 =k A k2 k B k2 ¡(A ¢ B)2 =
=k A k2 k B k2 ¡(k A k2 k B k2 cos2 µ) =
=k A k2 k B k2 (1 ¡ cos2 µ) =
134
=k A k2 k B k2 sin2 µ
Portanto,
k A £ B k=k A k k B k sin µ:
135
Cap¶³tulo 8
Autovalores e Autovetores
8.1 Introdu»c~
ao
No Cap¶³tulo 2 vimos o M¶etodo de Elimina»c~ao de Gauss para obten»c~ao da solu»c~ao
do Sistema Linear Ax = b, onde A ¶e uma matriz n £ n e x e b s~ao vetores em Rn .
Agora, estamos interessados em resolver o problema Ax = ¸x, onde A ¶e uma matriz
n£n ,x ¶e um vetor em Rn e ¸ ¶e um n¶ umero em R (podemos extender o estudo ao caso
complexo). A resolu»c~ao de ambos os problemas pode ser obtida via determinante,
sendo que no primeiro problema usamos a regra de Cramer para a obten»c~ao da
solu»ca~o x = A¡1 b, quando esta ¶e u ¶nica e no segundo problema encontramos as
ra¶³zes do polin^omio det(A ¡ ¸I), que ser~ao os autovalores da matriz A.
O segundo problema aparece em muitas aplica»c~oes. Podemos introduz¶³-lo via
solu»ca~o de equa»co~es diferenciais.
Exemplo
Seja o par de equa»c~oes:
dv
= 4v ¡ 5w; v = 8 em t = 0
dt
dw
= 2v ¡ 3w; w = 5 em t = 0
dt
Na forma matricial, escrevemos:
du
= Au; u = u0 em t = 0
dt
onde
" # " # " #
v(t) 8 4 ¡5
u(t) = ; u0 = em t = 0 e A =
w(t) 5 2 ¡3
136
Procuramos por solu»c~oes da forma:
v(t) = e¸t y
w(t) = e¸t z
ou na forma vetorial:
u(t) = e¸t x
du
Calculando dt
e substituindo no problema na forma matricial, obtemos:
4y ¡ 5z = ¸y
2y ¡ 3z = ¸z
O vetor x associado µa ¸, solu»c~oes da equa»c~ao Ax = ¸x, nos d¶a a solu»c~ao u(t) = e¸t x,
onde vemos que o n¶ umero e¸t cresce ou decresce vezes um vetor ¯xo x.
Ax = ¸x
(A ¡ ¸I)x = 0;
137
Teorema 8.1
O n¶ umero ¸ e autovalor da matriz A; n £ n () det(A ¡ ¸I) = 0.
Prova( ver Apostol,Vol II [3])
De¯ni» c~
ao 2
A equa»c~ao det(A ¡ ¸I) = 0 pode ser escrita na forma f (¸) = ¸n + c1 ¸n¡1 + ¢ ¢ ¢ +
cn¡1 ¸ + cn , chamado de polin^omio caracter¶³stico.
Para cada raiz ¸ do polin^omio caracter¶³stico f(¸) corresponde um autovetor x,
solu»ca~o do sistema linear homog^eneo:
(A ¡ ¸I)x = 0:
Exemplo 1
Seja a matriz:
2 3
2 1 1
6 7
A=4 2 3 4 5;
¡1 ¡1 ¡2
Solu»c~ ao
Autovalores: ¸1 = 1; ¸2 = ¡1; ¸3 = 3.
Autovetores Associados: Basta resolver os sistemas lineares Ax = ¸i x; i =
1; 2; 3, obtendo:
Para ¸1 = 1; x = t(1; ¡1; 0); t 2 R; t 6
= 0;
Para ¸2 = ¡1; x = t(0; 1; ¡1); t 2 R; t 6
= 0;
Para ¸3 = 3; x = t(2; 3; ¡1); t 2 R; t 6
= 0.
De¯ni» ao 3 De¯nimos o subespa»co invariante o subespa»co gerado pelos autove-
c~
tores associados ao autovalor ¸ e o notamos por: E(¸).
Para o exemplo anterior temos:
E(1) = f(1; ¡1; 0)g; E(¡1) = f(0; 1; ¡1)g; E(3) = f(2; 3; ¡1)g
138
Exemplo 2
Seja a seguinte matriz de proje»c~ao:
" #
1=2 1=2
P=
1=2 1=2
f (¸) = (¸ ¡ ¸1 )(¸ ¡ ¸2 ) : : : (¸ ¡ ¸n )
ou ainda:
onde o termo constante cn e o coe¯ciente c1 do termo ¸n¡1 s~ao dados pelas f¶ormulas:
cn = (¡1)n ¸1 ¸2 : : : ¸n
c1 = ¡(¸1 + ¸2 + : : : + ¸n )
e ainda:
139
De¯ni»c~
ao 4
Chama-se tra»co de A a soma das ra¶³zes do polin^omio caracter¶³stico f (¸) e ¶e
denotado por tr(A). Escrevemos:
n
X
tr(A) = ¸i = ¡c1
i=1
Propriedades de tr(A)
Sejam A e B matrizes, n £ n. Temos que:
i) tr(A + B) = tr(A) + tr(B);
ii) tr(cA) = c tr(A); c escalar;
iii) tr(AB) = tr(BA);
iv) tr(At ) = tr(A).
Prova
Basta usar as propriedades da fun»c~ao determinante.
8.4 Diagonaliza»c~
ao de uma Matriz
Vamos desenvolver o estudo de dois problemas diferentes, por¶em equivalentes:
- O problema de autovetores: Dada uma matriz A; n £ n, existe uma base de
n£n
R consistindo de autovetores de A?
- O problema de diagonaliza»c~ao: Dada uma matriz A; n £ n, existe uma matriz
invert¶³vel S; n £ n, tal que S ¡1 AS ¶e uma matriz diagonal?
Damos a seguinte de¯ni»c~ao:
De¯ni» c~
ao 5
Uma matriz A; n £ n, ¶e dita diagonaliz¶avel se existir uma matriz invert¶³vel S tal
que S ¡1 AS ¶e uma matriz diagonal, neste caso, dizemos que S diagonaliza a matriz
A.
Teorema 8.2
Se A ¶e uma matriz, n £ n, ent~ao s~ao equivalentes as seguintes a¯rma»c~oes:
i) A matriz A ¶e diagonaliz¶avel;
140
ii) A matriz A tem autovalores linearmente independentes.
Prova
i) =) ii)
Se a matriz A ¶e diagonaliz¶avel, ent~ao existe uma matriz S invert¶³vel, que nota-
mos:
2 3
s11 s12 : : : s1n
6 7
6 s21 s22 : : : s2n 7
6 .. 7
S=6 .
. .. . .
. 7;
4 . . . 5
sn1 sn2 : : : snn
tal que S ¡1 AS ¶e uma matriz diagonal. Escrevemos: S ¡1 AS = ¤, onde:
2 3
¸1 0 ::: 0
6 7
6 0 ¸2 : : : 0 7
¤=6 6 .. .. . . . 7;
4 . . . .. 7
5
0 0 : : : ¸n
Da¶³, segue-se que AS = S¤, ou seja:
2 32 3 2 3
s11 s12 : : : s1n ¸1 0 : : : 0 ¸1 s11 ¸2 s12 : : : ¸n s1n
6 76 7 6 7
6 s21 s22 : : : s2n 7 6 0 ¸2 : : : 0 7 6 ¸1 s21 ¸2 s22 : : : ¸n s2n 7
AS = 6 6 .. .. . . .. 7
7
6 .
6 .. . . .. 7=6
7 6 .. .. ... .. 7
7
4 . . . . 5 4 .. . . . 5 4 . . . 5
sn1 sn2 : : : snn 0 0 : : : ¸n ¸1 sn1 ¸2 sn2 : : : ¸n snn
Denotando os vetores coluna de S por s1 ; s2 ; : : : ; sn temos que os vetores coluna de
AS s~ao sucessivamente lambda1 s1 ; lambda2 s2 ; : : : ; ¸n sn .Por outro lado, temos que
as sucessivas colunas de AS s~ao:
As1 ; As2 ; : : : ; Asn
Assim, devemos ter:
As1 = ¸1 s1 ; As2 = ¸2 s2 ; : : : ; Asn = ¸n sn
Como S ¶e invert¶³vel, estes vetores coluna s~ao todos n~ao nulos. Desta forma, ¸1 ; ¸2 ; : : : ; ¸n
s~ao autovalores de A com s1 ; s2 ; : : : ; sn autovetores associados. Al¶em do mais, como
S ¶e invert¶³vel, concluimos que s1 ; s2 ; : : : ; sn s~ao linearmente independentes.
ii) =) i)
Vamos supor que a matriz A tem n autovetores s1 ; s2 ; : : : ; sn linearmente inde-
pendentes correspondentes aos autovalores ¸1 ; ¸2 ; : : : ; ¸n e seja:
2 3
s11 s12 : : : s1n
6 7
6 s21 s22 : : : s2n 7
S=6 6 .. .. . . .. 7
7
4 . . . . 5
sn1 sn2 : : : snn
141
onde s1 ; s2 ; : : : ; sn s~ao os vetores coluna de S.
Os vetores coluna de AS s~ao:
onde
Assim,
2 3 2 32 3
¸1 s11 ¸2 s12 : : : ¸n s1n s11 s12 : : : s1n ¸1 0 : : : 0
6 7 6 76 7
6 ¸1 s21 ¸2 s22 : : : ¸n s2n 7 6 s21 s22 : : : s2n 76 0 ¸2 : : : 0 7
AS = 6
6 .. .. ... .. 7=6
7 6 .. .. . . .. 76
76 .. .. . . . 7 = S¤
7
4 . . . 5 4 . . . . 54 . . . .. 5
¸1 sn1 ¸2 sn2 : : : ¸n snn sn1 sn2 : : : snn 0 0 : : : ¸n
onde ¤ ¶e uma matriz diagonal com os autovalores ¸1 ; ¸2 ; : : : ; ¸n de A. Como,
por hip¶otese, os autovetores de A s~ao linearmente independentes, concluimos que
os vetores coluna de S s~ao linearmente independentes e da¶³ a matriz S invert¶³vel.
Desta forma, reescrevemos a igualdade anterior como S ¡1 AS = ¤, ou seja: a matriz
A ¶e diagonaliz¶avel.
Obs.: As matrizes A e ¤ t^em o mesmo polin^omio caracter¶³stico e portanto os
mesmos autovetores (A e ¤ s~ao semelhantes).
Exemplo 3
Seja a matriz A; n £ n:
2 3
5 ¡6 ¡6
6 7
A = 4 ¡1 4 2 5
3 ¡6 ¡4
Temos que a equa»c~ao caracter¶³stica de A ¶e:
(¸ ¡ 2)2 (¸ ¡ 1) = 0
142
Como existem tr^es autovetores linearmente independentes, tomamos como colunas
da matriz S os vetores coluna:
2 3 2 3 2 3
2 2 3
6 7 6 7 6 7
s1 = 4 1 5 ; s2 = 4 0 5 ; s3 = 4 ¡1 5
0 1 3
Desta forma, podemos concluir que a matriz A ¶e diagonalis¶avel, pois ela tem tr^es
autovetores linearmente independentes. Assim, escrevemos:
2 3
2 2 3
6 7
S = 4 1 0 ¡1 5
0 1 3
det(D ¡ ¸) = det(S ¡1 AS ¡ ¸I) = det(S ¡1 (A ¡ ¸I)S) = det(S ¡1 )det(A ¡ ¸I)det(S) = det(A ¡ ¸I)
143
Teorema 8.4
Seja A ¶e uma matriz quadrada n£n. Sejam ¸1 ; ¸2 ; : : : ; ¸k os autovalores distintos
de A e seja Wi = E(¸i ). S~ao equivalentes as seguintes a¯rma»c~oes:
i) A matriz A ¶e diagonaliz¶avel;
ii) O polin^omio caracter¶³stico de A ¶e:
dim(Wi ) = di ; i = 1; 2; : : : ; k:
ii)
8.5 Polin^
omios e Matrizes
Vamos considerar um polin^omio f (t) com escalares ai ; i = 0; 1; ldots; n em K (R ou
C):
De¯ni»
c~
ao 7
Tomando uma matriz A; n £ ncom coe¯cientes em K, podemos de¯nir:
144
Temos:
" #2 " # " # " #
1 2 1 2 1 0 18 14
f(A) = 2 ¡3 +7 =
3 4 3 4 0 1 21 39
e
" #2 " # " # " #
1 2 1 2 1 0 0 0
g(A) = ¡5 ¡2 =
3 4 3 4 0 1 0 0
Denotamos por B(t) a adjunta cl¶assica de A¡tI. Os elementos de B(t) s~ao cofatores
de matriz A ¡ tI, ou seja, s~ao polin^omios em t de grau · n ¡ 1. Assim:
ou seja,
145
Efetuando as opera»c~oes alg¶ebricas em ambos os lados desta equa»c~ao, obtemos para
k = n; n ¡ 1; : : : ; 0:
Bn¡1 = I
Bn¡2 ¡ ABn¡1 = an¡1 I
Bn¡3 ¡ ABn¡2 = an¡2 I
:::::::::::::::::::::::::
B0 ¡ AB1 = a1 I
¡AB0 = a0 I
An Bn¡1 = An
An¡1 Bn¡2 ¡ An Bn¡1 = an¡1 An¡1
An¡2 Bn¡3 ¡ An¡1 Bn¡2 = an¡2 An¡2
:::::::::::::::::::::::::
AB0 ¡ A2 B1 = a1 A
¡AB0 = a0 I
0 = An + an¡1 An¡1 + : : : + a1 A + a0
8.6 Pot^
encias de matrizes
De¯ni» c~
ao 8
Seja uma matriz A; n £ n, multiplicada por si mesmo um certo n¶ umero de vezes.
Neste caso, sendo k um n¶ umero inteiro positivo, de¯nimos a pot^encia k-¶esima de A
k
por: A = AA : : : A (k vezes).
Suponhamos que a matriz A; n£n, possa ser diagonalizada na forma S ¡1 AS = D,
onde D ¶e uma matriz diagonal.Ent~ao, a matriz A admite a fatora»c~ao diagonal,
extremamente u ¶ til:
A = SDS ¡1
146
e, mais geralmente, para qualquer polin^omio f(t),
Exemplo
Seja a matriz:
" #
4 2
A=
3 ¡1
f (t) = t2 ¡ 3t ¡ 10
e obtemos:
" #
3=7 1=7
S¡1 =
¡1=7 2=7
147
Exerc¶³cios Cap¶³tulo VIII
1 - a) Seja a matriz sim¶etrica, 2 £ 2,
" #
p a
A=
a q
Av1 ¢ v2 = v1 ¢ Av2 ;
a) Encontre os autovalores de A;
b) Para a cada autovalor ¸k de A, encontre a dimens~ao do subespa»co invariante
E(¸k );
c) A matriz A ¶e diagonaliz¶avel? Justi¯que sua conclus~ao.
4 - Dada a matriz
2 3
¡1 4 ¡2
6 7
A = 4 ¡3 4 0 5
¡3 1 3
a) Encontre os autovalores de A;
b) Para a cada autovalor ¸k de A, encontre os autovetores correspondentes;
c) Caso a matriz A seja diagonaliz¶avel, encontre a matriz invert¶³vel P tal que
¡1
P AP ¶e uma matriz diagonal.
148
Cap¶³tulo 9
Decomposi» c~
ao em Valores
Singulares - SVD
9.1 Introdu»c~
ao
A Decomposi»c~ao em Valores Singulares(SVD) de uma matriz A, m £ n, ¶e uma
decomposi»c~ao que pode ser utilizada em muitas aplica»c~oes, a saber: processamento
digital de imagens, posto "efetivo", decomposi»c~ao polar, ¯ltragem de sinais, etc.
( ver Leon [7])
Vamos supor, em toda se»c~ao, que A ¶e uma matriz m £ n com m ¸ n. Vamos
apresentar um m¶etodo para determinar qu~ao pr¶oxima A est¶a de uma matriz de posto
P
menor. O m¶etodo envolve a fatora»c~ao da matriz A em um produto U V t , onde U
P
¶e uma matriz ortogonal m £ m, V ¶e uma matriz ortogonal n £ n e ¶e uma matriz
extritamente diagonal cujos coe¯cientes diagonais satisfazem ¾1 ¸ ¾2 ¸ : : : ¸ ¾r ¸
0, ou seja:
2 3
¾1 0 0 : : : 0 0
6 7
0 ¾2 0 : : : 0 0 7
X 6 6 . .. . . . .. 7
=6 6 .
. . . .. . 7
7
6 7
4 0 0 0 0 ¾r 0 5
0 0 0 0 0 0
149
9.2 Desenvolvimento do c¶
alculo da SVD
Damos o seguinte teorema garantindo a SVD de uma matriz A, m £ n.
Teorema 9.1
Se A ¶e uma matriz m £ n, ent~ao a matriz A tem uma Decomposi»c~ao em Valores
Singulares(SVD).
Prova
Temos que At A ¶e uma matriz sim¶etrica. Da¶³, todos os seu autovalores s~ao reais
e n~ao negativos. Al¶em do mais, ela pode ser diagonalizada ortogonalmente pela
matriz V .
Seja ¸ um autovalor de At A e seja x o autovetor associado. Ent~ao,
k Ax k2
k Ax k2 = xt At Ax = ¸ xt x = ¸ k x k2 =) ¸ = ¸ 0:
k x k2
Vamos supor que as colunas da matriz V s~ao ordenadas de modo que os autovalores
correspondentes a estas colunas satisfazem:
¸1 ¸ ¸2 ¸ : : : ¸ ¸n ¸ 0
¸1 ¸ ¸2 ¸ : : : ¸ ¸r ¸ 0 e ¸r+1 = ¸r+2 = : : : = ¸n = 0
¾1 ¸ ¾2 ¸ : : : ¸ ¾r ¸ 0 e ¾r+1 = ¾r+2 = : : : = ¾n = 0
Sejam as matrizes:
2 3
¾1 0 : : : 0
h i h i 6 7
6 0 ¾2 : : : 0 7
V1 = v1 v2 : : : vn ; V2 = vr+1 vr+2 : : : vn e §1 = 6
6 .. .. . . . 7
7
4 . . . .. 5
0 0 0 ¾r
150
Assim, escrevemos:
" #
§1 0
§= (1)
0 0
e
h i
V= V1 V2 (2)
At Avj = 0; j = r + 1; r + 2; : : : ; n
AV2 = 0
I = V V t = V1 V1t + V2 V2t
At¶e aqui, constru¶³mos as matrizes § e V dadas por (1) e (2). Vamos mostrar, agora,
como construir uma matriz ortogonal U; m £ m, tal que:
A = U§V t ; ou AV = U § (4)
Avj = ¾j uj ; j = 1; 2; : : : ; r
De¯nindo,
1
uj = Avj ; j = 1; 2; : : : ; r (5)
¾j
e
h i
U1 = u1 u2 : : : ur ;
segue-se que:
AV1 = U1 §1 (6)
151
As colunas de U1 formam um conjunto ortonormal, j¶a que:
1 t t 1
uti uj = ( v A )( Avj ); i; j = 1; 2; : : : ; r
¾i i ¾j
1 t t 1 t 2
= vi (A Avj ) = v (¾ vj )
¾i ¾j ¾i ¾j i j
¾j t
= v vj = ±ij :
¾i i
Segue de (5) que cada uj ; 1 · j · r, est¶a no espa»co coluna de A (dimR(A) =
r) =) u1 ; u2 ; : : : ; ur forma uma base ortonormal de R(A). Como m = dim R(A) +
dim N (At ), temos que o espa»co vetorial N(At ) tem dimens~ao m ¡ r.
Seja fur+1 ; ur+2 ; : : : ; um g uma base para N (At ) e de¯nimos:
h i h i
U2 = ur+1 ur+2 : : : um e U = U1 U2
Observa»c~ oes:
Obs.1: As colunas de U e V fornecem bases ortonormais para os quatro sube-
spa»cos fundamentais, a saber:
- r primeiras colunas de U : R(A);
- m¡r u ¶ltimas colunas de U : N (At );
- r primeiras colunas de V : R(At );
- n¡r u ¶ltimas colunas de V : N (A).
Obs.2: A SVD fornece estas bases de uma forma bem especial. Al¶em de ortonor-
mais, tem-se: " a matriz A multiplicada por uma coluna da matriz V produz um
m¶ultiplo de uma coluna da matriz U". Isto decorre diretamente de AV = U§,
olhando coluna por coluna.
Obs.3: As conex~oes com AAt e At A devem valer se a f¶ormula U §V t est¶a correta.
Isto pode ser visto facilmente de:
152
e
At A = (V §t U t )(U§V t ) = V §t §V t
153
" #
1
w2 = v2 ¡ (u1 :v2 )u1 =
¡1
e normalizando, obtemos:
" p #
w2 1= 2
u2 = = p
k w2 k ¡1= 2
2 32 3 2 3
10 10 2 x1 x1
6 76 7 6 7
4 0 10 4 5 4 x2 5 = ¸ 4 x2 5
2 4 2 x3 x3
154
2 3
2
6 7
w2 = y2 ¡ (v1 :y2)v1 = 4 ¡1 5
0
e normalizando, obtemos:
2 p 3
2= 5
w2 6 p 7
v2 = = 4 ¡1= 5 5
k w2 k
0
2 3
¡2=3
6 7
w3 = y3 ¡ (v1 :y3 )v1 ¡ (v2 :y3 )v2 = 4 ¡4=3 5
10=3
e normalizando, obtemos:
2 p 3
1= 30
w3 6 p 7
v3 = = 4 2= 30 5
k w3 k p
¡5= 30
9.3 Aplica»c~
ao da SVD no M¶
etodo dos M¶³nimos
Quadrados
Vimos, anteriormente, que a solu»c~ao de um sistema linear inconsistente Ax = b com
m equa»c~oes e n inc¶ognitas satisfaz:
At Ax = At b
155
Se as colunas da matriz A s~ao linearmente independentes, ent~ao a matriz At A ¶e
invert¶³vel e
x = (At A)¡1 At b
156
Bibliogra¯a
[1] Albrecht, P. - An¶alise Num¶erica -um curso moderno, LTC Ed.,240 p.,1973.
[2] Apostol, T. - C¶alculo com Fun»c~oes de uma Vari¶avel, Revert¶e Ed., 771 p.,2006.
¶
[3] Apostol, T. - C¶alculo com Fun»c~oes de V¶arias Vari¶aveis e Algebra Linear, Re-
vert¶e Ed., 752 p.,2008.
¶
[4] Anton, H. e Rorres, C. - Algebra Linear com Aplica»c~oes, Bookman Ed., 572 p.,
2008.
[5] Burden, R. e Faires, D. - An¶alise Num¶erica, Thomson Ed., 740 p., 2003.
[6] Golub,G. and Van Loan, C. - Matrix Computations, Johns Hopkins Univ.
Press, 694 p., 1996.
¶
[7] Leon, S.J. - Algebra Linear com Aplica»c~oes, LTC Ed., 390 p., 2008.
¶
[8] Strang, G. - Algebra Linear e suas Aplica»c~oes, Cengage Learning Ed., 456 p.,
2010.
[9] Wendro®, B. - Theoretical numerical analysis, Academic Press Ed., New York,
1966.
157