Sei sulla pagina 1di 150

Cap tulo 1 Espa co Vetorial Euclidiano

1.1 Vetores - Introdu c~ ao

Inicialmente, introduzimos o conceito de vetores, as opera c~ oes alg ebricas, o n produto interno e a norma vetorial em R . Daremos tamb em, a deni c~ ao do produto interno entre vetores em Cn , fazendo a extens~ ao do espa co vetorial Euclidiano Real para o espa co vetorial Euclidiano Complexo. Daremos aqui um enfoque te orico da Algebra Linear no espa co Euclidiano, bem como aplica c~ oes em algumas areas, exemplicadas com c alculos computacionais. Com o surgimento dos computadores, foram criadas diversas bibliotecas em Algebra Linear. Usando estas bibliotecas, podemos resolver diversos problemas pr aticos em Engenharia. Entre as aplica c~ oes da Algebra Linear podemos citar: - Tra cado de curvas e superf cies; - Problemas de redes el etricas; - Problemas em criptograa; - Problemas de ltragem de sinais; - Processamento digital de imagens; - entre outros (ver Anton e Rores[4]). Existem,essencialmente,tr^ es diferentes maneiras de introduzir a Algebra Vetorial,(ver Apostol[2]): - geometricamente: onde vetores s~ ao representados por segmentos de retas orientadados ou exas e as opera c~ oes com estes s~ ao dadas por m etodos geom etricos; - analiticamente: onde vetores e opera c~ oes vetoriais s~ ao descritos em termos de n umeros, chamados componentes; - axiomaticamente: onde vetores e opera c~ oes vetoriais t^ em conceitos indenidos. Apenas, os vetores munidos das opera c~ oes de adi c~ ao e multiplica c~ ao de vetor por 1

escalar entre eles , satisfazem um certo conjunto de axiomas. Assim, tratamos os vetores como elementos de um conjunto abstrato.

1.2

Espa co Vetorial Euclidiano

Deni c~ ao 1 Uma n-upla de n umeros reais (a1 ; a2 ; :::; an ), (n 1) e chamada de um ponto n-dimensional ou vetor n-dimensional. Os n umeros a1 ; a2 ; :::; an s~ ao as coon ordenadas ou componentes do vetor. Denotamos por R o conjunto de vetores n-dimensionais, chamado de espa co vetorial n-dimensional munido das opera c~ oes de adi c~ ao de vetores e e produto escalar por vetor dadas a seguir. Obs.: Podemos extender este espa co vetorial aos n umeros Complexos, onde tomamos ai 2 Cn , i = 1; 2; :::; n. Para transformar Rn num sistema alg ebrico, introduzimos a igualdade de vetores e as duas opera c~ oes: adi c~ ao de vetores e multiplica c~ ao de escalar por vetor. Deni c~ ao 2 Dois vetores A e B em Rn s~ ao iguais quando suas componentes s~ ao iguais. Isto e, se A = (a1 ; a2 ; :::; an ) e B = (b1 ; b2 ; :::; bn ), a equa c~ ao vetorial A = B signica: a1 = b1 , a2 = b2 ,..., an = bn . A soma A + B e denida pela soma das componentes dos vetores A e B : A + B = (a1 + b1 ; a2 + b2 ; :::; an + bn ) Se 2 R, denimos o produto escalar por vetor A como: A = (a1 ; a2 ; :::; an ) Da deni c~ ao 2, seguem as deguintes propriedades: Propriedades Sejam A, B e C vetores em Rn . 1. A + B = B + A (comutatividade); 2. A + (B + C ) = (A + B ) + C (associatividade de vetores); 3. (A) = ( )A, ; 2 R (associatividade de escalares). 4. Al em disso, s~ ao satisfeitas as leis distributivas: (A + B ) = A + B e ( + )A = A + A, , 2 R. O vetor 0 e chamado de vetor nulo, cujas componentes s~ ao nulas. 5. A + 0 = A (elemento neutro da adi c~ ao). 2 (1.2) (1.1)

O vetor (1)A, tamb em denotado por A, chamado negativo de A. Da , escrevemos: A B = A + (B ) (diferen ca entre A e B ). Note que: 0A = 0 e 1A = A.

1.3

Interpreta c~ ao geom etrica de Rn para (n 3)

Apesar das deni c~ oes anteriores n~ ao estar ligadas a geometria, vetores e opera c~ oes vetoriais tem uma interpreta c~ ao geom etrica em espa cos de dimens~ ao (n 3). Por exemplo, em R2 (plano), um par de pontos A e B e chamado um vetor geom etrico onde xamos A como ponto inicial e B como ponto nal ou extremidade ,e denota ! mos pelo s mbolo AB e visualizamos atrav es da Figura 1.1:

Figura 1.1: Vetor geom etrico Vamos introduzir um sistema de coordenadas com origem O . Identicando o ! vetor AB em termos de suas componentes B A = (b1 a1 ; b2 a2 ), podemos facilmente interpretar a soma de dois vetores pela regra do paralelogramo. Assim, dados quatro pontos A, B , C e D, v ertices de um paralelogramo,podemos escrever: ! ! ! ! AB CD (AB CD s~ ao vetores equivalentes) com B A = D C () A + D = B + C. Supondo o ponto A na origem O, escrevemos: ! ! ! ! ! ! D = B + C () OD = OB + OC onde os vetores OD, OB e OC s~ ao localizados na origem, conforme mostra Figura 1.2. Para representar um ponto em Rn para (n 3), usaremos a letra mai uscula A, ! que ir a representar o vetor geom etrico OA. A Figura 1.3 a seguir, ilustra a interpreta c~ ao geom etrica da multiplica c~ ao de um escalar por vetor. ! Se B = A, o vetor geom etrico OB tem comprimento jj vezes o comprimento ! ! de OA. Este vetor tem mesma dire c~ ao de OA se e positivo e dire c~ ao oposta se 3

Figura 1.2: Regra do Paralelogramo

Figura 1.3: Multiplica c~ ao de escalar por vetor

e negativo. Deni c~ ao 3 ! ! ! ! Dois vetores OA e OB em Rn t^ em a mesma dire c~ ao se OB = OA para algum ! ! escalar positivo, e dire c~ ao oposta se OB = OA para algum escalar negativo. ! ! ^ Eles s~ ao chamados paralelos se OB = OA para algum escalar n~ ao nulo. Exemplo Sejam os pontos A, B , C e D representado na Figura 1.4, abaixo: ! ! De acordo com a Figura 1.4, temos: jOAj = O A = (1; 2), jBC j = C B = (2 1; 2 0) = (1; 2) ! ! ! ! Observe que as componentes de OA e BC s~ ao iguais e temos OA==BC . ! Por outro lado, jBDj = D B = (3=2 1; 1 0) = 1=2(1; 2), ou seja, ! ! BD = 1=2OA. 4

Figura 1.4: Vetores Paralelos e Proporcionais

1.4

Produto Interno

Introduzimos, agora, um tipo de multiplica c~ ao de vetores em Rn chamada de produto interno(produto escalar) em Rn . Deni c~ ao 4 Sejam A = (a1 ; a2 ; :::; an) e B = (b1 ; b2 ; :::; bn ) dois vetores em Rn , o produto interno de A e B , denotado por A:B , e denido por: A:B =
n X k=1

ak bk

(1.3)

Exemplo Sejam A = (1; 2; 3) e B = (1; 2; 1) Temos que: A:B = 1 (1) + 2 2 + 3 (1) = 0 Propriedades 8A , B , C 2 Rn e 8 2 R, valem as seguintes propriedades: a) A:B = B:A (comutatividade) b) A:(B + C ) = (A:B ) + (A:C ) (distributividade) c) (A:B ) = (A):B (homogeneidade) d) A:A > 0 se A 6 = 0 (positividade) e) A:A = 0 se A = 0 Daremos agora, um teorema que estabelece a desigualdade no produto interno de dois vetores: Teorema 1.1 ( Desigualdade de Cauchy Schwarz) Se A e B s~ ao vetores em Rn , temos: (A:B )2 (A:A)(B:B ) (1.4)

Al em do mais, a igualdade (1.4) e v alida () um vetor e m ultiplo escalar do outro. 5

Prova Daremos aqui uma prova baseada nas propriedades do produto interno. Se A ou B e um vetor nulo, a prova segue trivialmente. Assumamos que A e B s~ ao vetores n~ ao nulos. Seja C o vetor: C = xA yB , onde x = B:B e y = A:B Pelas propriedades d) e e) temos que C:C 0. Vamos expressar C:C em termos de x e y . C:C = (xA yB ):(xA yB ) = xA:(xA yB ) yB:(xA yB ) = x2 (A:A) 2xy (A:B ) + y 2 (B:B ), onde foram usadas as propriedades a), b) e c). Usando as deni c~ oes de x e y e a desigualdade C:C 0, obtemos: 2 (B:B ) (A:A) 2(A:B )2 (B:B ) + (A:B )2 (B:B ) 0 Por d), temos que B:B > 0, desde que B 6 = 0. Dividindo a equa c~ ao anterior por (B:B ), obtemos: (B:B )(A:A) (A:B )2 0 () (A:B )2 (A:A)(B:B ) Al em do mais, a igualdade vale quando C = 0, ou seja,xA = yB , isto e, quando A e m ultiplo de B .

1.5

Comprimento ou norma de um vetor

Representamos um vetor geom etrico A = (a1 ; a2 ) no plano e localizado na origem conforme Figura 1.5.

Figura 1.5: Comprimento de A em R2 Do teorema de Pit agoras encontramos o comprimento de A pela f ormula: p 2 comp(A) = a2 1 + a2 Do mesmo modo, para o vetor geom etrico A = (a1 ; a2 ; a3 ) no espa co e localizado na origem, conforme Figura 1.6, onde obtemos: 6

Figura 1.6: Comprimento de A em R3 p 2 2 comp(A) = a2 1 + a2 + a3 Prosseguindo desta forma, introduzimos o conceito de comprimento de um vetor em Rn . Deni c~ ao 5 Seja A um vetor em Rn , o seu comprimento ou norma, denotado por jjAjj, e denido por: jjAjj = (A:A)1=2 (1.5)

De acordo com as propriedades fundamentais do produto interno, temos as seguintes propriedades para a norma: Propriedades Seja A 2 Rn e seja 2 R, valem as seguintes propriedades: a) jjAjj > 0 se A 6 = 0 (positividade) b) jjAjj = 0 se A = 0 c) jjAjj = jjjjAjj (homogeneidade) Obs.: Agora, podemos escrever a desigualdade de Cauchy-Schwarz na forma: jA:B j jjAjjjjB jj Teorema 1.2 (Desigualdade Triangular) Se A e B s~ ao vetores em Rn , temos: jjA + B jj jjAjj + jjB jj (1.7) (1.6)

Al em do mais, a igualdade (1.7) e v alida () A = 0 ou B = A para algum > 0. Prova Reescrevemos a desigualdade triangular na forma equivalente: jjA + B jj2 (jjAjj + jjB jj)2 7

Desenvolvendo o lado esquerdo desta desigualdade, obtemos: (jjA + B jj)2 = (A + B ):(A + B ) = A:A + 2A:B + B:B = jjAjj2 + 2A:B + jjB jj2 (1.8) Por outro lado, obtemos: (jjAjj + jjB jj)2 = jjAjj2 + 2jjAjj:jjB jj + jjB jj2 (1.9)

Comparando (1.8) e (1.9), vemos que a desigualdade jjA + B jj2 (jjAjj + jjB jj)2 vale () A:B jjAjjjjB jj Ora, A:B jA:B j jjAjjjjB jj Reciprocamente, se jjA + B jj2 (jjAjj + jjB jj)2 , ent~ ao A:B jjAjjjjB jj vale para 2 2 2 A e A e assim (A:B ) jjAjj jjB jj Quando jjA + B jj = jjAjj + jjB jj, devemos ter: A:B = jjAjjjjB jj. Isto acontece quando B = A para algum . Portanto, A:B = jjAjj2 e jjAjjjjB jj = jjjjAjj2 . Se A 6 = 0 =) = jj 0. Se B 6 = 0 =) B = A com > 0.

1.6

Ortogonalidade de Vetores
jjA + B jj2 (jjAjj + jjB jj)2

Elevando ao quadrado ambos os lados da equa c~ ao (1.7), obtemos: (1.10)

que vale para quaisquer vetores A e B em Rn . Vemos que a rela c~ ao de Pit agoras vale somente quando A:B = 0. Assim, vamos denir a ortogonalidade de dois vetores em Rn . Veja Figura 1.7

Figura 1.7: Desigualdade Triangular e Figura 1.8 Deni c~ ao 6 8

Figura 1.8: Rela c~ ao de Pit agoras Dois vetores n~ ao nulos A e B em Rn s~ ao perpendiculares ou ortogonais, quando A:B = 0 Desta forma, quando a igualdade na equa c~ ao 1.10 ocorre para A:B = 0, temos a rela c~ ao de Pit agoras em Rn . Exemplo Sejam A = (a1 ; a2 ; :::; an ) e B = (b1 ; b2 ; :::; bn ) 2 Rn tais que: aj 6 = 0 para algum j = k e aj = 0 8j 6 = k; (j = 1; 2; :::; n) e bl = 0 para l = k e bj 6 = 0 8j 6 = l; (j = 1; 2; :::; n). Temos que: A:B = 0 b1 + 0 b2 + ::: + ak 0::: + 0 bn = 0 + 0 + ::: + 0::: + 0 = 0

1.7

^ Proje c~ oes. Angulo entre vetores em Rn

Vamos dar uma interpreta c~ ao geom etrica do produto interno de dois vetores n~ ao 2 nulos em R . Para isto, consideramos o ^ angulo formado pelos vetores dados na Figura 1.9 Na Figura 1.9, temos dois vetores geom etricos n~ ao nulos A e B fazendo um ^ angulo , 0 < =2. Na Figura1.10, temos o mesmo vetor A, os vetores C e tB (perpendiculares) cuja soma e o vetor A. O vetor tB e chamado proje c~ ao de A ao longo de B . Na Figura 1.10, t e positivo, desde que 0 < =2.

^ Figura 1.9: Angulo entre vetores 9

Figura 1.10: Proje c~ ao de A ao longo de B Vamos usar o produto interno para expressar t em termos de A e B . Para isto, escrevemos tB + C = A e efetuamos o produto interno desta igualdade por B , obtendo: tB:B + C:B = A:B Mas, C:B = 0, uma vez que C ? B . Portanto, tB:B = A:B e assim, t= , onde B 6 =0 Por outro lado, temos que: cos() = jjtB jj tjjB jj = ;t > 0 jjAjj jjAjj (1.12) A:B A:B = B:B jjB jj2 (1.11)

Levando (1.11) em (1.12), obtemos: A:B jjB jj A:B = 2 jjB jj jjAjj jjAjjjjB jj (1.13)

cos() = ou ainda:

A:B = jjAjjjjB jjcos()

Esta rela c~ ao nos sugere uma maneira de denir ^ angulo em Rn . A desigualdade de Cauchy-Schwarz jA:B j jjAjjjjB jj, agora pode ser escrita na forma de quociente: jA:B j jjAjjjB j = 1; jjAjjjjB jj jjAjjjjB jj ou seja: 1 A:B 1; jjAjjjjB jj 10 (1.15) (1.14)

para 0 Deni c~ ao 7 Sejam A e B dois vetores em Rn , com B 6 = 0. O vetor tB , onde t= A:B jjB jj2 (1.16)

e chamdo a proje c~ ao de A ao longo de B . Se A e B s~ ao n~ ao nulos, o ^ angulo entre A e B e denido por: = arc cos( A:B ) jjAjjjjB jj (1.17)

1.8

Vetores de coordenadas unit arias

Qualquer vetor (x1 ; x2 ) em R2 pode ser expresso na forma: (x1 ; x2 ) = x1 (1; 0) + x2 (0; 1) Os dois vetores (1; 0) e (0; 1) que multiplicam as componentes x1 e x2 s~ ao chamados de vetores coordenados unit arios. Introduzimos o conceito correspondente em Rn . Deni c~ ao 8 Os n vetores e1 = (1; 0; 0; :::; 0), e2 = (0; 1; 0; :::; 0),...,en = (0; 0; 0; :::; 1) s~ ao chamados vetores coordenados unit arios, onde a k - esima componente de ek = 1 e todas as outras s~ ao iguais a zero. Obs.: Note que ek :ej = 0 se k 6 = j , ou seja, estes vetores s~ ao mutuamente ortogonais. Ilustramos estes vetores em R2 e R3 , nas Figuras 1.5 e 1.6: A seguir, damos o seguinte teorema: Teorema 1.3 (Vetores coordenadas unit arias) Todo vetor X = (x1 ; x2 ; :::; xn ) em Rn pode ser escrito na forma: X = x1 e1 + x2 e2 + ::: + xn en =
n X k=1

xk ek

(1.18)

P Al em do mais, esta representa c~ ao e u nica. Isto e, se X = n k=1 xk ek e Y = Pn ao xk = yk 8k (k = 1; 2; :::; n). k=1 yk ek , ent~ Prova A primeira arma c~ ao segue imediatamente da deni c~ ao de adi c~ ao entre vetores e multiplica c~ ao de vetor por escalar. A unicidade segue da deni c~ ao de igualdade de vetores. 11

P Um somat orio do tipo ci Ai e chamada uma combina c~ ao linear de vetores A1 ; A2 ; :::; An . Assim, este teorema arma que todo vetor pode ser escrito como combina c~ ao de vetores coordenados unit arios. Descrevemos isto, dizendo que os n vetores e1 ; e2 ; :::; en geram o espa co R . Tamb em, dizemos que estes vetores geram n R unicamente, porque cada representa c~ ao de um vetor como combina c~ ao linear de e1 ; e2 ; :::; en eu nica. Frequentemente, em R2 os vetores e1 e e2 s~ ao representados pelas letras i e j , 3 respectivamente, e em R os vetores e1 , e2 e e3 s~ ao representados pelas letras i, j e k , respectivamente.

1.9

Norma vetorial em Rn

Nesta se c~ ao, vamos generalizar o conceito de norma vetorial em Rn . Deni c~ ao 9 Uma norma vetorial em Rn e uma fun c~ ao f de Rn em R que satisfaz as seguintes propriedades: i) f (x) 0; 8x 2 Rn e f (x) = 0 () x = 0; ii) f (x + y ) f (x) + f (y ); 8x; y 2 Rn ; iii) f (x) =j j f (x); 8 2 R; 8x 2 Rn . A nota c~ ao de barra dupla agora, indicar a qualquer fun ca ~o norma, ou seja: f (x) =k x k, e quando necess ario, usaremos um ndice para especicar a mesma. Uma classe importante de norma e a p-norma denida por: k x kp = (j x1 jp + j x2 jp + : : : + j xn jp )1=p ; p 1 onde p caracteriza a norma para um dado p. Entre elas, s~ ao mais importantes as normas: k x k1 = (j x1 j + j x2 j + : : : + j xn j) k x k2 = (j x1 j2 + j x2 j2 + : : : + j xn j2 )1=2 k x k1 = max1in j xi j (1.20) (1.21) (1.22) (1.19)

A norma 2, tamb em chamada norma Euclidiana, e decorrente do produto interno de vetores, sendo a mais usada. Quando nos referimos a mesma, usaremos a nota c~ ao k : k para efeito de simplica c~ ao. Um vetor unit ario com respeito a norma k : kp e um vetor x que satisfaz k x kp = 1. 12

Propriedades da Norma Vetorial 1 - Um resultado cl assico s^ obre p-normas e a desigualdade de Holder: j xt y jk x kp k y kq ; 1 1 + =1 p q (1.23)

Um caso mais importante disto e a desigualdade de Cauchy-Schwarz na norma Euclidiana: j xt y jk x k2 k y k2 (1.24)

2 - Todas as normas vetoriais em Rn s~ ao equivalentes, isto e, se k : k e k : k s~ ao n normas vetoriais em R , ent~ ao existem constantes positivas c1 e c2 tais que: c1 k x k k x k c2 k x k 8x 2 Rn Por exemplo, se x 2 Rn , ent~ ao: k x k2 k x k1 k x k1 k x k2 p n k x k2 p n k x k1 (1.25)

(1.26) (1.27) (1.28)

k x k1 k x k1 n k x k1 Exemplo Seja o vetor 6 6 x=6 4 2 1 2 4 5 3 7 7 7 2 R4 5

Temos:

k x k1 = 12 k x k2 = p 46

k x k1 = 5 Observe que: p p p 46 12 4 46 5 p p 46 4 5

5 12 4 5 13

1.10

Produto Interno Euclidiano em Cn

Deni c~ ao 10 Se x; y 2 Cn , denimos o Produto Interno Euclidiano Complexo por: (x; y )C :=


n X i=1

xi y i

(1.29)

Neste caso, as propriedades para o Produto Interno Euclidiano Complexo cam: Propriedades Se x; y e z 2 Cn e e um n umero complexo qualquer, ent~ ao: a) (x; y )C = (y; x)C ; b) ((x + y ); z )C = (x; z )C + (y; z )C ; c) (x; y )C = (x; y )C = (x; y )C ; d) (x; x)C 0 e (x; x)C = 0 () x = 0. A desigualdade de Cauchy-Schwarz, neste caso, ca: j (x; y )C j2 (x; x)C (y; y )C (1.30)

Desde que o produto interno de um vetor por si mesmo e n~ ao negativo , podemos n introduzir a norma de um vetor em C pela f ormula: k x k= (x; x)C
1=2

(1.31)

Todas as outras propriedades relacionadas com norma s~ ao tamb em v alidas em Cn e a ortogonalide de vetores, no caso, e denida pela rela c~ ao (x; y )C = 0. Os conceitos de espa co gerado, depend^ encia e independ^ encia linear, base s~ ao denidos para Cn exatamente como no caso real.

14

Exerc cios Cap tulo I 1 - Sejam A = (1; 1; 1), B = (0; 1; 1) e C = (1; 1; 0) tr^ es vetores em lR3 e seja D = xA + yB + zC , onde x, y e z s~ ao escalares. a) Determine as componentes de D; b) Se D = (0; 0; 0), mostre que x = y = z = 0; c) Encontre x; y; z tais que D = (1; 2; 3). 2 - Dados os vetores A = (2; 1; 1), B = (1; 2; 1) e C = (1; 1; 2) em lR3 . Encontre o vetor D = xB + yC que e ortogonal a A e tem comprimento 1. 3 - Sejam dados dois vetores A e B em lRn . Encontre dois vetores C e D em lRn satisfazendo as tr^ es condi c~ oes seguintes: C e paralelo a A, D e ortogonal aAe 3 B = C + D. Encontre C e D em lR , sendo dados A = (1; 2; 3) e B = (1; 1=2; 1=3). 4 - Dados os vetores A = (cos; sen) e B = (sen; cos) em lR2 . a) Mostre que A e B s~ ao vetores ortogonais e de comprimento 1. Fa ca uma gura ilustrando A e B quando = =6 ; b) Encontre todos os vetores (x; y ) em lR2 tal que (x; y ) = xA + yB . (Considere todas as possibilidades para ). 5 - Tr^ es vetores A; B e C em lR3 satisfazem as seguintes propriedades: jjAjj = jjC jj = 5, jjB jj = 1, jjA B + C jj = jjA + B + C jj. Se o ^ angulo entre A e B e =8, encontre o ^ angulo entre B e C . 6 - Se eo^ angulo entre dois vetores n~ ao nulos A e B em lRn , prove que jjA B jj2 = jjAjj2 + jjB jj2 2jjAjj jjB jjcos : Quando interpretado geometricamente em lR2 , esta e a lei dos cossenos em trigonometria. 7 - Prove que para dois vetores A e B em lRn vale a identidade: jjA + B jj2 jjA B jj2 = 4A B e portanto, A B = 0, se s omente se, jjA +B jj = jjAB jj. A interpreta c~ ao geom etrica 2 deste resultado em lR e a seguinte: "as diagonais de um paralelogramo s~ ao iguais, se e s omente se, o paralelogramo e um ret^ angulo".

15

8 - Suponha que, ao inv es de se denir a norma de um vetor A = (a1 ; a2 ; :::; an ) 1=2 pela f ormula: (A A) , usou-se a seguinte deni c~ ao: jjAjj =
n X k=1

jak j

a) Prove que esta deni c~ ao satisfaz as seguintes propriedades: i) jjAjj > 0 se A 6 = 0; ii) jjAjj = 0 se A = 0 ; iii) jjcAjj = jcj jjAjj ; iv) jjA + B jj jjAjj + jjB jj . b) Use esta deni c~ ao em lR2 e descreva a gura formada pelo conjunto de todos os pontos (x; y ) com norma igual a 1. c) Verique quais das quatro propriedades listadas no item a) s~ ao v alidas ao se utilizar a seguinte deni c~ ao de norma: n X ak jjAjj =
k=1

16

Cap tulo 2 Matrizes


2.1 Introdu c~ ao

No cap tulo 3, iremos denir aplica c~ oes lineares de um espa co vetorial Rn em outro espa co vetorial Rm . Estas s~ ao chamadas transforma c~ oes lineares. As matrizes aparecem de forma natural na representa c~ ao destas transforma c~ oes lineares. Podemos usar esta conex~ ao com as transforma c~ oes lineares para denir matrizes. Por enquanto, vamos tratar matrizes como classe de objetos matem aticos, onde denimos opera c~ oes alg ebricas. Deni c~ ao 1 Sejam m e n dois inteiros positivos, e seja Im;n o conjunto de todos os pares de inteiros (i; j ) tais que 1 i m ; 1 j n. Qualquer fun c~ ao A cujo dom nio e Im;n e chamada uma matriz m n. A fun c~ ao cujo valor e A(i; j ) e chamada o valor de entrada-ij ou elemento-ij ou coeciente-ij da matriz A ( tamb em denotado por aij ). Usualmente, representamos uma matriz retangular A com m linhas e n colunas por: 2 a11 a21 . . . a12 a22 . . . ::: ::: ... a1n a2n . . . 3 7 7 7 7 5

Os elementos aij podem pertencer a qualquer conjunto. Aqui, tomamos estes elementos pertencentes ao conjunto dos n umeros reais (R) ou ao conjunto dos n umeros complexos (C). Muitas vezes, ser a conveniente representar as matrizes na forma compacta: A = (aij )m;n i;j =1 ou A = (aij ) 17 (2.1)

6 6 A=6 6 4

am1 am2 : : : amn

para um dado inteiro positivo k . Tamb em chamado de vetor coluna. e a matriz: Matriz linha h i ak1 ak2 : : : akn

Se m = n, a matriz A e dita quadrada de ordem n. Matriz coluna e a matriz: 2 3 a1k 6 7 6 a2k 7 6 . 7 6 . 7 4 . 5 amk

para um dado inteiro positivo k . Tamb em chamado de vetor linha. Damos, a seguir, alguns tipos de matrizes encontradas em aplica c~ oes da engenharia. Deni c~ ao 2 A matriz transposta de A, denotada por At , e a matriz cujos coecientes aij s~ ao os coecientes aji de A, ou seja, as colunas da matriz A s~ ao as linhas da matriz At e vic-versa. Notamos por: At (i; j ) = A(j; i) (2.2)

Quanto a forma, classicamos as seguintes matrizes quadradas A, n n: -diagonal: se aij = 0 para i 6 = j; -triangular superior: se aij = 0 para i > j ; -triangular inferior: se aij = 0 para i < j ; -tridiagonal: se aij = 0 para j i j j> 1; -pentadiagonal: se aij = 0 para j i j j> 2; -identidade: e uma matriz diagonal onde aii = 1, denotada por I ; -sim etrica: e uma matriz quadrada com aij = aji , para i; j = (1; 2; : : : ; n), ou t seja, A = A . Deni c~ ao 3 Duas matrizes A e B s~ ao iguais quando t^ em o mesmo n umero de linhas e o mesmo n umero de colunas e seus coecientes s~ ao iguais. A = B () aij = bij 8i; j onde A = (ai;j ) e B = (bi;j ) 18 (2.4) (2.3)

2.2

Opera c~ oes com Matrizes

1 - Adi c~ ao e Subtra c~ ao Sejam as matrizes A; B e C , m n. Diz-se que A = B C quando cij = aij bij 8i; j i = 1; 2; : : : ; m; j = 1; 2; : : : ; n (2.5)

2 - Multiplica c~ ao por escalar Sejam as matrizes A e D, m n, e seja o escalar .Denimos o produto do escalar pela matriz A como: D = A (2.6)

onde, dij = aij ; 8i; j i = 1; 2; : : : ; m; j = 1; 2; : : : ; n 2 - Multiplica c~ ao de matrizes Sejam as matrizes A e B , l m e m n, respectivamente. Dene-se a matriz produto C , l n, obtida pela multiplica c~ ao das matrizes A e B e nota-se C = AB , cujos elementos s~ ao dados por: cij =
m X k=1

aik bkj i = 1; 2; : : : ; l; j = 1; 2; : : : ; n

(2.7)

Observe que cij e o produto interno entre a i- esima linha da matriz A e a j - esima coluna da matriz B . Um caso especial de multiplica c~ ao de matriz ocorre quando a segunda matriz e um vetor coluna x, isto e, o produto matriz vetor Ax. Este produto e interpretado como combina c~ ao linear das componentes do vetor x. Assim, suponhamos que: h i A = a1 a2 : : : an 2 Rm;n com ai 2 Rn 2 x1 x2 . . . xn 3 7 7 7 7 5

Ent~ ao,

6 6 x=6 6 4

Ax = a1 x1 + a2 x2 + : : : + an xn 2 Rm Exemplo 19

Sejam: A= e 3 3 6 7 x=4 2 5 1 " 50 32 # 2 " 9 8 7 6 5 4 #

Calculando o produto Ax, obtemos:

Ax =

Este mesmo produto pode ainda ser calculado por xt At , onde xt e o transposto do t vetor coluna x e A e a matriz A transposta. Assim: 2 3 " # 9 6 h i 50 7 6 xt At = 3 2 1 4 8 5 5 = 32 7 4 Para multiplica c~ ao matricial, suponhamos que A 2 Rm;n e h i B = b1 b2 : : : bp 2 Rn;p com bi 2 Rn :

Ent~ ao, a matriz produto AB pode ser tratada como anteriormente, aplicada p vezes: h i h i AB = A b1 b2 : : : bp = Ab1 Ab2 : : : Abp 2 Rm;p Segundo esta formula c~ ao para produto de matrizes, podemos enunciar o seguinte teorema: Teorema 2.1(Produto de matrizes) Sejam h i U = u1 u2 : : : un 2 Rm;n com ui 2 Rm V= Ent~ ao, h v1 v2 : : : vn i 2 Rp;n com vi 2 Rp :

UV =

n X i=1

t ui vi 2 Rm;p

(2.8)

20

Este teorema nos permite escrever o produto interno Euclidiano para vetores x; y 2 Rn na forma de produto matricial. Ou seja, considerando x e y como vetores coluna em Rn , na forma matricial escrevemos: 3 2 3 2 x1 y1 7 6 7 6 6 y2 7 6 x2 7 6 7 6 x=6 . 7 ey=6 . 7 7 . 5 . 5 4 . 4 . xn yn e o produto interno Euclidiano de x e y pode ser escrito na forma: < x; y >:= x y =
t n X i=1

xi yi

(2.9)

2.3

Propriedades das Opera c~ oes com Matrizes

Assumindo que A; B e C s~ ao matrizes com dimens~ oes compat veis, onde o produto por escalar pode ser denido e que ; 2 R, ent~ ao: 1) ()A = (A); 2) ( + )A = A + A; 3) (A + B ) = A + B ; 4) A(BC ) = (AB )C ; 5) A(B + C ) = AB + AC ; 6) (A + B )C = AC + BC ; 7) (AB ) = (A)B = A(B ); e, em geral, 8) AB 6 = BA.

2.4

Matriz Transposta - Propriedades

No in cio deste cap tulo, denimos a matriz transposta de A e a denotamos por t A . Para matrizes A, n n, denimos a matriz sim etrica , onde os coecientes aij = aji 8i; j = (1; 2; : : : ; n). Ou seja, para matrizes sim etricas t^ em-se A = At . Propriedades Assumindo que A e B s~ ao matrizes com dimens~ oes compat veis e e um escalar em R, s~ ao v alidos os seguintes resultados: t t 1) (A ) = A; 2) (A + B )t = At + B t ; 3) (A)t = At ; 21

4) (AB )t = B t At . Obs.: Para a propriedade 4), basta que a matriz A seja m p e que a matriz B seja p n, sendo poss vel denir o produto C = AB , onde C ser a uma matriz t t m n. Note que, o produto B A dar a uma matriz C ,m n.

2.5

Matriz Inversa

Denimos no in cio deste cap tulo a matriz identidade I , onde os coecientes diagonais s~ ao iguais a 1 e os coecientes extradiagonais s~ ao nulos. Geralmente, a denotamos por I quando n~ ao houver necessidade de especicar a dimens~ ao da mesma, mas caso necess ario, a denotamos por In . Deni c~ ao 4 Dada uma matriz A, n n, se pudermos encontrar uma matriz B de mesma dimens~ ao tal que AB = BA = I , ent~ ao dizemos que a matriz A e invert vel e que a matriz B e a inversa da matriz A. Sen~ ao puder ser encontrada uma tal matriz B , ent~ ao dizemos que a matriz A e n~ ao invert vel ou singular. 1 Nota c~ ao: Notamos por A a inversa da matriz A. Exemplos 1 - A matriz " # 3 5 B= 1 2 e a inversa da matriz A= pois, AB = BA = I . 2 - A matriz 3 1 4 0 6 7 A=4 2 5 0 5 3 6 0 2 " 2 5 1 3 #

e singular. De fato, seja

3 b11 b12 b13 6 7 B = 4 b21 b22 b23 5 b31 b32 b33 22

uma matriz qualquer. 3 0 6 7 O produto da terceira coluna da matriz B pela matriz A nos d a o vetor coluna 4 0 5 ; 0 3 0 6 7 que deveria ser igual a 4 0 5 caso a matriz A fosse invert vel. 1 2 2

Propriedades 1 - Se B e C s~ ao matrizes, n n, ambas inversas da matriz A, n n, ent~ ao B = C. 2 - Se A e B s~ ao matrizes, n n, invert veis, ent~ ao a matriz produto AB e invert vel e: (AB )1 = B 1 A1 : 3 - Se A e uma matriz, n n,invert vel, ent~ ao: 1 1 1 a) A e invert vel e (A ) = A; n b) A e invert vel e (An )1 = (A1 )n , (n = 1; 2; : : : ) , onde denimos a pot^ encia da matriz A por: A0 = I e An = AA : : : A, (n fatores); c) Para qualquer escalar k n~ ao nulo, a matriz kA e invert vel e: (kA)1 = 1 1 A ; k

d) A matriz At e tamb em uma matriz invert vel e (At )1 = (A1 )t . De fato: At (A1 )t = (A1 A)t = I t = I (A1 )t At = (AA1 )t = I t = I

2.6

C alculo da Matriz Inversa por opera c~ oes Elementares

Deni c~ ao 5 Uma matriz elementar E e uma matriz n n que pode ser obtida da matriz identidade I , n n, executando uma u nica opera c~ ao elementar s^ obre as linhas da mesma. 23

Proposi c~ ao 2.1 Se a matriz elementar E , m m, resulta em efetuar uma certa opera c~ ao sobre as linhas de I , m m, e se A e uma matriz, m n, ent~ ao o produto EA e a matriz que resulta quando esta mesma opera c~ ao sobre linhas e efetuada na matriz A. Exemplo Seja a matriz: 3 2 1 0 2 3 7 6 A = 4 2 1 3 6 5 1 4 4 0 e seja a seguinte matriz elementar: 3 1 0 0 7 6 E=4 0 1 0 5 3 0 1 2 3 1 0 2 3 7 6 EA = 4 2 1 3 6 5 4 4 10 9 2

S~ ao opera c~ oes elementares em matrizes: 1 - Multiplicar uma linha da matriz por uma constante; 2 - Trocar duas linhas da matriz entre si; 3 - Somar um m ultiplo de uma linha da matriz a uma outra Exemplo As seguintes matrizes s~ ao elementares: 2 3 2 " # 1 0 0 5 0 0 1 6 7 6 E1 = ; E2 = 4 0 1 0 5 ; E3 = 4 0 1 1 0 0 2 1 0 0

linha da mesma.

3 0 7 0 5 1

Temos que,

onde a terceira linha da matriz produto EA e igual a tr^ es vezes a primeira linha de A mais a terceira linha de A. Proposi c~ ao 2.2 Qualquer matriz elementar E , n n, e invert vel e a sua inversa E 1 , e tamb em uma matriz elementar. Da , se a matriz A, n n, e invert vel, ent~ ao sua inversa 1 A , pode ser escrita como um produto de matrizes elementares. Vamos utilizar este u ltimo resultado no c alculo da inversa de uma matriz A, n n, invert vel. 24

C alculo da inversa de matriz Assim, de acordo com a proposi c~ ao 2.2, caso exista A1 , escrevemos: A1 = Ek Ek1 : : : E2 E1 Escrevendo: A1 A = I obtemos:
1 1 1 1 1 1 1 1 Ek Ek1 : : : E2 E1 A = I =) A = E1 E2 : : : Ek ) A = E1 E2 : : : Ek 1 Ek I = 1 Ek

(2.10)

Desta forma, para se obter a inversa da matriz A, n n, basta multiplic a-la por matrizes elementares convenientes reduzindo-a a uma matriz identidade. Exemplo Seja calcular a inversa da matriz: 3 2 1 2 3 7 6 A=4 2 5 3 5 1 0 8 Inicialmente, colocamos esta matriz acoplada com 2 1 2 3 1 0 0 6 4 2 5 3 0 1 0 1 0 8 0 0 1 a matriz identide I : 3 7 5

Multiplicamos esta matriz aumentada, sucessivamente, 3 2 2 1 0 0 1 6 7 6 E1 = 4 2 1 0 5 ; E2 = 4 0 0 0 1 1 obtendo: 2 3 1 2 3 1 0 0 7 6 4 0 1 3 2 1 0 5 0 2 5 1 0 1

pelas matrizes elementares: 3 0 0 7 1 0 5 0 1

Multiplicamos esta matriz aumentada, sucessivamente, pelas matrizes elementares: 3 2 3 2 1 0 0 1 2 0 7 7 6 6 E3 = 4 0 1 0 5 ; E4 = 4 0 1 0 5 0 2 1 0 0 1 25

obtendo: 2 3 1 0 9 5 2 0 6 7 4 0 1 3 2 1 0 5 0 0 1 5 2 1

Finalmente, multiplicamos esta matriz aumentada, sucessivamente, elementares: 2 3 2 3 2 1 0 0 1 0 9 1 0 6 7 6 7 6 E5 = 4 0 1 0 5 ; E6 = 4 0 1 0 5 ; E7 = 4 0 1 0 0 1 0 0 1 0 0 obtendo: 2 Portanto, a matriz inversa e: 3 1 0 0 40 16 9 6 7 4 0 1 0 13 5 3 5 0 0 1 5 2 1 3 40 16 9 7 6 = 4 13 5 3 5 5 2 1 2

pelas matrizes 3 0 7 3 5 1

A1

2.7

Particionamento de Matriz em blocos

com aij 2 R; i = 1; 2; 3 e j = 1; 2; 3; 4. Denindo-se # " # " i i h h a13 a14 a11 a12 ; A12 = ; A21 = a31 a32 ; A22 = a33 a34 A11 = a23 a24 a21 a22 Obtemos a matriz A na forma de matriz bloco: # " A11 A12 A= A21 A22 Regras 26

Vamos considerar a seguinte matriz gen erica A, 3 4, 2 3 a11 a12 a13 a14 6 7 A = 4 a21 a22 a23 a24 5 a31 a32 a33 a34

- O ndices das matrizes bloco indicam as suas posi c~ oes na matriz original. - O particionamento pode ser empregado para contemplar matrizes de quaisquer dimens~ oes. - Para uma mesma matriz existem v arias maneiras de particionamento. A regra utilizada para particionamento e fazer com que as submatrizes que possuem o primeiro sub ndice igual contenham a mesma quantidade de linhas e as que posuem o segundo sub ndice igual contenham a mesma quantidade de colunas.

2.8

Opera c~ oes com matrizes particionadas


3 2 3 A11 : : : A1l B11 : : : B1l 6 . 7 6 . 7 . . ... ... . . A=4 . . . 5 eB=4 . . . 5 Ak1 : : : Akl Bk1 : : : Bkl 2

Assumindo que,

sendo as submatrizes Aij de dimens~ oes i j e Bij de dimens~ oes i j . Denimos: Multiplica c~ ao por Escalar 3 3 2 A11 : : : A1l A11 : : : A1l 7 7 6 . 6 . . . ... ... . . A = 4 . . . 5 . . 5 = 4 . Ak1 : : : Akl Ak1 : : : Akl 2 onde 2 R. Adi c~ ao de Matrizes Assumindo k = m; ; l = n; ; i = i , e j = j , temos que: 3 C11 : : : C1l 7 6 . ... . . C=A+B=4 . . . 5 Ck1 : : : Ckl 2 onde Cij = Aij + Bij . Transposi c~ ao de Matriz A transposta da matriz A e dada por: 3 At At 11 : : : 1l 6 . 7 . ... . At = 4 . . . 5 t At k1 : : : Akl 27 2

Multiplica c~ ao de Matrizes Assumindo que as dimens~ oes das matrizes A e B s~ ao compat veis para realizar o produto AB , ou seja, A, r p, e B , p s, e que l = m e i = i (ou seja, o produto das subamtrizes possa ser obtido, temos: 3 C11 : : : C1l 6 . 7 . .. . C = AB = 4 . . . . 5 Ck1 : : : Ckl 2

P onde Cij = l s=1 Ais Bsj . O particionamento de matrizes em bloco e utilizado em alguns m etodos envolvendo opera c~ oes com matrizes em bloco como Decomposi c~ ao em Valor Singular(SVD), que veremos no nal deste curso.

2.9

Norma de Matrizes

A an alise de algoritmos matriciais, frequentemente, requer o uso de normas matriciais. Por exemplo, a norma e utilizada em: estudo de sistemas lineares com matrizes "quase singulares", na verica c~ ao de matrizes "matrizes mal condicionadas", e assim por diante. Da , a necessidade de se medir dist^ ancias no espa co das matrizes, sendo que a norma matricial prov^ e esta medida,ver Albrecht e Golub[1, 6] Deni c~ ao 6 Uma norma matricial para matrizes A 2 Rmn e uma fun c~ ao f de Rmn em R que satisfaz as seguintes propriedades: i) f (A) 0; 8A 2 Rmn e f (A) = 0 () A = 0; ii) f (A + B ) f (A) + f (B ); 8A; B 2 Rmn ; iii) f (A) =j j f (A); 8 2 R; 8A 2 Rmn . A nota c~ ao de barra dupla agora, indicar a qualquer fun ca ~o norma matricial, ou seja: f (A) =k A k, e quando necess ario, usaremos um ndice para especicar a mesma. Para tratarmos as matrizes A 2 Rmn como operadores lineares de Rm em Rn (falaremos em operadores lineares no cap tulo s^ obre transforma c~ oes lineares), a deni c~ ao de norma matricial acrescentamos as seguintes condi c~ oes relacionadas com a norma vetorial: iv) k Ax kk A k k x k 8A 2 Rmn ; 8x 2 Rn ; v) 8A 2 Rmn ; 9y 2 Rn tal que k Ay k=k A k k y k. Deni c~ ao 7 Uma norma matricial e dita consistente com uma norma vetorial quando, 28

8A 2 Rmn ; 8x 2 Rn k Ax kk A k k x k Deni c~ ao 8 Uma norma matricial e dita subordinada a uma norma vetorial quando, 8A 2 Rmn ; 9y 2 Rn ; y 6 =0 k Ay k=k A k k y k As normas mais frequentes em Algebra Linear Num erica s~ ao: i) A norma de Frobenius v uX n u m X t k A kF = j aij j2 =j tr(AAt )1=2 j
i=1 j =1

(2.11)

(2.12)

(2.13)

e ii) as p-normas:

k A kp = sup
x6 =0

k Ax kp k x kp

(2.14)

Obs.: k A kp e a p-norma do maior vetor obtido aplicando A a um vetor de p-norma unit aria: k A kp = sup k A(
x6 =0

x ) kp = max k Ax kp kxkp =1 k x kp

(2.15)

Propriedades As normas de Frobenius e p-normas (especialmente p = 1; 2; 1)satisfazem certas desigualdades que s~ ao frequentemente usadas na an alise de c alculos matriciais. Para A 2 Rmn ,temos: 1) k A k2 k A kF onde k A k2 = max j
1in

p n k A k2

(2.16)

p i j; sendo i os autovalores de At A pPn


i=1

Esta norma e subordinada a norma vetorial Euclidiana k x k2 = tamb em conhecida como norma Espectral. 29

x2 e i . Ela

2) max j aij jk A k2
i;j

p mn max j aij j
i;j

(2.17)

Denimos, a norma do m aximo por coluna: k A k1 = max subordinada a norma vetorial: k x k1 = e, a norma do m aximo por linha: k A k1 = max subordinada a norma vetorial: k x k1= max j xi j
1im n X j =1 n X i=1 m X i=1

1j n

j aij j

(2.18)

j xi j

(2.19)

1im

j aij j

(2.20)

(2.21)

3) p 1 p k A k1 k A k2 m k A k1 n 4) p 1 p k A k1 k A k1 n k A k1 m (2.23) (2.22)

Obs.: A norma matricial de Frobenius e consistente, mas n~ ao subordinada a norma vetorial Euclidiana.

2.10

Erros nas opera c~ oes com Matrizes

Inicialmente, consideramos a propaga c~ ao do x na solu c~ ao x do sistema linear Ax = b devido ao erro b de b para b 6 = 0. Em seguida, vamos analisar como perturba c~ oes 1 em uma matriz A, n n, reetem no c alculo da inversa A . Admitindo que as normas usadas sejam consistentes, temos:

A(x + x) = b + b =) A(x) = b 30

(2.24)

Portanto, k x kk A1 k k b k; se det (A) 6 =0 De k b k=k Ax kk A k k x k; segue-se que k x kk b k k A k1 Da , de (2:25) e (2:26) tiramos: k x k k A1 k k b k kxk k b kk A k1 (2.27) (2.26) (2.25)

Acabamos de demonstrar o seguinte teorema: Teorema 2.2 Seja o sistema linear Ax = b com det (a) 6 = 0; b 6 = 0. Se o vetor b tem o erro b, ent~ ao vale para o erro correspondente x: k x k k b k K (A) ; com K (A) =k A k k A1 k kxk kbk Deni c~ ao 9 O n umero K (A) =k A k k A1 k e chamado de n umero de condi c~ ao da matriz A. Em particular, (2.29) (2.28)

KS (A) =k A k2 k A1 k2

(2.30)

e o n umero de condi c~ ao espectral. Se K (A) >> 1, ent~ ao o sistema linear Ax = b e dito mal condicionado, isto e, pequenos erros de arredondamento na matriz A ou no vetor b, causam erros maiores na solu c~ ao x deste sistema linear. Exemplo Vamos dar o seguinte exemplo apresentado em Albrecht [1]: 2 6 6 6 4 3 2 7 7 7 5 6 6 6 4 3 2 3 7 7 7 5

10 7 8 7

7 8 7 5 6 5 6 10 9 5 9 10

x1 x2 x3 x4

6 7 7 6 7 = 6 5 4

32 23 33 31

31

Consideremos as duas aproxima c~ oes abaixo para solu c~ ao deste sistema linear: 1) x1 = 9:2; x2 = 12:6; x3 = 4:5; x4 = 1:1; 2) x1 = 1:82; x2 = 0:36; x3 = 1:35; x4 = 0:79. Substituindo estas aproxima c~ oes no lado direito do sistema linear, obtemos: 1) b1 = 32:1; b2 = 22:9; b3 = 33:1; b4 = 30:9; 2) b1 = 32:01; b2 = 22:99; b3 = 33:01; b4 = 30:99. Acreditamos que estas duas aproxima c~ oes s~ ao boas para a solu c~ ao deste sistema linear, contudo est~ ao longe da realidade, uma vez que a solu c~ ao correta do problema e: x1 = x2 = x3 = x4 = 1:0. Calculando o n umero de condi c~ ao da matriz A, obtemos: 1 K (A) =k A k2 k A k2 = 30:29 98:52 = 2984:17 Donde concluimos que o sistema linear e mal condicionado. Assim, pequenas varia c~ oes no termo independente acarreta grandes varia c~ oes na solu c~ ao do sistema linear. Seja, agora, E a matriz erro, n n, devido a pequenas perturba c~ oes nos coe1 cientes da matriz A, n n. Seja calcular a matriz inversa A a partir da matriz A + E . Damos o seguinte lema: Lema 2.1 Se F 2 Rnn e k F kp 1, ent~ ao I F e n~ ao singular e: (I F ) com k (I F )1 kp
1

1 X k=0

Fk

(2.31)

Prova Suponhamos que (I F ) seja singular. Segue-se que (I F )x = 0 para algum vetor x n~ ao nulo. Ent~ ao, k x kp = k F x kp =)k F kp 1, que e uma contradi c~ ao. Assim, (I F ) e n~ ao singular. Consideremos, agora, a identidade:
N X k=0

1 1 k F kp

(2.32)

F k (I F ) = I F N +1

(2.33)

Desde que k F kp 1 segue-se que, limk!1 = 0, porque k F k kp k F kk p. Assim, lim


N X k=0

N !1

F k (I F ) = I 32

(2.34)

e segue-se que: (I F )1 = lim Portanto, facilmente mostra-se que:


1 X k=0 1 X k=0

N !1

Fk

(2.35)

k (I F ) Observe que

kp

k F kk p =

1 1 k F kp

(2.36)

k (I F )1 I kp

k F kp 1 k F kp

(2.37)

e uma consequ^ encia do lema 2.1. Assim, se " << 1; #(") perturba c~ oes em I induz #(") perturba c~ oes na inversa. Passamos ao caso geral para qualquer matriz A; n n. Teorema 2.3 Se A e uma matriz,n n, n~ ao singualr e r = k A1 E kp < 1, ent~ ao A + E e n~ ao singular e k (A + E )1 A1 kp k E kp k A1 k2 p 1r (2.38)

Prova Desde que a matriz A e n~ ao singular A + E = A(I F ) onde F = A1 E e sendo k F kp = r < 1,segue-se do lema 2.1 que I F e n~ ao singular e k (I F )1 kp Agora, (A + E )1 = (I F )1 A1 e ent~ ao: k (A + E )1 kp Da rela c~ ao: (A + E )1 A1 = A1 E (A + E )1 e tomando a norma p, obtemos: k (A + E )
1

1 : 1r k A1 kp : 1r

(2.39)

(2.40)

(2.41)

kp k A

kp k E kp k (A + E )

k E kp k A1 k2 p kp : (2.42) 1r

33

Exerc cios 1 - Dada a matriz: 3 6 1 4 6 7 A = 4 3 8 5 5 2 6 7 2

calcular e classicar a matriz A AT = P . 2 - Dada a matriz:

calcular MM T e classicar a matriz M .

3 cos sen 0 6 7 M = 4 sen cos 0 5 0 0 1

3 - Seja a matriz A, invert vel decomposta em matrizes blocos da forma: " # P Q A= R S onde P e S s~ ao matrizes invert veis de ordem p e s, respectivamente; Q e R s~ ao matrizes p s e s p, respectivamente. Escrevemos: " # K L A1 = M N onde K e N s~ ao matrizes invert veis de ordem p e s, respectivamente; L e M s~ ao matrizes p s e s p, respectivamente. Desde que, AA1 = I , onde I matriz identidade de ordem n, podemos escrever: P K + QM = Ipp (1) P L + QN = 0ps (2) RK + SM = 0sp (3) RL + SN = Iss (4) onde Ipp e 0ps , s~ ao as matrizes identidade de ordem p e nula (p s), respectivamente. Idem para Iss e 0sp . Mostre que: a) K = (P QS 1 R)1 e M = S 1 RK ; b) N = (S RP 1 Q)1 e L = P 1 QN . 34

Cap tulo 3 Resolu c~ ao de Sistemas Lineares


3.1 Introdu c~ ao

Existem diversos problemas de engenharia que envolvem algebra linear. O problema central da algebra linear consiste na resolu c~ ao de sistemas de equa c~ oes lineares e m etodos de resolu c~ ao dos mesmos, quando estas solu c~ oes existem. Por exemplo, seja calcular as tens~ oes do circuito el etrico da gura 3.1:

Figura 3.1: Circuito El etrico Solu c~ ao Pela lei de Kircho, a soma das correntes que chegam a cada n o do circuito e nula. Pela lei de Ohm, a corrente el etrica que ui do n o j para o n o k de um circuito e: (Vj Vk ) Rjk

Ijk =

(3.1)

sendo Vj e Vk as tens~ oes nos n os j e k , respectivamente, e Rkj a resist^ encia na linha jk . A corrente Ijk e expressa em amp eres e a resist^ encia Rjk em ohms. As duas 35

leis combinadas permitem o c alculo da tens~ ao em cada n o do circu to. Por exemplo, no n o 1, pela lei de Kircho, IA1 + I21 + I31 + I41 = 0. Utilizando a lei de Ohm, obtemos:

0 V1 V2 V1 V3 V1 V4 V1 + + + =0 1 1 2 2 ou seja, Fazendo o mesmo para os n os 2,3 e 4, obtemos um sistema de 4 equa c~ oes lineares, a saber: 6V1 + 2V2 + V3 + V4 = 0 3V1 + 2V2 13V3 + 6V4 = 254 As coordenadas do vetor solu c~ ao V = (25:80; 31:75; 49:61; 41:67) fornece a tens~ ao em cada n o do circuito el etrico. Iniciamos o estudo com o problemas b asico de encontrar a solu c~ ao de um sistema linear de n equa c~ oes com n inc ognitas. Um sistema linear com n equa c~ oes e n inc ognitas e escrito usualmente na forma: a11 x1 + a12 x2 + : : : + a1n xn = b1 a21 x1 + a22 x2 + : : : + a2n xn = b2 . .. . . . . .. . .. an1 x1 + an2 x2 + : : : + ann xn = bn onde aij : coecientes 1 i; j n xj : inc ognitas j = 1; 2; : : : ; n . bj : constantes j = 1; 2; . . ; n A resolu c~ ao de um sistema linear consiste em calcular os valores de xj ; j = 1; 2; :::; n, caso eles existam, que satisfa cam as n equa c~ oes simult^ aneas. Usando nota c~ ao matricial, escrevemos este sistema linear como: 1V1 + 2V3 3V4 = 0 3V1 4V2 + V3 = 0 6V1 + 2V2 + V3 + V4 = 0

Ax = b; onde: 36

(3.2)

e a matriz, n n, dos coecientes, 2 x1 x2 . . . xn 3 7 7 7 7 5

6 6 A=6 6 4

a11 a12 : : : a1n a21 a22 : : : a2n . . . .. . . . . . . . an1 an2 : : : ann

3 7 7 7 7 5

e o vetor das inc ognitas e

6 6 x=6 6 4

e o vetor constante. Chamaremos de x o vetor solu c~ ao do sistema linear Ax = b. No caso geral em que o sistema linear envolve n equa c~ oes com n inc ognitas, apenas uma entre as situa c~ oes abaixo ir a ocorrer: i) o sistema linear tem u nica solu c~ ao; ii) o sistema linear admite innitas solu c~ oes(indeterminado); iii) o sistema linear n~ ao admite solu c~ ao( imposs vel ou inconsistente). Estaremos interessados em sistemas lineares n n com uma u nica solu c~ ao. A solu c~ ao destes sistemas lineares e dada por: x = A1 b. No entanto, calcular a matriz A1 e em seguida efetuar o produto A1 b e desaconselh avel, uma vez que o n umero de opera c~ oes envolvidas e muito grande. Usaremos aqui o M etodo de Elimina c~ ao de Gauss para encontrar a solu c~ ao destes sistemas lineares.

6 6 b=6 6 4

b1 b2 . . . bn

3 7 7 7 7 5

3.2

M etodo da Elimina c~ ao de Gauss

O M etodo de Elimina c~ ao de Gauss consiste em transformar o sistema linear original num sistema linear equivalente com matriz dos coecientes triangular superior, pois 37

a resolu c~ ao torna-se imediata. Dizemos que dois sistemas lineares s~ ao equivalentes quando possuem a mesma solu c~ ao. Descreveremos, a seguir, o M etodo de Elimina c~ ao de Gauss, aplicando uma sequ^ encia de opera c~ oes elementares na matriz A no processo de triangulariza c~ ao da mesma. Vamos supor que det(A) 6 = 0 (A invert vel). Triangulariza c~ ao da matriz A O processo de triangulariza c~ ao consiste em eliminar a inc ognita xk na k - esima (k) etapa nas equa c~ oes k + 1; k + 2; k + 3; ::::; n. Usaremos a nota c~ ao aij para denotar (k) o coeciente da linha i e coluna j no nal da k - esima etapa, e bi para denotar a i esima componente do vetor constante no nal da mesma etapa. Sendo det(A) 6 =0 e a sempre poss vel encontrar um elemento a11 6 = 0 na 1 coluna. Caso a11 = 0 fazemos a troca de linhas. Escrevemos, inicialmente a matriz aumentada: 2 a11 a12 : : : a1n (0) (0) (0) a21 a22 : : : a2n . . . ... . . . . . . (0) (0) (0) an1 an2 : : : ann
(0) (0) (0)

A jb

(0)

(0)

onde aij = aij , bi = bi . 1a etapa: Para eliminar a inc ognita x1 das equa c~ oes i = 2; 3; :::; n fazemos a seguinte a opera c~ ao: da equa c~ ao i subtra mos a 1 equa c~ ao multiplicada por mi1 , onde mi1 =
ai1
(0) (0) a11

(0)

(0)

6 6 =6 6 4

j b1 (0) j b2 . j . . j bn
(0)

(0)

3 7 7 7 7 5

, i = 2; 3; ::::; n.
(0)

Os elementos mi1 ; i = 2; 3; ::::; n s~ ao os multiplicadores e o elemento a11 e chamado de piv^ o desta etapa. No nal desta etapa, obtemos a seguinte matriz aumentada: 2 a(0) a(0) : : : a(0) 11 12 1n (1) (1) 0 a22 : : : a2n . . . ... . . . . . . (1) (1) 0 an2 : : : ann j b(0) 1 (1) j b2 . j . . j bn
(1)

A jb

(1)

(1)

onde aij = aij mi1 a1j , i = 2; 3:::::n e j = 1; 2; :::; n (1) (0) (0) bi = bi mi1 b1 , i = 2; 3:::::n 2a etapa: Como det(A) 6 = 0, devemos encontrar pelo menos um elemento ai2 6 = 0 na 2a (1) coluna para i = 2; 3:::::n. Desta forma, tomamos o piv^ o a22 6 = 0 e temos os seguintes multiplicadores: mi2 =
ai2
(1) (1)

(1)

(0)

(0)

6 6 =6 6 4

3 7 7 7 7 5

a22

, i = 3; 4; ::::; n. 38

Eliminamos a inc ognita x2 nas equa c~ oes i = 3; :::; n fazendo a seguinte opera c~ ao: a da equa c~ ao i subtra mos a 2 equa c~ ao multiplicada por mi2 . No nal desta etapa obtemos a seguinte matriz aumentada: 2 a11 0 0 . . . 0
(0)

A(1) jb(1)

onde aij = aij mi2 a2j , i = 3; 4:::::n e j = 2; :::; n (2) (1) (1) bi = bi mi2 b2 , i = 3; 4; ::::n (n 1)- esima etapa: No nal desta u ltima etapa, obtemos uma matriz triangular superior aumentada: 2 a11 0 0 . . . 0
(0)

(2)

(1)

(2)

6 6 6 =6 6 6 4

a12 : : : (1) a22 : : : (2) 0 a33 . . . . . . (2) 0 an3

(0)

: : : a1n (1) : : : a2n (2) : : : a2n . .. . . . (2) : : : ann

(0)

j b1 (1) j b2 (2) j b2 . j . . j bn

(0)

3 7 7 7 7 7 7 5

(2)

A(n1) jb(n1)

equivalente ao sistema linear inicial, onde A(n1) e uma matriz triangular superior. Resolu c~ ao do sistema triangular O sistema triangular e resolvido por resolu c~ ao regressiva como segue: Da u ltima equa c~ ao, obtemos: xn = e da pen ultima equa c~ ao, obtemos: xn1 = (bn
(n2)

6 6 6 =6 6 6 4

a12 : : : (1) a22 : : : (2) 0 a33 . . . . . . 0 0

(0)

::: ::: ::: ... :::

a1n (1) a2n (2) a2n . . .


(n1) ann

(0)

j j j

j (n1) j bn

b1 (1) b2 (2) b2 . . .

(0)

3 7 7 7 7 7 7 5

bn

(n1) (n1)

ann

an1;n1
(0)

(n2)

an1;n xn )

(n2)

e assim sucessivamente obtemos xn2 ; :::::; x2 e nalmente da 1a equa c~ ao, obtemos: x1 = (b1 a12 x2 a13 x3 :::: a1n xn ) a11
(0) (0) (0) (0)

39

Exemplo Seja resolver o sistema linear abaixo pelo m etodo de elimina c~ ao de Gauss. 2x1 + x2 + x3 = 7 4x1 + 4x2 + 3x3 = 21 6x1 + 7x2 + 4x3 = 32 Triangulariza c~ ao da matriz A a 1 etapa: Elimina c~ ao da inc ognita x1 . Inicialmente, temos a seguinte matriz aumentada: 3 2 1 1 j 7 6 7 = 4 4 4 3 j 21 5 6 7 4 j 32 2

A(0) jb(0)

Calculamos m21 = 4=2 e m31 = 6=2 e substitu mos a linha2 pela linha2 menos m21 vezes linha1 e tamb em, a linha3 pela linha3 menos m31 vezes linha1. Obtendo, assim, a seguinte matriz aumentada: 3 2 1 1 j 7 7 6 =4 0 2 1 j 7 5 0 4 1 j 11 2

A(1) jb(1)

2a etapa: Elimina c~ ao da inc ognita x2 . Calculamos m32 = 4=2 e substitu mos a linha3 pela linha3 menos m32 vezes linha2, obtendo a seguinte matriz aumentada: 3 2 1 1 j 7 7 6 =4 0 2 1 j 7 5 0 0 1 j 3 2

A(1) jb(1)

Resolu c~ ao do sistema triangular Agora, temos de resolver o seguinte sistema linear triangular: 2x1 +x2 +x3 = 7 2x2 +x3 = 7 x3 = 3 Obtemos, por resolu c~ ao regressiva: x3 = (3)=(1) = 3 x2 = 7=2 3=2 = 2 x1 = 7=2 2=2 3=2 = 1 40

3.3

Pivoteamento Parcial

No processo de escalonamento da matriz A pelo m etodo de elimina c~ ao de Gauss devemos calcular os multiplicadores:

mik = aik

(k1)

=akk

(k1)

; i = k + 1; 3; ::::; n

(3.3)

em cada k - esimo passo do processo. Com o objetivo de eliminar poss veis piv^ os nulos e diminuir os erros de arredondamento durante o processo, utilizamos a estrat egia de pivoteamento parcial (ou total), que consiste no seguinte: "No in cio do k - esimo passo, escolhemos para piv^ o o elemento de maior m odulo (k1) dentre os coecientes aik ; i = k; k + 1; k + 2; :::; n e trocamos as linhas k e i, caso necess ario." Exemplo Seja resolver o seguinte sistema linear pelo m etodo de elimina c~ ao de Gauss com pivoteamento parcial: 3x1 4x2 + x3 = 9 x1 + 2x2 + 2x3 = 3 4x1 3x3 = 2 Temos a seguinte matriz aumentada do sistema linear inicial: 3 3 4 1 j 9 7 6 =4 1 2 2 j 3 5 4 0 3 j 2 2

A(0) jb(0)

Triangulariza c~ ao da matriz A a 1 etapa: Elimina c~ ao da inc ognita x1 . Antes de eliminar a inc ognita x1 , fazemos a troca dos coecientes da coluna1. Assim, temos a seguinte matriz aumentada: 3 4 0 3 j 2 7 6 =4 1 2 2 j 3 5 3 4 1 j 9 2

A(0) jb(0)

Calculamos m21 = 1=4 e m31 = 3=4 e substitu mos a linha2 pela linha2 - m21 linha1 e tamb em, a linha3 pela linha3 - m31 linha1. Obtemos a seguinte matriz aumentada: 41

A(1) jb(1)

2a etapa: Elimina c~ ao da inc ognita x2 . Antes de calcularmos m32 , fazemos a troca da linha2 com a linha3, pois j 4j > j2j. Em seguida, calculamos m32 = 2=(4) e substitu mos a linha3 pela linha3 m32 linha2, obtendo a seguinte matriz aumentada: 3 4 0 3 j 2 6 7 = 4 0 4 3:25 j 10:5 5 0 0 4:375 j 8:75 2

3 4 0 3 j 2 6 7 = 4 0 2 2:75 j 3:5 5 0 4 3:25 j 10:5

A(2) jb(2)

Resolu c~ ao do sistema triangular Agora, temos de resolver o seguinte sistema linear triangular: 4x1 +0x2 3x3 = 2 4x2 +3:25x3 = 10:5 4:375x3 = 8:75 Obtemos, por resolu c~ ao regressiva: x3 = 8:75=4:375 = 2 x2 = (10:5 3:25 2)=(4) = 1 x1 = (2 + 3 2)=4 = 1

3.4

Decomposi c~ ao LU

A decomposi c~ ao da matriz A, n n, no produto de duas matrizes triangulares L e U e assegurada pelo seguinte teorema: Teorema 3.1 Dada uma matriz A, n n, seja Ak a matriz constitu da das primeiras k linhas e colunas da matriz A. Suponha que det(Ak ) 6 = 0 para k = 1; 2; :::; (n 1). Ent~ ao, existe uma u nica matriz triangular inferior L = (mij ), com mii = 1; i; j = 1; 2; :::; n e uma u nica matriz triangular superior U = (uij ) tais que A = LU . Ainda mais, det(A) = u11 u22 :::unn . Prova Seja o sistema linear Ax = b que resolvemos pelo M etodo de Elimina c~ ao de Gauss. Na decomposi c~ ao da matriz A no produto LU , temos: 42

A = LU =) Ax = b =) LUx = b onde, L e uma matriz triangular inferior,n n, com coecientes da diagonal principal iguais a 1, U e uma matriz triangular superior,n n, encontrada pelo M etodo de Elimina c~ ao de Gauss. C alculo de L Sejam 2 3

6 6 6 M1 = 6 6 6 4 2

1 0 0 0 m21 1 0 0 m31 0 1 0 . . . .. . . . . . . . mn1 0 0 0 1 0 0 1 0 m32 . . . . . . 0 mn2 1 0 0 . . . 0 1 0 . . .

7 7 7 7 7 7 0 5 ::: 1 3 7 7 7 7 7 7 5 0 0 0 3 7 7 7 7 7 7 5

::: ::: ::: . . .

0 0 0

6 6 6 M2 = 6 6 6 4 2

0 0 ::: 0 0 0 ::: 0 1 0 ::: 0 . . . . . .. . . 0 0 0 ::: 1

Mn1

6 6 6 =6 6 6 4

0 0 0 ::: 1 0 . ... . .

::: 0 ::: . . .

0 0 0 :::

mnn1 1

C alculo de U No M etodo de Elimina c~ ao de Gauss transformamos o sistema linear Ax = b no sistema equivalente Ux = d, onde U e uma matriz triangular superior. O sistema linear obtido na 1a etapa do M etodo de Elimina c~ ao de Gauss e A(1) x = b(1) e equivalente a: M1 Ax = M1 b =) A(1) = M1 A e b(1) = M1 b O sistema linear obtido na 2a etapa do M etodo de Elimina c~ ao de Gauss e A(2) x = b(2) e equivalente a: M2 A(1) x = M2 b(1) =) M2 M1 Ax = M2 M1 b =) A(2) = M2 M1 A e b(2) = M2 M1 b 43

1 1 (2) 1 1 (2) =) A = M1 M2 A ; b = M1 M2 b

onde 6 6 6 =6 6 6 4 2 2 1 0 0 0 ::: 0 m21 1 0 0 : : : 0 m31 0 1 0 : : : 0 . . . . .. . . . . . . . . . . . . mn1 0 0 : : : 0 1 3 7 7 7 7 7 7 5

1 M 1

1 M 2

1 1 1 (n1) Colocando M1 M2 :::Mn = U , obtemos A = LU . 1 = L; A Desta forma, ca assegurada a exist^ encia das matrizes L e U para a decomposi c~ ao A = LU . Para provar a unicidade, procedemos como segue: Seja a matriz A, n n, decomposta nos seguintes produtos matriciais: A = L1 U1 e A = L2 U2 , onde L1 ,L2 , U1 e U2 s~ ao as matrizes triangulares invert veis da decomposi c~ ao A = LU . 1 1 Temos que, L1 U1 = L2 U2 e assim, L 2 L1 = U2 U1 . 1 Ent~ ao, L e uma matriz triangular inferior com 1's na diagonal e, conse2 L1 1 quentemente, U2 U1 e uma matriz triangular superior com 1's na diagonal. A u nica matriz que tem esta propriedade e a matriz identidade. Portanto,

O sistema linear obtido na (n 1)a etapa do M etodo de Elimina c~ ao de Gauss e (n1) (n1) A x=b e equivalente a: (n2) Mn1 :::M2 A x = Mn1 :::M2 b(n2) =) Mn1 :::M2 M1 Ax = Mn1 :::M2 M1 b =) 1 1 1 (n1) A(n1) = Mn1 :::M2 M1 A e b(n1) = Mn1 :::M2 M1 b =) A = M1 M2 :::Mn 1 A , onde 3 2 1 0 0 0 ::: 0 7 6 ::: 0 7 6 0 1 0 0 7 6 1 6 0 ::: 0 7 M n1 = 6 0 0 1 7 7 . . . . 6 . ... . . . . . 4 . . . . . 5 0 0 0 : : : mnn1 1

6 6 6 =6 6 6 4

1 0 0 1 0 m32 . . . . . . 0 mn2

3 ::: 0 7 ::: 0 7 7 ::: 0 7 7 7 ... . . . 5 0 ::: 0 1 0 0 1 . . . 0 0 0 . . .

44

Para o c alculo de det(A), temos: det(A) = det(LU ) = det(L)det(U ) = 1 det(U ) = u11 u22 u33 : : : unn . Uma vez decomposta a matriz A,n n, no produto LU , temos de resolver os seguintes sistemas lineares: 1) Ly = b; 2) U x = y , pois Ax = b =) LU x = b, onde Ux = y Exemplo Seja resolver o sistema linear abaixo pela decomposi c~ ao LU . 2x1 +2x2 x3 = 1 x1 +5x2 +3x3 = 4 2x1 +x2 5x3 = 3 Obtemos as matrizes L e U , seguindo os c alculos propostos anteriormente: 3 1 0 0 7 6 L = 4 0:5 1 0 5 1 0:25 1 3 2 2 1 7 6 U=4 0 4 3:5 5 0 0 3:125 2 Agora, podemos resolver o sistema linear acima s o operando com o vetor b: 1) Ly = b y1 = 1 0:5y1 +y2 = 4 y1 0:25y2 +y3 = 3 Dando y1 = 1; y2 = 3:5; y3 = 3:125. 2) U x = y 2x1 +2x2 4x2 x3 = 1 +3:5x3 = 3:5 3:125x3 = 3:25 2

1 1 L ) L1 = L2 e U 1 = U 2 . 2 L1 = I e U2 U1 = I =

Dando x3 = 1; x2 = 0; x1 = 1. 45

3.5

C alculo da Inversa da Matriz A

Da deni c~ ao de inversa de uma matriz A, n n, sabe-se que: 1 AA = A1 A = I Colocando X = A1 , ou AXp = ep , p = 1; 2; :::; n, onde Xp e a p- esima coluna da matriz X e ep e a p- esima coluna da matriz I , ou p seja: o vetor da base can^ onica de R . Ent~ ao, as colunas de A1 s~ ao as solu c~ oes dos sistemas de equa c~ oes lineares: AXp = ep , p = 1; 2; :::; n. c~ ao destes O M etodo de Elimin c~ ao de Gauss pode ser empregado para a resolu sistemas lineares, por em os mesmos c alculos ser~ ao repetidos p vezes. 1 Uma outra maneira de calcular A e usar a Decombposi c~ ao LU. Uma vez sendo 1 conhecida a Decomposi c~ ao LU da matriz A, calcula-se A como segue: A1 = (LU )1 = U 1 L1 ; onde L1 e facilmente calculada. Colocando Y = L1 , as colunas Yj de Y satifazem: LYj = ej ; j = 1; 2; :::; n (3.5) (3.4)

assim, os elementos de L1 s~ ao determinados resolvendo-se os n sistemas triangulares que t^ em como solu c~ ao: P 1 ij i k=j lij ykj yij = ; i = j; j + 1; :::; n (3.6) lii onde ij = ( 1 se i = j 0 se i 6 =j

Analogamente, Z = U 1 e uma matriz triangular superior com os elementos calculados por meio de: P ij j k=i+1 uik zkj zij = ; i = j; j 1; :::; 1 (3.7) uii Exemplo Seja calcular a inversa da matriz 3 2 1 2 6 7 A=4 1 2 3 5 4 1 2 46 2

Usando a decomposi c~ ao LU obtemos: 2 e

3 1 6 7 L = 4 0:5 1 5 2 0:67 1 2 2 1 1:5 3 2 7 2 5 0:67

Aplicando as f ormulas anteriores para os c alculos de L1 e U 1 , obtemos: 2 3 1 6 7 L1 = 4 0:5 1 5 2 0:67 1 e 0:5 0:34 6 =4 0:67 2 2 3 0:5 7 2 5 1:5

6 U=4

U1

Em seguida, calculamos:

A1 = L1 U1

Muitos autores utilizam o M etodo de Gauss-Jordan para o c alculo de A1 , mas o m etodo que acabamos de descrever e equivalente a este, onde s~ ao gastas n3 opera c~ oes em ambos os casos. O M etodo de Gauss-Jordan consiste em zerar tamb em os coecientes localizados acima da diagonal principal de U e em seguida, divide-se a diagonal da matriz resultante por seus coecientes diagonais, obtendo-se assim a matriz identidade.

3 0:5 0 0:5 7 6 = 4 5:02 2:01 2 5 3:51 1 1:5

3.6

Decomposi c~ ao para Tipos Especiais de Matrizes

Denimos, inicialmente, as matrizes estritamente diagonais dominantes, onde o M etodo de Elimina c~ ao de Gauss funciona ecazmente sem interc^ ambio de linhas. Deni c~ ao 3.1 47

A matriz A, n n, e chamada estritamente diagonal dominante quando jaii j >


n X

jaij j; i = 1; 2; :::; n

(3.8)

j=1 j6 =i Exemplo A matriz 3 7 2 0 6 7 A = 4 3 5 1 5 0 5 6 2

e estritamente diagoanal dominante, uma vez que: j7j > j2j + j0j; j5j > j3j + j 1j e j 6j > j0j + j5j Damos, a seguir, o seguinte teorema: Teorema 3.2 Uma matriz A, n n, estritamente diagonal dominante e n~ ao singular. Al em do mais, a elimina c~ ao gaussiana pode ser executada em qualquer sistema linear da forma Ax = b para obter sua u nica solu c~ ao sem troca de colunas ou linhas, e n~ ao h a propaga c~ ao de erros de arredondamento durante o processo de elimina c~ ao. Prova Vamos mostrar por contradi c~ ao que a matriz A e n~ ao singular. Consideremos o sitema linear homog^ eneo Ax = 0, e suponhamos que exista uma solu c~ ao n~ ao trivial x = (xi ) para esse sistema. Seja k um ndice para o qual 0 < j xk j = Como Pn
j =1

max j xj j 1jn

aij xj = 0 para cada i = 1; 2; : : : ; n, temos que para i = k , akk xk =


n X

akj xj

j=1 j6 =k Da temos, j akk jj xk j


n X

j akj jj xj j

j=1 j6 =k 48

ou j akk j
n X

j akj j

j=1 j6 =k

j xj j j xk j

j=1 j6 =k

n X

j akj j

Essa desigualdade contradiz a domin^ ancia da matriz A. Consequentemente, a u nica solu c~ ao para o sistema homog^ eneo Ax = 0 e x = 0. Portanto, a matriz A e n~ ao singular. Para provar que a elimina c~ ao de Gauss pode ser executada sem mudan cas de linhas, basta mostrar que cada uma das matrizes A(2) ; A(3) ; : : : ; A(n) geradas pelo processo de elimina c~ ao de Gauss e estritamente diagonal dominante. (Veja Burden e Faires Teorema 6.19 [5]) A ademostra c~ ao de estabilidade do m etodo pode ser encontrada em Wendro [9]. Uma outra classe de matrizes, onde existe uma decomposi c~ ao apropriada, e a matriz sim etrica denida positiva. Deni c~ ao 3.2 A matriz A, n n, e chamada sim etrica denida positiva(sdp) quando xt Ax > 0 Exemplo A matriz 3 2 1 0 6 7 A = 4 1 2 1 5 0 1 2 2 8x 2 Rn ; x 6 =0 (3.9)

e sim etrica positiva denida(sdp), uma vez que:

2 2 2 2 2 2 xt Ax = 2x2 1 2x1 x2 + 2x2 2x2 x3 + 2x3 = x1 + (x1 x2 ) + (x2 x3 ) + x3 > 0

a menos que x1 = x2 = x3 = 0. Damos o seguinte teorema: Teorema 3.3 Uma matriz A, n n, sim etrica positiva denida(sdp) e n~ ao singular. Al em do mais, a elimina c~ ao de Gauss pode ser executada em qualquer sistema linear da forma Ax = b com todos os piv^ os positivos para obter sua u nica solu c~ ao sem troca de linhas, e n~ ao h a propaga c~ ao de erros de arredondamento durante o processo de elimina c~ ao. 49

Prova Para a demonstra c~ ao deste teorema veja os resultados encontrados em Burden e Faires [5] e tamb em em Wendro [9]. Agora, apresentamos dois corol arios que fornecem a decomposi c~ ao para as matrizes sim etricas denidas positivas(sdp) (Veja Burden e Faires [5]). Corol ario 3.1 A matriz A, n n, e sim etrica positiva denida(sdp) () A pode ser fatorada t na forma LDL , onde L e a matriz triangular inferior, n n, com coecientes iguais a 1 em sua diagonal e D e uma matriz diagonal, n n, com coecientes positivos. Obs.1: Sendo a matriz A, n n, que pode ser fatorada de forma u nica como A = LU , de acordo com o teorema 3.1. Tamb em, esta matriz pode ser fatorada de forma u nica com A = LDU , onde: L, n n, matriz triangular inferior com diagonal unit aria; D, n n, matriz diagonal; , n n, matriz triangular superior com diagonal unit U aria. = Lt . Portanto, a No caso, sendo A, n n, matriz sim etrica, temos que: U matriz A, n n, pode ser fatorada na forma A = LDLt . Temos que a matriz diagonal D e constituida dos coecientes uii da matriz U , ser~ n n, e os coecientes da matriz U ao u ij = uij =uii , i = 1; 2; :::; n; j = i; :::; n, onde para A, n n, matriz sim etrica U = Lt . Corol ario 3.2 A matriz A, n n, e sim etrica positiva denida(sdp) () A pode ser fatorada na t forma LL , onde L e a matriz triangular inferior, n n, com coecientes diagonais diferentes de zero. Obs.2: No caso da matriz A, n n, sim etrica positiva denida, temos que os coecientes de D s~ ao tais que: dii > 0; i = 1; 2; :::; n. Fazendo D = D1=2 , obtemos: DL t = (LD )(DL t) A = LDLt = LD

(3.10)

Esta fatora c~ ao e conhecida como fatora c~ ao de Cholesky. A decomposi c~ ao apresentada no corol ario 3.1 pode ser aplicada as matrizes sim etricas, mas n~ ao necessariamente positivas denidas. O resultado pode ser aplicado extensamente as matrizes sim etricas, uma vez que estas s~ ao reconhecidas mais facilmente. O corol ario 3.3, a seguir, nos permite reconhecer a decomposi c~ ao do corol ario 3.1, relacionado-a com o M etodo de Elimina c~ ao de Gauss (Veja Burden e Faires [5]). 50

e sim etrica positiva denida(sdp). A fatora c~ ao LDLt de A dada pelo corol ario 3.1 e: 3 32 32 2 1 0:5 0 2 0 0 1 0 0 7 76 76 6 A = LDLt = 4 0:5 1 0:6667 5 1 0 5 4 0 3=2 0 5 4 0 0 0 1 0 0 4=3 0 0:6667 1 e a fatora c~ ao de Cholesky LLt de A dada pelo corol ario 3.2 e: 3 32 2 1:4142 0:7071 0 1:4142 0 0 7 76 6 A = LLt = 4 0:7071 1:2247 0 1:2247 0:8165 5 0 54 0 0 1:1547 0 0:8165 1:1547

Corol ario 3.3 Seja a matriz A, n n, sim etrica para a qual a elimina c~ ao de Gauss poder ser aplicada sem a troca de linhas. Ent~ ao, a matriz A pode ser fatorada na forma t LDL , onde L e a matriz triangular inferior, n n, com coecientes iguais a 1 em (0) (1) (n1) sua diagonal e D e uma matriz diagonal, n n, com coecientes a11 ; a22 ; :::; ann obtidos na elimina c~ ao de Gauss. Exemplo Vimos que a matriz 2 3 2 1 0 6 7 A = 4 1 2 1 5 0 1 2

O resultado do teorema, a seguir, permite identicar quando uma matriz A, n n, sim etrica com coecientes reais e positiva denida. Teorema 3.4 Seja a matriz A, n n, sim etrica com coecientes reais. Ent~ ao, a matriz A e positiva denida () A pode ser fatorada na forma LLt , onde L e a matriz triangular inferior, n n, sendo os coecientes de L n umeros reais e com coecientes diagonais diferentes de zero. Prova ((=) Se L tem coecientes n umeros reais, ent~ ao: xt Ax = xt Lt Lx = y t :y > 0; pois y = Lx e real, 8x 2 Rn ; x 6 =0 (=)) Se A e positiva denida, ent~ ao 8x 2 Rn ; x 6 =0 xt Ax = xt Lt Lx > 0; 51

donde Lx e real e, consequentemente, L e real. Exemplo A matriz 2 3 4 2 2 6 7 A = 4 2 0 1 5 2 1 3 pode ser fatorada pela fatora c~ ao seguinte resultado: 2 2 6 t A = LL = 4 1 1

de Cholesky com n umeros complexos, dando o 32 3 0 0 2 1 1 76 7 i 0 2i 5 54 0 i 2i 2:4495 0 0 2:4495

Como alguns coecientes de L s~ ao n umeros complexos, podemos concluir que a matriz A n~ ao e positiva denida.

52

sob que condi c~ oes A e n~ ao singular? b) Resolva o sistema linear Ax = b iniciando com Lc = b, 2 3 2 3 2 c1 0 1 0 6 7 6 7 6 c = 4 c2 5 ; b = 4 0 5 e L = 4 1 1 c3 1 0 1

Exerc cios 1 - a) Se a matriz A e o produto: 2 32 32 3 1 0 0 d1 0 0 1 1 0 6 76 76 7 A = 4 1 1 0 5 4 0 d2 0 5 4 0 1 1 5 ; 0 1 1 0 0 d3 0 0 1 onde: 3 0 7 0 5 1

2 - Para quais valores de a; b e c haver a mudan ca de linhas para que a decomposi c~ ao de A em LU seja poss vel e para quais valores a matriz A e singular? 3 2 " # 1 2 0 c 2 7 6 A=4 a 8 3 5 eA= 6 4 0 b 5 3 - Considere um sistema linear da forma: m1 x1 + x2 = b1 m2 x1 + x2 = b2 onde m1 ; m2 ; b1 e b2 s~ ao constantes. a) Mostre que o sistema linear tem uma solu c~ ao se m1 6 = m2 ; b) Se m1 = m2 , mostre que o sistema linear e compat vel se tamb em b1 = b2 ; c) Interprete geometricamente os itens a) e b). 4 - Obtenha a fatora c~ ao da forma A = P t LU para as seguintes matrizes, onde P e uma matriz de permuta c~ ao: 2 3 2 1 2 3 0 1 2 3 1 1 2 2 2 2 1 3 1 3 7 7 7 5

5 - Encontre o valor de de modo que a matriz: 2

0 2 3 6 6 7 6 a) A = 4 1 1 1 5 b) A = 6 4 0 1 1

3 1 1 6 7 A=4 1 2 1 5 1 1 4 53

seja positiva denida. 6 - Encontre a fatora c~ ao LDLt para as seguintes matrizes sim etricas: 3 3 6 6 6 7 6 a) A = 4 3 2 7 5 b) A = 6 4 6 7 13 Quais s~ ao sim etricas positivas denidas? 7 - Dado o sistema linear Ax = b, onde: " # " # " # 1=2 1=3 x1 1=63 A= ; x= ; b= : 1=3 1=4 x2 1=168 c~ ao Considerando x a solu c~ ao exata do mesmo dada por x = (1=7 ; 1=6)t e x a solu aproximada do mesmo com 3 casas decimais, calcule: k x x k1 e k Ax b k1 : 8 - Resolva os dois sistemas lineares a seguir e compare suas solu c~ oes. As matrizes dos coecientes s~ ao bem condicionadas? Mal condicionadas? Explique. " #" # " # " #" # " # 2 3 2 2 2 4 4 2 3 4 5 4 4 10 10 4 5 10 14 3 7 7 7 5

a)

1:0 2:0 2:0 3:9

x1 x2

1:12 2:16

b)

1:0 2:011 2:0 3:982

x1 x2

1:12 2:16

9 - Seja An = " 1 1 1 1 1=n #

para cada inteiro positivo n. Calcule: 1 a) A n ; b) K (An ), (norma 1); c) limn!1 K (An ), (norma 1).
1 10 - As matrizes de Hilbert, Hn , onde: hij = i+j ; 1 i; j; n s~ ao exemplos 1 de matrizes mal condicionadas. a) Use pacotes computacionais para calcular K (A) e vericar que quanto maior for n mais mal condicionada e Hn ; 1 1 b) Use pacotes computacionais para calcular Hn e em seguida, o produto Hn Hn para poss veis valores de n.

54

Cap tulo 4 Espa cos Vetoriais


4.1 Introdu c~ ao

No Cap tulo 1 introduzimos o espa co vetorial das n-uplas em Rn , onde vetores e opera c~ oes vetoriais foram introduzidos de forma anal tica com interpreta c~ ao geom etrica para n 3. Daremos aqui a deni c~ ao de espa co vetorial de forma axiom atica, onde trabalharemos com elementos de um conjunto que satisfazem determinadas propriedades. Deni c~ ao 1 O conjunto V e chamado um espa co vetorial se satisfaz os dez axiomas a seguir, classicados em tr^ es grupos: Axiomas do fecho Axioma 1. (Fechamento da adi c~ ao) Para qualquer par de elementos x; y 2 V , existe um u nico elementos em V , chamado soma de x e y , denotado por x + y ; Axioma 2. (Fechamento da multiplica c~ ao por escalar) Para qualquer elemento x 2 V e para qualquer escalar 2 R, existe um u nico elemento em V , chamado produto de por x, denotado x; Axiomas da Adi c~ ao Axioma 3. (Comutatividade) x + y = y + x, 8x; y 2 V ; Axioma 4. (Associatividade) (x + y ) + z = x + (y + z ), 8x; y; z 2 V ; Axioma 5. (Exist^ encia do zero) 9 0 2 V tal que x + 0 = x; 8x 2 V ; Axioma 6. (Exist^ encia do negativo) 8x 2 V; 9 (1)x 2 V tal que x + (1)x = 0; 55

Axiomas da Multiplica c~ ao por Escalar Axioma 7. (Associatividade) (x) = (x) 8; 2 R; 8x 2 V ;

Axioma 8. (Distributividade para adi c~ ao em V ) (x + y ) = x + y 8x; y 2 V; 8 2 R;

Axioma 9. (Distributividade para adi c~ ao em R) ( + )x = x + x 8x 2 V; 8; 2 R; Axioma 10. (Exist^ encia da identidade) 8x 2 V , temos 1x = x.

Obs.: Os escalares podem ser tomados no conjunto do n umeros complexos (C) e o conjunto V ser a constituido de n-uplas tamb em em C. Desta forma, podemos denir o espa co vetorial complexo V Exemplo 1 O conjunto V = Rn , munido das opera c~ oes da algebra vetorial visto no Cap tulo 1 e um espa co vetorial. Exemplo 2 O conjunto V = Cn , munido das opera c~ oes da algebra vetorial nos complexos, conforme a observa c~ ao anterior, e um espa co vetorial. Exemplo 3 O conjunto das matrizes retangulares, m n, com coecientes complexos, denotado por M (m; n), munido das opera c~ oes de adi c~ ao de matrizes e multiplica c~ ao por escalar em C e um espa co vetorial. Exemplo 4 O conjunto do polin^ omios com coecientes reais de grau n, denotado por Pn , munido das opera c~ oes de adi c~ ao de polin^ omios em Pn e multiplica c~ ao por escalar em R e um espa co vetorial. O teorema a seguir,diz respeito sobre a unicidade dos elementos zero e sim etricos, cuja prova baseia-se nos axiomas anteriores. Teorema 4.1 a) Em qualquer espa co vetorial V existe um e s o um elemento zero; b) Em qualquer espa co vetorial V todo elemento x admite um e s o um elemento y , tal que x + y = 0. Prova Prova do item a): O axioma 5 nos diz que existe pelo menos um elemento zero. Suponhamos que existam dois, digamos 01 e 02. Tomando x = 01 e 0 = 01 no axioma 5, obtemos 01 + 02 = 01 . Do mesmo modo, tomando x = 02 e 0 = 02 , encontramos 02 + 01 = 01 . Mas, pelo axioma 3, 01 + 02 = 02 + 01 . Logo, 01 = 02 . Prova do item b); O axioma 6 nos diz que existe pelo menos um elemento negativo, a saber (1)x. Suponhamos que x tenham dois negativos, digamos y1 e y2 . Ent~ ao x + y 1 = 0 e 56

x + y2 = 0. Adicionando y2 a ambos membros da primeira equa c~ ao e usando os axiomas 5,4,3, obtemos y2 +(x + y1 ) = y2 + 0 = y2 e, por outro lado, y2 +(x + y1 ) = (y2 + x) + y1 = 0 + y1 = y1 + 0 = y1 .Logo, y1 = y2 , de modo que x tem exatamente um negativo. As seguintes propriedades regem os c alculos alg ebricos elementares em um espa co vetorial. Propriedades Sejam x e y elementos quaisquer em um espa co vetorial V e e escalares quaisquer. Ent~ ao vericam-se as seguintes propriedades: a) 0x = 0; b) 0 = 0; c) ()x = (x) = (x); d) Se x = 0, ent~ ao ou = 0 ou x = 0; e) Se x = y e 6 = 0 , ent~ ao x = y ; f) Se x = x e x 6 = 0 , ent~ ao = ; g) (x + y ) = (x) + (y ) = x y ; P h) x + x = 2x; x + x + x = 3x, em geral n i=1 x = nx. Prova: (ver Apostol,Vol. II [3])

4.2

Subespa co Vetorial

Deni c~ ao 2 co vetorial V e um subconjunto n~ ao vazio Um subespa co vetorial de um espa W V que satisfaz as seguintes propriedades: i) A adi c~ ao de dois vetores quaisquer w1 ; w2 2 W tamb em est a em W , isto e, se w1 ; w2 2 W , ent~ ao w1 + w2 2 W ; ii) A multiplica c~ ao de qualquer vetor w 2 W por um escalar qualquer est a em W , isto e, se w 2 W e escalar, ent~ ao w 2 W . Em outras palavras, um subespa co vetorial e um subconjunto W de um espa co vetorial V que e fechado em rela c~ ao as opera c~ oes de adi c~ ao de vetores e multiplica c~ ao de escalar por vetor. Note que, em particular o vetor nulo pertence a todo subespa co vetorial. Isto e decorrente da propriedade ii) tomando = 0. O menor subespa co vetorial e o subespa co contendo somente o vetor nulo e o maior subespa co vetorial eo n espa co vetorial V , chamados subespa cos triviais. No caso do R , o menor subespa co e o f0g e o maior subespa co e o pr oprio Rn . O seguinte teorema nos permite formular uma deni c~ ao equivalente para subespa co vetorial. 57

Teorema 4.2 Seja um espa co vetorial V e um subconjunto n~ ao vazio W V . Ent~ ao, W e um subespa co vetorial de V () (w1 + w2 ) 2 W 8; 2 R e 8w1 ; w2 2 W . Prova Seja o subconjunto n~ ao vazio W V . Sejam w1 ; w2 2 W e ; 2 R, como por hip otese (w1 + w2 ) 2 W . Tomando ; = 1, temos que w1 + w2 = 1w1 + w2 2 W . Al em do mais, tomando = 0, temos que w1 = w1 + 0w1 2 W . Logo, conforme a deni c~ ao anterior, W e um subespa co vetorial de V . Reciprocamente, se W e um subespa co vetorial de V , ent~ ao obviamente (w1 + w2 ) 2 W 8; 2 R e 8w1 ; w2 2 W . Exemplo 1 Seja W o conjunto de todos os vetores em R2 tais que a 2a. componente e nula. W e um subespa co vetorial, constitu do pelo Eixo x do plano cartesiano, pois os axiomas i) e ii) s~ ao satisfeitos para W . Exemplo 2 Seja M (3; 3) o espa co vetorial das matrizes, 3 3. Tomando neste espa co o subconjunto W formado pelas matrizes, 3 3, triangulares superiores. Temos que s~ ao v alidos os axiomas i) e ii) para W . Portanto, W e um subespa co vetorial de M (3; 3). Note que a matriz nula, 3 3, e o vetor nulo deste subespa co vetorial.

4.3

Independ^ encia linear, subespa co gerado, base e dimens~ ao

O objetivo desta se c~ ao e introduzir e usar os seguintes conceitos: 1 - Subespa co vetorial gerado; 2 - Depend^ encia e indeped^ encia linear em um espa co vetorial V ; 3 - Base para um subespa co vetorial; 4 - Dimens~ ao em um subespa co vetorial. Deni c~ ao 3 Seja W um subconjunto n~ ao vazio de um espa co vetorial V . Um elemento x de V da forma: x=
k X i=1

i vi

onde v1 ; v2 ; ; vk 2 W e 1 ; 2 ; ; k s~ ao escalares, diz-se uma combina c~ ao linear nita de elementos de W . O conjunto de todas as combina c~ oes lineares nitas de elementos de W vericam os axiomas de fecho e por conseguinte, e um subespa co vetorial de V . Chamamos este subespa co de gerado por W e o representamos por L(W ). 58

Exemplo 1 Tomamos no espa co vetorial R2 os seguintes conjuntos de vetores fi; jg, f0; i j; i + jg. Todos estes conjuntos geram o espa co vetorial R2 , apesar de serem distintos. Exemplo 2 O conjunto fw1 ; w2 ; w3 g onde w1 = (1; 0; 0); w2 = (0; 1; 0) e w3 = (2; 0; 0) gera o plano xy em R3 . Vamos tratar agora das combina c~ oes lineares nulas. Deni c~ ao 4 Um conjunto W de elementos de um espa co vetorial V e chamado linearmente dependente se existe um conjunto nito de elementos distintos em W , digamos v1 ; v2 ; ; vk , e escalares correspondentes 1 ; 2 ; ; k , n~ ao todos nulos, tais que:
k X i=1

i vi = 0

O conjunto W e chamado linearmente independente quando para quaisquer elementos v1 ; v2 ; ; vk em W e escalares correspondentes 1 ; 2 ; ; k , tais que:
k X i=1

i vi = 0

implica em 1 = 2 = = k = 0. Neste caso, tamb em podemos dizer que os vetores v1 ; v2 ; ; vk s~ ao linearmente independentes. Exemplo 1 Se em um conjunto W temos v1 = 0, ent~ ao podemos tomar a combina c~ ao linear 1 v1 + 2 v2 + + k vk = 0, onde 2 = 3 = = k = 0 e temos 1 v1 = 0 =) 1 6 = 0. Portanto, v1 ; v2 ; ; vk s~ ao linearmente dependentes.

Obs.: O vetor nulo em um subespa co vetorial W e obtido pela combina c~ ao linear de vetores linearmente independentes em W . Exemplo 2 Os vetores v1 = (2; 3); v2 = (4; 6) 2 R2 s~ ao linearmente dependentes, pois tomando a combina c~ ao linear 1 v1 + 2 v 2 = 0 ou seja 1 (2; 3)+ 2 (4; 6) = (0; 0), obtemos: 21 + 42 = 0 e 31 + 62 = 0, ou seja: 1 = 22 que podem ser n~ ao nulos. Deni c~ ao 5 Uma base de um espa co vetorial V e um conjunto de vetores em V onde: i) gera o espa co vetorial V ; ii) e e linearmente independente. Exemplo 1 O espa co vetorial Rn tem como base o conjunto dos vetores e1 ; e2 ; ; en , chamada de base can^ onica. 59

Exemplo 2 Seja M (2; 2) o espa co vetorial das matrizes, 2 2. Uma base para este espa co vetorial e conjunto formado pelas matrizes: " # 1 0 M1 = 0 0 M2 = " " " 0 1 0 0 0 0 1 0 0 0 0 1 # # #

M3 =

M4 =

uma vez que qualquer matriz M; 2 2,onde " # a11 a12 M= a21 a22 pode ser escrita como: M = a11 M1 + a12 M2 + a21 M3 + a22 M4 e " # 0 0 M= 0 0 somente quando a11 = a12 = a21 = a22 = 0. Deni c~ ao 6 Denimos dimens~ ao de um espa co vetorial V o n umero de vetores da base de V , visto que qualquer base de V contem o mesmo n umero de vetores. Exemplo 1 O espa co vetorial Rn tem dimens~ ao n. Exemplo 2 O espa co vetorial das matrizes M (2; 2) , 2 2 tem dimens~ ao 4. Seja V um espa co vetorial de dimens~ ao n e consideremos uma base cujos elementos s~ ao dados na ordem v1 ; v2 ; ; vn . Representamos esta base por um n sistema linear em (v1 ; v2 ; ; vn ). Se x 2 V , podemos expressar x como uma combina c~ ao linear destes elementos da base, de forma similar como zemos no Cap tulo 1 para n vetores em R : n X x= ai vi
i=1

Os coecientes nesta igualdade formam um n sistema linear de n umeros (a1 ; a2 ; ; an ) que cam univocamente determinados para x. Estes coecientes s~ ao chamados de componentes ou coordenadas da base ordenada. 60

4.4

Soma e Interse c~ ao de Subespa cos

Deni c~ ao 7 Sejam W1 e W2 subespa cos vetoriais de um espa co veorial V . Denimos soma e interse c~ ao de W1 e W2 , respectivamente, por: 1 - W1 + W2 = fw1 + w2 tal que w1 2 W1 ; w2 2 W2 g T 2 - W1 W2 = fv tal que v 2 W1 e v 2 W2 g Deni c~ ao 8 Sejam W1 e W2 subespa cos vetoriais de um espa co vetorial V . Denimos soma direta de W1 e W2 , notada por W = W1 W2 , quando: 1 - W = W1 + W2 ; T 2 - W1 W2 = 0. Os subespa cos W1 e W2 s~ ao ditos complementares um do outro em W . Teorema 4.3 Sejam W1 e W2 subespa cos vetoriais de um espa co vetorial V , onde V = W1 W2 . Ent~ ao, a) Todo vetor v 2 V , pode ser escrito unicamente na forma v = r + s, onde r 2 W1 e s 2 W2 ; b) dim(V ) = dim(W1 ) + dim(W2 ). Prova a) Suponha que um vetor qualquer v 2 V pode ser escrito como: v = r1 + s1 = r2 + s2 ; onde r1 ; r2 2 W1 e s1 ; s2 2 W2 . Ent~ ao, r1 r2 = s2 s1 . Mas, r1 r2 2 W1 e s1 s2 2 T W2 . Desde que W1 W2 = 0, devemos ter r1 = r2 e s1 = s2 . O que prova a unicidade de r e s na forma v = r + s. b) Para provar a segunda parte, basta usar o seguinte resultado v alido para quaisquer subespa cos W1 e W2 de V . dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) dim(W1 Como dim(W1 T W2 ) = 0, segue-se que : dim(V ) = dim(W1 ) + dim(W2 ) \ W2 )

Deni c~ ao 9 Seja fv1 ; v2 ; ; vk g um conjunto ortogonal de vetores em Rn , ou seja:


t vi vj = 0 8i; j; i 6 = j:

61

Dizemos que este conjunto e ortonormal quando:


t vi vj = ij ;

onde ij = Deni c~ ao 10 Seja W um subespa co vetorial de Rn . O complemento ortogonal de W e denido por: W ? = fv 2 Rn tal que vt s = 0; 8s 2 W g Teorema 4.4 Seja W um subespa co de Rn . Ent~ ao, a) W W ? = Rn ; b) (W ? )? = W . Prova Vamos provar a). Seja fv1 ; v2 ; ; vk g uma base ortonormal de W e seja x 2 Rn um vetor qualquer. Sejam:
k X x1 = (xt vi )vi i=1

1 se i = j 0 se i 6 =j

x2 = x x1 Ent~ ao, x1 2 W e, desde que


t t t t xt 2 vj = x vj x1 vj = x vj x vj = 0; j = 1; 2; : : : ; k

vemos que x2 e ortogonal a v1 ; v2 ; : : : ; vk e portanto a qualquer combina c~ ao linear destes vetores. Logo, x2 e ortogonal a qualquer vetor de W . Assim, W + W ? = Rn . T ? Tamb em, temos que W W = 0, uma vez que o u nico vetor de s 2 W ortogonal a qualquer vetor de W e o 0. A prova de b)deixamos com exerc cio. 62 Logo, W W ? = Rn .

4.5

Espa cos Linha e Coluna de A

Seja A uma matriz, m n, onde tomamos cada linha de A como uma n-upla de n umeros reais, constituida de vetores em R1n . De forma similar, tomamos cada coluna de A como uma m-upla de n umeros reais, constituida de vetores em Rm1 . Estes vetores formam subespa cos vetoriais que nos d~ ao informa c~ oes acerca do sistema linear Ax = b. Damos a seguinte deni c~ ao: Deni c~ ao 11 Seja A uma matriz, m n, o subespa co de R1n gerado pelos vetores linha de A co por R(A)t . O sube e chamado de espa co linha de A. Denotaremos este subespa spa co de Rm1 gerado pelos vetores coluna de A e chamado de espa co coluna de A. Denotaremos este subespa co por R(A). Exemplo 1 Seja o sistema linear Ax = b: 2 3 2 3 # 1 0 " b1 6 7 x1 6 7 = 4 b2 5 4 5 3 5 x2 4 3 b3 O espa co linha de A, R(A)t , e o conjunto de todas combina c~ oes lineares da forma: (1; 0) + (5; 3) + (4; 3) = ( + 5 + 4; 3 + 3 ): O espa co coluna de A, R(A), e o conjunto de todas combina c~ oes lineares da forma: 2 3 2 3 2 3 1 0 6 7 6 7 6 7 4 5 5 + 4 3 5 = 4 5 + 3 5 4 3 4 + 3 Observe que para este exemplo, m > n, temos mais equa c~ oes do que inc oginitas. Este sistema linear ser a sol uvel para somente certos termos independentes bs que 3 s~ ao subconjuntos de R . Antes de passarmos a discuss~ ao s^ obre a solubilidade de um sistema linear, vamos dar o seguinte teorema: Teorema 4.5 Duas matrizes A e U , m n, equivalentes por linhas t^ em o mesmo espa co linha. Prova Se U e equivalente por linhas a A, ent~ ao U pode ser formada por uma sequ^ encia nita de opera c~ oes elementares sobre as linhas de A. Assim, as linhas de U s~ ao t combina c~ oes lineares dos vetores linhas de A. Consequ^ entemente, R(U ) tem que t ser um subespa co de R(A) . Como A e equivalente por linhas a U , R(A)t tem que ser um subespa co de R(U )t pelo mesmo argumento. 63

Deni c~ ao 12 Denimos o posto de uma matriz A, m n, (R(A)t ). Exemplo 2 Seja a matriz A, abaixo: 2 1 3 3 6 A=4 2 6 9 1 3 3

a dimens~ ao do seu espa co linha

3 7 5

Temos que os vetores

Reduzindo esta matriz A a sua forma equivalente triangular superior, obtemos: 2 3 1 3 3 6 7 U=4 0 0 3 5 0 0 0 h i h i ; 1 3 3 0 0 3

Seja A uma matriz, m n, e x = (x1 ; x2 ; ; xn ) e b = (b1 ; b2 ; ; bm ) vetores em Rn e Rm , respectivamente. Vamos agora, escrever o sistema linear Ax = b, na forma: 2 3 2 3 2 3 2 3 a11 a12 a1n b1 6 7 6 7 6 7 6 7 6 a21 7 6 a22 7 6 a2n 7 6 b2 7 7 + x2 6 . 7 + + xn 6 . 7 = 6 . 7 x1 6 6 . 7 6 . 7 6 . 7 6 . 7 . . 4 5 4 . 5 4 . 5 4 . 5 am1 am2 amn bn 64

formam uma base para R(U ). Contudo, estes vetores n~ ao formam uma base para R(A). Para encontrar os vetores da base de R(A), buscamos os vetores colunas que correspondem a posi c~ ao destes em U na matriz A, que s~ ao dados por: 2 3 2 3 1 3 7 6 7 6 4 2 5;4 9 5 3 1

formam uma base para R(U )t e para R(A)t , pois estas matrizes s~ ao equivalentes por t t linhas. Portanto, dim (R(A) ) = dim (R(U ) ). Por outro lado, temos que os vetores 2 3 2 3 3 1 6 7 6 7 4 0 5;4 3 5 0 0

Segue-se desta representa c~ ao que: "O sistema linear Ax = b e sol uvel () o vetor b est a no espa co coluna de A (R(A))". Substituindo o vetor b pelo vetor nulo 0,escrevemos: x1 a1 + x2 a2 + + xn an = 0; onde a1 ; a2 ; ; an s~ ao os vetores coluna da matriz A. Desta forma, podemos dizer que o sistema linear homog^ eneo Ax = 0 tem apenas solu c~ ao trivial () os vetores coluna de A s~ ao linearmente independentes. Vamos dar, agora, o seguinte teorema: Teorema 4.6 Seja A uma matriz, m n. O sistema linear Ax = b e sol uvel para todo b 2 m m R () os vetores coluna de A geram R . O sistema Ax = b tem no m aximo m uma solu c~ ao para qualquer que seja o vetor b 2 R () os vetores coluna de A s~ ao linearmente independentes. Prova Vimos que o sistema linear Ax = b e sol uvel () o vetor b 2 R(A). Desta forma, m o sistema linear Ax = b e sol uvel 8b 2 R () os vetores coluna de A geram Rm . Para a segunda arma c~ ao, observamos que se Ax = b tem no m aximo uma solu c~ ao para qualquer vetor b 2 Rm , ent~ ao, particularizando temos que Ax = 0 tem apenas a solu c~ ao trivial e, portanto os vetores coluna de A s~ ao linearmente independentes. Por outro lado, se os vetores coluna de A s~ ao linearmente independentes, o sistema linear homog^ eneo Ax = 0 tem apenas a solu c~ ao trivial. Vamos supor que x1 e x2 sejam duas solu c~ oes de Ax = b. Temos que x1 x2 e tamb em uma solu c~ ao do sistema linear homog^ eneo Ax = 0, e assim: A(x1 x2 ) = Ax1 Ax2 = b b = 0 Logo, x1 x2 = 0 =) x1 = x2 . Seja A uma matriz, m n.Se os vetores coluna de A geram Rm , ent~ ao n tem que ser maior ou igual a m, j a que um conjunto com menos que m vetores n~ ao pode gerar m R . Se as colunas de A s~ ao linearmente dependentes, ent~ ao n tem que ser menor ou igual a m, j a que qualquer conjunto com mais de m vetores em Rm e linearmente dependente. Portanto, se os vetores coluna de A formam uma base para Rm , ent~ ao n = m. Isto ocorre quando a matriz A, n n, e invert vel. Teorema 4.7 Seja A uma matriz, m n, de posto(A) = r. A dimens~ ao do espa co linha de A ( igual ao posto(A)) e igual a dimens~ ao do espa co coluna. Prova 65

Seja A uma matriz, m n, de posto(A). Reduzindo esta matriz a sua forma escada U , temos que as r primeiras linhas destas t^ em primeiros coecientes 6 = 0, cujas colunas correspondentes s~ ao linearmente independentes. Retiramos da matriz U as colunas correspondentes a vari aveis livres e fazemos o mesmo com as colunas correspondentes da matriz A. Chamando estas matrizes de Ul e Al , respectivamente, temos que estas s~ ao equivalentes por linhas. Assim, x e solu c~ ao de Al x = 0 () x e solu c~ ao de Ul x = 0 . Ou seja, as colunas de Al tamb em devem ser linearmente independentes. Assim, a dimens~ ao do espa co coluna de A deve ser pelo menos igual a r, ou seja: ( r). Aplicando este mesmo racioc nio a matriz At , concluimos que dimens~ ao do espa co coluna de At dimens~ ao do espa co linha de At . Portanto, dim(R(A)) = dim(R(At )) = r.

4.6

Espa co Nulo de A e Espa co nulo a esquerda de A

Uma segunda vis~ ao para interpretar a solu c~ ao do sistema linear Ax = b e a "dual" m da primeira. Ela se concentra n~ ao em encontrar o vetor b 2 R , mas tamb em no conjunto de solu c~ oes para obt^ e-lo. O lado direito b = 0 nos leva sempre em uma solu c~ ao particular trivial x = 0, mas podem existir innitas solu c~ oes diferentes da trivial (caso em que n > m). Deni c~ ao 13 Seja A uma matriz, m n, o subespa co de R1n gerado pelos vetores x tais que Ax = 0 e chamado de espa co nulo de A. Denotaremos este subespa co por N (A), e chamaremos de nulidade de A a dim(N (A)). Exemplo 1 Seja o sistema linear Ax = 0: 2 3 2 3 # 1 0 " 0 6 7 x1 6 7 =4 0 5 4 5 3 5 x2 4 3 0 cuja solu c~ ao ser a somente a trivial x1 = x2 = 0. Acrescentando uma coluna a matriz A deste sistema linear, sendo esta combina c~ ao linear das duas primeiras, obtemos, por exemplo, a matriz B , 3 3: 2 3 1 0 1 6 7 B=4 5 3 8 5 4 3 7 66

Temos que, n~ ao alteramos o espa co coluna de A, uma vez que dim (R(A)) = dim (R(B )) = 2, mas o espa co nulo de B contem o vetor cujas componentes s~ ao 1; ; 1; 1 e cont em o m ultiplo deste vetor, ou seja: 2 32 3 2 3 1 0 1 c 0 6 76 7 6 7 4 5 3 8 54 c 5 = 4 0 5 4 3 7 c 0 Assim, N (B ) = f(x; y; z ) 2 R3 tal que x = c; y = c; z = c onde c 2 Rg que ser a uma reta em R3 . Tamb em, podemos observar que os vetores de cada linha de B , ou seja, tomados em R(B )t , s~ ao ortogonais aos vetores de N (B ). Al em do mais, dim (R(B )t ) = 2, dim (N (B )) = 1 e dim (R(B )t ) + dim (N (B )) = 3. Damos agora, o seguinte teorema: Teorema 4.7 Seja A uma matriz, m n. A soma do posto(A) com nulidade de A e igual a n. Prova Seja U a forma escada reduzida por linhas de A. O sistema linear homog^ eneo Ax = 0 e equivalente ao sistema linear homog^ eneo Ux = 0. Se A tem posto r, ent~ ao U tem r linhas n~ ao nulas e, portanto, o sistema linear homog^ eneo U x = 0 tem r vari aveis l deres correspondentes aos piv^ os n~ ao nulos e n r vari aveis livres. A dimens~ ao de N (A) e igual ao n umero de vari aveis livres. Deni c~ ao 14 Seja A uma matriz, m n. O subespa co de Rm1 gerado pelos vetores y tais que At y = 0 e chamado de espa co nulo a esquerda de A.Este subespa co corresponde ao t t espa co nulo de A . Assim, denotaremos este subespa co por N (A ). Para uma matriz A, m n, podemos ver os quatro subespa cos, ditos fundamentais, em termos do n umero de componentes de seus vetores. - O espa co nulo de A, (N (A)) e o espa co linha de A, (R(At )) s~ ao subespa cos de n R ; - O espa co nulo a esquerda de A, (N (At )) e o espa co coluna de A, (R(A)) s~ ao m subespa cos de R . Aplicando o resultado do teorema anterior a matriz At , temos que: r + dim(N (At )) = m Logo, o espa co nulo a esquerda de A, (N (At )) tem dimens~ ao m r . 67

Para encontrar y 2 N (At ), ou seja y 2 Rm , tal que y t A = 0, basta calcular o espa co nulo para a matriz At . Outra forma de calcul a-lo,consiste em encontrar a decomposi c~ ao P A = LU , onde P e uma matriz de permuta c~ ao. Em seguida, 1 1 calculamos L P A. As u ltimas m r linhas de L P formar~ ao a base do espa co nulo a esquerda de A, porque estas multiplicadas por A d~ ao as linhas nulas em U . 1 Contudo, o c alculo de L n~ ao e t~ ao imediato como zemos para a decomposi c~ ao de LU da matriz A, n n. Exemplo 2 Seja a matriz A: 2 3 1 0 6 7 A=4 5 3 5 4 3 temos que a matriz At e dada por: " 1 5 4 0 3 3 #

At =

Como a matriz At j a est a na forma escalonada, basta resolver o sistema linear t homog^ eneo A y = 0, ou seja: 2 3 2 3 " # y1 0 1 5 4 6 7 6 7 t Ay= 4 y2 5 = y3 4 0 5 0 3 3 y3 0 Obtendo como solu c~ ao: 2 3 2 3 y1 1 6 7 7 6 4 y2 5 = y3 4 1 5 y3 1

Temos assim, que o espa co nulo a esquerda 2 1 6 4 1 1

de A e gerado pelo vetor: 3 7 5

Outra forma de obter este vetor y tal que y t A = 0 consiste em calcular L1 P . Ora, temos que: 3 2 1 0 0 7 6 L1 = 4 5 1 0 5 1 1 1 68

Como n~ ao houve permuta c~ ao de linhas no processo da decomposi c~ ao da matriz A, 1 tomamos a u ltima linha de L na forma transposta. Observe que este vetor e perpendicular aos vetores do espa co coluna de A, R(A): 2 3 2 3 1 0 6 7 6 7 4 5 5;4 3 5 4 3 e temos que dim (R(A)) = 2, dim (N (At )) = 1 e dim (R(A)) + dim (N (At )) = 3.

4.7

Resolu c~ ao do sistema linear de m equa c~ oes com n inc ognitas

Vamos retornar ao M etodo da Decomposi c~ ao da matriz A, n n, na forma produto de matrizes LU . Durante o processo de escalonamento, consideramos o piv^ o sempre = 0, a menos de uma permuta 6 c~ ao nas linhas. Isto e poss vel, porque consideramos det(A) 6 = 0. Vamos estender o processo de escalonamento a uma matriz A, m n, usando o seguinte artif cio: i) Escolhemos as primeiras linhas de modo a ter os primeiros coecientes n~ ao nulos nestas linhas (estes coecientes ser~ ao os piv^ os) - caso necess ario, trocamos as linhas; ii) Zeramos os coecientes da coluna abaixo destes piv^ os, por elimin c~ ao; iii) Cada piv^ o situa-se na coluna a direita da coluna piv^ o da linha acima; isto produz a forma escalonada. Ilustrando, ap os o escalonamento, obtemos a seguinte matriz: 3 2 7 6 6 0 7 7 6 6 0 0 0 7 7 6 U=6 . . . . . 7 . . . . . . . . . 6 . . . . . . . 7 7 6 6 0 0 0 0 0 7 5 4 0 0 0 0 0 0 0 Exemplo 1 Seja a matriz A, 3 4:

3 1 3 3 2 6 7 A=4 2 6 9 5 5 1 3 3 0 2 69

Observe que nenhuma opera c~ ao de troca de linhas foi necess aria neste exemplo. Mas, caso haja necessidade, usaremos uma matriz de permuta c~ ao P para a troca de linhas. Damos o seguinte teorema: Teorema 4.8 Para qualquer matriz A, m n, existem uma matriz de permuta c~ ao P , m m , uma matriz triangular inferior L, m m, com diagonal unit aria e uma matriz na forma escada U , m n, correspondentes, tais que P A = LU . Prova Aplicamos sucessivamente matrizes de permuta c~ oes P1 ; P2 ; P3 ; : : : ; Pk , m m, no sistema linear Ax = b de tal forma que assegure que nenhum interc^ ambio de linhas seja necess ario para resolver o sistema linear por meio da elimina c~ ao de Gauss. Desta forma, colocando a matriz de permuta c~ ao P , m m, como: P = Pk Pk1 Pk2 : : : ; P2 P1 ; o sistema linear P Ax = P b pode ser resolvido sem interc^ ambio de linhas. Mas, essa matriz P A pode ser fatorada em P A = LU; onde L e a matriz triangular inferior, m m, e U e a matriz na forma escada, m n. 1 t Como P = P , temos a fatora c~ ao A = P 1 LU = (P t L)U: Note que a matriz P t L n~ ao e triangular inferior, a menos que P = I . 70

e L, ser a uma matriz, 3 3, obtida de forma similar a decomposi c~ ao LU , e tamb em invers vel. Assim, obtemos: 2 3 1 0 0 6 7 L=4 2 1 0 5 1 2 1

Procedendo o escalonamento da matriz A, obtemos a seguinte matriz U , 3 4: 2 3 1 3 3 2 6 7 U=4 0 0 3 1 5 0 0 0 0

Vamos agora analisar os dois casos de sistemas lineares: homog^ eneo e n~ ao homog^ eneo. Caso homog^ eneo Vamos considerar agora, a solu c~ ao do sistema linear U x = 0. Temos: 2 3 2 x1 x2 x3 x4 3 3 0 7 7 6 7 7=4 0 5 5 0 2

Separamos as inc ognitas x1 ; x2 ; x3 e x4 em dois grupos: 1o. grupo: Vari aveis b asicas Correspondentes as colunas piv^ os. No caso, x1 e x3 ; 2o. grupo: Vari aveis livres Correspondentes as colunas sem piv^ os. No caso, x2 e x4 ; Em seguida, escrevemos a solu c~ ao geral como uma combina c~ ao das vari aveis livres x2 e x4 ,ou seja: 3 3 2 2 3 2 1 3x2 x4 3 6 0 7 6 7 6 1 7 x2 7 7 6 6 7 6 + x x=6 = x 7 7 7 46 26 4 1=3 5 4 1=3x4 5 4 0 5 x4 0 1 Observe que o vetor 2 6 6 6 4 3 1 0 0 3 7 7 7 5

1 3 3 2 6 6 76 Ux = 4 0 0 3 1 5 6 4 0 0 0 0

d a a solu c~ ao do sistema linear homg^ eneo Ax = 0 para as vari aveis livres x2 = 0 e x4 = 1. Todas as solu c~ oes do sistema linear homog^ eneo s~ ao combina c~ oes lineares destas duas. Temos que o espa co nulo de A (N (A)) e gerado por estes dois vetores. 71

d a a solu c~ ao do sistema linear homg^ eneo Ax = 0 para as vari aveis livres x2 = 1 e x4 = 0 e o vetor 3 2 1 6 0 7 7 6 7 6 4 1=3 5 1

Enunciamos o seguinte teorema: Teorema 4.9 Seja A uma matriz, m n. Se o sistema linear homog^ eneo Ax = 0 tem mais inc ognitas do que equa c~ oes (n > m), ele tem solu c~ ao diferente da solu c~ ao trivial. Prova Desde que a matriz A tem mais colunas do que linhas, n > m, existir a no m aximo m piv^ os, da existir a pelo menos n m vari aveis livres. Existir a sempre mais vari aveis livres se algumas linhas de U reduzem a zero, n~ ao mais do que isso, pelo menos uma vari avel dever a ser livre. Atribuindo um valor a esta vari avel, obtemos uma solu c~ ao n~ ao trivial x. Na verdade, m ultiplas solu c~ oes cx satisfazendo A(cx) = 0. Observe que o espa co nulo e um subespa co de R4 , com a dimens~ ao igual ao n umero de vari aveis livres. Trataremos a dimens~ ao deste subespa co posteriormente. Caso n~ ao homog^ eneo No caso n~ ao homog^ eneo, o sistema orginal ca Ax = b, onde b 6 = 0. Voltando ao exemplo anterior, obtemos ap os o escalonamento o sistema linear equivalente Ux = c: 1 3 3 2 6 76 6 Ux = 4 0 0 3 1 5 6 4 0 0 0 0 2 3 2 x1 x2 x3 x4 3 3 b 1 7 7 6 7 b2 2 b1 7=4 5 5 b3 2 b2 + 5 b1 2

onde o vetor c do lado direito desta equa c~ ao e obtido atrav es da opera c~ ao: L1 . Outra forma de interpretar a solu c~ ao do sistema linear n~ ao homog^ eneo consiste em tomar o espa co coluna (R(A)). Este espa co e gerado pelos vetores coluna: 2 3 2 3 1 3 6 7 6 7 4 2 5;4 9 5 1 3 sendo que estes vetores coluna em A correspondem aos vetores coluna da matriz U com piv^ os. Estes vetores geram um plano em R3 , que consite no conjunto dos pontos (b1 ; b2 ; b3 ) 2 R3 tais que b3 2 b2 +5 b1 = 0, condi c~ ao imposta para o sistema 3 linear ser sol uvel, for cando o valor do vetor b 2 R . Geometricamente, dizemos que o vetor (5; 2; 1) e perpendicular a cada coluna de A. Assim, tomando como termo independente o vetor (1; 5; 5) que e perpendicular 72 O sistema linear U x = c ser a inconsistente a menos que b3 2 b2 + 5 b1 = 0.

ao vetor (5; 2; 1), obtemos o seguinte sistema linear sol uvel: 2 3 2 3 x1 2 3 1 3 3 2 6 1 7 6 7 6 x2 7 6 7 Ax = 4 2 6 9 5 56 7=4 5 5 4 x3 5 1 3 3 0 5 x4 Ap os o escalonamento, obtemos: 2 3 2 x1 x2 x3 x4 3 2 3 1 7 7 6 7 7=4 3 5 5 0

onde temos: xgeral = xparticular + xhomgeneo , sendo que o primeiro vetor coluna corresponde a solu c~ ao particular para o sistema linear n~ ao homog^ eneo e as duas u ltimas parcelas fornecem a solu c~ ao para o sistema linear homog^ eneo Ax = 0, bastando atribuir valores x2 = 1; x4 = 0 e x2 = 0; x4 = 1, respectivamente. Geometricamente, a solu c~ ao geral est a em uma superf cie bidimensional, mas que n~ ao e um subespa co vetorial por n~ ao conter a origem. Esta superf cie e paralela ao espa co nulo anterior, mas deslocado pela solu c~ ao particular. Assim, os c alculos para a solu c~ ao n~ ao homog^ enea incluem um novo passo: 1) Reduz-se Ax = b a forma escalonada Ux = c; 2) Tome todas as vari aveis livres iguais a zero e encontre a solu c~ ao particular; 3) Fa ca o lado direito da equa c~ ao U x = c igual a zero e para cada vari avel livre igual a 1 e com as outras nulas, encontre as solu c~ oes homog^ eneas. A elimin c~ ao por escalonamento nos d a o n umero de piv^ os e o n umero de vari aveis livres. Se existem r piv^ os, existem r vari aveis b asicas e n r vari aveis livres.

Observe que obtemos a u ltima linha nula e as outras duas equa c~ oes nos d~ ao a solu c~ ao: x3 = 1 1=3 x4 e x1 = 2 3 x2 x4 , onde x2 e x4 s~ ao vari aveis livres. Colocando a solu c~ ao geral xgeral na forma: 3 3 3 2 2 2 1 3 2 6 0 7 6 1 7 6 0 7 7 7 6 7 6 6 xgeral = 6 7 7 + x4 6 7 + x2 6 4 1=3 5 4 0 5 4 1 5 0 0 1

1 3 3 2 6 6 76 Ux = 4 0 0 3 1 5 6 4 0 0 0 0

4.8

Inversa a Direita e a Esquerda de Matriz

Deni c~ ao 15 73

Seja a matriz A, m n. Dizemos que a matriz B ,n m, e a inversa a esquerda da matriz A, quando esta existe e BA = In , onde In e a matriz identidade de ordem n. Dizemos que a matriz C ,n m, e a inversa a direita da matriz A, quando esta existe e AC = Im , onde Im e a matriz identidade de ordem m. Temos que para matrizes A, n n, quando estas inversas existem, elas s~ ao iguais. De fato: B = BIm = B (AC ) = (BA)C = In C = C; sendo que neste caso m = n. Teorema 4.10(Exist^ encia e Unicidade de Solu c~ ao para Ax = b) Exist^ encia O sistema linear Ax = b tem pelo menos uma solu c~ ao para qualquer m m vetor b 2 R () as colunas de A geram R , (posto(A) = r = m). Neste caso, existe uma inversa a direita C ,n m, tal que AC = Im , onde Im e a matriz identidade de ordem m. Isto e poss vel somente quando m n. Unicidade O sistema linear Ax = b tem no m aximo uma solu c~ ao para qualquer m vetor b 2 R () as colunas de A s~ ao linearmente independentes, (posto(A) = r = n). Neste caso, existe uma inversa a esquerda B ,n m, tal que BA = In , onde In e a matriz identidade de ordem n. Isto e poss vel somente quando m n. Prova Este teorema e similar ao teorema da se c~ ao 4.5, formulado agora com matrizes inversa a direita e a esquerda. No primeiro caso, uma solu c~ ao poss vel ser a x = Cb, uma vez que: Ax = ACb = Im b = b: Mas, existem outras solu c~ oes se existem outras inversas a direita. No segundo caso, se existe uma solu c~ ao para Ax = b, esta tem de ser: x = In x = BAx = Bb: Existem f ormulas simples para inversas a esquerda e a direita, se elas existem: B = (At A)1 At e C = At (AAt )1 mas, para a exist^ encia das mesmas, as matrizes At A,n n, e AAt ,m m, dever~ ao ser invert veis e neste caso, BA = In e AC = Im . Veremos no cap tulo s^ obre orogonalidade que: t - A A,n n, tem inversa quando (posto(At A) = r = n) , e -AAt ,m m, tem inversa quando (posto(AAt ) = r = m) . Assim, estas f ormulas t^ em sentido quando o posto e o maior poss vel. 74

Exemplo 1 Vamos considerar a matriz A, 2 3, de posto = 2, abaixo: " 4 0 0 0 5 0 #

A=

Como c31 e c32 s~ ao arbitr arios, existem diversas inversas a direita. Quando c31 = c32 = 0, obtemos a matriz "pseudoinversa". A matriz A n~ ao tem inversa a esquerda, uma vez que BA tem a terceira coluna nula. Neste exemplo, a f ormula C = At (AAt )1 nos d a a escolha espec ca para a inversa a direita de A, a "pseudoinversa": 3 2 3 # 1=4 0 4 0 " 0 7 6 7 1=16 6 = 4 0 1=5 5 C=4 0 5 5 0 1=25 0 0 0 0 2

Desde que r = m = n, o teorema anterior garante a exist^ encia de uma inversa a direita C : 2 3 " # 1=4 0 " # 4 0 0 6 1 0 7 AC = 4 0 1=5 5 = 0 5 0 0 1 c31 c32

A matriz At neste exemplo, em contrapartida, pode ter innitas inversas a esquerda: 2 3 " # 4 0 " # 1 = 4 0 b 1 0 7 6 13 BAt = 4 0 5 5= 0 1=5 b23 0 1 0 0 Agora, a u ltima coluna da inversa a esquerda de At e arbitr aria. Considerando o sistema linear: 3 2 3 2 # b1 4 0 " 7 6 7 x1 6 = 4 b2 5 4 0 5 5 x2 b3 0 0

e sol uvel somente quando b3 = 0, tendo u nica solu c~ ao x1 = 1=4 e x2 = 1=5. Neste t caso, as colunas de A s~ ao linearmente independentes (posto(At ) = 2), n~ ao existindo vari aveis livres. 75

Para uma matriz A, m n, n~ ao e poss vel haver ambos, exist^ encia e unicidade. Se m 6 = n, n~ ao podemos ter (posto(A) = n) e (posto(A) = m). Em contrapartida, uma matriz A, n n, tem inversa a esquerda () ela tem inversa a direita. Neste 1 caso, a inversa da matriz existe e eu nica: B = C = A .

76

Cap tulo 5 Transforma c~ oes Lineares


5.1 Introdu c~ ao

Trataremos aqui das fun c~ oes cujos dom nios e contradom nios s~ ao espa cos vetoriais. Chamamos tais fun c~ oes de transforma c~ oes, aplica c~ oes ou operadores. Seguimos as nota c~ oes de Apostol,Vol. II [3]) Sejam V e W , dois espa cos arbitr arios. Usaremos a nota c~ ao: T : V ! W para indicar que T e uma fun c~ ao cujo dom nio e V e contradom nio W . Para qualquer valor x em V , o elemento T (x) 2 W e chamado de imagem de x por T , e dizemos que T aplica x em T (x). Vamos assumir que V e W s~ ao espa cos vetoriais no mesmo corpo de escalares e denimos uma transforma c~ ao linear como segue: Deni c~ ao 1 Se V e W s~ ao espa cos vetoriais, uma fun c~ ao T : V ! W e chamada uma transforma c~ ao (ou operador) linear de V em W se tem as seguintes propriedades: a) T (x + y ) = T (x) + T (y ) 8x; y 2 V ; b) T ( x) = T (x) 8x 2 V e todo escalar . Neste caso, dizemos que uma transforma c~ ao linear T preserva a adi c~ ao e a multiplica c~ ao por escalar. Estas duas propriedades podem ser combinadas na f ormula: T ( x + y ) = T (x) + T (y ) 8x; y 2 V e todo escalar e . De f ormula mais geral, escrevemos a rela c~ ao:
n n X X T( ai xi ) = ai T (xi ) i=1 i=1

para quaisquer n elementos x1 ; x2 ; : : : ; xn 2 V e quaisquer n escalares a1 ; a2 ; : : : ; an 2 K. 77

Exemplo 1 A transforma c~ ao identidade T : V ! V , onde T (x) = x; 8x 2 V , que e representada por I. Exemplo 2 A transforma c~ ao nula T : V ! V , onde T (x) = 0x = 0; 8x 2 V , que aplica cada elemento x 2 V em 0. Exemplo 3 A transforma c~ ao multiplica c~ ao por escalar xo c tal que T : V ! V , onde T (x) = c x; 8x 2 V . Exemplo 4 A transforma c~ ao dada por equa c~ oes lineares onde denimos T : Rn ! Rm , que aplica cada vetor x = (x1 ; x2 ; : : : ; xn ) 2 Rn no vetor y = (y1 ; y2 ; : : : ; ym ) 2 Rm pelas equa c~ oes: yi =
n X k=1

aik xk ; i = 1; 2; : : : ; m

Exemplo 5 Seja V um espa co vetorial Euclidiano e seja z um vetor xo em V . Denimos: T : V ! R tal que T (x) =< x; z >; 8x 2 V: Exemplo 6 Seja p = p(x) = c0 + c1 x + : : : + cn xn um polin^ omio em Pn , conjunto de polin^ omios de grau n, e denimos a fun c~ ao: T : Pn ! Pn+1 tal que T (p) = T (p(x)) = xp(x) A fun c~ ao T e uma transforma c~ ao linear, pois temos: i) T (p1 + p2 ) = T (p1 (x) + p2 (x)) = x(p1 (x) + p2 (x)) = xp1 (x) + xp2 (x) = T (p1 ) + T (p2 ); 8p1 ; p2 2 Pn ; ii) T (kp1 ) = T (kp1 (x)) = x(kp1 (x)) = k (xp1 (x)) = kT (p1 ); 8p1 2 Pn ; 8k 2 R. Exemplo 7 Seja C1 (a; b) o espa co vetorial de todas as fun c~ oes reais deriv aveis em um intervalo aberto (a; b). A transforma c~ ao que aplica cada fun c~ ao f de C1 (a; b) na sua derivada f 0 chama-se operador de deriva c~ ao e e representado por D. Temos que: D : C1 (a; b) ! C1 (a; b) tal que D(f ) = f 0 ; 8f 2 C1 (a; b): Esta transforma c~ ao e linear e chama-se operador de deriva c~ ao. 78

Exemplo 8 Seja Co [a; b] o espa co vetorial de todas as fun c~ oes reais cont nuas em um intervalo o fechado [a; b]. Se f 2 C [a; b], denimos g = T (f ) como sendo a fun c~ ao de f 2 Co [a; b] denida por: Z x g (x) = f (t)d(t); a x b:
a

Esta transforma c~ ao e linear e chama-se operador de integra c~ ao.

5.2

Espa co Nulo e Imagem

Deni c~ ao 2 Seja a transforma c~ ao linear T : V ! W . O conjunto dos vetores w 2 W tais que e imagem de algum vetor v 2 V , chama-se imagem de T . Denotamos por: Im(T ) W (imagem de T contida em W ). Im(T ) = fw 2 W tal que 9v 2 V; T (v) = w g; Exemplo 1 Seja T : R3 ! R3 dada por: T (x; y; z ) = (0; y; z ). Im(T ) = f(x; y; z ) 2 R3 tal que x = 0g Vamos dar o seguinte teorema: Teorema 5.1 O conjunto T (V ) (Imagem de V por T ) e um subespa co vetorial de W . Al em do mais, T aplica o elemento zero de V no elemento zero de W . Prova Para demonstrar que T (V ) e um subespa co vetorial de W , basta vericar os axiomas do fecho. i) Sejam T (x) e T (y ) elementos de T (V ). Temos que T (x) + T (y ) = T (x + y ) e assim, T (x) + T (y ) 2 T (V ); ii) Para qualquer escalar temos que T (x) = T (x) e assim, T (x) 2 T (V ). Agora, tomando = 0 em ii), concluimos que T (0) = 0. Portanto, T (V ) e um subespa co vetorial de W . Teorema 5.2 Seja a transforma c~ ao linear T : V ! W . Se fv1 ; v2 ; : : : ; vn g gera V , ent~ ao fT (v1 ); T (v2 ); : : : ; T (vn )g gera Im(T ). Prova Seja w 2 Im(T ). Temos que, 9v 2 V tal que T (v ) = w. 79

Por outro lado, v pode ser escrito como: v = a1 v1 + a2 v2 + : : : + an vn ; com escalares ai ; i = 1; 2; : : : ; n: Assim, w = T (v ) = T (a1 v1 + a2 v2 + : : : + an vn = T (a1 v1 ) + T (a2 v2 ) + : : : + T (an vn ) = = a1 T (v1 ) + a2 T (v2 ) + : : : + an T (vn ): Ou seja, fT (v1 ); T (v2 ); : : : ; T (vn )g gera Im(T ): Deni c~ ao 3 O conjunto de todos os elementos de V tal que T aplica em 0 2 W chama-se o espa co nulo de T e representa-se por N (T ). Assim, escrevemos:

N (T ) = fx 2 V tal que T (x) = 0g; tamb em chamado n ucleo de T . Teorema 5.3 O espa co nulo de T e um subespa co vetorial de V . Prova Sejam x; y 2 N (T ) e escalar. Temos que x + y e x 2 N (T ), pois: i) T (x + y ) = T (x) + T (y ) = 0 + 0 = 0; ii) T (x) = T (x) = 0 = 0. Al em do mais, T (0) = 0. Portanto, N (T ) e um subespa co vetorial de V . Exemplo 1 Para a transforma c~ ao identidade I em V , o espa co nulo consiste apenas 0 em V . Exemplo 2 Para a transforma c~ ao nula 0 de V em W , o espa co nulo consiste de todos os elementos de V . Exemplo 3 Seja a transforma c~ ao linear:T : R3 ! R2 dada por: T (x; y; z ) = (x y + z; 2x + y + z ) Temos que: N (T ) = f(x; y; z ) 2 R3 tal que T (x; y; z ) = (0; 0)g; 80

Para isto, basta resolver o sistema linear homog^ eneo: ( ( xy+z = 0 y = x =) 2x + y + z = 0 z = 2x Assim, temos: N (T ) = f(x; x; 2x) 2 R3 g; que corresponde ao subespa co vetorial gerado pelo vetor (1; 1; 2). Exemplo 4 Seja a transforma c~ ao linear:T : R3 ! R3 dada por: T (x; y; z ) = (x + y + z; x + y z; x + y z ) Para encontrar o conjunto N (T ), resolvemos o sistema linear homog^ eneo: 8 ( > < x+y+z =0 x = y x + y z = 0 =) > z=0 : x+yz =0 Assim, temos: N (T ) = f(y; y; 0) 2 R3 g; que corresponde ao subespa co vetorial gerado pelo vetor (1; 1; 0). Para encontrar o conjunto Im(T ), resolvemos o sistema linear n~ ao homog^ eneo: 8 > < x+y+z =a x+yz =b > : x+yz =c

Este sistema linear e compat vel para b c = 0 e sendo a qualquer, tomando a; b; c 2 R. Assim, obtemos: Im(T ) = f(a; b; b) 2 R3 g: Teorema 5.4 Uma transforma c~ ao linear T : V ! W e injetiva () N (T ) = f0g. Prova Obs. T e injetiva quando: T (v1 ) = T (v2 ); v1 ; v2 2 V =) v1 = v2 ; 81

ou ainda: v1 6 = v2 ; v1 ; v2 2 V =) T (v1 ) 6 = T (v2 ): (=)) Se v 2 N (T ), ent~ ao T (v ) = 0. Como T (0) = 0 =) T (v ) = 0. Por hip otese, T sendo injetora, v = 0. Portanto, N (T ) = 0. ((=) Seja, v1 ; v2 2 V , tais que T (v1 ) = T (v2 ). Ou seja, T (v1 ) T (v2 ) = 0 e como T e linear: T (v1 v2 ) = 0 =) v1 v2 2 N (T ). Como, por hip otese N (T ) = f0g =) v1 v2 = 0 =) v1 = v2 . Portanto, T e injetora. Teorema 5: (Dimens~ ao: n ucleo e imagem) Seja V um espa co vetorial de dimens~ ao nita, onde dim(V ) = n. Tem-se que T (V ) tamb em e de dimens~ ao nita e al em do mais, dim N (T ) + dim T (V ) = dim(V ) (I ) Prova Sejam n = dim (V ) e fv1 ; v2 ; : : : ; vk g uma base para N (T ), onde k = dim N (T ) n. Pelo teorema da complementa c~ ao da base, este conjunto de vetores formam parte de uma certa base de V , por exemplo, a base: fv1 ; v2 ; : : : ; vk ; vk+1 ; : : : ; vk+r g (II ) com k + r n. Vamos mostrar que o conjunto de r vetores, fT (vk+1 ); : : : ; T (vk+r )g (III ) formam uma base para T (V ), o que prova dim T (V ) = r. Uma vez que, k + r = n, isto tamb em prova (I). Inicialmente, vamos provar que os r vetores em (III) geram T (V ). Se y 2 T (V ), temos y = T (x) para algum x 2 V , e podemos escrever: x = c1 v1 + c2 v2 + : : : + ck vk + ck+1 vk+1 + : : : + ck+r vk+r Da , temos: y = T (x) =
k+r X i=1

ci T (vi ) =

k X i=1

ci T (vi ) +

k+r X k+1

ci T (vi ) =

i=k+1

k+r X

ci T (vi )

uma vez que T (v1 ) = T (v2 ) = : : : = T (vr ) = 0. Portanto, fT (vk+1 ); T (vk+2 ); : : : ; T (vr )g gera T (V ). Al em do mais, este conjunto e linearmente independente. De fato: Vamos supor que existam escalares ck+1 ; ck+2 ; : : : ; ck+r tais que:
k+r X

ci T (vi ) = 0 82

i=k+1

Ent~ ao, T( e assim,


k+r X k+r X

ci (vi )) = 0;

i=k+1

i=k+1

ci (vi ) 2 N (T ); ou ainda: x x = c1 v1 + c2 v2 + : : : + ck vk :

Assim, escrevemos: xx=


k X i=1

ci vi

i=k+1

k+r X

= 0:

Como os vetores em (II) s~ ao linearmente independentes, temos que ci = 0 8i = 1; 2; : : : ; k + r. Consequentemente, fT (vk+1 ); T (vk+2 ); : : : ; T (vr )g e linearmente independente.

5.3

Opera c~ oes Alg ebricas em Transforma c~ oes Lineares

Deni c~ ao 4 Sejam S : V ! W e T : V ! W duas transforma c~ oes lineares pertencentes ao L(V; W ) (conjunto das aplica c~ oes lineares de V em W ). Se c e qualquer escalar em K , denimos a soma S + T e o produto por escalar cT pelas igualdades: i) (S + T )(x) = S (x) + T (x) e, ii) (cT )(x) = cT (x); 8x 2 V . Obs. L(V; W ) e um espa co vetorial com as opera c~ oes denidas acima. Deni c~ ao 5:(Composi c~ ao de aplica c~ oes) Sejam T : U ! V e S : V ! W duas aplica c~ oes, onde U; V e W s~ ao conjuntos. A composi c~ ao ST e a aplica c~ ao ST : U ! W denida por: (ST )(x) = S (T (x)); 8x 2 U: Exemplo 1 Sejam as aplica c~ oes S; T : R ! R denidas por S (x) = x e T (x) = x + 1. Temos: (ST )(x) = S (T (x)) = S (x + 1) = x + 1 83

e (T S )(x) = T (S (x)) = T (x) = x + 1 Exemplo 2 Sejam as aplica c~ oes S; T : R ! R denidas por S (x) = 2x e T (x) = x + 1. Temos: (ST )(x) = S (T (x)) = S (x + 1) = 2x + 2 e (T S )(x) = T (S (x)) = T (2x) = 2x + 1 Note que (ST ) 6 = (T S ). Deni c~ ao 6 Sejam T : V ! V uma transforma c~ ao linear (operador linear). Denimos as pot^ encias inteiras de T , por indu c~ ao, do seguinte modo: T 0 = I; T n = T T n1 (para) 1 onde, I e o operador identidade. Teorema 5.6 Se U; V e W s~ ao espa cos vetoriais com os mesmos escalares e se T : U ! V e S : V ! W s~ ao transforma c~ oes lineares, ent~ ao a composi c~ ao ST : U ! W e linear. Prova De fato, sejam x; y 2 U e a; b escalares quaisquer. Temos: (ST )(ax + by ) = S (T (ax + by )) = S (aT (x) + bT (y )) = a(ST )(x) + b(ST )(x) A partir deste teorema, enunciamos o seguinte teorema: Teorema 5.7 Sejam U; V e W espa cos vetoriais com os mesmos escalares e sejam as transforma c~ oes lineares S; T 2 L(V; W ) e seja c um escalar qualquer. a) Para qualquer transforma c~ ao linear R : U ! V temos: (S + T )R = SR + T R e (cS )R = c(SR); 84

b) Para qualquer transforma c~ ao linear R : W ! U temos: R(S + T ) = RS + RT e R(cS ) = c(RS ): Prova (ver Apostol,Vol. II [3])

5.4

Transforma c~ oes Inversa a Direita e Inversa a Esquerda

Dada uma transforma c~ ao linear T , queremos encontrar uma transforma c~ ao linear S , cuja composi c~ ao com T seja a transforma c~ ao linear id^ entica. Como ST 6 = T S, vamos introduzir dois tipos de transforma c~ oes inversas. Deni c~ ao 7 Uma transforma c~ ao linear R : T (V ) ! V chama-se uma inversa a direita da transforma c~ ao linear T : V ! W quando se tem T R = IT (V ) , ou seja,quando: T (R(y )) = y; 8y 2 T (V ) Exemplo 1 Seja a transforma c~ ao linear: T : R3 ! R2 ; tal que (x; y; z ) ! (x; y ) A transforma c~ ao linear: R : R2 ! R3 ; tal que (x; y ) ! (x; y; ax + by ); a; b 2 R e uma inversa a direita para T . Variando os valores de a e b 2 R, obtemos diversas transforma c~ oes inversas a direita para T . Deni c~ ao 8 Uma transforma c~ ao linear S : T (V ) ! V chama-se uma inversa a esquerda da transforma c~ ao linear T : V ! W quando se tem S T = IV , ou seja,quando: S (T (x)) = x; 8x 2 V Exemplo 2 85

Seja a transforma c~ ao linear: T : R2 ! R3 ; tal que (x; y ) ! (x + 2y; 2x + 3y; 3x + 4y ) A transforma c~ ao linear: S : R3 ! R2 ; tal que (x; y; z ) ! (3x + 2y; 2x y ) e uma inversa a esquerda para T , uma vez que: S (T (x; y )) = S (x + 2y; 2x + 3y; 3x + 4y ) = = (3(x + 2y ) + 2(2x + 3y ); 2(2x + 3y ) (2x + 3y )) = (x; y ); 8 (x; y ) 2 R2 Portanto, S e a inversa a esquerda de T . Teorema 5.8 Uma transforma c~ ao T : V ! W pode ter, quanto muito uma inversa a esquerda. Se a transforma c~ ao T tem uma inversa a esquerda S , ent~ ao S tamb em ea inversa a direita. Prova Seja T : V ! W com duas inversas a esquerda, S : T (V ) ! V e S 0 : T (V ) ! V . Seja y 2 T (V ). Como y = T (x) para algum x 2 V , temos: S (T (x)) = x e S 0 (T (x)) = x =) S (y ) = S 0 (y ); 8y 2 T (V ) Portanto, S = S 0 , ou seja,a inversa a esquerda eu nica. Vamos mostrar, agora, que S e tamb em inversa a direita, caso ela exista. Seja y 2 T (V ). Vamos mostrar que T (S (y )) = y . Como y = T (V ), temos que y = T (x) para algum x 2 V . Como S e a inversa a esquerda de T temos: x = S (T (x)) = S (y ) Aplicando T a ambos os lados desta igualdade, obtemos: T (x) = T (S (y )) ou ainda y = T (S (y )); pois y = T (x): Portanto, S tamb em e uma inversa a direita. Teorema 9:(Caracteriza c~ ao das transforma c~ oes inversas) Uma transforma c~ ao T : V ! W tem uma inversa a esquerda () T aplica elementos distintos de V em elementos distintos de W , isto e: 8x; y 2 V; x 6 = y =) T (x) 6 = T (y ) (T e injetiva) 86

ou, de forma equivalente: 8x; y 2 V; T (x) = T (y ) =) x = y Prova " =) "Assumindo que T tenha uma inversa a esquerda S , e assumindo que T (x) = T (y ), queremos provar que x = y . Aplicando S , a igualdade anterior, obtemos: S (T (x)) = S (T (y )), ou seja, x = y , uma vez que S (T (x)) = x e S (T (y )) = y . " (= "Vamos assumir agora, que T e injetiva em V . Temos de encontrar uma transforma c~ ao S : T (V ) ! V , inversa a esquerda de T . Se y 2 T (V ), ent~ ao y = T (x) para algum x 2 V . Mas, por hip otese, existe um u nico x tal que y = T (x). Colocando S (y ) = x, podemos denir S em T (V ) como segue: S (y ) = x signica que T (x) = y: Portanto, temos S (T (x)) = x para x 2 V , de modo que ST = IV , ou seja, S ea inversa a esquerda de T . Deni c~ ao 5.9 Seja T : V ! W injetiva e sobrejetiva, ou seja, T e bijetiva. A u nica inversa a 1 esquerda de T (qu e tamb em inversa a direita de T ) representa-se por T . Neste caso, diz-se que T e invert vel e chama-se T 1 a inversa de T . Exemplo 1 Seja a transforma c~ ao linear: Seja T : R3 ! R2 tal que (x; y; z ) ! (x; y ). Temos que, T n~ ao e injetiva. De fato, tomando, por exemplo, (1; 3; 3) 6 = (1; 3; 2), temos que T (1; 3; 3) = (1; 3) = T (1; 3; 2). Por outro lado, T e sobrejetiva. De fato, tomando o vetor (y1 ; y2 ) 2 R2 , vamos procurar o vetor (x1 ; x2 ; x3 ) 2 R3 tal que T (x1 ; x2 ; x3 ) = (y1 ; y2 ). Como T (x1 ; x2 ; x3 ) = (x1 ; x2 ), basta tomar x1 = y1 e x2 = y2 .

5.5

Transforma c~ oes Lineares Inversas

Vamos generalisar o estudo de transforma c~ ao linear inversa para o caso T : V ! W injetiva, onde V e W s~ ao espa cos vetoriais quaisquer. A linearidade de T nos permite espressar a propriedade injetiva de diversas formas equivalentes. Teorema 5.10 Seja a transforma c~ ao linear T : V ! W . Ent~ ao, as arma c~ oes seguintes s~ ao equivalentes: 87

a) T e injetiva em V ; b) T e invert vel e sua inversa T 1 : T (V ) ! V e linear; c) 8x 2 V; T (x) = 0 () x = 0. Isto e, o espa co nulo N (T ) contem somente o vetor nulo em V . Prova Vamos provar que a) implica b), b) implica c) e c) implica a). a) =) b) Se T e injetiva em V , ent~ ao T tem uma inversa, de acordo com o 1 Teorema 9. Vamos mostrar agora que T e linear. Para isto, tomamos dois vetores u e v 2 T (V ). Ent~ ao, u = T (x) e v = T (y ) para algum x e algum y em V . Para quaisquer escalares e , temos: u + v = T (x) + T (y ) = T ( x + y ); uma vez que T e linear. Portanto, aplicando T 1 a ambos os membros desta igualdade, obtemos: T 1 ( u + v ) = x + y = = T 1 (u) + T 1 (v ); ou seja, T 1 e linear. b) =) c) Vamos assumir que vale b). Vamos tomar um vetor x qualquer em V tal que T (x) = 0. Aplicando T 1 , obtemos: x = T 1 0 = 0, uma vez que T 1 e linear. Logo, b) =) c). c) =) a) Vamos assumir que vale c).Sejam u e v quaisquer em V tal que T (u) = T (v ). Como T e linear, temos que:T (u v ) = T (u) T (v ) = 0, e usando a hip otese em c) temos que u v = 0. Logo, T e injetiva, e a prova do teorema e completa. Exemplo 1 Seja T : R2 ! R2 o operador de rota c~ ao do vetor (x1 ; y1 ) 2 R2 de um ^ angulo . (Figura) Temos que o operador T leva o vetor (x1 ; y1 ) = (rcos ; rsin ) no vetor (x2 ; y2 ) = (rcos ( + ); rsin ( + )).Da , obtemos: x2 = r(cos cos sin sin ) = x1 cos y1 sin e y2 = r(sin cos + cos sin ) = y1 cos + x1 sin O operador de rota c~ ao inverso, gira o vetor imagem (x2 ; y2 ) de volta de um ^ angulo . Daremos, na pr oxima se c~ ao, a representa c~ ao matricial deste operador. 88

Exemplo 2 Seja T : Pn ! Pn+1 a transforma c~ ao linear T (p) = T (p(x)) = xp(x). Temos que, se p = p(x) = c0 + c1 x + c2 x2 + : : : + cn xn e q = q (x) = d0 + d1 x + d2 x2 + : : : + dn xn s~ ao polin^ omios distintos em Pn , ent~ ao: T (p) = T (p(x)) = c0 x + c1 x2 + : : : + cn xn+1 e T (q ) = T (q (x)) = d0 x + d1 x2 + : : : + dn xn+1 diferem entre si em pelo menos um coeciente. Portanto, T (p) 6 = T (q). Logo, T e injetiva e assim, T tem uma inversa. Obs. Aqui a imagem de T n~ ao e todo o espa co Pn+1 , pois Im(T ) consiste nos polin^ omios de grau (n + 1) com o termo constante nulo. Como, T (p) = T (p(x)) = c0 x + c1 x2 + : : : + cn xn+1 , segue-se que, T 1 : Pn+1 ! Pn e dada por: T 1 (c0 x + c1 x2 + : : : + cn xn+1 ) = c0 + c1 x + c2 x2 + : : : + cn xn Desta forma, dada uma transforma c~ ao linear T : V ! W que seja injetiva, podemos denir uma transforma c~ ao linear inversa T 1 , tal que T 1 : Im(T ) ! V , onde cada T 1 (w) = v; 8w 2 Im(T ), sendo v 2 V . Temos que: T 1 (T (v )) = T 1 (w) = v e T (T 1 (w)) = T (v ) = w Obs. No caso em que T : V ! V e um operador injetor, sendo V um espa co 1 vetorial de dimens~ ao nita, temos que Im(T ) = V , ou seja, o dom nio de T e todo o espa co V . Quando o espa co vetorial V tem dimens~ ao nita, a propriedade da transforma c~ ao linear ser injetiva pode ser formulada em termos de independ^ encia linear e dimensionalidade, conforme o teorema a seguir: Teorema 5.11 Se T : V ! W e uma transforma c~ ao linear e V tem dimens~ ao nita, dim(V ) = n, s~ ao equivalentes as arma c~ oes: a) T e injetiva; b) Se os vetores e1 ; e2 ; : : : ; ep s~ ao linearmente independentes em V , ent~ ao os vetores T (e1 ); T (e2 ); : : : ; T (ep ) s~ ao linearmente independentes em T (V ); 89

c) dim(V ) = n; d) Se fe1 ; e2 ; : : : ; ep g e uma base em V , ent~ ao fT (e1 ); T (e2 ); : : : ; T (ep )g e uma base em T (V ). Prova a) =) b) Asumamos que T e injetiva. Sejam os vetores e1 ; e2 ; : : : ; ep lineramente independentes em V e consideremos os vetores T (e1 ); T (e2 ); : : : ; T (ep ) em T (V ). Suponhamos que:
p X i=1

ci T (ei ) = 0

para certos escalares c1 ; c2 ; : : : ; cp . Por linearidade, obtemos:


p p X X T( ci ei ) = 0; e portanto, ci ei = 0; i=1 i=1

uma vez que T e injetiva. Como e1 ; e2 ; : : : ; ep s~ ao lineramente independentes em V , ent~ ao c1 = c2 = : : : = cp = 0. Logo,os vetores T (e1 ); T (e2 ); : : : ; T (ep ) s~ ao linearmente independentes em T (V ). b) =) c) Asumamos b) v alido. Seja fe1 ; e2 ; : : : ; ep g base de V . Por b), os n vetores T (e1 ); T (e2 ); : : : ; T (ep ) s~ ao linearmente independentes em T (V ). Portanto, dimT (V ) n. Mas, pelo Teorema 3, temos que dimT (V ) n. Portanto, dimT (V ) = n. c) =) d) Assumamos agora que c) vale e seja fe1 ; e2 ; : : : ; en g uma base de V . Tomando qualquer vetor y em T (V ), temos que y = T (x) para algum x 2 V , e assim temos: x=
n X i=1

ci ei ; e portanto; y = T (x) =

n X i=1

ci T (ei )

Logo, fT (e1 ); T (e2 ); : : : ; T (en )g gera T (V ). Como, por hip otese dimT (V ) = n, ent~ ao fT (e1 ); T (e2 ); : : : ; T (en )g e uma base de T (V ). d) =) a) Finalmente, assumamos que c) vale. Vamos provar que T (x) = 0 implica em x = 0. Seja fe1 ; e2 ; : : : ; en g e uma base de V . Se x 2 V , ent~ ao temos: x=
n X i=1

ci ei ; e portanto; T (x) =

n X i=1

ci T (ei ):

Se T (x) = 0, ent~ ao c1 = c2 = : : : = cn = 0, uma vez que os vetores T (e1 ); T (e2 ); : : : ; T (en ) s~ ao linearmente independentes. Portanto, x = 0. Logo, T e injetiva e desta forma, a prova ca completa. 90

Podemos sempre sonstruir uma transforma c~ ao linear T : V ! W com valores determinados para vetores de uma base de V , conforme teorema: Teorema 5.12 Se fe1 ; e2 ; : : : ; en g e uma base em V , sendo dim(V ) = n, e u1 ; u2 ; : : : ; un s~ ao vetores arbitr arios de um espa co vetorial W , ent~ ao existe uma u nica transforma c~ ao linear T : V ! W tal que: T (ek ) = uk ; k = 1; 2; : : : ; n () Esta transforma c~ ao T aplica um vetor arbitr ario x 2 V do seguinte modo: x=
n X k=1

xk ek =) T (x) =

n X k=1

xk uk

Prova Qualquer vetor x 2 V pode ser expresso unicamente como uma combina c~ ao linear dos vetores e1 ; e2 ; : : : ; en , sendo x1 ; x2 ; : : : ; xn as componentes do vetor x em rela c~ ao a base ordenada fe1 ; e2 ; : : : ; en g. A transforma c~ ao T denida acima e linear. Se x = ek para algum k , ent~ ao todas as componentes de x s~ ao nulas exceto a k - esima, que e igual a 1, de modo que T (ek ) = uk , como requerido em (). Para provar que a transforma c~ ao linear e u nica,tomamos outra transforma c~ ao 0 0 linear T e calculamos T (x). Temos que:
n n n X X X 0 T (x) = T ( xk ek ) = xk T (ek ) = xk uk = T (x)
0 0

k=1

k=1

k=1

Desde que, T (x) = T (x); 8x 2 V , temos que T = T . Exemplo 1 Seja encontrar a transforma c~ ao linear T : R2 ! R2 tal que T (i) = i + j e T (j ) = 2i j , onde i; j s~ ao os vetores da base can^ onica de R2 . Seja x = x1 i + x2 j um vetor qualquer de R2 . Temos que:

T (x) = x1 T (i) + x2 T (j ) = x1 (i + j ) + x2 (2i j ) = (x1 + 2x2 )i + (x1 x2 )j Desta forma, podemos escrever: " u1 u2 # = h T i " x1 x2 # 91 = " 1 2 1 1 #" x1 x2 #

5.6

Representa c~ ao Matricial das Transforma c~ oes Lineares

Seja a transforma c~ ao linear T : V ! W , onde dim(V ) = n e dim(W ) = m, e sendo dadas bases de V e W , respectivamente, pretendemos encontrar uma representa c~ ao matricial para a transforam c~ ao linear T em rela c~ ao a estas bases. Enunciamos o seguinte teorema: Teorema 5.13 Seja a transforma c~ ao linear T : V ! W , onde dim(V ) = n e dim(W ) = m, sendo fe1 ; e2 ; : : : ; en g base ordenada de V e fw1 ; w2 ; : : : ; wm g base ordenada de W . Seja uma matriz [tij ], m n, cujos coecientes s~ ao representados por: T (ek ) =
n X i=1

tik wi ; k = 1; 2; : : : ; n

Ent~ ao, um vetor arbitr ario x 2 V , onde x= e aplicado por T 2 W , onde T (x) =

n X k=1

xk ek ()

n X k=1

xk uk ()

As componentes y1 ; y2 ; : : : ; ym est~ ao relacionadas as componentes x1 ; x2 ; : : : ; xn por: yi =


n X k=1

tik xk ; i = 1; 2; : : : ; m ( )

Prova Desde que T tem valores em W , cada elemento T (ek ) pode ser expresso unicamente como combina c~ ao dos vetores w1 ; w2 ; : : : ; wm da base de W , a saber: T (ek ) =
m X i=1

tik wi

onde t1k ; t2k ; : : : ; tmk s~ ao as componentes de T (ek ) em rela c~ ao a base fw1 ; w2 ; : : : ; wm g. Podemos colocar a m-upla (t1k ; t2k ; : : : ; tmk ) como o vetor coluna: 2 3 t1k 6 7 6 t2k 7 6 . 7 6 . 7 4 . 5 tmk 92

Aplicando a matriz [T ] em cada membro da equa c~ ao () e usando a rela c~ ao (), obtemos: m X n m n n m X X X X X ( tik xk )wi = yi wi ; T (x) = xk T (ek ) = xk tik wi =
k=1 k=1 i=1 i=1 k=1 i=1

Em seguida, podemos dispor cada vetor coluna para os n vetores T (e1 ); T (e2 ); : : : ; T (en ) na matriz [T ] como segue: 2 3 t11 t12 : : : t1n 6 7 6 t21 t22 : : : t2n 7 7 [T] = 6 . . .. 6 . 7 . . . . . . . 4 5 tm1 tm2 : : : tmn

onde cada componente yi e dada por ( ). Exemplo 1 Seja a transforma c~ ao linear T : R3 ! R2 dada por T (x) = (x1 + x2 ; x2 + x3 ) para cada x = (x1 ; x2 ; x3 ) 2 R3 . Temos que: " # " # " # 1 1 0 T(e1) = ; T(e1 ) = ; T(e3) = 0 1 1 Desta forma, obtemos a matriz [T ], 2 3, seguinte: " # 1 1 0 [T] = 0 1 1 Exemplo 2 Seja T : R2 ! R2 o operador de rota c~ ao do vetor (x1 ; y1 ) 2 R2 de um ^ angulo . Temos que a matriz [T ] deste operador e dada por: " # cos sin [T] = sin cos que e invert vel, pois det[T ] = cos2 + sin2 = 1 6 = 0. Temos que: " # " # cos( ) sin( ) cos sin [T1 ] = [T]1 = = sin() cos( ) sin cos Deni c~ ao 10 Dada a transforma c~ ao linear T : Rn ! Rm , onde B = fu1 ; u2 ; : : : ; un g base 0 de Rn e B = fw1 ; w2 ; : : : ; wm g base de Rm . A matriz can^ onica A = [T ] desta 0 transforma c~ ao e chamada a matriz de T em rela c~ ao as bases B e B . Notamos por: A[x]B = [T (x)]B 0 (1) 93

onde [x]B e [T (x)]B 0 s~ ao os vetores colunas em Rn e Rm , respectivamente. Temos que, em particular, para os vetores da base B , u1 ; u2 ; : : : ; un : A[u1 ]B = [T (u1 )]B0 ; A[u2 ]B = [T (u2 )]B 0 ; : : : ; A[un ]B = [T (un )]B0 (2) Como 6 6 [u1 ]B = 6 6 4 2 t11 t12 . . . tm1 2 1 0 . . . 0 3 3 7 6 7 6 7 ; [u2 ] = 6 B 7 6 5 4 2 2 0 1 . . . 0 3 7 6 7 6 7 ; : : : ; [un ] = 6 B 7 6 5 4 3 2 0 0 . . . 1 3 7 7 7 7 5 2 t1n t2n . . . tmn 2 3 7 7 7 7 5 t1n t2n . . . tmn 3 7 7 7 7 5

obtemos:

Susbtituindo estes resultados em (2), obtemos: 2 3 2 t11 t12 6 7 6 6 t12 7 6 t22 7 0 = 6 [T(u1)]B0 = 6 ; [ T ( u )] 2 B 6 . 7 6 . . 5 . 4 . 4 . tm1 Assim, escrevemos:

6 6 A[u1 ]B = 6 6 4

7 6 7 6 7 ; A[u2 ] = 6 B 7 6 5 4

t12 t22 . . . tm2

7 6 7 6 7 ; : : : ; A[un ] = 6 B 7 6 5 4 3

tm2

7 6 7 6 7 ; : : : ; [T(un )] 0 = 6 B 7 6 5 4

A = [[T (u1 )]B0 [T (u2 )]B 0 : : : [T (un )]B 0 ] (3) Denotamos esta matriz tamb em pelo s mbolo: [T ]B 0 ;B (4) Voltando em (1), vemos que esta matriz tem a seguinte propriedade: [T ]B 0 ;B [x]B = [T (x)]B0 (5) Observe o cancelamento ocorrido na f ormula (5), pelo fato do subscrito B ocorrer duas vezes no lado esquerdo da mesma. No caso especial de operadores lineares em que V = W , a matriz resultante 0 e chamada a matriz de T em rela c~ ao a base B . Neste caso,uma vez que B = B , simplesmente escrevemos: [T ]B0 ;B = [T ]B (6) 94

e [T ]B [x]B = [T (x)]B (7) ou seja, a matriz de coordenada de T (x) e matriz de T vezes a matriz de coordenadas de x. Exemplo 1 Dada a transforma c~ ao linear T : R2 ! R2 , dada por " # " # x1 x1 + x2 T = : x2 2x1 + 4x2 Tomando a base B = fu1 ; u2 g de R2 onde, " # " # 1 1 u1 = ; u2 = ; 1 2 obtemos: [T(u1 )] = e [T(u2 )] = Portanto, [T]B = h [T (u1 )]B [T (u2 )]B i = " 2 0 0 3 # " 1+2 2 1 + 4 2 # = " 3 6 # = 3u2 " 1+1 2 1 + 4 1 # = " 2 2 # = 2u1

Exemplo 2 Seja o operador linear D : P2 ! P1 , onde Pk (k = 1; 2) e o espa co vetorial dos 0 polin^ omios de grau k , dada por D(p) = p para cada p 2 P2 . Tomando as bases 0 ordenadas B = fx2 ; x; 1g e B = fx; 1g em P2 e P1 , respectivamente, obtemos: D(x2 ) = 2x + 0; D(x) = 0x + 1; D(1) = 0x + 0 onde dispomos as componentes de D(x2 ); D(x) e D(1) em rela c~ ao a base B = 2 fx ; x; 1g na forma do vetores colunas, seguintes: " # " # " # 2 0 0 [D(x2 )]B0 = ; [D(x)]B0 = ; [D(1)]B0 = 0 1 0 95
0

Obtendo, assim, a matriz DB0 ;B correspondente a esta transforma c~ ao: " # 2 0 0 DB0 ;B = 0 1 0 Se p(x) = ax2 + bx + c, o vetor de coordenadas de p em rela c~ ao a base ordenada de P2 e: 2 3 a 6 7 [p(x)]B = 4 b 5 c

Para encontrar o vetor de coordenadas de D(p) em rela c~ ao a base ordenada de p1 , basta multiplicar: 2 3 " # a " # 2 0 0 6 7 2a 4 b 5= 0 1 0 b c

5.7

Mudan ca de Base em Transforma c~ oes Lineares

At e o presente momento, xamos uma base B no espa co vetorial V , onde denimos a transforma c~ ao linear. Vamos tratar nesta se c~ ao da muda ca de base no espa co 0 vetorial V e como ca denida a transforma c~ ao linear usando esta nova base B . Deni c~ ao 11 0 Sejam B = fu1 ; u2 ; : : : ; un g uma base do espa co vetorial V e B = fv1 ; v2 ; : : : ; vn g uma nova base de V . Suponhamos que: vi = ai1 + ai2 + : : : + ain ; i = 1; 2; : : : ; n; onde aik ; k = 1; 2; : : : ; n s~ ao os vetores coluna da k- esima coluna. Assim, na forma matricial, escrevemos: 2 3 2 32 3 v1 a11 a12 : : : a1n u1 6 7 6 76 7 6 v2 7 6 a21 a22 : : : a2n 7 6 u2 7 6 . 7=6 . 76 . 7 . . ... 6 . 7 6 . 76 7 . . . . 54 . . 5 4 . 5 4 . vn an1 an2 : : : ann un ou seja, v = Au; 96

onde v = [v1 v2 : : : vn ]t e u = [u1 u2 : : : un ]t , e A, a matriz n n acima. A matriz P = At e chamada matriz de transi c~ ao da base "velha" B para a base 0 "nova" B . Propriedade 1 - A matriz de transi c~ ao de base P e invert vel, e sua inversa P 1 e a matriz 0 de transi c~ ao da base B para a base B ; 2 - Seja P , a matriz de transi c~ ao da base can^ onica E 2 Rn para outra base B . Ent~ ao, P e a matriz cujas colunas s~ ao precisamente os vetores colunas u1 ; u2 ; : : : ; un ; 0 2 - Seja P , a matriz de transi c~ ao de uma base B para outra base B em V . Ent~ ao, para qualquer v 2 V , temos: P [v ]B 0 = [v]B e da , temos: P 1 [v]B = [v ]B 0 Damos, o seguinte teorema: Teorema 5.14 0 Seja P a matriz de transi c~ ao de uma base B para uma outra base B em um espa co vetorial V . Ent~ ao, para qualquer transforma c~ ao linear T : V ! V , [T ]B0 = P 1 [T ]P Ou seja, se A e matriz que representa a transforma c~ ao linear T na base B de V , 0 ent~ ao C = P 1 AP e a matriz que representa T em uma nova base B , onde P ea 0 matriz de transi c~ ao da base B para a base B . Prova Seja um vetor v 2 V qualquer. Ent~ ao, pela propriedade 2) anterior temos: P [v ]B 0 = [v]B Portanto, P 1 [T ]B P [v ]B0 = P 1 [T ]B [v ]B = P 1 [T (v )]B = [T (v)]B 0 : Mas, [T ]B 0 [v ]B 0 = [T (v )]B 0 . Como na aplica c~ ao v ! [v ]B e sobre Rn , temos: (P 1 [T ]B P )[x] = [T ]B 0 [x]; 8x 2 Rn : Assim, (P 1 [T ]B P ) = [T ]B 0 : 97

Exemplo 1 Consideremos as seguintes bases em R2 : E = fe1 = (1; 0); e2 = (0; 1)g e B = fu1 = (1; 2); u2 = (2; 5)g: Como os vetores E e formado pela base can^ onica, escrevemos P como os vetores coluna de B , ou seja: " # 1 2 P= 2 5 Seja o operador linear T : R2 ! R2 , dado por: " # " # x1 2x1 3x2 T = : x2 4x1 + x2 Temos que: [T(e1 )] = e [T(e2 )] = " 2 4 3 1 # #

"

e assim, a representa c~ ao usual de T na base can^ onica E ca: " # 2 3 A= 4 1 Desta forma, a representa c~ ao matricial de T em rela c~ ao a base B , ca: " #" #" # " # 5 2 2 3 1 2 44 101 C = P1AP = = 2 1 4 1 2 5 18 41 Exemplo 2 Seja o operador linear T : P2 ! P1 , onde Pk (k = 1; 2) e o espa co vetorial dos polin^ omios de grau k , dada por T (p(x)) = x p(x) para cada p 2 P2 . Tomando as 0 bases ordenadas E = f1; xg e E = f1; x; x2 g em P1 e P2 , respectivamente, obtemos: T (1) = x; T (x) = x2 onde dispomos as componentes de T (1) e T (x) em rela c~ ao forma do vetores colunas, seguintes: 2 2 3 0 0 6 6 7 [T(1)]E0 = 4 1 5 ; [T(x)]E0 = 4 0 1 0 98 a base E = f1; x; x2 g na 3 7 5
0

Obtendo, assim, a matriz TE0 ;E correspondente a este operador: 3 0 0 6 7 =4 1 0 5 0 1 Vamos escrever [T ]B0 ;E . 3 1 0 7 1 1 5 0 1
0

TE0 ;E
0

Seja a base B = f1; 1 + x; x + x2 g de P2 . Temos que: 2 1 6 P=4 0 0

e a matriz de mudan ca (transi c~ ao) da base B [v ]B0 ). Calculando P 1 , obtemos: 2 1 1 6 1 P =4 0 1 0 0


0

para a base can^ onica E (P [v ]E0 =

3 1 7 1 5 ; 1

que e a matriz de mudan ca da base E para a base Da , obtemos: 32 2 1 1 1 76 6 [T]B0 ;E = P1[T]E0 ;E = 4 0 1 1 5 4 0 0 1

B de P2 . 3 3 2 1 1 0 0 7 7 6 1 0 5 = 4 1 1 5 0 1 0 1

Observe, neste exemplo, que s o houve mudan ca de base na imagem do operador linear.

5.8

Isomorsmo entre Transforma c~ oes Lineares

Vimos na se c~ ao 5.5 para que a transforma c~ ao linear T ser invert vel e necess ario e suciente que ela seja injetiva e sobrejetiva, ou seja, bijetiva. Deni c~ ao 13 Uma transforma c~ ao T : V ! W e um isomorsmo, ou ainda, os espa cos V e W s~ ao isomorfos quando a transforma c~ ao T e uma bije c~ ao linear entre V e W. Al em do mais, se T : V ! W e S : W ! Z s~ ao isomorsmos, ent~ ao T 1 : W ! V e ST : V ! Z s~ ao isomorsmos. Assim, tem-se (ST )1 = T 1 S 1 e, 1 1 para 6 = 0, (T )1 = T . 99

Um isomorsmo T : V ! W transforma toda base de V numa base de W . Reciprocamente, se uma transforma c~ ao linear T : V ! W leva alguma base de V numa base de W , ent~ ao a transforma c~ ao T e um isomorsmo. Teorema 5.15 Sejam V e W dois espa cos vetoriais de dimens~ ao nita. V e W t^ em a mesma dimens~ ao () existe um isomorsmo entre eles. Prova =) Seja V um espa co vetorial de dimens~ ao nita n. Fixando uma base fv1 ; v2 ; : : : ; vn g V , podemos denir uma transforma c~ ao linear T : Rn ! V colocando para v = (1 ; 2 ; : : : ; n ) 2 Rn ; T (v) = 1 v1 + 2 v2 + : : : + n vn . Temos que: T (e1 ) = 1 v1 ; T (e2 ) = 2 v2 ; : : : ; T (en ) = n vn . Assim, T transforma a base can^ onica n fe1 ; e2 ; : : : ; en g R na base fv1 ; v2 ; : : : ; vn g V . Portanto, T e um isomorn smo entre R e V . Ou seja, todo espa co vetorial de dimens~ ao nita n e isomorfo n aR . (= Sejam os isomorsmos T : Rn ! V e S : Rn ! W . Como o inverso T 1 : V ! Rn e o produto ST 1 : V ! W s~ ao isomorsmos, temos que V e W t^ em a mesma dimens~ ao n . Exemplo 1 O espa co Pn , dos polin^ omios de grau n tem dimens~ ao n + 1. Portanto, Pn e n+1 isomorfo aR . Exemplo 2 O espa co M (m p), das matrizes retangulares m p, e isomorfo a Rmp . Por exemplo, o espa co das matrizes quadradas M (2 2) e isomorfo a R4 . Mais precisamente, podemos denir uma transforma c~ ao linear bijetiva T : M (2 2) ! R4 , levando a base ordenada de M (2 2): " # " # " # " # 1 0 0 1 0 0 0 0 f ; ; ; g 0 0 0 0 1 0 0 1 na base can^ onica ordenada de R4 : fe1 ; e2 ; e3 ; e4 g.

100

Cap tulo 6 Subespa cos Ortogonais. Proje c~ oes em subespa cos ortogonais. Aplica c~ oes
6.1 Introdu c~ ao

No Cap tulo 3 denimos ortogonalidade de vetores em Rn. Vamos utilizar este conceito de ortogonalidade nos quatro subespa cos fundamentais (R(A),R(At ),N (A) e N (At ))( ver Strang [8]). Antes por em, vamos estabelecer a liga c~ ao da ortogonalidade com a independ^ encia linear entre vetores ortogonais. Teorema 6.1 Se os vetores v1 ; v2 ; : : : ; vk 2 Rn s~ ao mutuamente ortogonais, ent~ ao eles s~ ao linearmente independentes. Prova Vamos tomar a combina c~ ao linear nula c1 v1 + c2 v2 + : : : + ck vk = 0. Vamos mostrar que ci = 0; 8i = 1; 2; : : : ; k , tomando como hip otese que v1 ; v2 ; : : : ; vk 2 Rn s~ ao mutuamente ortogonais. Para mostrar que c1 = 0, fazemos o produto interno:
t t v1 (c1 v1 + c2 v2 + : : : ck vk ) = v1 0 = 0 t t t Desta forma, c1 v1 v1 = 0, pois v1 vi = 0 8i 6 = 1 e como v1 v1 6 = 0 , tem-se: c1 = 0. Fazemos o mesmo para cada ci , i = 2; 3; : : : ; k , ou seja: t t 0 = 0 vi (c1 v1 + c2 v2 + : : : + ck vk ) = vi t t Assim, ci vi vi = 0 8i 6 = k e como vi vi 6 = 0 , tem-se: ci = 0 8i = 2; 3; : : : ; k . n Logo, os vetores v1 ; v2 ; : : : ; vk 2 R s~ ao linearmente independentes.

101

6.2

Subespa cos Ortogonais

Vamos iniciar esta se c~ ao enunciando o teorema sobre a ortogonalide entre os subespa cos fundamentais para uma matriz A, m n. Teorema 6.2 O espa co linha de A; (R(At )) de uma matriz retangular A, m n, e ortogonal ao n espa co nulo de A; (N (A)) (em R ). O espa co coluna de A; (R(A)) de uma matriz retangular A, m n, e ortogonal ao espa co nulo a esquerda de A; (N (At )) (em Rm ). Prova Suponha que x 2 N (A); x 2 Rn e v 2 R(At ). Ent~ ao, Ax = 0 e v = At z para lagum vetor z 2 Rm , onde v e a combina c~ ao linear das linhas de A. Devemos t mostrar que v x = 0. De fato: v t x = (At z )t x = z t Ax = z t 0 = 0: De forma similar, suponha que y 2 N (At ); y 2 Rm e v 2 R(A). Ent~ ao, At y = 0 ou y t A = 0 e v = Az para lagum vetor z 2 Rn , onde v e a combina c~ ao linear das colunas de A. Devemos mostrar que v t y = 0. De fato: v t y = (Az )t y = z t At y = z t 0 = 0: Ilustra c~ ao 2 32 3 2 x1 linha 1 76 7 6 linha 2 7 6 x2 7 6 7 6 7=6 . 76 . 7 6 . . . 54 . 5 4 xn linha m 0 0 . . . 0 3 7 7 7 7 5 i

6 6 Ax = 6 6 4 h

y A=

y1 y2 ym

ih

coluna 1 coluna 2 coluna n

Exemplo Seja a matriz A, 3 x 2, cujo posto(A) = 1, abaixo: 2 3 1 3 6 7 A=4 2 6 5 3 9 102

6 6 =6 6 4

0 0 . . . 0

3 7 7 7 7 5

As linhas da matriz A s~ ao m ultiplas do vetor (1; 3) e s~ ao ortogonais ao vetor (3; 1) 2 N (A). De fato: # " # " # " h i x h i x h i x 1 1 1 = 0; 3 9 =0 = 0; 2 6 1 3 x2 x2 x2 Observe que R(At ) e N (A) s~ ao retas em R2 . Em contraste, R(A) e uma reta com vetor dire c~ ao 2 3 1 6 7 4 2 5 3

e N (At ) e o plano de equa c~ ao 1y1 + 2y2 + 3y3 = 0, uma vez que y t A = 0. Podemos estabelecer agora, o seguinte corol ario: Corol ario 1 O epa co nulo de A; (N (A)) e o complemento ortogonal do espa co linha de t n t t A; (R(A )) em R , ou seja, N (A) = R(A ) . O espa co nulo a esquerda de A; (N (At )) e o complemento ortogonal ao espa co coluna de A; (R(A)) em Rm , ou seja, N (At )t = R(A). Prova A prova se baseia nos resultados do teorema anterior e na deni c~ ao de complemento ortogonal. Queremos saber quando a equa c~ ao linear Ax = b e sol uvel sob a otica dos subespa cos fundamentais. Assim, damos o seguinte teorema: Teorema 6.3 A equa c~ ao linear Ax = b e sol uvel () bt y = 0 sempre que At y = 0. Prova A prova e decorrente dos resultados anteriores. Como resultado direto temos que: "o vetor b deve ser combina c~ ao linear das colunas de A". E como resultado indireto temos que: "o vetor b deve ser ortogonal a todo vetor que e ortogonal as colunas de A". Exemplo Seja o seguinte sistema linear: x1 x2 = b1 x2 x3 = b2 x3 x1 = b3 que na forma matricial se escreve: 3 3 2 32 2 b1 x1 1 1 0 7 7 6 6 76 1 1 5 4 x2 5 = 4 b2 5 4 0 b3 x3 1 0 1 103

Somando todas as equa c~ oes, temos que o sistema linear e sol uvel para b1 + b2 + b3 = 0, ou seja, quando o vetor 2 3 2 3 b1 1 6 7 6 7 b = 4 b2 5 e ortogonal ao vetor y = 4 1 5 1 b3 Isto torna mais f acil que checar com todas as colunas.

6.3

A matriz A e Subespa cos Fundamentais

Quando o espa co vetorial Rn e decomposto em dois subespa cos ortogonais todo vetor x 2 Rn se escrve como x = v w v 2 V; w 2 W , onde V e W s~ ao subespa cos n ortogonais em R . O vetor v e a proje c~ ao do vetor x em V e o vetor w e a proje c~ ao ? ortogonal do vetor x em W, onde W = V . (Figura 6.1 )

Figura 6.1: Proje c~ ao Ortogonal Vamos denir uma aplica c~ ao do espa co linha de A, R(At ) no espa co coluna de A, t R(A). Temos que os subespa co R(A ) e N (A) s~ ao complementos ortogonais em Rn e os subespa cos R(A) e N (At ) s~ ao complementos ortogonais em Rm . O espa co nulo m de A, N (A) e levado no vetor nulo em R e por outro lado, nada e levado no espa co t T nulo a esquerda de A, N (A ). Para analisar a a c~ ao do espa co linha de A,R(A ) e o espa co nulo de A,N (A), tomamos um vetor x 2 Rn escrito nas componentes xlinha e xnulo destes espa cos, respectivamente, como x = xlinha + xnulo . Aplicando a matriz A neste vetor x, obtemos: Ax = Axlinha + Axnulo = Axlinha + 0 = Axlinha

104

Damos o seguinte teorema: Teorema 6.4 A aplica c~ ao do espa co linha no espa co coluna e invert vel. Todo vetor b 2 Rm no espa co coluna e imagem de um u nico vetor xlinha 2 Rn , no espa co linha. Prova Se o vetor b est a no espa co coluna, ^ ele e uma combina c~ ao linear Ax das colunas de A. Com efeito, ^ ele e Axlinha , com xlinha no espa co linha, uma vez que as componentes do espa co nulo de A d~ ao Axnulo = 0. Seja um outro vetor ylinha no espa co linha dando Aylinha = b, assim obtemos A(xlinha ylinha ) = b b = 0. Da , temos que xlinha ylinha pertence ao espa co nulo de A e espa co linha de A, e como estes s~ ao complementares temos que xlinha ylinha = 0, ou seja: xlinha = ylinha . Logo, um u nico vetor do espa co linha de A e levado no vetor b 2 Rm . Conclus~ ao

"Toda matriz A, m n, transforma seu espa co linha no seu espa co coluna." Nestes espa cos r- dimensionais, a matriz A e invert vel quando o seu espa co nulo t e zero. Quando vamos na dire c~ ao oposta,ou seja, quando aplicamos A de R(A) para R(At ), ela n~ ao dene a aplica c~ ao inversa. At move os espa cos corretamente, mas 1 esta aplica c~ ao n~ ao e biun voca. Temos que A existe () posto(A) = r = m = n. Quando falha a exist^ encia de A1 , procuramos sua substituta natural. Ela e + chamada pseudoinversa, e a denotamos por A . Ela inverte a matriz A quando e + t poss vel: A Ax = x para x 2 R(A ). No espa co nulo a esquerda nada pode ser + feito:A y = 0.

6.4

Proje c~ ao em Subespa cos

Suponhamos que dado um ponto b 2 Rn queremos encontrar sua dist^ ancia a uma n reta com vetor dire c~ ao a 2 R . Queremos encontrar nesta reta um ponto p, o mais pr oximo de b. Geometricamente, temos em R3 , a reta que liga o ponto b ao ponto p e perpendicular ao vetor a. (Veja Figura 6.2) A situa c~ ao e a mesma quando, ao inv es de uma reta na dire c~ ao do vetor a, temos um plano em uma dada dire c~ ao - ou mais geralmente, qualquer subespa co S de Rn . Neste caso, o problema consiste em encontrar o ponto p no subespa co S que e mais pr oximo de b. Este ponto p e a proje c~ ao de b neste subepa co S . Quando projetamos b em S , p e um ponto onde a perpendicular encontra o subespa co S . Uma das aplica c~ oes desta proje c~ ao consiste exatamente no problema da solu c~ ao pelo m etodo dos m nimos quadrados para um sistema sobredeterminado. Neste problema, o vetor b representa os dados, por exemplo, coletados de um experimento, e estes dados contem alguns erros neste subespa co. Quando queremos escrever o 105

Figura 6.2: Proje c~ ao em Subespa cos vetor b como uma combina c~ ao linear dos vetores da base neste subespa co, isto n~ ao pode ser feito, pois as equa c~ oes s~ ao inconsistentes e n~ ao t^ em solu c~ ao."O m etodo dos m nimos quadrados seleciona o ponto p como uma melhor escolha poss vel. n Retornando ao Cap tulo 1, dados dois vetores a e b 2 R , com a 6 = 0 podemos t t denir o vetor ta, onde t = a b=a a, como a proje c~ ao do vetor b ao longo do vetor a. Assim, a proje c~ ao p deve ser um m ultiplo do vetor a, que aqui escrevemos como: p = xa, onde queremos encontrar x. Usando a interpreta c~ ao geom etrica em R3 , temos que o segmento de reta que vai de b a p = xa e perpendicular ao vetor a:

(b a)?a () at (b xa) = 0 () x = at b=at a Assim, denimos: Deni c~ ao 1 Denimos a proje c~ ao b na reta que passa pela origem 0 e dire c~ ao a como: p = xa = at b a at a

Em R3 , temos a seguinte interpreta c~ ao correta para p. (Figura abaixo) 2 Temos que k b p k n~ ao pode ser negativa, assim: kb at b 2 t (at b)2 at b 2 t (bt b)(at a) (at b)2 a k = b b 2 + ( ) a a = 0 at a at a at a at a

O numerador (bt b)(at a) (at b)2 nunca e negativo, assim, podemos extrair a raiz t t t 2 quadrada na espress~ ao (b b)(a a) (a b) , encontrando a desigualdade de Cauchy 106

Schwarz: j at b jk a k k b k Vimos que esta igualdade e v alida quando o vetor b e m ultiplo do vetor a. O ^ angulo entre a e b e +1 e 1. Neste caso, b e identicado com sua proje c~ ao p e a dist^ ancia entre b e a reta de dire c~ ao a e zero. Proje c~ oes de posto 1 A proje c~ ao do vetor b na reta que passa pela origem 0 e dire c~ ao do vetor a pode ser escrita como: p=a at b : at a

Nesta f ormula, colocamos propositalmente o n umero x= at b at a

ap os o vetor a. Procedendo desta forma, escrevemos: p = Pb onde P = aat at a

Esta matriz tem duas propriedades b asicas da matriz de proje c~ ao: i) P e uma matriz quadrada; ii) e P 2 = P . Tamb em, neste exemplo, conforme quatro subespa cos fundamentais vemos que: i)posto(P ) = 1; ii)O espa co coluna (R(P )) consiste da reta na dire c~ ao do vetor a = (1; 1; 1); 107

P e denida como a matriz de proje c~ ao que multiplicada pelo vetor b produz a proje c~ ao p. Observe que o produto de um vetor coluna por um vetor linha d a uma matriz t quadrada, que em seguida, e dividida pelo n umero a a. Exemplo 1 A matriz P que projeta na reta de dire c~ ao de a = (1; 1; 1) e: 2 3 2 3 1 1 = 3 1 = 3 1 = 3 i aat 1 6 7h 6 7 P = t = 4 1 5 1 1 1 = 4 1=3 1=3 1=3 5 aa 3 1 1=3 1=3 1=3

onde c = cos ; s = sen e c2 + s2 = 1. Vimos esta matriz de proje c~ ao em transforma c~ oes lineares.

iii) O espa co nulo N (P ) consiste do plano perpendicutar a a. Toda coluna e um m ultiplo do vetor a, de modo que P b est a na reta de dire c~ ao a. ^ Estes vetores que projetam em p = 0 s~ ao especialmente importantes. Eles satisfazem t a rela c~ ao a b = 0, isto e, eles s~ ao perpendiculares ao vetor a e suas componentes ao ^ longo da reta s~ ao nulas. Eles pertencem ao plano perpendicular, que e o espa co nulo de P . Por outro, lado como a matriz P e sim etrica, o espa co linha e igual ao espa co coluna. Exemplo 2 Vamos tomar a proje c~ ao no plano-xy na dire c~ ao do ^ angulo . A reta tem dire c~ ao a = (cos ; sen ) e a matriz de proje c~ ao e: " # i c h " # c s s c2 cs aat " #= P= t = h i c aa cs s2 c s s

6.5

Proje c~ oes e Aproxima c~ ao pelos M nimos Quadrados

Vimos que o sistema linear Ax = b tem ou n~ ao solu c~ ao. Se o vetor b n~ ao est a no espa co coluna, (R(A)),o sistema linear e inconsistente e n~ ao temos como resolver o sistema linear. Contudo, existem situa c~ oes pr aticas em que erros em algumas das equa c~ oes provocam inconsit^ encia do sistema linear. Um exemplo cl assico disso e quando temos diversas medidas de valores (x; y ) no plano e queremos encontrar a reta que passa por estes pontos. Geralmente, procuramos o valor do vetor x 2 Rn que minimiza a m edia do erro nas m equa c~ oes dadas. Como existem diversas maneiras de calcular esta m edia, e mais conveniente tomar a soma dos quadrados dos erros. Caso 1: Regress~ ao linear simples Vamos descrever o M etodo da Regress~ ao Linear usando o seguinte exemplo: Exemplo Seja o sistema linear a uma vari avel: 2x = b1 3x = b2 4x = b3 108

A solu c~ ao x deste problema existe somente quando o vetor b = (b1 ; b2 ; b3 ) est a na mesma dire c~ ao da reta de dire c~ ao a = (2; 3; 4). Apesar da insolubilidade do sistema linear, equa c~ oes inconsistentes aparecem na pr atica e o problema deve ser resolvido. Assim, apelamos pelo M etodo de Aproxima c~ ao pelo M nimos Quadrados que consiste em encontrar um valor de x que minimiza a m edia dos erros nas m equa c~ oes (m = 3, no exemplo dado). Existem diversas maneiras de se denir tal m edia, mas a mais conveniente e a soma dos quadrados. E 2 = (2x b1 )2 + (3x b2 )2 + (4x b3 )2 Quando a solu c~ ao existe, o erro m nimo e E = 0. Caso n~ ao exista, o m nimo ser a 2 dado pelo valor de x quando a derivada primeira da fun c~ ao par abola E e igual a zero, ou seja, quando: dE 2 = 2((2x b1 )2 + (3x b2 )3 + (4x b3 )4) = 0 dx Resolvendo esta equa c~ ao em x, obtemos a solu c~ ao pelos m nimos quadrados do sistema linear ax = b: x= 2b1 + 3b2 + 4b3 22 + 32 + 42

Identicamos, nesta equa c~ ao, o valor at b no numerador e o valor at a no denominador. No caso geral para m equa c~ oes, pretendemos resolver o sistema linear ax = b minimizando a fun c~ ao: E 2 = (a1 x b1 )2 + (a2 x b2 )2 + + (am x bm )2 Igualando a derivada de E 2 a zero, obtemos: dE 2 = 2((a1 x b1 )a1 + (a2 x b2 )a2 + + (am x bm )am ) = 0 dx e assim, escrevemos: "A solu c~ ao pelos M etodo dos M nimos Quadrados e dada por: x= at b :" at a

A interpreta c~ ao geom etrica para o M etodo dos M nimos Quadrados nos indica que a reta que liga b ao ponto p na reta de dire c~ ao do vetor a deve ser perpendicular a a, ou seja: at (b xa) = at b 109 at b t a a = 0: at a

Caso 2: M etodo dos M nimos Quadrados Multivari avel Vamos considerar o problema similar ao anterior, onde agora x 2 Rn ; b 2 Rm . Neste caso, temos de considerar o sistema linear Ax = b onde, A e uma matriz, m n, e esperamos que o sistema linear seja inconsistente. Vamos considerar o erro: E =k Ax b k que e exatamente a dist^ ancia do vetor b ao ponto Ax no espa co coluna da matriz A. etodo dos M nimos Quadrados que minimiza Queremos encontrar a solu c~ ao x pelo M a fun c~ ao E 2 . Esta solu c~ ao localiza-se no ponto p = Ax o mais pr oximo de b do que qualquer ponto do espa co coluna da matriz A. Usando o apelo geom etrico em R3 para calcular x, temos que: "p deve ser a proje c~ ao de b no espa co coluna da matriz A". O vetor erro b Ax deve ser perpendicular a este espa co coluna de A, conforme ilustrado na gura a seguir: O c alculo de x e a proje c~ ao p = Ax e feito em duas etapas: 1 - Os vetores ortogonais ao espa co coluna est~ ao no espa co nulo a esquerda de t co nulo de A : A. Assim, o vetor erro b Ax deve estar no espa At (b Ax) = 0 ou At Ax = At b; 2 - O vetor erro b Ax deve ser ortogonal a cada vetor coluna de A: at 1 (b Ax) = 0 at 2 (b Ax) = 0 . . . at n (b Ax) = 0 ou na forma matricial: 2 6 6 6 6 4 at 1 at 2 . . . at n 3

Esta e a equa c~ ao At (b Ax) = 0 ou At Ax = At b, chamada de Equa c~ ao Normal. Assim, escrevemos o seguinte resultado: "A solu c~ ao pelo M etodo do M nimos Quadrados de um sistema linear inconsistente Ax = b, com m equa c~ oes e n inc ognitas satisfaz: At Ax = At b 110

7h i 7 7 b Ax = 0 7 5

Se as colunas da matriz A s~ ao linearmente independntes, ent~ ao At A e invert vel e x = (At A)1 At b: A proje c~ ao do vetor b no espa co coluna de A e portanto: p = Ax = A(At A)1 At b": Exemplo Seja encontrar a solu c~ ao pelo M etodo do M nimos Quadrados do sistema linear: x1 x2 = 4 3x1 + 2x2 = 1 2x1 + 4x2 = 3 e seja encontrar a proje c~ ao ortogonal Solu c~ ao: Temos que: 2 1 6 A=4 3 2 do vetor b no espa co coluna da matriz A.

Observe que as colunas da matriz A s~ ao linearmente independentes, portanto existe uma u nica solu c~ ao pelo M etodo do M nimos Quadrados. Temos que: 3 2 " # " # 1 1 1 3 2 14 3 6 7 At A = 2 5 = 4 3 1 2 4 3 21 2 4 e " 1 3 2 1 2 4 # 3 " # 4 1 6 7 4 1 5 = 10 3 2

3 2 3 1 4 7 6 7 2 5 eb = 4 1 5 4 3

At b =

e portanto, o Sistema Normal At Ax = At b, neste caso, ca: " #" # " # 14 3 x1 1 = 3 21 x2 10 cuja solu c~ ao e: x1 = 143 17 ; x2 = : 95 285 111

A proje c~ ao ortogonal do vetor b no espa co coluna da matriz A e: 2 3 3 2 92 1 1 " 17 # 285 7 6 7 95 6 p = Ax = 4 3 = 4 439 2 5 143 285 5 94 285 2 4 57 ou seja: x1 x2 = 0:3228 3x1 + 2x2 = 1:5404 2x1 + 4x2 = 1:6491 Observe que: 3 4 : 3228 h i 6 7 at ( b Ax ) = 1 3 2 4 0:5404 5 = 0 1 1:3509 h i 2 3 4:3228 6 7 4 0:5404 5 = 0 1:3509 2

at 2 (b Ax) =

1 2 4

onde o vetor erro E = (4:3228; 0:5404; 1:3509).

6.6

Matrizes Ortogonais e ortogonaliza c~ ao de GramSchmidt

Nesta se c~ ao trataremos dos seguinte t opicos: 1 - Deni c~ ao e propriedades de matrizes ortogonais (Q); 2 - A solu c~ ao de Qx = b, ordin aria e pelo M etodo dos M nimos Quadrados; 3 - O processo de ortogonaliza c~ ao de Gram-Schmidt e sua interpreta c~ ao como uma nova fatoriza c~ ao A = QR. 1 - Matrizes Ortogonais Deni c~ ao 2 Uma matriz ortogonal Q e simplesmente uma matriz quadrada, n n, com vetores colunas ortonormais, isto e, as colunas da matriz Q e constituida dos vetores q1 ; q2 ; : : : ; qn tais que:
t qi qj = ij ;

112

onde ij =

1 se i = j 0 se i 6 =j

Portanto, Qt Q = I () Qt = Q1 . Exemplo 1 Seja a matriz de rota c~ ao dada no cap tulo anterior: " # cos sen Q= sen cos Temos que: Qt = Q1 = "

Propriedades 1 - Se as colunas da matriz Q, n n, s~ ao ortonormais ent~ ao: 2 3 2 t q1 1 0 ::: 0 6 t 7h 6 i 6 q2 7 6 0 1 ::: 0 7 q1 q2 : : : qn = 6 . . Qt Q = 6 6 . 7 6 . . ... . 5 0 4 . 4 . . t qn 0 0 ::: 1

3 7 7 7 7 5

cos sen sen cos

Vimos que a transforma c~ ao dada por esta matriz Q gira todo vetor em R2 de um ^ angulo e Qt gira este vetor de volta de um ^ angulo . Exemplo 2 Toda matriz de permuta c~ ao P e uma matriz ortogonal. De fato, a posi c~ ao do coeciente 1 na k - esima coluna de P corresponder a a t posi c~ ao deste mesmo coeciente na k - esima linha de P . Por exemplo, se 3 2 0 1 0 7 6 P = 4 0 0 1 5; 1 0 0 temos que: 3 0 0 1 7 6 =4 1 0 0 5 0 1 0 2

Pt = P1

2 - A multiplica c~ ao de uma matriz ortogonal Q, n n, por um vetor x 2 Rn preserva seu comprimento, ou seja: k Qx k=k x k 8x 2 Rn 113

A matriz ortogonal Q, tamb em preserva produtos internos e ^ angulos, uma vez que: (Qx)t (Qy ) = xt Qt Qy = xt y A preserva c~ ao do comprimento do vetor x decorre diretamente de Qt Q = I De fato, k Qx k2 =k x k2 8x 2 Rn pois, (Qx)t (Qx) = xt Qt Qx = xt x: Assim, quando no espa co um vetor e rotacionado e reetido, o produto interno e o comprimento do vetor e preservado. Isto corresponde uma interpreta c~ ao geom etrica para a matriz ortogonal Q. 2.1 - C alculo de Qx = b; Q matriz quadrada Iniciamos os c alculos usando a propriedade 1 : Qt = Q1 . Dada uma base, qualquer vetor b 2 Rn e uma combina c~ ao linear de vetores nesta base, e assim, o problema ser a encontrar os coecientes nesta combina c~ ao linear: b = x1 q1 + x2 q2 + : : : + xn qn ()
t Multiplicando ambos os termos desta equa c~ ao por qi ; i = 1; 2; : : : ; n, obtemos: t t qi b = xi qi qi ; i = 1; 2; : : : ; n t e como qi qi = 1, chegamos a: t xi = qi b; i = 1; 2; : : : ; n

Portanto,
t t t b = (q1 b)q1 + (q2 b)q2 + : : : + (qn b)qn ():

Desta forma, podemos reescrever (*) na forma matricial, Qx = b cuja solu c~ ao e dada por: x = Q1 b 114

Como Q1 = Qt a solu c~ ao se escreve: 2 6 6 x=Q b=6 6 4


t

t q1 t q2 . . . t qn

Obs.1: A interpreta c~ ao para o vetor b na f ormula (**) em termos de proje c~ oes e a seguinte: "Todo vetor b e a soma de suas proje c~ oes unidimensionais nas retas de dire c~ oes qi ; i = 1; 2; : : : ; n." Uma vez que as proje c~ oes s~ ao ortogonais, podemos usar a rela c~ ao de Pit agoras n em R :
t 2 t 2 t 2 k b k2 = (q1 b) + (q2 b) + : : : + (qn b) :

7h i 6 7 6 7 b =6 7 6 5 4

t q1 b t q2 b . . . t qn b

3 7 7 7 7 5

ou seja: k b k2 =k Qt b k2 como mostramos na propriedade 2. Obs.2: Desde que Qt = Q1 , temos que QQt = I (produto interno das linhas de Q). Onde podemos dizer:"As linhas de uma matriz quadrada s~ ao ortonormais sempre que as colunas o forem". Exemplo A matriz Q, 3 3, abaixo, tem esta propriedade. 2 1 1 3 1 2.2 - C alculo de Qx = b; Q matriz retangular Vamos considerar agora, Qx = b, onde a matriz Q, m n, tem mais linhas do que colunas (m > n). Neste caso, esperamos n~ ao resolver Qx = b exatamente. Assim, vamos usar o M etodo dos M nimos Quadrados. Mesmo Q sendo uma matriz retangular ainda temos Qt Q = I , onde I e uma matriz identidade, n n. Na forma matricial, temos: 2 3 2 3 t q1 1 0 ::: 0 6 t 7h 7 i 6 6 q2 7 6 0 1 ::: 0 7 . 6 . 7 q q . 6 7 . ... 6 . 7 1 2 . qn = 6 . 7 . . . . . 0 4 5 4 5 t qn 0 0 ::: 1 115 6 Q=4 0
p 2 1 p 2 p 6 2 p 6 1 p 6 p 3 1 p 3 1 p 3

7 5

onde Qt e a inversa a esquerda de Q. Se a colunas da matriz Q s~ ao ortonormais, ent~ ao o problema dos m nimos quadrados torna-se f acil. Assim fazemos: Qx = b (sistema retangular insol uvel); t t Q Qx = Q b (equa c~ ao normal para x, na qual Qt Q = I ) t x = Qt b (xi = qi b) t t t p = Qx (proje c~ ao do vetor b nas colunas e:(q1 b)q1 + (q2 b)q2 + : : : + (qn b)qn ) t t p = QQ b (de modo que a matriz de proje c~ ao e P = QQ ). t As f ormulas s~ ao do tipo p = Ax e P = A(A A)1 At , para matriz A retangular. No caso, como Q e uma matriz ortogonal, Qt Q = I , e a parte pesada do M etodo dos M nimos Quadarados desaparece. As proje c~ oes nos eixos s~ ao acopladas e p ea soma das proje c~ oes unidimensionais. (Veja gura 3.10) Vale a pena ressaltar que Qt Q e a matriz identidade I , n n, enquanto que QQt e uma matriz de proje c~ ao P , m m . Exemplo Suponhamos que queremos projetar o ponto b = (x; y; z ) do espa co no plano-xy . Sua proje c~ ao e p = (x; y; 0) onde pode ser visto como a soma das proje c~ oes nos eixos x e y , como segue: 2 3 2 3 1 x 6 7 6 7 t q1 = 4 0 5 e (q1 b)q1 = 4 0 5 0 0 3 2 3 0 0 6 7 6 7 t q2 = 4 1 5 e (q2 b)q2 = 4 1 5 0 0 2 2

A matriz de proje c~ ao ser a:

3 1 0 0 7 6 t P = q1 qt 1 + q2 q2 = 4 0 1 0 5 0 0 0 3 2 3 x x 6 7 6 7 P4 y 5 = 4 y 5 0 z 2

116

3 - Processo de Ortogonaliza c~ ao de Gram-Schmidt O processo de Ortogonaliza c~ ao de Gram-Schmidt consiste em (no caso particular 3 de R ), dados tr^ es vetores a; b; c 2 R3 , encontrar os vetores q1 ; q2 e q3 a partir destes vetores iniciais de tal forma que os vetores q1 ; q2 e q3 sejam ortonormais. Inicialmente, calculamos: q1 = e, em seguida, calculamos:
t ~ b = b (q1 b)q1

a kak

que normalizado ca: q2 = Finalmente, calculamos:


t t c ~ = c (q1 c)q1 (q2 c)q2

~ b k~ bk

que normalizado ca: q3 = c ~ kc ~k

Exemplo Dados os tr^ es vetores linearmente independentes: 2 3 2 3 2 3 1 1 2 6 7 6 7 6 7 a = 4 0 5; b = 4 0 5; c = 4 1 5 1 0 0 Na 1a. etapa, obtemos: 3 2 p 2=2 a 7 6 q1 = =4 0 5 p kak 2=2 2

Na 2a. etapa, obtemos:

3 2 p 3 2 3 p 1 2=2 1=2 26 6 7 7 6 7 t ~ b = b (q1 b)q1 = 4 0 5 4 0 5=4 0 5 p 2 0 2=2 1=2 117

Na 3a. etapa, obtemos:

3 2 p 2 = 2 ~ b 6 7 q2 = =4 0 5 ~ p kbk 2=2 2

3 2 p 2 p 3 3 2 3 2 2=2 2=2 0 6 7 p 6 7 p 6 7 6 7 t t c ~ = c (q1 c)q1 (q2 c)q2 = 4 1 5 2 4 0 5 2 4 0 5=4 1 5 p p 0 2=2 2=2 0 3 0 c ~ 6 7 =4 1 5 q3 = kc ~k 0 2

Portanto, a matriz ortogonal ca: 3 2 p p 2=2 2=2 0 7 6 Q=4 0 0 1 5 p p 2=2 2=2 0

Generalizando, o processo de ortogonaliza c~ ao de Gram-Schmidt inicia com vetores a1 ; a2 ; : : : ; an linearmente independentes e naliza com vetores q1 ; q2 ; : : : ; qn , ortonormais. No j - esimo passo, subtraimos de aj as componentes nas dire c~ oes que j a foram previamentes calculadas pelo processo, a saber:
t a ~j = aj (q1 aj )q1 : : : (qj 1 aj )qj 1

Em seguida, normalizamos a ~j , obtendo: qj = a ~j ka ~j k

6.7

Fatora c~ ao QR

Vamos considerar a matriz A, m n, com vetores coluna linearmente independentes. Pretendemos decompor a matriz A no produto das matrizes Q,m n, e R, n n, onde Q e uma matriz ortogonal e R e uma matriz triangular superior. Assim, seja a matriz A, com os vetores colunas a; b; c 2 Rm : 2 3 . . . . . . . . . 6 7 7 A=6 a b c 4 5 . . . . . . . . . 118

Exemplo Vamos tomar a matriz A, 3 3, seguinte: 3 2 1 1 2 7 6 A=4 0 0 1 5 1 0 0

onde os vetores coluna q1 ; q2 ; q3 2 Rm s~ ao vetores ortonormais obtidos pelo processo de ortogonaliza c~ ao de Gram-Schmidt e com a matriz R, triangular superior, de modo que A = QR Usando o processo de ortogonaliza c~ ao de Gram-Schmidt escrevemos os vetores a; b e c como combina c~ ao linear dos vetores q1 ; q2 e q3 . No caso, teremos: t a = (q1 a)q1 t t b = (q1 b)q2 + (q2 b)q2 t t t c = (q1 c)q1 + (q2 c)q2 + (q3 c)q3 Expressando a matriz A, nesta forma, obtemos a fatora c~ ao A = QR: 32 3 2 2 3 . . . . . . t t t . . . . . . q1 a q1 b q1 c . . . . . . 7 7 6 6 t t 7 6 a b c 7 = 6 q1 q2 q3 7 6 5 4 0 q2 b q2 c 5 5 4 4 . . . . . . t . . 0 0 q3 c . . . . . . . . . .

para iniciarmos o processo. Vamos nalizar com a matriz Q seguinte: 2 3 . . . . . . . . . 6 7 6 Q = 4 q1 q2 q3 7 5 . . . . . . . . .

Usando o processo de ortogonaliza c~ ao de Gram-Schimidt obtemos a matriz Q seguinte: 2 1 3 1 p p 0 2 2 6 7 Q=4 0 0 1 5 1 1 p p 0 2 2 e de acordo com a f ormula para a matriz R, obtemos: 2 p p 3 1 2 p 2 2 p 6 7 1 R=4 0 p 2 5 2 p 0 0 2

Observe que esta fatora c~ ao e similar a fatora c~ ao A = LU , exceto que agora a matriz Q tem colunas ortogonais. Os coecientes diagonais na matriz R s~ ao os comprimentos de a ~; ~ bec ~, respectivamente. Os coecientes extradiagonais superiores 119

t t t na matriz R s~ ao q 1 b; q1 c e q2 c e os coecientes extradiagonais inferiores s~ ao nulos decorrente da forma construtiva do m etodo de ortogonaliza c~ ao de Gram-Schimidt. "Toda matriz A, n n, com colunas linearmente independentes pode ser fatorada em A = QR. As colunas da matriz Q, m n, s~ ao ortonormais, e a matriz R, n n, e triangular superior e invert vel. Quando m = n, todas as matrizes s~ ao quadradas." A import^ ancia principal da ortogonaliza c~ ao reside no fato que ela simplica o Problema dos M nimos Quadrados Ax = b. No caso, temos:

At A = Rt Qt QR = Rt R Portanto, a equa c~ ao fundamental At Ax = At b simplica em: Rt Rx = Rt Qt b ou Rx = Qt b onde a resolu c~ ao desta u ltima equa c~ ao e simples, uma vez que R e uma matriz 2 triangular superior. O custo real do m etodo e de mn opera c~ oes, decorrrente das opera c~ oes na obten c~ ao da matriz Q e da matriz R usando o processo de ortogonaliza c~ ao de Gram-Schimidt.

120

Cap tulo 7 Determinantes


7.1 Fun c~ ao Determinante

Um determinante e um certo tipo de fun c~ ao que associa um n umero real a uma matriz quadrada. Antes de dinir a func~ ao determinate, vamos dar as seguintes deni c~ oes: Deni c~ ao 1 Uma permuta c~ ao do conjunto de inteiros f1; 2; 3; : : : ; ng e um rearranjo destes inteiros em alguma ordem sem omiss~ oes ou repeti c~ oes. Nota c~ ao:Permuta c~ ao arbitr aria no conjunto Sn = conjunto das permuta c~ oes em 1; 2; 3; : : : ; n e dada por: = j1 j2 : : : jn ; onde ji = (i). Deni c~ ao 2 Uma permuta c~ ao e chamada par se o n umero total de invers~ oes e um inteiro par e e chamda mpar se o n umero total de invers~ oes e mpar. Obs.: Ocorre uma invers~ ao numa permuta c~ ao sempre que um inteiro maior precede um menor. Exemplo S3 = f1; 2; 3g Permuta c~ ao (1; 2; 3) (1; 3; 2) (2; 1; 3) (2; 3; 1) (3; 1; 2) (3; 2; 1) No. invers~ oes 0 1 1 2 2 3 121 Classica c~ ao par mpar mpar par par mpar

Deni c~ ao 3 Denimos o sinal da permuta c~ ao por: ( 1 se e par sn( ) = 1 se e mpar Deni c~ ao 4 Denimos a fun c~ ao det para uma matriz A; n n,por: det(A) = sn( )a1j1 a2j2 : : : anjn ou ainda, como a soma de todos os produtos elementares de A com sinal, onde um produto elementar da matriz A e o produto de n entradas de A, tais que n~ ao h a duas de mesma linha ou coluna de A. Exemplo 1 Seja a seguinte matriz A; 3 3: 2 3 a11 a12 a13 6 7 A = 4 a21 a22 a23 5 a31 a32 a33 Temos que: det(A) = a11 a22 a33 a11 a23 a32 a12 a21 a33 + a12 a23 a31 + a13 a21 a32 a13 a22 a31

7.2

C alculo de Determinantes - Redu c~ ao por Linhas

Propriedades B asicas Teorema 7.1 Seja A uma matriz quadrada n n. Se a matriz A tem uma linha ou uma coluna de zeros, ent~ ao det(A) = 0. Prova De fato, cada produto elementar ter a um zero como fator. Assim, o somat orio dos produtos elementares ser a igual a zero. Teorema 7.2 Se a matriz A; n n e triangular superior (inferior ou diagonal), ent~ ao det(A) e o produto das entradas na diagonal principal da matriz, ou seja, det(A) = a11 a22 : : : ann . Prova 122

De fato, cada produto elementar ter a um fator n~ ao nulo da diagonal, sendo os outros fatores nulos. Assim, o somat orio dos produtos elementares ser a igual a zero. Exemplo 2 Seja a matriz A; 4 4, triangular inferior: 2 3 a11 0 0 0 6 a 0 7 6 21 a22 0 7 A=6 7 4 a31 a32 a33 0 5 a41 a42 a43 a44

Vamos considerar o produto elementar a1j1 a2j2 a3j3 a4j4 t pico. Como a12 = a13 = a14 = 0, precisamos de j1 = 1, ent~ ao j 2 6 = 1. Assim, j2 = 2; 3; 4. Como a23 = a24 = 0, para ter um produto elementar n~ ao nulo devemos ter j2 = 2. Continuando deste modo, obtemos: det(A) = a11 a22 a33 a44 . Teorema 7.3 Seja A uma matriz quadrada n n:T emosque : det(A) = det(At ). Prova Se A = (aij ); n n, ent~ ao At = (bij ), onde bij = aji ; i = 1; 2; : : : ; n; j = 1; 2; : : : ; n. Logo, det(At ) = sn( )b1(1) b2(2) : : : bn(n) = sn( )a(1)1 a(2)2 : : : a(n)n Seja = 1 , permuta c~ ao inversa ( 1 (j ) = k , (k ) = j ). Temos que sn( ) = sn( ) e a(1)1 a(2)2 : : : a(n)n = a1 (1) a2 (2) : : : an (n) . Portanto, det(At ) = sn( )a1 (1) a2 (2) : : : an (n) : Deni c~ ao 5 Uma matriz E; n n, que pode ser obtida da matriz identidade In ; n n, executando uma u nica opera c~ ao elementar sobre linhas e chamada uma matriz elementar. Teorema 7.4 Seja A uma matriz quadrada n n. a) Se B e a matriz, n n, que resulta da multiplica c~ ao de uma u nica linha ou uma u nica coluna de A por um escalar k , ent~ ao: det(B) = k det(A); b) Se B e a matriz, n n, que resulta da permuta c~ ao de duas linhas ou duas colunas de A, ent~ ao:det(B) = det(A); c) Se B e a matriz, n n, que resulta quando um m ultiplo de uma linha de A e somado a outra linha de A ou quando um m ultiplo de uma coluna de A e somado a outra coluna de A, ent~ ao: det(B) = det(A). 123

Prova( ver Apostol,Vol II [3]) Corol ario 1 Seja E uma matriz elementar n n. a) Se E resulta da multiplica c~ ao de uma u nica linha ou uma u nica coluna de In por um escalar k , ent~ ao: det(E) = k ; b) Se E resulta da permuta c~ ao de duas linhas ou duas colunas de In , ent~ ao:det(E) = 1; c) Se E resulta quando um m ultiplo de uma linha de In e somado a outra linha de In ou quando um m ultiplo de uma coluna de In e somado a outra coluna de In , ent~ ao: det(E) = 1. Prova Consequ^ encia imediata do teorema anterior. Teorema 7.5 Se A uma matriz n n, com duas linhas proporcionais ou duas colunas proporcionais, ent~ ao:det(A) = 0. Prova Basta fazer a redu c~ ao da matriz A introduzindo uma linha de zeros. Exemplo 3 Seja calcular det(A), onde: 3 2 0 1 5 7 6 A = 4 3 6 9 5 2 6 1 Vamos reduzir esta matriz a forma escalonada e aplicar o teorema 2.

Teorema 7.6 Sejam A e B matrizes, n n, e seja k um escalar qualquer. Temos que: a) det(k A) = kn det(A); b) Na maioria dos casos, det(A + B) 6 = det(A) + det(B); 124

? ? 1 2 3 ? ? = 3 ? 0 1 5 ? ? 0 10 5

? ? ? ? ? ? ? 1 2 3 ? ? 3 6 9 ? ? 0 1 5 ? ? ? ? ? ? ? ? ? ? ? ? ? det(A) = ? 3 6 9 ? = ? 0 1 5 ? = 3 ? 0 1 5 ? = ? ? ? ? ? ? ? 2 6 1 ? ? 2 6 1 ? ? 2 6 1 ? ? ? ? ? 1 2 3 ? ? ? ? 5 ? = 3 ? 0 1 ? ? ? ? 0 0 55

? ? ? ? ? = 3 1 (55) = 165 ? ?

c) det(AB) = det(A) det(B); d) Uma matriz quadrada A; n n, e invert vel () det(A) 6 = 0; 1 1 e) det(A ) = det(A) . Prova( ver Apostol,Vol II [3])

7.3

C alculo de Determinantes - Expans~ ao em Cofatores

Deni c~ ao 6 Seja a matriz A; n n. O determinante menor da entrada aij , ou simplesmente, o menor de aij e denotado por Mij e e denido como o determinante da submatriz por supress~ ao da i- esima linha e da j - esima coluna da matriz A. O n umero (1)(i+j ) Mij e denotado por Cij e e chamado o cofator do coeciente aij . Exemplo 4 Dada a matriz A; 3 3: 2 3 3 1 4 6 7 A=4 2 5 6 5 1 4 8 O cofator de a11 = 3 e: C11 O cofator de a12 = 1 e: C12 ? ? 1+1 ? 5 6 = (1) ? ? 4 8 ? ? ? ? = 16 ?

C alculo do determinante da matriz A usando Cofatores Teorema 7.7 O determinante da matriz A = (aij ) e igual a soma dos produtos obtidos pela multiplica c~ ao dos elementos de qualquer linha( ou coluna) de A por seus respectivos cofatores, ou seja: det(A) = ou, det(A) =
n X j =1 n X i=1

? ? 2 6 ? = (1)1+2 ? ? 1 8

? ? ? ? = 10 ?

akj Ckj = ak1 Ck1 + ak2 Ck2 + : : : + akn Ckn

aik Cik = a1k C1k + a2k C2k + : : : + ank Cnkn 125

Prova( ver Apostol,Vol II [3]) Exemplo 4 Dada a matriz A; 3 3:

Temos que:

3 0 2 3 6 7 A=4 4 5 1 5 2 1 3 ? ? ? ? 5 ? 1+3 ? 4 ? + 3 (1) ? ? 2 1 ? ? ? ? ?= ?

? ? ? ? ? 5 1 ? ? ? 1+1 1+2 ? 4 1 det(A) = 0 (1) ? ? + 2 (1) ? ? 2 3 ? 1 3 ?

= 0 2 10 + 3 (14) = 62:

7.4

C alculo da inversa da matriz A usando Adjunta Cl assica

Deni c~ ao 7 Seja a matriz A; n n. Denimos a matriz dos cofatores de A, denotada por C , a matriz n n, cujos coecientes s~ ao os cofatores da matriz A, ou seja: 2 3 C11 C12 : : : C1n 6 7 6 C21 C22 : : : C2n 7 6 7 C=6 . . . ... 7 . . . . . 5 4 . Cn1 Cn2 : : : Cnn Denimos, a adjunta cl assica de A, denotada por Adj (A), a transposta da matriz dos cofatores de A,ou seja: 2 3 C11 C21 : : : Cn1 6 7 6 C12 C22 : : : Cn2 7 6 7 Adj(A) = 6 . . . ... 7 . . . . . 5 4 . C1n C2n : : : Cnn Teorema 7.8 Se A e uma matriz, n n, invert vel, ent~ ao: A1 =

1 Adj (A) det(A) 126

Prova( ver Apostol,Vol II [3]) Exemplo Seja calcular a inversa da matriz A do exemplo anterior, onde det(A) = 62 (det(A) 6 = 0,A e invert vel). 2 3 0 2 3 6 7 A=4 4 5 1 5 2 1 3 C alculo de Adj (A) Temos que: ? ? ? ? ? ? 4 5 ? 4 1 ? ? 5 1 ? ? ? ? ? ? C11 = ? ? = 10; C13 = ? ? = 16; C12 = ? ? 2 1 ? 2 3 ? ? 1 3 ? C21 ? ? ? ? = 14; ? ? ? ? ? = 4; ?

C31

? ? 2 3 ? =? ? 5 1

? ? ? ? ? ? 0 2 ? 0 3 ? ? 2 3 ? ? ? ? ? ? = 9 ; C = = 6 ; C = =? ? ? ? ? 23 22 ? 2 1 ? 2 3 ? ? 1 3 ?

? ? ? ? ? ? 0 2 ? ? 0 3 ? ? ? ? ? ? ? ? = 8; ? = 12; C33 = ? ? = 13; C32 = ? ? 4 5 ? ? 4 1 ? ? 3 16 9 13 7 6 Adj(A) = 4 10 6 12 5 14 4 8 2

C alculo de A1 Usando a f ormula do teorema 8, obtemos: 2 3 16 9 13 1 6 7 A1 = 4 10 6 12 5 (62) 14 4 8

7.5

Produto Vetorial de Vetores

Daremos aqui um m etodo para se obter um vetor perpendicular a cada dois vetores 3 A; B 2 R ; A; B linearmente independentes. Deni c~ ao 8 Sejam A = (a1 ; a2 ; a3 ) e B = b1 ; b2 ; b3 ) dois vetores em R3 . O produto vetorial A B , nesta ordem, e denido pelo vetor C , perpendicular aos vetores A e B , cujas componentes s~ ao determinantes de ordem dois, dado por: ? ? ? ? ?! ? ? a a ? ? a a ? ? a a ? ? 2 3 ? ? 3 1 ? ? 1 2 ? C= AB = ? ? ;? ? ;? ? ? b2 b3 ? ? b3 b1 ? ? b1 b2 ? 127

ou melhor:

que pode tamb em ser expresso utilizando os vetores coordenados unit arios i; j e k: ? ? ? ? ? ? ? a a ? ? a a ? ? a a ? ? 2 3 ? ? 3 1 ? ? 1 2 ? C= AB =? ?i + ? ?j + ? ?k ? b2 b3 ? ? b3 b1 ? ? b1 b2 ? ? ? ? i j k ? ? ? ? ? C = A B = ? a1 a2 a3 ? ? ? ? b1 b2 b3 ?

Exemplo Qual o produto vetorial dos vetores A = i + 2k e B = 2i + j k ? Solu c~ ao ? ? ? i j k ? ? ? ? ? C = A B = ? 1 0 2 ? = ? ? ? 2 1 1 ? ? ? 0 2 ? =? ? 1 1 ? ? ? 1 2 ? ? ? ?i ? ? 2 1 ?

Observe que: C?AeC?B De fato: A C = (1; 0; 2) (2; 3; 1) = 2 2 = 0 e B C = (2; 1; 1) (2; 3; 1) = 4 + 3 + 1 = 0. Interpreta c~ ao geom etrica do Produto Vetorial Sejam A e B dois vetores n~ ao nulos em R3 fazendo um ^ angulo entre ^ eles, onde 0 . Podemos escrever: A B =k A k k B k cos Pela identidade de Lagrange, temos: k A B k2 =k A k2 k B k2 (A B )2 = =k A k2 k B k2 (k A k2 k B k2 cos2 ) = =k A k2 k B k2 (1 cos2 ) = 128

? ? ? ? 1 0 ? ? ? ? ? ? k = 2i + 3j k: ?j + ? ? 2 1 ? ?

=k A k2 k B k2 sin2 Portanto, k A B k=k A k k B k sin : Desta forma, podemos concluir que k A B k e igual a area do paralelogramo de lados k A k e k B k, conforme gura....

129

Cap tulo 8 Autovalores e Autovetores


8.1 Introdu c~ ao

No Cap tulo 2 vimos o M etodo de Elimina c~ ao de Gauss para obten c~ ao da solu c~ ao do Sistema Linear Ax = b, onde A e uma matriz n n e x e b s~ ao vetores em Rn . Agora, estamos interessados em resolver o problema Ax = x, onde A e uma matriz nn ,x e um vetor em Rn e e um n umero em R (podemos extender o estudo ao caso complexo). A resolu c~ ao de ambos os problemas pode ser obtida via determinante, sendo que no primeiro problema usamos a regra de Cramer para a obten c~ ao da solu c~ ao x = A1 b, quando esta e u nica e no segundo problema encontramos as ra zes do polin^ omio det(A I ), que ser~ ao os autovalores da matriz A. O segundo problema aparece em muitas aplica c~ oes. Podemos introduz -lo via solu c~ ao de equa c~ oes diferenciais. Exemplo Seja o par de equa c~ oes: dv = 4v 5w; v = 8 em t = 0 dt dw = 2v 3w; w = 5 em t = 0 dt Na forma matricial, escrevemos: du = Au; u = u0 em t = 0 dt onde u(t) = " v (t) w(t) # " 8 5 # " 4 5 2 3 #

; u0 =

em t = 0 e A =

130

Procuramos por solu c~ oes da forma: v (t) = et y w (t) = et z ou na forma vetorial: u(t) = et x Calculando
du dt

e substituindo no problema na forma matricial, obtemos: et y = 4et y 5et z et z = 2et y 3et z

Cancelando o termo comum et , obtemos: 4y 5z = y 2y 3z = z O vetor x associado a , solu c~ oes da equa c~ ao Ax = x, nos d a a solu c~ ao u(t) = et x, onde vemos que o n umero et cresce ou decresce vezes um vetor xo x.

8.2

Autovalores e Autovetores

Deni c~ ao 1 Um escalar e um autovalor (valor pr oprio) da matriz A; n n, se existir um vetor x 6 = 0; x 2 Rn , tal que: Ax = x Este vetor x, associado ao autovalor , diz-se autovetor (vetor pr oprio) de A. Solu c~ ao de Ax = x A solu c~ ao de Ax = x e dada por: (A I )x = 0; ou seja, o vetor x pertence ao espa co nulo da matriz A I .Assim, o n umero e escolhido de modo que A I tenha um espa co nulo. Como x 6 = 0, devemos ter A I singular. Da , podemos enunciar o seguinte resultado: 131

Teorema 8.1 O n umero e autovalor da matriz A; n n () det(A I ) = 0. Prova( ver Apostol,Vol II [3]) Deni c~ ao 2 A equa c~ ao det(A I ) = 0 pode ser escrita na forma f () = n + c1 n1 + + cn1 + cn , chamado de polin^ omio caracter stico. Para cada raiz do polin^ omio caracter stico f () corresponde um autovetor x, solu c~ ao do sistema linear homog^ eneo: (A I )x = 0: Exemplo 1 Seja a matriz: 3 2 1 1 6 7 A=4 2 3 4 5; 1 1 2 2

Solu c~ ao Autovalores: 1 = 1; 2 = 1; 3 = 3. Autovetores Associados: Basta resolver os sistemas lineares Ax = i x; i = 1; 2; 3, obtendo: Para 1 = 1; x = t(1; 1; 0); t 2 R; t 6 = 0; Para 2 = 1; x = t(0; 1; 1); t 2 R; t 6 = 0; Para 3 = 3; x = t(2; 3; 1); t 2 R; t 6 = 0. Deni c~ ao 3 Denimos o subespa co invariante o subespa co gerado pelos autovetores associados ao autovalor e o notamos por: E (). Para o exemplo anterior temos: E (1) = f(1; 1; 0)g; E (1) = f(0; 1; 1)g; E (3) = f(2; 3; 1)g Observe que, correspondendo aos autovalores distintos, obtemos os autovetores linearmente independentes. Para autovalores m ultiplos a dimens~ ao do subespa co invariante ser a importante na verica c~ ao da diagonaliza c~ ao da matriz A. 132

cujo polin^ omio caracter stico e: 2 3 2 1 1 6 7 det(A I) = det 4 2 3 4 5 = 3 32 + 3 = ( 1)( + 1)( 3) 1 1 +2

Exemplo 2 Seja a seguinte matriz de proje c~ ao: " P=

1=2 1=2 1=2 1=2

Esta matriz tem como autovalor 1 = 1 com correspondente autovetor: " # 1 x1 = 1 e autovalor 2 = 0 com correspondente autovetor: " # 1 x2 = 1 Os autovalores de uma proje c~ ao s~ ao 1 ou 0. Quando 1 = 1 o vetor e projetado em si mesmo e quando 2 = 0 o vetor e projetado no vetor nulo. O espa co coluna de co nulo e formado P e formado pelos autovetores correspondentes a 1 = 1 e o espa pelos autovetores correspondentes a 2 = 0. Nestes espa cos, temos dim R(P ) = r, onde 1 = 1 e repetido r vezes e dim N (P ) = n r, onde 2 = 0 e repetido n r vezes.

8.3

Tra co de uma matriz

Seja f () o polin^ omio caracter stico da matriz A; n n. Sendo 1 ; 2 ; : : : ; n distintos, escrevemos: f () = ( 1 )( 2 ) : : : ( n ) ou ainda: f () = n + c1 n1 + + cn1 + cn onde o termo constante cn e o coeciente c1 do termo n1 s~ ao dados pelas f ormulas: cn = (1)n 1 2 : : : n e c1 = (1 + 2 + : : : + n ) e ainda: cn = (1)n det(A) =) 1 2 : : : n = det(A): 133

Deni c~ ao 4 Chama-se tra co de A a soma das ra zes do polin^ omio caracter stico f () e e denotado por tr(A). Escrevemos: tr(A) =
n X i=1

i = c1

Desenvolvendo o determinante de A I , tamb em encontramos: c1 = (a11 + a22 + : : : + ann ) Desta forma, tamb em denimos: tr(A) =
n X i=1

aii

Propriedades de tr(A) Sejam A e B matrizes, n n. Temos que: i) tr(A + B ) = tr(A) + tr(B ); ii) tr(cA) = c tr(A); c escalar; iii) tr(AB ) = tr(BA); iv) tr(At ) = tr(A). Prova Basta usar as propriedades da fun c~ ao determinante.

8.4

Diagonaliza c~ ao de uma Matriz

Vamos desenvolver o estudo de dois problemas diferentes, por em equivalentes: - O problema de autovetores: Dada uma matriz A; n n, existe uma base de nn R consistindo de autovetores de A? - O problema de diagonaliza c~ ao: Dada uma matriz A; n n, existe uma matriz 1 invert vel S; n n, tal que S AS e uma matriz diagonal? Damos a seguinte deni c~ ao: Deni c~ ao 5 Uma matriz A; n n, e dita diagonaliz avel se existir uma matriz invert vel S tal 1 que S AS e uma matriz diagonal, neste caso, dizemos que S diagonaliza a matriz A. Teorema 8.2 Se A e uma matriz, n n, ent~ ao s~ ao equivalentes as seguintes arma c~ oes: i) A matriz A e diagonaliz avel; 134

ii) A matriz A tem autovalores linearmente independentes. Prova i) =) ii) Se a matriz A e diagonaliz avel, ent~ ao existe uma matriz S invert vel, que notamos: 2 3 s11 s12 : : : s1n 6 7 6 s21 s22 : : : s2n 7 6 7; S=6 . . . ... 7 . . . . . 5 4 . sn1 sn2 : : : snn tal que S 1 AS e uma matriz diagonal. 2 1 6 6 0 =6 6 . . 4 . 0 Da , segue-se 2 s11 6 6 s21 AS = 6 6 . . 4 . Escrevemos: S 1 AS = , onde: 3 0 ::: 0 7 2 : : : 0 7 7; . ... . 7 . . . . 5 0 : : : n 0 0 . . . 3 7 6 7 6 7=6 7 6 5 4 2

sn1 sn2 : : : snn

Denotando os vetores coluna de S por s1 ; s2 ; : : : ; sn temos que os vetores coluna de AS s~ ao sucessivamente lambda1 s1 ; lambda2 s2 ; : : : ; n sn .Por outro lado, temos que as sucessivas colunas de AS s~ ao: As1 ; As2 ; : : : ; Asn Assim, devemos ter: As1 = 1 s1 ; As2 = 2 s2 ; : : : ; Asn = n sn

que AS = S , ou seja: 32 1 0 : : : s12 : : : s1n 76 s22 : : : s2n 7 6 0 2 : : : 76 . . . . .. ... 76 . . . . . . . . 54 . 0 0

: : : n

1 s11 2 s12 : : : n s1n 1 s21 2 s22 : : : n s2n . . . .. . . . . . . . 1 sn1 2 sn2 : : : n snn

3 7 7 7 7 5

Como S e invert vel, estes vetores coluna s~ ao todos n~ ao nulos. Desta forma, 1 ; 2 ; : : : ; n s~ ao autovalores de A com s1 ; s2 ; : : : ; sn autovetores associados. Al em do mais, como S e invert vel, concluimos que s1 ; s2 ; : : : ; sn s~ ao linearmente independentes. ii) =) i) Vamos supor que a matriz A tem n autovetores s1 ; s2 ; : : : ; sn linearmente independentes correspondentes aos autovalores 1 ; 2 ; : : : ; n e seja: 2 3 s11 s12 : : : s1n 6 7 6 s21 s22 : : : s2n 7 7 S=6 . . ... 6 . 7 . . . . . . 4 5 sn1 sn2 : : : snn 135

onde s1 ; s2 ; : : : ; sn s~ ao os vetores coluna de S . Os vetores coluna de AS s~ ao: As1 ; As2 ; : : : ; Asn onde As1 = 1 s1 ; As2 = 2 s2 ; : : : ; Asn = n sn Assim, 2 6 6 AS = 6 6 4 3 2 32 76 76 76 76 54 3

1 s11 2 s12 : : : n s1n 1 s21 2 s22 : : : n s2n . . . ... . . . . . . 1 sn1 2 sn2 : : : n snn

onde e uma matriz diagonal com os autovalores 1 ; 2 ; : : : ; n de A. Como, por hip otese, os autovetores de A s~ ao linearmente independentes, concluimos que os vetores coluna de S s~ ao linearmente independentes e da a matriz S invert vel. 1 Desta forma, reescrevemos a igualdade anterior como S AS = , ou seja: a matriz A e diagonaliz avel. Obs.: As matrizes A e t^ em o mesmo polin^ omio caracter stico e portanto os mesmos autovetores (A e s~ ao semelhantes). Exemplo 3 Seja a matriz A; n n: 3 2 5 6 6 7 6 A = 4 1 4 2 5 3 6 4 Temos que a equa c~ ao caracter stica de A e: ( 2)2 ( 1) = 0 Os autovalores associados a 1 = 2 s~ ao dados pela solu c~ ao de Ax = 2x, dada por: co invariante x = (x1 ; x2 ; x3 ) tal que x1 = 2x2 + 2x3 . Assim, a base para o subespa gerado pelos autovetores associados a 1 = 2 e: E (2) = f(2; 1; 0); (2; 0; 1)g Os autovalores associados a 2 = 1 s~ ao dados pela solu c~ ao de Ax = x, dada por: x = (x1 ; x2 ; x3 ) tal que x1 = x3 = 3x2 . Assim, a base para o subespa co invariante gerado pelos autovetores associados a 2 = 1 e: E (1) = f(3; 1; 3)g 136

7 6 7 6 7=6 7 6 5 4

s11 s12 : : : s1n s21 s22 : : : s2n . . . ... . . . . . . sn1 sn2 : : : snn

1 0 : : : 0 0 2 : : : 0 . . ... . . . . . . . 0 0 : : : n

7 7 7 = S 7 5

Como existem tr^ es autovetores da matriz S os vetores coluna: 2 2 6 s1 = 4 1 0

linearmente independentes, tomamos como colunas 3 3 2 3 2 3 7 6 7 6 7 5 ; s2 = 4 0 5 ; s3 = 4 1 5 1 3 2

Vamos dar um teorema importante sobre a diagonaliza c~ ao de uma matriz A; n n. Por em, antes vamos dar a seguinte deni c~ ao: Deni c~ ao 6 Seja k e um autovalor de uma matriz A; n n. A dimens~ ao do subespa co umero de vezes invariante E (k ) e chamado de multiplicidade geom etrica de k e o n que k aparece como fator do polin^ omio caracter stico de A e chamado de multiplicidade alg ebrica de k . Teorema 8.3 Se A e uma matriz quadrada n n, ent~ ao: i) Para cada autovalor de A, a multiplicidade geom etrica e menor ou igual a multiplicidade alg ebrica; ii) A e diagonaliz avel () para cada autovalor, a multiplicidade geom etrica e igual a multiplicidade alg ebrica. Prova( ver Apostol,Vol II [3]) Obs.: Quando a diagonaliza c~ ao da matriz A n~ ao for poss vel, recorremos a forma can^ onica de Jordan, tornando S 1 AS "mais pr oximo da matriz diagonal". Pelo teorema anterior, vemos que dada uma matriz A; n n, e sempre poss vel 1 encontrar uma matriz n~ ao singular S , tal que a matriz D = S AS e diagonal, e esta matriz S n~ ao eu nica. Contudo, se a matriz S e constituida de vetores ortonormais, ou seja, quando S e ortogonal,esta ser au nica para seus autovalores ordenados. Temos que as matrizes D e A s~ ao semelhantes e t^ em o mesmo polin^ omio caracter stico. De fato:

Desta forma, podemos concluir que a matriz A e diagonalis avel, pois ela tem tr^ es autovetores linearmente independentes. Assim, escrevemos: 2 3 2 2 3 6 7 S = 4 1 0 1 5 0 1 3

det(D ) = det(S 1 AS I ) = det(S 1 (A I )S ) = det(S 1 )det(A I )det(S ) = det(A I ) 137

Teorema 8.4 Seja A e uma matriz quadrada nn. Sejam 1 ; 2 ; : : : ; k os autovalores distintos de A e seja Wi = E (i ). S~ ao equivalentes as seguintes arma c~ oes: i) A matriz A e diagonaliz avel; ii) O polin^ omio caracter stico de A e: f () = ( 1 )d1 ( 2 )d2 : : : ( k )dk e dim(Wi ) = di ; i = 1; 2; : : : ; k: ii) dim(W1 ) + dim(W2 ) + : : : + dim(Wk ) = n Prova( ver Apostol,Vol II [3])

8.5

Polin^ omios e Matrizes

Vamos considerar um polin^ omio f (t) com escalares ai ; i = 0; 1; ldots; n em K (R ou C): f (t) = an tn + an1 tn1 + : : : + a1 t + ao Deni c~ ao 7 Tomando uma matriz A; n ncom coecientes em K , podemos denir: f (A) = an An + an1 An1 + : : : + a1 A + ao I; onde I e a matriz identidade , tamb em n n . Dizemos que a matriz A e uma raiz de f (t), quando f (A) = 0. Exemplo 4 Sejam " # 1 2 A= 3 4 e f (t) = 2t2 3t + 7; g (t) = t2 5t 2: 138

Temos: f (A) = 2 e g(A) = " 1 2 3 4 #2 5 " 1 2 3 4 # 2 " 1 0 0 1 # = " 0 0 0 0 # " 1 2 3 4 #2 3 " 1 2 3 4 # +7 " 1 0 0 1 # = " 18 14 21 39 #

Logo, a matriz A e uma raiz de g (t). Propriedades Sejam f e g polin^ omios com coecientes em K (R ou C); A uma matriz, n n, com coecientes em K . Ent~ ao: i) (f + g )(A) = f (A) + g (A); ii) (f g )(A) = f (A)g (A); iii) (kf )(A) = kf (A); 8k 2 K . Prova (Basta usar as opera c~ oes com polin^ omios) Teorema 8.5(Cayley Hamilton) Toda matriz A; n n, e um zero de seu polin^ omio caracter stico. Prova Seja A uma matriz n n, onde f (t) = det(A tI ) = tn + an1 tn1 + : : : + a1 t + a0 Denotamos por B (t) a adjunta cl assica de A tI . Os elementos de B (t) s~ ao cofatores de matriz A tI , ou seja, s~ ao polin^ omios em t de grau n 1. Assim: B (t) = Bn1 tn1 + Bn2 tn2 + : : : + B1 t + B0 onde Bi s~ ao matrizes k k , k n 1,com coecientes independentes de t. Pela propriedade da adjunta cl assica, temos que:

(A tI )B (t) = det(A tI )I; ou seja, (A tI )Bn1 tn1 + Bn2 tn2 + : : : + B1 t + B0 = (tn + an1 tn1 + : : : + a1 t + a0 )I 139

Efetuando as opera c~ oes alg ebricas em ambos os lados desta equa c~ ao, obtemos para k = n; n 1; : : : ; 0: Bn1 = I Bn2 ABn1 = an1 I Bn3 ABn2 = an2 I ::::::::::::::::::::::::: B0 AB1 = a1 I AB0 = a0 I Multiplicando estas equa c~ oes por An; An1 ; : : : ; A; I , respectivamente, obtemos: An Bn1 = An An1 Bn2 An Bn1 = an1 An1 An2 Bn3 An1 Bn2 = an2 An2 ::::::::::::::::::::::::: AB0 A2 B1 = a1 A AB0 = a0 I Somando membro a membro os lados destas igualdades, obtemos: 0 = An + an1 An1 + : : : + a1 A + a0 Logo, a matriz A e um zero de seu polin^ omio caracter stico.

8.6

Pot^ encias de matrizes

Deni c~ ao 8 Seja uma matriz A; n n, multiplicada por si mesmo um certo n umero de vezes. Neste caso, sendo k um n umero inteiro positivo, denimos a pot^ encia k - esima de A k por: A = AA : : : A (k vezes). Suponhamos que a matriz A; nn, possa ser diagonalizada na forma S 1 AS = D, onde D e uma matriz diagonal.Ent~ ao, a matriz A admite a fatora c~ ao diagonal, extremamente u til: A = SDS 1 Utilizando-se esta fatora c~ ao, a pot^ encia de A e facilmente calculada,como segue: " Seja D = diag (k1 ; k2 ; : : : ; kn ). Ent~ ao:
m m m Am = (SDS 1 )m = SDm S 1 = S diag (k1 ; k2 ; : : : ; kn ) S 1

140

e, mais geralmente, para qualquer polin^ omio f (t), f (A) = f (SDS 1 ) = Sf (D)S 1 = S diag (f (k1 ); f (k2 ); : : : ; f (kn )) S 1 " Exemplo Seja a matriz: A= " 4 2 3 1 #

Temos que o polin^ omio caracter stico de A e: f (t) = t2 3t 10 cujas ra zes s~ ao os autovalores: 1 = 5 e 2 = 2. Calculando os autovetores correspondentes, obtemos: s1 = (2; 1) e s2 = (1; 3). Desta forma, obtemos a matriz S cujas colunas s~ ao os autovetores acima: " # 2 1 S= 1 3 e obtemos: S1 = " 3=7 1=7 1=7 2=7 #

D = S 1 AS e a matriz diagonal cujos coecientes diagonais s~ ao os respectivos autovalores: " # 5 0 D= 0 2 Consequentemente, a matriz A admite a fatora c~ ao diagonal: " #" #" # 2 1 5 0 3 = 7 1 = 7 A = SDS1 = 1 3 0 2 1=7 2=7 Por exemplo, para o polin^ omio f (t) = t4 4t3 3t2 + 5 podemos calcular: " #" #" # " # 2 1 55 0 3 = 7 1 = 7 53 4 f (A) = Sf (D)S1 = = 1 3 0 41 1=7 2=7 6 43

141

Cap tulo 9 Decomposi c~ ao em Valores Singulares - SVD


9.1 Introdu c~ ao

A Decomposi c~ ao em Valores Singulares(SVD) de uma matriz A, m n, e uma decomposi c~ ao que pode ser utilizada em muitas aplica c~ oes, a saber: processamento digital de imagens, posto "efetivo", decomposi c~ ao polar, ltragem de sinais, etc. ( ver Leon [7]) Vamos supor, em toda se c~ ao, que A e uma matriz m n com m n. Vamos apresentar um m etodo para determinar qu~ ao pr oxima A est a de uma matriz de posto P menor. O m etodo envolve a fatora c~ ao da matriz A em um produto U V t , onde U P e uma matriz ortogonal m m, V e uma matriz ortogonal n n e e uma matriz extritamente diagonal cujos coecientes diagonais satisfazem 1 2 : : : r 0, ou seja: 3 2 1 0 0 : : : 0 0 7 6 0 2 0 : : : 0 0 7 X 6 7 6 . . . ... . 7 . . . . =6 . . . 7 6 . 7 6 4 0 0 0 0 r 0 5 0 0 0 0 0 0

Os i determinados por essa fatora c~ ao s~ ao u nicos e s~ ao chamados valores singulares t da matriz A. A fatora c~ ao U V e chamada de Decomposi c~ ao em Valores Singulares(SVD). As colunas da matriz U , m m, s~ ao os autovetores da matriz AAt e as colunas da matriz V , n n, s~ ao os autovetores da matriz At A. Os r valores singualares da P diagonal da matriz , m n, s~ ao ra zes quadradas dos autovalores n~ ao nulos de t t ambas as matrizes AA e A A. 142

9.2

Desenvolvimento do c alculo da SVD

Damos o seguinte teorema garantindo a SVD de uma matriz A, m n. Teorema 9.1 Se A e uma matriz m n, ent~ ao a matriz A tem uma Decomposi c~ ao em Valores Singulares(SVD). Prova Temos que At A e uma matriz sim etrica. Da , todos os seu autovalores s~ ao reais e n~ ao negativos. Al em do mais, ela pode ser diagonalizada ortogonalmente pela matriz V . Seja um autovalor de At A e seja x o autovetor associado. Ent~ ao, k Ax k2 = xt At Ax = xt x = k x k2 =) = k Ax k2 0: k x k2

Vamos supor que as colunas da matriz V s~ ao ordenadas de modo que os autovalores correspondentes a estas colunas satisfazem: 1 2 : : : n 0 Os valores singulares da matriz A s~ ao dados por: j = p j ; j = 1; 2; : : : ; n

Vamos denotar por r o posto da matriz A. A matriz At A tamb em tem posto r. t Como A A e sim etrica, temos que seu posto e igual ao n umero de autovalores n~ ao nulos. Logo, 1 2 : : : r 0 e r+1 = r+2 = : : : = n = 0 e o mesmo vale para os valores singulares: 1 2 : : : r 0 e r+1 = r+2 = : : : = n = 0 Sejam as matrizes: 6 6 e 1 = 6 6 4 2 1 0 : : : 0 0 2 : : : 0 . . ... . . . . . . . 0 0 0 r 3 7 7 7 7 5

V1 =

v1 v2 : : : vn

; V2 =

vr+1 vr+2 : : : vn

143

Assim, escrevemos: = e V= h V1 V2 i (2) " 1 0 0 0 # (1)

Os vetores coluna de V2 s~ ao os autovetores de At A associados a = 0. Logo, At Avj = 0; j = r + 1; r + 2; : : : ; n e portanto, as colunas de V2 formam uma base ortonormal para N (At A) = N (A). Da , escrevemos: AV2 = 0 e como V e uma matriz ortogonal temos: I = V V t = V1 V1t + V2 V2t Multiplicando esta igualdade pela matriz A, obtemos: A = AI = V1 V1t + V2 V2t = AV1 V1t (3) At e aqui, constru mos as matrizes e V dadas por (1) e (2). Vamos mostrar, agora, como construir uma matriz ortogonal U; m m, tal que: A = U V t ; ou AV = U (4) Comparando as r primeiras colunas de cada lado de (4), vemos que: Avj = j uj ; j = 1; 2; : : : ; r Denindo, uj = e U1 = segue-se que: h u1 u2 : : : ur i ; 1 Avj ; j = 1; 2; : : : ; r (5) j

AV1 = U1 1 (6) 144

As colunas de U1 formam um conjunto ortonormal, j a que: ut i uj = ( 1 t t 1 v A )( Avj ); i; j = 1; 2; : : : ; r i i j

1 t 2 1 t t vi (A Avj ) = v ( vj ) i j i j i j = j t v vj = ij : i i

Segue de (5) que cada uj ; 1 j r, est a no espa co coluna de A (dimR(A) = r) =) u1 ; u2 ; : : : ; ur forma uma base ortonormal de R(A). Como m = dim R(A) + dim N (At ), temos que o espa co vetorial N (At ) tem dimens~ ao m r . t Seja fur+1 ; ur+2 ; : : : ; um g uma base para N (A ) e denimos: i h i h U2 = ur+1 ur+2 : : : um e U = U1 U2

Desta forma, os vetores u1 ; u2 ; : : : ; um formam uma base ortonormal para Rm . Logo, U e uma matriz ortogonal. Al em do mais, A = U V t . De fato: De (6) e (3) temos: " #" # h i 0 t V 1 1 t t UVt = U1 U2 = U1 1 V1 =AV1 V1 =A 0 0 V2t Observa c~ oes: Obs.1: As colunas de U e V fornecem bases ortonormais para os quatro subespa cos fundamentais, a saber: - r primeiras colunas de U : R(A); - mr u ltimas colunas de U : N (At ); - r primeiras colunas de V : R(At ); - nr u ltimas colunas de V : N (A). Obs.2: A SVD fornece estas bases de uma forma bem especial. Al em de ortonormais, tem-se: " a matriz A multiplicada por uma coluna da matriz V produz um m ultiplo de uma coluna da matriz U ". Isto decorre diretamente de AV = U , olhando coluna por coluna. Obs.3: As conex~ oes com AAt e At A devem valer se a f ormula U V t est a correta. Isto pode ser visto facilmente de: AAt = (U V t )(V t U t ) = U t U t 145

e At A = (V t U t )(U V t ) = V t V t Da primeira igualdade, U deve ser a matriz dos autovalores de AAt . A matriz dos autovalores no meio do produto matricial e t que e uma matriz m m 2 2 2 com 1 ; 2 ; : : : ; r na diagonal. Da segunda igualdade, V deve ser a matriz dos autovalores de At A. A matriz dos autovalores no meio do produto matricial e t 2 2 2 tem os mesmos coecientes 1 ; 2 ; : : : ; r na diagonal,mas e uma matriz n n. Exemplo 1 Seja a matriz: " # 3 1 1 A= (1) 1 3 1 Procedemos como segue: 1) - Determina c~ ao da matriz U Temos que: AAt = " 3 1 1 1 3 1 # 3 " # 3 1 11 1 7 6 4 1 3 5 = 11 1 1 1 2 # " #

cujos autovalores s~ ao dados por: " #"

11 1 1 11

x1 x2

x1 x2

Onde obtemos, 1 = 10 e 2 = 12, cujos autovetores correspondentes s~ ao: " # " # 1 1 e 1 1 Segundo a ordena c~ ao dos autovalores, obtemos a matriz: " # 1 1 1 1 Nomeando por v1 e v2 os vetores coluna desta matriz e aplicando o processo de ortogonaliza c~ ao de Gram-Schimidt, obtemos: " p # 1= 2 v1 p = u1 = k v1 k 1= 2 146

w2 = v2 (u1 :v2 )u1 = e normalizando, obtemos: w2 u2 = = k w2 k Dando, nalmente, a matriz: U= " "

"

1 1

p # 1= 2 p 1= 2

p # p 1= 2 1= 2 p p 1= 2 1= 2

2) - Determina c~ ao da matriz V feita de forma similar E a obten c~ ao da matriz U. Neste caso, calculamos: 2 3 2 3 # 3 1 " 10 0 2 3 1 1 6 7 6 7 At A = 4 1 3 5 = 4 0 10 4 5 1 3 1 1 1 2 4 2 cujos autovalores s~ ao dados por: 2 32 3 2 3 10 10 2 x1 x1 6 76 7 6 7 4 0 10 4 5 4 x2 5 = 4 x2 5 2 4 2 x3 x3

Onde obtemos, 1 = 0; 2 = 10 e 3 = 12 cujos autovetores correspondentes s~ ao: 2 3 2 3 2 3 2 1 1 7 6 7 7 6 6 4 2 5 ; 4 1 5 e 4 2 5 0 1 5 Segundo a ordena c~ ao dos autovalores, 2 1 6 4 2 1 obtemos a matriz: 3 2 1 7 1 2 5 0 5

Nomeando por y1 ; y2 e y3 os vetores coluna desta matriz e aplicando o processo de ortogonaliza c~ ao de Gram-Schimidt, obtemos: 2 p 3 1= 6 y1 6 p 7 v1 = = 4 2= 6 5 p k y1 k 1= 6 147

e normalizando, obtemos:

3 2 6 7 w2 = y2 (v1 :y2 )v1 = 4 1 5 0 p 3 2= 5 p 7 w2 6 v2 = = 4 1= 5 5 k w2 k 0 2

e normalizando, obtemos:

3 2=3 6 7 w3 = y3 (v1 :y3 )v1 (v2:y3 )v2 = 4 4=3 5 10=3 3 p 1= 30 p w3 6 7 v3 = = 4 2= 30 5 p k w3 k 5= 30 2

Para a matriz S , tomamos a raiz quadrada dos maiores autovalores ordenados na diagonal, obtendo: " p # 12 0 0 p S= 0 10 0 Observe que os maiores autovalores de U e V s~ ao os mesmos e o autovetor nulo de V e descartado.

Dando, nalmente, a matriz: 3 2 p p p 1= 6 2= 5 1= 30 p p 7 6 p V = 4 2= 6 1= 5 2= 30 5 p p 1= 6 0 5= 30

9.3

Aplica c~ ao da SVD no M etodo dos M nimos Quadrados

Vimos, anteriormente, que a solu c~ ao de um sistema linear inconsistente Ax = b com m equa c~ oes e n inc ognitas satisfaz: At Ax = At b 148

Se as colunas da matriz A s~ ao linearmente independentes, ent~ ao a matriz At A e invert vel e x = (At A)1 At b Vamos analisar as seguintes diculdades encontradas no sistema linear Ax = b: 1) As linhas da matriz A podem ser linearmente dependentes; 2) As colunas da matriz A podem ser linearmente dependentes. No primeiro caso, as equa c~ oes podem n~ ao ter solu c~ ao, pois o vetor b n~ ao est a no espa co coluna da matriz A. Para contornar o problema, projetamos o vetor b no espa co coluna da matriz A. Ao inv es de resolver o sistema linear Ax = b, resolvemos o sistema linear Ax = p onde p = A(At A)1 At b que pertence ao espa co coluna de b. Para o segundo caso,escolhemos uma solu c~ ao particular Ax = p, dada pela seguinte regra: e aquela que apresenta comprimento m nimo." "A solu c~ ao otima de Ax = p + A solu c~ ao otima em ambos os casos ser a chamada de x , dada pela pseudoinversa.

149

Bibliograa
[1] Albrecht, P. - An alise Num erica -um curso moderno, LTC Ed.,240 p.,1973. [2] Apostol, T. - C alculo com Fun c~ oes de uma Vari avel, Revert e Ed., 771 p.,2006. [3] Apostol, T. - C alculo com Fun c~ oes de V arias Vari aveis e Algebra Linear, Revert e Ed., 752 p.,2008. [4] Anton, H. e Rorres, C. - Algebra Linear com Aplica c~ oes, Bookman Ed., 572 p., 2008. [5] Burden, R. e Faires, D. - An alise Num erica, Thomson Ed., 740 p., 2003. [6] Golub,G. and Van Loan, C. - Matrix Computations, Johns Hopkins Univ. Press, 694 p., 1996. [7] Leon, S.J. - Algebra Linear com Aplica c~ oes, LTC Ed., 390 p., 2008. [8] Strang, G. - Algebra Linear e suas Aplica c~ oes, Cengage Learning Ed., 456 p., 2010. [9] Wendro, B. - Theoretical numerical analysis, Academic Press Ed., New York, 1966.

150

Potrebbero piacerti anche