Sei sulla pagina 1di 59

The fun little proofs that you can do with algebra - they are sort of like crowd pleasers

in a way. Like, the .9


repeating equaling one. It doesn't take a lot of algebra to prove that, and it's really fun. It kind of wows people. It's
like they're watching magic happen right before their eyes.!
Danica McKellar!

GEOMETRIA ANALÍTICA
ÁLGEBRA LINEAR E
1
Atenção!
Todo o conteúdo deste documento pode conter
alguns erros de sintaxe, científicos, entre
outros… Não estudes apenas a partir desta
fonte. Este documento apenas serve de apoio à
leitura de outros livros, tendo nele contido todo o
programa da disciplina de Álgebra Linear e
Geometria Analítica, tal como foi lecionada, no

!!!
ano letivo de 2013/2014, na Universidade de
Aveiro. Este documento foi realizado por Rui
Lopes.
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 2
!
A disciplina em álgebra linear e geometria analítica tem duas caraterísticas
únicas, que farão com que, decerto, seja uma cadeira diferente de qualquer outra da
área de matemática. Primeiro, porque aqui podemos dar início à abstração. Segundo,
pela simples razão de ser uma disciplina com base matemática, o que por si, terá, com
a maior das probabilidades, impacto sobre o nosso futuro, a nossa vocação.
Ao invés de outros temas da matemática, este não nos dará qualquer tipo de
ferramentas e técnicas para o cálculo da resolução de determinados tipos de problemas.
Pelo contrário, é agora que cabe ao estudante, desenvolver a essência do conteúdo da
álgebra linear, através de determinadas definições, e criação de procedimentos para
determinar propriedades e provar teoremas.
A álgebra linear é utilizada no nosso dia-a-dia para resolver problemas em
outras áreas da matemática, física, biologia, química, engenharia, estatística, economia,
... As aplicações que a utilizam incluem transmissão de informação, o desenvolvimento
de efeitos especiais em filmes e vídeo, o registo de sons, motores de busca da Web e
análises económicas.
!
1. Matrizes e sistemas de equações lineares
Muitos dos problemas das ciências naturais e sociais relacionam-se com
equações que combinam dois conjuntos de dados. Uma equação do tipo ax = b que
expressa b em função da variável x e da constante a, é chamada de equação linear. A variável, constante,
palavra “linear” é aqui utilizada dado que o gráfico de tal equação se resume numa equação linear
reta. Do mesmo modo, uma equação do género,
!
! a1 x1 + a2 x2 + ...+ an xn = b

que expressa b em função das variáveis x1, x2, ..., xn e das constantes conhecidas a1, a2,
..., an é também chamada de equação linear. Na maior parte dos casos, o b e as
constantes são conhecidas (tem valor específico), no entanto as variáveis xn
permanecem desconhecidas.
Mas as equações lineares podem ser, dependendo do contexto, usadas e
calculadas (as suas incógnitas), em simultâneo. Para tal criamos sistemas de equações
ou sistemas lineares. Um sistema de m equações lineares e n incógnitas x1, x2, ..., xn, é incógnita, sistemas de 

um conjunto de m equações lineares, cada uma com n incógnitas, como expresso no equações
exemplo a seguir:
a11 x1 + a12 x2 + ...+ a1n xn = b1
a21 x1 + a22 x2 + ...+ a2n xn = b2
!
...
am1 x1 + am 2 x2 + ...+ amn xn = bm
!
Introdução às Matrizes
Em R3 imaginemos os eixos coordenados Ox, Oy, Oz e os respetivos planos
coordenados xOy, yOz e xOz. Marquemos um ponto P(x1,x2,x3) e o segmento de reta
orientado que liga a origem O(0,0,0) ao ponto P :
! !!!"
! OP = (x1 , x2 , x3 )
!
3 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA

figura 1
soma de vetores

Designemos tal segmento de reta orientado pelo vetor X,


!
⎡ x1 ⎤
⎢ ⎥
! X = ⎢ x2 ⎥
⎢ x ⎥
⎣ 3 ⎦
!
Tomemos agora também atenção ao vetor Y, de coordenadas (y1,y2,y3),
!!!" !!!"
associado a ! OQ . Ao segmento de reta orientado ! PQ fica associado o vetor Z,
!
⎡ y1 − x1 ⎤
⎢ ⎥
! Z = ⎢ y2 − x2 ⎥
⎢ y −x ⎥
⎣ 3 3 ⎦
!
Sejam α e β dois escalares. Um escalar é uma constante que multiplica uma escalar
espécie, logo α, β ∈ R. Se quisermos efetuar uma transformação a nível de
comprimento de um vetor, aplicamos um escalar, multiplicando, da seguinte forma: multiplicação por escalar
!
⎡ x1 ⎤ ⎡ α x1 ⎤
⎢ ⎥ ⎢ ⎥
! α X = α ⎢ x2 ⎥ = ⎢ α x2 ⎥
⎢ x ⎥ ⎢ αx ⎥
⎣ 3 ⎦ ⎣ 3

!
Para efetuar a operação de adição, basta fazer o seguinte: adição
!
⎡ x1 ⎤ ⎡ y1 ⎤ ⎡ x1 + y1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
! Z = X + Y = ⎢ x2 ⎥ + ⎢ y2 ⎥ = ⎢ x2 + y2 ⎥
⎢ x ⎥ ⎢ y ⎥ ⎢ x +y ⎥
⎣ 3 ⎦ ⎣ 3 ⎦ ⎣ 3 3 ⎦
!
!
!
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 4
Já no caso da combinação linear se pode fazer o seguinte: combinação linear
!
⎡ α x1 + β y1 ⎤
⎢ ⎥
! Z = α X + βY = ⎢ α x2 + β y2 ⎥
⎢ αx + βy ⎥
⎣ 3 3

!
Em suma, todos os vetores em R2 e R3 generalizam-se em vetores Rn: vetores Rn
!
⎡ x1 ⎤
⎢ ⎥
!X =
⎢ x2 ⎥
∈" n
⎢ ! ⎥
⎢ ⎥
⎢⎣ xn ⎥

!
Nesta generalização, aos x1, x2, ..., xn dá-se o nome de componentes do vetor X. componentes do vetor
Assim, podemos conceitualizar o termo de matriz. Uma matriz A tem m linhas matriz
e n colunas, tem m × n elementos e diz-se matriz m × n, de ordem m × n ou de
dimensão m × n e é um arranjo retangular. Esta matriz, Am×n, tem o seguinte aspeto:
!
⎡ x11 x12 x13 ! x1n ⎤
⎢ ⎥
⎢ x21 x22 x23 ! x2n ⎥
!A= ⎢ x31 x32 x33 ! x3n ⎥
⎢ ⎥
⎢ " " " # " ⎥
⎢ xm1 xm 2 xm 3 ! xmn ⎥
⎣ ⎦
!
Esta matriz é um elemento de Rm × Rn. Se avaliarmos melhor a matriz, podemos
reparar que ela contém uma distribuição específica de cada linha e de cada coluna.
!
⎡ x11 x12 ! ! x1 j ! x1n ⎤
⎢ ⎥
⎢ x21 x22 ! ! x2 j ! x2n ⎥
⎢ ⎥
" " ! ! " ! " ⎥
!A= ⎢
⎢ xi1 xi 2 ! ! xij ! xin ⎥
⎢ ⎥ i-ésima linha

⎢ " " " " ⎥


⎢ xm1 xm 2 ! ! xmj ! xmn ⎥
⎣ ⎦

j-ésima coluna

Podemos dizer que A é m por n. Se m = n, dizemos que A é uma matriz matriz quadrada
quadrada de ordem n e os números x11, x22, ..., xnn, formam a diagonal principal da diagonal principal
matriz A.
5 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA
Por uma questão de simplificação, a matriz A também pode ser representada
por
!
!A= ⎡⎣ xij ⎤⎦ : ! i = 1,..., m e ! j = 1,...,n
!
Em baixo, seguem-se alguns exemplos de matrizes (B2×2; C1×1; D2×3):
!
⎡ 1 2 ⎤ ⎡ 2 3 0 ⎤
!B= ⎢ ⎥ !C = [2] !D= ⎢ ⎥
⎣ 3 4 ⎦ ⎣ 1 4 6 ⎦
!
Nestas matrizes, podemos tirar a conclusão de que:
!
‣ B é uma matriz 2×2 com b11 = 1, b21 = 3, b12 = 2, b22 = 4;
‣ C é uma matriz 1×1 com c11 = 2;
‣ D é uma matriz 2×3 com d11 = 2, d21 = 1, d12 = 3, d22 = 4, d13 = 0, d23 = 6.
!
Uma matriz n×1 é também chamada de vetor de dimensão n. vetor de dimensão n
!
Matriz diagonal - é uma matriz quadrada A = [aij] em que todos os elementos matriz diagonal
fora da diagonal principal são iguais a zero, isto é, aij = 0 para i ≠ j, é chamada de
matriz diagonal. Por exemplo:
!
⎡ 23 0 0 ⎤
⎢ ⎥
!D=
⎢ 0 34 0 ⎥
⎢⎣ 0 0 2 ⎥⎦
!
Matriz escalar - é uma matriz diagonal A = [aij] em que todos os termos da matriz escalar
diagonal principal são iguais , aij = c para i = j e aij = 0 para i ≠ j, é chamada de
matriz escalar. Por exemplo:
!
⎡ 2 0 0 ⎤

!E = 0 2 0

⎢ ⎥
⎢⎣ 0 0 2 ⎥⎦
!
Matriz elementar - é uma matriz A = [aij] em que um e um só elemento é matriz elementar
diferente de zero.
Matriz triangular inferior - é uma matriz quadrada A = [aij] em que os matriz triangular inferior
elementos da diagonal principal e abaixo desta são diferentes de zero, e acima da
diagonal são iguais a zero. Isto é aij = 0 para i < j. Por exemplo:
!
⎡ 1 0 0 ⎤
⎢ ⎥
!T = 4 2 0
⎢ ⎥
⎢⎣ 5 6 3 ⎥⎦
!
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 6
Matriz triangular superior - é uma matriz quadrada A = [aij] em que os matriz triangular superior
elementos da diagonal principal e acima desta são diferentes de zero, e abaixo da
diagonal são iguais a zero. Isto é aij = 0 para i > j. Por exemplo:
!
⎡ 1 4 5 ⎤

!U = 0 2 6

⎢ ⎥
⎢⎣ 0 0 3 ⎥⎦
! matriz identidade
Matriz identidade - é uma matriz diagonal A = [aij] em que todos os elementos
da diagonal são iguais a 1 e os restantes nulos. Ou seja, aii = 1. Esta matriz denota-se
de In. Por exemplo:
!
⎡ 1 0 ⎤
!I =⎢ ⎥
⎣ 0 1 ⎦
!
Matriz linha - é uma matriz A1×m que contém apenas uma linha de elementos, matriz linha
quer nulos, quer não nulos. Por exemplo:
!
!L = ⎡⎣ 1 2 3 4 ⎤⎦
!
Matriz coluna - é uma matriz An×1 que contém apenas uma coluna de matriz coluna
elementos, quer nulos, quer não nulos. Por exemplo:
!
⎡ 3 ⎤
⎢ ⎥
!C =
⎢ 5 ⎥
⎢⎣ 15 ⎥⎦
!
Matriz nula - é uma matriz Om×n que apenas contém elementos nulos e tem matriz nula
uma dimensão m×n. Por exemplo:
!
⎡ 0 0 ⎤
⎢ ⎥
0 0
! O4×2 =⎢ ⎥
⎢ 0 0 ⎥
⎢ 0 0 ⎥
⎣ ⎦
!
Duas matrizes m×n, A = [aij] e B = [bij] são iguais quando aij = bij, 1 ≤ i ≤ m, igualdade de matrizes
1 ≤ j ≤ n, isto é, se os elementos correspondentes forem iguais.
Um outro caso é quando se diz que AT é a matriz transposta de A. Isso matriz transposta
significa que se A é uma matriz m × n, então a sua matriz transposta será n × m.
!
⎡ 4 0 ⎤
⎡ 4 −2 3 ⎤ ⎢ ⎥
!A= ⎢ ⎥ ! A = −2 5
T
⎢ ⎥ !A
T
= ⎡⎣ a ji ⎤⎦
⎣ 0 5 −2 ⎦ ⎢⎣ 3 −2 ⎥⎦
7 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA
Atrás aprendemos que as matrizes podem ser somadas algebricamente,
produzindo, simplesmente, a adição dos elementos correspondentes em cada matriz,
para uma nova matriz. Mas tal operação tem propriedades, entre as quais, e dadas as propriedades da adição
matrizes A, B e C com ordem m×n:
!
‣ Comutatividade: A + B = B + A;
‣ Associatividade: (A + B) + C = A + (B + C);
‣ Admite elemento neutro: A + O = A;
‣ Existência de simétrico aditivo: dada Am×n o simétrico aditivo é (-A)m×n tal
que, A + (-A) = (-A) + A;
‣ Transposta da soma: (A + B)T = AT + BT.
!
Outra operação possível de ser efetuada com matrizes é a multiplicação. Para multiplicação
iniciarmos tal operação, comecemos com um exemplo pequeno: multiplicação de uma
matriz linha por uma matriz coluna. Dada a matriz linha A1×n e a matriz coluna Bn×1,
o produto de A por B é a matriz C, de ordem 1×1.
!
⎡ b1 ⎤
⎢ ⎥
... an ⎤ ⎢⎢
b2 ⎥
!C = AB = ⎡ a1 a2 = a1 × b1 + a2 × b2 + ...+ an × bn
⎣ ⎦ ! ⎥
⎢ ⎥
⎢⎣ bn ⎥

!
Agora podemos ver numa perspetiva genérica. Dadas as matrizes Am×n e Bn×p,
a matriz Cm×p tem elementos:
!
⎡ a11 a12 ! a1n ⎤ ⎡ b11 b12 ! b1 p ⎤
⎢ ⎥⎢ ⎥
! a2n ⎥ ⎢ b22 ! b2 p ⎥
C = AB = ⎢⎢ 21
a a22 b21
⎢ ⎥=
" " # " ⎥⎢ " " # " ⎥
⎢ ⎥
⎢⎣ am1 am 2 ! amn ⎥ ⎢ bn1 bn2 ! bnp ⎥
⎦⎣ ⎦
!
⎡ a11b11 + a12b21 + ...+ a1nbn1 a11b12 + a12b22 + ...+ a1nbn2 ! ! ⎤
⎢ ⎥
⎢ a b + a22b22 + ...+ a2nbn2 a21b12 + a22b22 + ...+ a2nbn2 ! ! ⎥
= ⎢ 21 12
" " " " ⎥
⎢ ⎥
⎢⎣ am1b1 p + am 2b2 p + ...+ amnbnp am1b1 p + am 2b2 p + ...+ amnbnp ! ! ⎥
⎦ m× p
!
Com maior poder de síntese, um somatório ajuda-nos a compreender melhor o somatório
cálculo:
! n
! cij = ∑ aik bkj

!
k=1

Nota! a) As matrizes, para serem multiplicadas o nº de colunas da 1ª matriz tem de nota


ser igual ao nº de linhas da 2ª.
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 8
Tal como a adição, a multiplicação de matrizes também tem as suas
propriedades1. Dadas as matrizes ! A, A m×n , B, Bn× p ,C p×q :
 

propriedades da 

! multiplicação
‣ Associatividade: ! ABC = (AB)C = A(BC) ≠ (AC)B ;
‣ Distributividade: ! (A + A)B = AB + AB e ! A(B + B) = AB + AB ;
‣ Admite elemento neutro: ! AI n = A e ! I m A = A ;
‣ ! α AB = (α A)B = α (AB) = A(α B)
‣ ! (AB)
T
= BT AT
!
A multiplicação por um escalar também tem as suas propriedades. Dadas as propriedades da 

matrizes ! A, Bm×n e os escalares ! α , β ∈! : multiplicação por escalar
!
‣ Associatividade: ! (αβ )A = α (β A) = β (α A) ;
‣ Distributividade: ! (α + β )A = α A + β A e ! α (A + B) = α A + α B ;
‣! (α A) =αA
T T

!
Trabalhar com matrizes quadradas também pode envolver potências. Para as potências
efetuar apenas se tem que calcular o produto da potência:
!
!A
p
= AA p−1
!
Por convenção, também se tem que:
!
!A
0
= In
!
As suas propriedades são: propriedades das potências
!
‣ ! (A ) = A p×q ;
p q

‣ !A × A q = A p+q ;
p

Nota! ! (AB) = (AB)(AB)...(AB) ≠ A B


p p p

!
Sistema de m equações e n incógnitas
Consideremos o seguinte sistema de equações (duas equações) com 2 sistema de equações
incógnitas, x1, x2.
!
!
⎧⎪ 2x1 + 3x2 = 7
!⎨
⎪⎩ x1 + x2 = 4

!
1 A operação de multiplicação não goza da propriedade comutativa, mesmo aquando de matrizes quadradas, genericamente falando, dado que há exceções.
9 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA
Agora, vamos aprender que os dados de qualquer sistema de m equações com
n incógnitas podem ser, facilmente, organizados em matrizes. Assim, obtemos um
conjunto de matrizes, às quais, dá-se o nome de forma matricial de um sistema de forma matricial de um 

equações lineares, AX=B. sistema de equações 

! lineares
⎡ 2 3 ⎤ ⎡ x1 ⎤ ⎡ 7 ⎤
! AX =B⇔⎢ ⎥×⎢ ⎥=⎢ ⎥
⎣ 1 1 ⎦ ⎢⎣ x2 ⎥⎦ ⎣ 4 ⎦
!
Nesta forma matricial, o A é a matriz dos coeficientes (m×n), o X é a matriz ou vetor matriz dos coeficientes, 

das incógnitas (n×1) e o B é a matriz ou vetor dos termos independentes (m×1). Em matriz das incógnitas e 

geral, tem-se que: matriz dos termos 

! independentes
⎧ a11 x1 +!+ a1n xn = b1

para: !⎨ ... ⇔ AX = B tem-se que:
⎪ a x +!+ a x = b
⎩ m1 1 mn n m

!
⎡ a11 ! a1n ⎤ ⎡ x1 ⎤ ⎡ b1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
#A= ⎢ " # " ⎥ #X =⎢ ! ⎥ #B= ⎢ ! ⎥
⎢ am1 ! amn ⎥ ⎢ xn ⎥ ⎢ b2 ⎥
⎣ ⎦ ⎣ ⎦ ⎣ ⎦
!
Em suma, podemos aglomerar estas matrizes numa só, a qual se dá o nome de
matriz ampliada, aumentada ou completa m×(n+1) do sistema, e tem o seguinte matriz ampliada
aspeto:
!
⎡ a ! a1n b1 ⎤
⎢ 11 ⎥
! M = [ A | B] = ⎢ " # " " ⎥
⎢ am1 ! amn bm ⎥
⎣ ⎦
!
Matriz escalonada por linhas
Consideremos a seguinte matriz A:
!
⎡ 0 ! a1 # ! # # # ! # ⎤
⎢ ⎥
⎢ 0 ! 0 0 ! a2 # # ! # ⎥
!A= ⎢ 0 ! 0 0 ! 0 0 a3 ! # ⎥ ,a1 ,a2 ,a3 ,... ≠ 0
⎢ ⎥
⎢ " ! " " ! " " " # " ⎥
⎢ 0 ! 0 0 ! 0 0 0 ! 0 ⎥⎦

!
A matriz A é uma matriz escalonada por linhas dado que, se avaliarmos a matriz escalonada por linhas
primeira entrada não nula, de cada linha, como pivot, abaixo de cada pivot só ocorrem
zeros; dadas duas linhas não nulas consecutivas, o pivot da linha i+1 está à direita do
pivot da linha i; as linhas nulas, caso existam, ocorrem só na parte inferior da matriz.
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 10
Por sua vez, uma matriz B é uma matriz escalonada por linhas reduzida se e matriz escalonada por linhas

só se a matriz estiver na forma de matriz escalonada por linhas, os pivots forem todos reduzida
iguais a 1 e se acima de cada pivot só ocorrerem zeros. Por exemplo:
!
⎡ 0 ! 1 # ! 0 # 0 ! # ⎤
⎢ ⎥
⎢ 0 ! 0 0 ! 1 # 0 ! # ⎥
!B= ⎢ 0 ! 0 0 ! 0 0 1 ! # ⎥
⎢ " ! " " ! " " " # " ⎥
⎢ ⎥
⎣ 0 ! 0 0 ! 0 0 0 ! 0 ⎦
!
Operações elementares nas linhas de uma matriz
Muitas vezes, uma simplificação de uma matriz numa matriz escalonada por
linhas ou por linhas reduzida, pode-nos ser extremamente útil. Um exemplo, é na
resolução de sistemas de equações lineares, com as quais podemos reproduzir formas
matriciais de um sistema de m equações lineares com n incógnitas, transformando-as
em escalonadas por linhas. Existem, três operações elementares que podem e devem operações elementares
ser utilizadas. Entre elas estão:
!
‣ Troca de posição relativa de duas linhas i e j (! Li ↔ L j ): troca de linhas
!
⎡ 2 3 4 ⎤ ⎡ 2 3 4 ⎤
⎢ ⎥ ! ⎢
! 0 0 0 L2 ↔ L 3 0 0 3

⎢ ⎥ ⎢ ⎥
⎢⎣ 0 0 3 ⎥⎦ ⎢⎣ 0 0 0 ⎥⎦
!
‣ Multiplicação de uma linha por um escalar (! L 'i := α Li , α ≠ 0 ): multiplicação de linha por 

! escalar

⎡ 2 3 0 ⎤!⎡ 1 3 ⎤
⎢ ⎥ 1 ⎢ 2 0 ⎥
! 0 0 1 L '1 := L1 ⎢
⎢ ⎥ 2 ⎢ 0 0 1 ⎥
⎢⎣ 0 0 0 ⎥⎦ ⎥
⎣ 0 0 0 ⎦
!
‣ Substituição de uma linha pela que dela se obtém adicionando-lhe outra substituição de uma linha
linha, multiplicada por um escalar (! L 'i := Li + β L j ):
!
⎡ 1 2 3 ⎤ ⎡ 1 2 3 ⎤
⎢ ⎥ ! ⎢
! 1 1 2 L '2 := L2 − L1 0 −1 −1

⎢ ⎥ ⎢ ⎥
⎢⎣ 0 0 0 ⎦⎥ ⎢⎣ 0 0 0 ⎥⎦
!
elemento na Li a anular
! L 'i := Li − × L pivot anular um elemento de uma 

pivot linha usando um pivot 

! acima dele
!
!
11 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA
Matrizes equivalentes por linhas
Dadas duas matrizes A e C, elas são equivalentes por linhas A~C se C resulta matrizes equivalentes por

de A por aplicação de um número finito de operações elementares nas linhas de A. linhas
Apresentando o teorema, este diz que “Toda a matriz m×n é equivalente por teorema
linhas a uma matriz escalonada por linhas (reduzida)”. Exemplificando e considerando
a matriz R, temos que:
!
‣ Trocar a linha 1 pela linha 3, para colocar devidamente o pivot como 1º
elemento da coluna;
!
⎡ 0 2 3 −4 1 ⎤ ⎡ 2 2 −5 2 4 ⎤
⎢ ⎥ ⎢ ⎥
0 0 2 3 4 ⎥!⎢ 0 0 2 3 4 ⎥
!R= ⎢ L1 ↔ L3
⎢ 2 2 −5 2 4 ⎥ ⎢ 0 2 3 −4 1 ⎥
⎢ 2 ⎥
0 −6 9 7 ⎦ ⎢ 2 0 −6 9 7 ⎥⎦
⎣ ⎣
!
‣ Operar com as linhas para obter zeros abaixo do pivot, subtraindo a linha 1
à linha 4.
!
⎡ 2 2 −5 2 4 ⎤ ⎡ 2 2 −5 2 4 ⎤
⎢ ⎥ ⎢ ⎥
0 0 2 3 4 ⎥!⎢ 0 0 2 3 4 ⎥
!⎢ L '4 := L4 − L1
⎢ 0 2 3 −4 1 ⎥ ⎢ 0 2 3 −4 1 ⎥
⎢ ⎥
0 −6 9 7 ⎦ ⎢ ⎥
⎣ 2 ⎣ 0 −2 −1 7 3 ⎦
!
‣ Considerar a submatriz que se obtém eliminando a 1ª linha e aplicar os
passos anteriores até esgotar as linhas.
!
⎡ 2 2 −5 2 4 ⎤
⎢ ⎥
⎢ 0 0 2 3 4 ⎥
!⎢ 0 2 3 −4 1 ⎥
⎢ 0 −2 −1 7 3 ⎥⎦

!
!
‣ No fim, obtém-se uma matriz escalonada por linhas equivalente a R.
!
⎡ 2 2 −5 2 4 ⎤
⎢ ⎥
0 2 3 −4 1 ⎥
!R~ ⎢
⎢ 0 0 2 3 4 ⎥
⎢ 0 0 0 0 0 ⎥⎦

!
!
!
!
!
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 12
‣ Se multiplicarmos, agora, as linhas não nulas pelos inversos dos pivots,
iremos obter pivots iguais a 1:
!
! 1
L '1 := L1 ⎡ 1 1 −52 1 2 ⎤⎥
⎡ 2 2 −5 2 4 ⎤ 2 ⎢
⎢ ⎥ ! ⎢ 1 ⎥
0 2 3 −4 1 ⎥ 1 ⎢ 0 1 32 −2 2 ⎥
! !⎢ L '2 := L2
⎢ 0 0 2 3 4 ⎥ 2 ⎢ 3 ⎥
⎢ 0 0 0 0 0 ⎥⎦ ! ⎢ 0 0 1 2 2 ⎥
⎣ 1 ⎢ ⎥
L '3 := L3 ⎣ 0 0 0 0 0 ⎦
2
!
‣ Operando com as linhas, podemos obter zeros acima dos pivots:
!
⎡ 1 1 −52 1 2 ⎤⎥ ! ⎡ 1 1 0 7 ⎤⎥
19
⎢ 3 ⎢ 4

0 1 32 −2 1 ⎥ L '2 := L2 − 2 L3 ⎢ ⎥
0 1 0 − 17 4 − 5 2 ⎥
!⎢ 2 ⎥ ⎢ ~
⎢ ⎥ ! ⎢ ⎥
⎢ 0 0 1 3
2 2 ⎥ L '1 := L1 + 5 L3 ⎢ 0 0 1 3
2 2 ⎥
⎢ ⎥ 2 ⎢ ⎥
⎣ 0 0 0 0 0 ⎦ ⎣ 0 0 0 0 0 ⎦
⎡ 1 0 0 ⎤ 9 19
⎢ 2 ⎥
⎢ ⎥
0 1 0 − 17 4 − 5 2 ⎥
!
! L '1 := L1 − L2 ⎢
⎢ 3 ⎥
⎢ 0 0 1 2 2 ⎥
⎢ ⎥
⎣ 0 0 0 0 0 ⎦
!
No fim destas operações, obtivemos uma matriz escalonada por linhas
reduzida equivalente a R.
Um outro teorema diz que “Se as matrizes ampliadas de dois sistemas lineares teorema
são [A|B] e [C|D], tais que [A|B] ~ [C|D], então os dois sistemas têm o mesmo conjunto
de soluções2.
!
 

Método de eliminação de Gauss


O método de eliminação de Gauss é usado para a resolução de sistemas. Este método de eliminação de 

método traduz-se da seguinte forma: Gauss
!
‣ Dado um sistema AX=B, formar a matriz ampliada [A|B];
‣ Transformar [A|B] numa matriz escalonada por linhas [C|D];
‣ Escrever CX=D, ignorando as linhas nulas e resolvendo por substituição
ascendente.
!
!
2 Se B = D = 0 (zero), basta que A~C para que os sistemas possuam o mesmo conjunto de soluções.
13 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA
Método de eliminação de Gauss-Jordan
O método de eliminação de Gauss-Jordan é também usado para a resolução de método de eliminação de 

sistemas. Este método difere do método de Gauss, porque transforma a matriz Gauss-Jordan
ampliada numa matriz escalonada por linhas reduzida. Assim:
!
‣ Dado um sistema AX=B, formar a matriz ampliada [A|B];
‣ Transformar [A|B] numa matriz escalonada por linhas reduzida [E|F];
‣ Escrever EX=F, ignorando as linhas nulas e resolver.
!
Classificação de sistemas
Os sistemas são classificados dependendo do número das suas soluções. Um
sistema linear representado matricialmente por AX=B, tal que [A|B] ~ [C|D], com a
matriz [C|D] escalonada por linhas classifica-se em:
!
‣ Impossível, se não possui qualquer solução; sistema impossível
‣ Possível e indeterminado se possui uma infinidade de soluções (sendo o grau sistema possível e 

de indeterminação do sistema igual ao número de incógnitas livres, por sua indeterminado
vez, igual ao número de colunas de C sem pivot);
‣ Possível e determinado se possui uma única solução (todas as colunas de C sistema possível e 

têm pivot). determinado
!
Mas tal classificação de sistemas pode ser ainda mais preciso se introduzirmos
o conceito de caraterística de uma matriz. A caraterística da matriz A, representada caraterística de uma matriz
por car(A), é o número de pivots de uma matriz C escalonada equivalente por linhas
a A. Por conseguinte, o sistema linear AX=B com Am×nm×n e Bm.1 é:
!
‣ Impossível, se car(A) < car([A|B]);
‣ Possível e indeterminado se car(A) = car([A|B]) < n;
‣ Possível e determinado se car(A) = car([A|B]) = n.
!
Espaço das colunas de uma matriz
Dada uma matriz Am×n, o espaço das colunas, C(A), é o conjunto de todas as espaço das colunas
combinações lineares possíveis das colunas C1, C2, ..., Cn de A. Assim:
!
!C (A) = {α 1C1 + α 2C2 + ...+ α nCn , α 1 ,..., α n ∈!}
!
Tomemos com exemplo a matriz T de dimensões 3×3:
!
⎡ 1 −1 −1 ⎤ ⎡ 1 ⎤ ⎡ −1 ⎤ ⎡ −1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
!A= 1 1 ! C1 = 1 ! C2 = ! C3 =
⎢ 1 ⎥ ⎢ ⎥ ⎢ 1 ⎥ ⎢ 1 ⎥
⎢⎣ 1 1 1 ⎥⎦ ⎢⎣ 1 ⎥⎦ ⎢⎣ 1 ⎥⎦ ⎢⎣ 1 ⎥⎦
!
!
!
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 14
Neste exemplo, xC1+yC2+zC3 é a combinação linear das três colunas da matriz
A com uma matriz coluna de três linhas de incógnitas (x, y, z) à qual chamamos de B.
!
⎡ x ⎤ ⎡ 1 ⎤
⎢ ⎥ ⎢ ⎥
! xC1 + yC2 + zC 3 = A y = B = 1
⎢ ⎥ ⎢ ⎥
⎢⎣ z ⎥⎦ ⎢⎣ 1 ⎥⎦
!
Podemos dizer, então, que C(A) = {AX, X ∈ R}. Tudo isto nos permite
compreender, também, o seguinte teorema, de que “Num sistema AX = B, Am×n só é teorema
possível, se e só se B ∈ C(A).”.
!
Espaço das linhas de uma matriz
Dada uma matriz Am×n, o espaço das linhas, L(A), é o conjunto de todas as espaço das linhas
combinações lineares possíveis das transpostas das linhas L1, L2, ..., Ln de A. Assim:
!
! L (A) = {α 1 LT1 + α 2 LT2 + ...+ α m LTm , α 1 ,..., α m ∈!}
!
Por exemplo:
!
L1 = ⎡⎣ 1 −1 −1 ⎤⎦
⎡ 1 −1 −1 ⎤
⎢ ⎥
!A= 1 1
⎢ 1 ⎥ ! L2 = ⎡⎣ 1 1 1 ⎤⎦
⎢⎣ 1 1 1 ⎥⎦
L3 = ⎡⎣ 1 1 1 ⎤⎦

⎡ 1 ⎤ ⎡ 1 ⎤ ⎡ 1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
! L = −1 !L = 1 !L = 1
T T T
1 ⎢ ⎥ 2 ⎢ ⎥ 3 ⎢ ⎥
⎢⎣ −1 ⎥⎦ ⎢⎣ 1 ⎥⎦ ⎢⎣ 1 ⎥⎦

⎡ 1 1 1 ⎤ ⎡ α1 ⎤ ⎡ α1 ⎤
⎢ ⎥⎢
! α 1 L1 + α 2 L2 + α 3 L3 = −1 1 1 ⎢ α 2
⎥ ⎢ ⎥
⎥=A ⎢ α2
T T T T
⎢ ⎥ ⎥
⎢⎣ −1 1 1 ⎥⎦ ⎢ α 3 ⎥ ⎢ α ⎥
⎣ ⎦ ⎣ 3 ⎦
!
Podemos dizer, então, que L(A) = {ATX, X ∈ Rm}. Tudo isto nos permite
fazer a seguinte proposição, de que “Se A~C, então L(A)= L(C). Como L(A)=C × proposição
× L(AT), temos que B = L(A) ⇔ ATX = B é um sistema possível”.
!
Sistema homogéneo, nulidade e espaço nulo
A um sistema linear da forma AX=0 chamamos de sistema homogéneo, dado sistema homogéneo
que nestes sistemas, pelo menos uma solução é trivial, ou seja, igual a zero. A solução solução trivial
destes sistemas é sempre possível. Se, numa matriz Am×n, m < n, então AX = 0 admite
uma solução não trivial.
Num sistema homogéneo, consoante a caraterização de um sistema, podemos
saber se este é possível e determinado ou possível indeterminado. Para tal,
15 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA
consideremos que um sistema é possível e determinado quando a car(A) = n, e que um
sistema é possível e indeterminado quando car(A) < n. Quando AX = 0 admite
soluções não triviais, isto significa que o sistema será possível e indeterminado.
Outro aspeto a analisar numa matriz é a sua nulidade. A nulidade de A, nulidade
nul(A), é o número de linhas sem pivot numa matriz escalonada por linhas. Temos
assim, que:
! nul(A) = n − car(A)
!
Ainda mais, podemos considerar também, o conjunto de todas as soluções do
sistema homogéneo associado a Am×n como espaço nulo de A, representado por N(A): espaço nulo
!
#N (A) = {X ∈! n : AX = 0}
!
Inversa de uma matriz
Uma matriz An×n diz-se invertível se existe uma matriz Bn×n tal que: invertível
!
! AB = BA = I n
!
À única matriz B que satisfaz esta relação chamamos de inversa de A e inversa de A
denota-se por A-1. Caso B não exista então A diz-se singular ou não invertível. Agora, singular (não invertível)
podemos compreender dois teoremas diretamente relacionados com a inversa de uma
matriz. O primeiro teorema diz que se An×n é invertível, então ao sua inversa é única. teorema
Por acrescento, um outro teorema diz que se A,Bn×n e BA=In, então também AB=In. teorema
A inversa tem as suas propriedades. Como tal: propriedades da inversa
! −1 −1
‣ A inversa da inversa A é a matriz A: ! (A ) = A;
−1
‣ A multiplicação por ordem inversa: ! (AB) = B −1 A −1 ;
T −1
‣ A transposta da inversa é a inversa da transposta: ! (A ) = (A −1 )T .
!
Um método para obter a inversa é o seguinte:
!
‣ Construir matriz ampliada [A|In];
‣ Efetuar operações elementares nas linhas da matriz até que se corrija a
matriz ampliada para [In|A-1];
!
É nos permitido efetuar operações elementares nas linhas da matriz até que se
corrija a matriz ampliada, para a desejada, dado os teoremas que se seguem: teorema
!
‣ Uma matriz An×n é invertível se e só se for equivalente por linhas à matriz
identidade, In;
‣ Dada An×n, então as afirmações seguintes são equivalentes:
‣ A é invertível;
‣ A~In;
‣ car(A)=n;
‣ nul(A)=0;
‣ AX=B tem uma única solução X=B-1A, para cada Bn×1;
‣ AX=0 possui apenas a solução trivial;
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 16
‣ C(A)= Rn;
‣ L(A)= Rn;
‣ N(A)= {0}, ! 0 ∈! .
!
2. Determinantes
Dado que o estudo das noções básicas de matrizes já foi feito, agora já
podemos avançar para uma nova abordagem: os determinantes. Basicamente, um determinantes
determinante é uma função ao que a cada matriz quadrada An×n faz corresponder um
valor real. Vamos denotá-la por det(A) e fazer a seguinte correspondência:
!
! det(A) = f (C1 ,C2 ,...,Cn ) colunas de A
!
O determinante é, assim, a única função que satisfaz as seguintes condições: condições dos determinantes
!
‣ ! det(I n ) = 1 ;
‣! f (...,Ci ,...,C j ,...) = − f (...,C j ,...,Ci ,...) ;
‣! f (..., α Ci ,...) = α f (...,Ci ,...) ;
! ! !
‣ ! f (...,Ci + Ci ...) = f (...,Ci ,...) + f (...,Ci ,...) com ! Ci = Ci + Ci .
!
Exemplos de aplicação:
!
1 4 7+5 1 4 7 1 4 5
! 2 5 8+3 = 2 5 8 + 2 5 3
3 6 9+2 3 6 9 3 6 2
!
1 α4 7 1 4 7
! 2 α5 8 = α 2 5 8
3 α6 9 3 6 9
!
Determinante da matriz 2x2
De modo a efetuar o cálculo do determinante de uma matriz 2x2, há que matriz 2x2
considerar previamente uma matriz A2×2:
!
⎡ a11 a12 ⎤
!A= ⎢ ⎥
⎢⎣ a21 a22 ⎥⎦
!
O determinante da matriz A é calculado da seguinte forma:
!
! det(A) = a11a22 − a21a12

!
!
17 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA
Por exemplo:
⎡ 2 3 ⎤
! temos: A=⎢ ⎥ ! det(A) = 2 × 6 − 4 × 3 = 0
⎣ 4 6 ⎦
!
Determinante da matriz 3x3
O cálculo do determinante de uma matriz 3x3 é completamente distinto do matriz 3x3
cálculo do determinante de uma matriz 2x2. Para os determinantes de matrizes 3x3
vamos usar uma regra chamada Regra de Sarrus. Pierre Frédéric Sarrus foi um regra de Sarrus
matemático francês dos séculos XVIII/XIX que descobriu uma mnemónica para o
cálculo de determinantes de matrizes 3x3. A Regra de Sarrus processa-se da seguinte
forma:
⎡ a11 a12 figura 2
a13 ⎤ ⎡ a11 a12 a13 ⎤
⎢ ⎥ ⎢ ⎥ regra de Sarrus
A = ⎢ a21 a22 a23 ⎥ A = ⎢ a21 a22 a23 ⎥
⎢ a a a33 ⎥ ⎢ a a a33 ⎥
⎣ 31 32 ⎦ ⎣ 31 32 ⎦
a11 a12 a13 a11 a12 a13
a21 a22 a23 a21 a22 a23
!
Lembremo-nos de que se trata simplesmente de uma mnemónica, pois as duas
últimas linhas do esquema são puramente “rascunho”. Através dele conseguimos
calcular o seguinte:
!
! det(A) = a11a22 a33 + a21a32 a13 + a31a12 a23 − a13a22 a31 + a23a32 a11 + a33a12 a21
!
Menor, cofator e adjunta
Dada uma matriz An×n, seja Mij a matriz (n-1)×(n-1) que se obtém de A
retirando a linha i e a coluna j. Ao determinante desta última matriz dá-se o nome de
menor de aij. Por exemplo: menor de aij
!
⎡ 2 1 3 ⎤
⎢ ⎥ 2 1 ⎡ 2 1 ⎤
!A= 4 7 8 ! menor de a23 = 8 ⇒! = −1 ! M 23 =⎢ ⎥
⎢ ⎥ 1 0
⎢⎣ 1 0 5 ⎦⎥ ⎣ 1 0 ⎦
!
Da mesma matriz An×n, podemos afirmar que de cada elemento se pode
calcular o seu cofator (ou complemento algébrico). O cofator de aij é: cofator
!
! Aij = (−1)i+ j det(M ij )
!
À matriz que contém todos os cofatores de aij dá-se o nome de matriz adjunta
de A. A matriz adjunta de A é a matriz n×n: (página seguinte) matriz adjunta de A
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 18
T
⎡ A11 A12 ! A1n ⎤
⎢ ⎥
⎢ A21 A22 ! A2n ⎥
! adj(A) =
⎢ " " # " ⎥
⎢ ⎥
⎢⎣ An1 An2 ! Ann ⎥

!
Por exemplo, e considerando a matriz A do exemplo anterior:
!
7 8 1 3
! A11 = (−1)1+1 = 35 ! A21 = (−1)2+1 = −5
0 5 0 5

1 3 4 8
! A31 = (−1)3+1 = −15 ! A12 = (−1)1+2 = −12
7 8 1 5

2 8 2 3
! A22 = (−1)2+2 =7 ! A32 = (−1)3+2 = −4
1 5 4 8

4 7 2 1
! A13 = (−1)1+3 = −7 ! A23 = (−1)2+3 =1
1 0 1 0

2 1
! A33 = (−1)3+3 = 10
4 7
T
⎡ 35 −12 −7 ⎤ ⎡ 35 −5 −15 ⎤
⎢ ⎥ ⎢ ⎥
! adj(A) =
⎢ −5 7 1 ⎥ = ⎢ −12 7 −4 ⎥
⎢⎣ −15 −4 10 ⎥⎦ ⎢⎣ −7 1 10 ⎥⎦
!
Teorema de Laplace
Agora, estamos nas condições perfeitas para aprendermos o teorema de teorema de Laplace
Laplace. O teorema de Laplace toma as seguintes considerações: seja An×n uma matriz
quadrada de elementos aij. Assim, usando a linha i de A: usando a linha i
!
# det(A) = ai1 Ai1 + ai 2 Ai 2 + ...+ ain Ain
!
Por outro lado, usando a coluna j de A: usando a linha j
!
# det(A) = a1 j A1 j + a2 j A2 j + ...+ anj Anj
!
Por exemplo, considerando a matriz A do exemplo anterior e usando a linha 2:
!
1 3 2 3 2 1
! det(A) = 4 × (−1)2+1 + 7 × (−1)2+2 + 8 × (−1)2+3 = 37
0 5 1 5 1 0
!
19 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA
Se formos mais além, consideremos a seguinte matriz B e calculemos o seu
determinante:
⎡ 2 3 7 0 ⎤
⎢ ⎥
0 2 3 2
!⎢ ⎥
⎢ 1 0 2 1 ⎥
⎢ 0 0 3 1 ⎥
⎣ ⎦
0 3 2 2 7 0
3 × ( −1)
1+2
! det(B) = 1 2 1 + 2 × (−1) 1 2 1 +0+0=
2+2

0 3 1 0 3 1
⎛ 3 2 ⎞ ⎛ 2+3 2 7 3+3 2 7 ⎞
! = −3 ⎜ 1× (−1) + + + =
2+1
2 0 1× (−1) 1× (−1)
⎝ 3 1 ⎟⎠ ⎜
⎝ 0 3 1 2 ⎟⎠
! = 3(3 − 6) + 2(0 − 1(6) + 1(−3)) = −9 + 2(−6 − 3) = −9 − 18 = −27
!
Propriedades do determinante
Com os conhecimentos adquiridos até ao momento, somos capazes de
introduzir as propriedades do determinante e utilizá-las sempre que possível. Assim, o propriedades
determinante tem as seguintes propriedades:
!
‣ ! det(A) = det(A
T
);
‣ Se A tem uma linha/coluna nula então ! det(A) = 0 ;
‣ Se A tem duas linhas/colunas iguais, então ! det(A) = 0 ;
‣ Se B é uma matriz que resulta de A por troca de duas linhas ou colunas,
então ! det(B) = − det(A) ;
‣ Se B resulta de A por multiplicação linear de uma linha/coluna de A por um
escalar α, então ! det(B) = α det(A) ;
‣ Se B resulta de A substituindo a linha/coluna i/j pela sua soma com um
múltiplo da linha /coluna i/j, então ! det(B) = det(A) ;
‣ ! det(AB) = det(A)det(B) ;
‣ ! det(α A) = α
n
det(A)
‣ Nota: ! det(A + B) ≠ det(A) + det(B) .
!
Relação entre determinante, adjunta e inversa de uma matriz
Existe uma forte relação entre determinante, adjunta e inversa de uma matriz,
a qual é sustentada pelo teorema de que uma matriz A é apenas invertível se e só se o teorema
seu determinante for não-nulo.
!
!A é invertível apenas se det(A) ≠ 0
! AX = B det(A) ≠ 0
!
Como consequência, o seu corolário diz que se o sistema for homogéneo, logo corolário
AX=0, este tem 1 solução não trivial se e só se o seu determinante for nulo.
!
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 20
! AX =0 1 solução não trivial ⇔ det(A) = 0
!
Outro teorema constata que se a matriz A é invertível, então o determinante teorema
da sua inversa é igual à inversa do seu determinante, e que, por consequência, a inversa
da matriz A é igual ao produto entre o inverso do seu determinante e a sua matriz
adjunta.
!
−1 1 −1 1
! det(A )= !A = × adj(A)
det(A) det(A)
!
Regra de Cramer
Gabriel Cramer foi um matemático suiço, nascido em Genebra, do século
XVIII. Este matemático desenvolveu uma regra que designa as seguintes regra de Cramer
considerações: seja An×n uma matriz quadrada tal que o seu determinante seja não-
nulo, e consideremos o sistema AX=B, a solução X, a qual vai ser dada pela expressão
abaixo, sendo Ai a matriz que resulta de A substituindo a sua coluna i por B.
!
⎡ x1 ⎤
⎢ ⎥
!X =
⎢ x2 ⎥
! xi =
det(Ai )
, xi =
1
× det(Ai ), i = 1,...,n
⎢ ! ⎥ det(A) det(A)
⎢ ⎥
⎢⎣ xn ⎥

!
Significado geométrico do determinante

Em ! ! o determinante pode ser designado como o valor da área de um


2

paralelogramo, onde: área de um paralelogramo


! figura 3
! A(u,v) = u v determinante como área de
! um paralelogramo
Em ! ! o determinante pode ser designado como
3

o valor da volume de um paralelepípedo, onde: volume de um


! paralelepípedo
! V (u,v,w) = u v w
!
3. Vetores, Retas e Planos figura 4
determinante como volume
Lembremo-nos, das unidades anteriores, que uma de um paralelepípedo
matriz pode ser diretamente designada de vetor quando
se trata de uma matriz coluna n×1, sendo os seus
elementos, as coordenadas desse vetor. Um vetor pode ter
n coordenadas, sendo, por consequência, o vetor de n
elementos, um vetor pertencente a ! ! .
n

!
!
21 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA

⎡ x1 ⎤
⎢ ⎥
X = ⎢⎢
x2 ⎥
X ∈! n é um vetor X = (x1 , x2 ,..., xn )
" ⎥
⎢ ⎥
⎢⎣ xn ⎥

!
!
A partir destas considerações, nesta unidade, analisaremos os conceitos
aplicados a matrizes e sistemas de equações, de vetores, retas e planos.
!
Produto Interno em ! n Rn

Dados os vetores X e Y de ! ! , o produto interno ou escalar de X e Y é o


n
produto interno (escalar)
escalar real X.Y.
! X. Y = X T Y = x1 y1 + x2 y2 + ...+ xn yn
!
Por sua vez, o comprimento ou norma do vetor X, previamente considerado, é: comprimento (norma)
!
! X = x. x = x12 + x22 + ...+ xn2
!
Mas o produto que estamos a estudar não é uma mera “multiplicação”, sendo
que se trata de um produto interno, e que, tal como qualquer outro cálculo algébrico,
também se deve reger a determinadas propriedades adjacentes à sua lógica. Assim, as
suas propriedades são: propriedades
!
‣ ! X. X ≥ 0 , pois trata-se de uma soma de números quadrados;
‣ ! X. X = 0 ⇔ X = 0 ;
‣ ! X. Y = Y . X ;
‣ ! (X + Y ). Z = X. Z + Y . Z ;
‣ ! (α X). Y = X. (α Y ) = α (X. Y ) ;
!
Desigualdade de Cauchy-Schwarz e desigualdade triangular
Dois teoremas muito importantes são aqueles que vamos estudar nesta sub-
-unidade. Começando pelo teorema denominado de desigualdade de Cauchy-Schwarz, desigualdade de Cauchy-
temos as seguintes considerações: seja ! X,Y ∈! :n -Schwarz
!
! X. Y ≤ X Y ⇔
!⇔ − X Y ≤ X. Y ≤ X Y
!
O segundo teorema, chamado de desigualdade triangular, tem as seguintes desigualdade triangular
considerações iniciais: dados ! X,Y ∈! : n

!
! X +Y ≤ X + Y
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 22
Demonstrando:
!
X +Y ≥0
2
! tomemos demonstração da
desigualdade triangular
X +Y = (X + Y ).(X + Y ) = X.(X + Y ) + Y .(X + Y ) =
2
!

!= X. X + X. Y + Y . X + Y . Y = X + X. Y + Y . X + Y =
2 2

!= X +2 X Y + Y
2 2

!
X +Y ≤ X +2 X Y + Y
2 2 2
!

≤( X + Y )
2
!0 ≤ X +Y X +Y ≤ X + Y
2
logo !
!
Ângulo entre vetores
Para efetuar o cálculo do
ângulo entre dois vetores precisamos ângulo entre dois vetores
de, primeiro, considerar dois vetores X
e Y, e as seguintes especificações.
! figura 5
ângulo entre dois vetores
!X = (x,0), x > 0
! Y = (a,b) ≠ 0
!
Com tais considerações
podemos concluir os seguintes aspetos
em relação a estes dois vetores X e Y.
!
! X. Y = xa e ! X = x
X. Y
! = a = Y cos(θ )
X
X. Y
! cos(θ ) = ,θ ∈[ 0, π ]
X Y
!
Em geral, para ! X,Y ∈! , X,Y ≠ 0 , o ângulo entre os vetores X e Y é:
n

!
⎛ X. Y ⎞
!θ = arccos ⎜
⎝ X Y ⎟⎠
!
!
Vetores ortogonais, colineares, com o mesmo sentido e unitários

Dados os vetores ! X,Y ∈! n , X,Y ≠ 0 :


!
‣ X e Y são ortogonais se X.Y=0; ortogonalidade
‣ X e Y são colineares se |X.Y|=||X|| ||Y||; colinearidade
‣ X e Y têm o mesmo sentido se X.Y=||X|| ||Y||. paralelismo
23 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA
‣ Note-se que se X=0 ou Y=0, por convenção, X e Y são ortogonais. nota
!
Um vetor unitário é um vetor cuja norma é 1. vetor unitário
!
X
! O vetor Y = é unitário ⇒ Y = 1 (com a mesma direção e sentido de X)
X

3
!
Produto externo em ! R3

Dados os vetores X=(x1, x2, x3) e Y=(y1, y2, y3) de ! ! o produto externo de X
3
produto externo
e de Y é:
! X × Y = (x2 y3 − y2 x3 ,−x1 y3 + x3 y1 , x1 y2 − x2 y1 )
!
Para determinar o produto externo pode utilizar-se como auxiliar de cálculo o
seguinte determinante simbólico: determinante simbólico

" " "


!
i j k
" " "
! X ×Y ←∼→ x1 x2 x3 , com i = (1,0,0), j = (0,1,0), k = (0,0,1)
y1 y2 y3

x3 !
x2 x1 x3 ! x1 x2 !
!= i− j+ k=
y2 y3 y1 y3 y1 y2
! ! !
! = ( x2 y3 − x3 y2 ) i − ( x1 y3 − y1 x3 ) j + ( x1 y2 − y1 x2 ) k
!
Propriedades do produto externo
As propriedades do produto externo são as seguintes: propriedades
!
‣ ! X × Y = −Y × X (o produto externo não é comutativo);
‣ ! X × (Y + Z ) = X × Y + X × Z e ! (X + Y ) × Z = X × Z + X × Y ;
‣ ! α (X × Y ) = (α X) × Y = X × (α Y ) ;
‣ ! X × X = 0 (determinante com 2 linhas iguais);
‣ ! X × 0 = 0 e !0× X = 0;
‣ ! (X × Y ) × Z = (Z. X)Y − (Z. Y )X e ! X × (Y × Z ) = (X. Z )Y − (X. Y )Z
!
Produto misto em ! 3 R3
Considerando os seguintes vetores,
!
!X = (x1 , x2 , x3 ), Y = (y1 , y2 , y3 ), Z = (z1 , z2 , z3 ) ∈! 3
! produto misto
tem-se como produto misto de X, Y e Z (página seguinte):
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 24
x1 x2 x3
! X.(Y × Z ) = (X × Y ). Z = y1 y2 y3
z1 z2 z3
!
Como consequências do produto externo em ! ! temos:
3
consequências do produto

! externo
‣ Como para ! (X × Y ). X e ! (X × Y ). Y o resultado será 0, então ! X × Y é
ortogonal a X e a Y, respetivamente;
‣! X ×Y = X Y sin(θ ) , sendo ! θ = !(X,Y ) .
‣ aparte: ! X + Y = X + Y com X ⊥ Y .
!
Retas em ! 3 R3

Devemos saber, de anos anteriores, que para definirmos uma reta precisamos reta
de um ponto e de uma direção, esta que é dada através de um vetor.
Dada a reta R que passa pelo ponto P e tem vetor diretor v, o vetor X
pertence a R se e só se existir um escalar α, real, tal que X = P + αv. Desenvolvida,
seja P um ponto da reta de coordenadas (p1, p2, p3) e v um vetor de coordenadas
(v1, v2, v3), a equação vetorial da reta R tem o seguinte aspeto: equação vetorial da reta
!
! (x, y, z) = ( p1 , p2 , p3 ) + α (v1 ,v2 ,v3 ), α ∈!
!
Se reescrevermos a equação vetorial num sistema de equações onde cada uma
das equações estará em ordem a cada uma das incógnitas, então teremos um sistema
de três equações do seguinte aspeto:
!
⎧ x = p1 + α v1

! ⎨ y = p2 + α v2 , α ∈!
⎪ z = p + αv
⎩ 3 3

!
Assim obtemos as chamadas equações paramétricas da reta. Se desenvolvermos ainda equações paramétricas da 

mais, e se eliminarmos o parâmetro α, podemos obter o seguinte: reta
!
⎧ x − p1
⎪ α= ⎧ x − p1 y − p2
⎪ v1
⎧ x = p1 + α v1 ⎪ =
⎪ ⎪⎪ y − p2 ⎪ v1 v2
! ⎨ y = p2 + α v2 ⇔⎨ α = ⇔⎨
⎪ z = p + αv ⎪ v2 ⎪ y − p2 = z − p3
⎩ 3 3
⎪ z − p3 ⎪ v2 v3
⎪ α= ⎩
⎪⎩ v3
Estas últimas equações são chamadas de equações cartesianas da reta ou equações cartesianas da reta
equações normais da reta. Para caraterizar qualquer reta, qualquer uma destas três
formas é possível, para a sua representação.
25 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA
Planos em ! 3 R3
Já devemos saber que para formar uma reta precisamos, dois pontos (ou um
ponto e uma direção). Sendo um plano um vasto conjunto de retas com uma
determinada relação entre si, este pode ser definido por apenas duas dessas retas ou
por três pontos não colineares dessas retas. Com três pontos, conseguimos formar dois
vetores e um ponto, o que será sempre nosso objetivo. Assim, consideremos um ponto
genérico P(p1,p2,p3) e dois vetores v e w, tal que v(v1,v2,v3) e w(w1,w2,w3). A equação
vetorial deste plano ! é a seguinte: equação vetorial do plano
!
! (x, y, z) = ( p , p , p ) + α (v ,v ,v ) + β (w ,w ,w ), α , β ∈!
1 2 3 1
! 2 3 1 2 3

Por sua vez, as equações paramétricas são as seguintes: equações paramétricas do

! plano
⎧ x = p1 + α v1 + β w1

! ⎨ y = p2 + α v2 + β w2 , α , β ∈!
⎪ z = p + α v + βw
⎩ 3 3 3

!
Se reescrevermos, eliminando os parâmetros α e β, temos que:
!
! ax + by + cz + d = 0, onde u(a,b,c) ⊥ v,w
!
Assim definimos a chamada equação cartesiana do plano ou equação geral do equação cartesiana do plano
plano. Os planos designam-se por letras maiúsculas latinas, caligrafadas, como neste
caso, o plano !.
!
Nota! Para sabermos o vetor normal ao plano (u) - vetor ortogonal a v e a w - basta nota
efetuar o produto externo entre u e w.
!
Posição relativa entre dois planos
Considerem-se os planos ! e !’ e as suas equações gerais. Seja [A|B] a matriz
ampliada do sistema constituído por estas equações gerais. Os planos são:
!
‣ estritamente paralelos se o sistema é impossível, ou seja, se a caraterística da planos estritamente paralelos
matriz ampliada for maior que a caraterística da matriz A (car(A)=1);
‣ coincidentes se têm todos os pontos em comum, ou seja, se a caraterística da planos coincidentes
matriz ampliada for igual à caraterística da matriz A, e igual a 1. Este
sistema traduzir- -se-á num sistema possível e indeterminado duplamente
(com duas colunas sem pivot);
‣ concorrentes se ambos os planos se intersetarem numa reta. O sistema planos concorrentes
resultante de tal opção é um sistema possível e determinado, onde a
caraterística da matriz ampliada é igual à caraterística da matriz A, e igual
a 2.
!
!
!
!
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 26
Posição relativa entre uma reta e um plano
Considere-se a reta R e o plano ! e as suas equações normais e geral,
respetivamente. Seja [A|B] a matriz ampliada do sistema constituído por estas
equações. A reta e o plano são:
!
‣ estritamente paralelos se a caraterística da matriz ampliada for maior que a reta e plano estritamente 

caraterística da matriz A, esta igual a 2, ou seja, se o sistema for impossível; paralelos
‣ complanares se a caraterística da matriz ampliada for igual à caraterísitica reta e plano complanares
da matriz A, esta igual a 2, ou seja, o sistema é possível e indeterminado;
‣ cconcorrentes se a caraterística da matriz ampliada for igual à caraterísitica reta e plano concorrentes
da matriz A, esta igual a 3, ou seja, o sistema é possível e determinado.
!
Posição relativa entre duas retas
Considerem-se as retas R e R’, e as suas equações normais. Seja [A|B] a matriz
ampliada do sistema constituído por estas equações. As retas são:
!
‣ concorrentes se a caraterística da matriz ampliada for igual à caraterística retas concorrentes
da matriz A, esta igual a 3, ou seja, se o sistema for possível e determinado;
‣ coincidentes se a caraterística da matriz ampliada for igual à caraterística da retas coincidentes
matriz A, esta igual a 2, ou seja, se o sistema for possível e indeterminado;
‣ estritamente paralelas se a caraterística da matriz ampliada for maior que a retas estritamente paralelas
caraterística da matriz A, esta igual a 2, ou seja, se o sistema for impossível;
‣ enviezadas se a caraterística da matriz ampliada for maior que a retas enviezadas
caraterística da matriz A, esta igual a 3, ou seja, se o sistema for impossível.
!
Distância entre dois pontos
No nosso dia-a-dia usamos muito a palavra distância para definir certos distância
“tamanhos” entre, no mínimo, dois locais que escolhemos. Mas afinal o que é isto de
“distância”? A distância entre dois pontos, como já pudemos verificar antes, é definida
através do conceito de norma. Se desenvolvermos este conceito, temos que a distância
!!!"
entre dois pontos P e Q é dada por ! PQ . Por outro lado, dado um ponto, uma reta
ou um plano ", e dado um ponto, uma reta ou um plano #, a distância entre " e # é
dada por:
! d(F,G ) = min{d(P,Q),∀P ∈F ,∀Q ∈G }
!
Claro está que se a interseção de ambos os planos for o conjunto vazio, a
distância é igual a 0.
! figura 6
Distância entre um ponto e um plano distância entre um ponto e
Dados o ponto P e o plano !, existe uma um plano
única reta R que passa no ponto P e é ortogonal a !
(tem a direção de w - vetor ortogonal a !).
!
! d(P,P) = d(P,Q)
!
!
27 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA
Dados um plano ! e um ponto P, sejam Q figura 7
pertencente ao plano ! e w um vetor ortogonal não
distância entre um ponto P
nulo ao plano !, então:
!!!" e um ponto Q de um plano
w.PQ
! d(P,P) =
w
!
Sendo P(x0,y0,z0) e ax+by+cz+d=0 uma equação geral do plano !, tem-se que:
!
ax0 + by0 + cz0 + d
! d(P,P) =
a2 + b2 + c2
!
Distância entre uma reta e um plano figura 8
distância entre uma reta $ e
Dado uma reta e um plano disjuntos, estes
um plano %
são estritamente paralelos. Neste caso, a distância da
reta R ao plano ! é a seguinte:
!
! d(R,P) = d(P,P),∀P ∈!
!
Distância entre dois planos
figura 9
Dado dois planos ! e !’ disjuntos, estes são
distância entre um plano % e
estritamente paralelos. Neste caso, a distância entre
um plano %’
ambos os planos é a seguinte:
!
! d(P', P) = d(P,P),∀P ∈P'
!
Distância entre um ponto e uma reta
figura 10
Dada uma reta R e um ponto P não distância entre um ponto P
pertencente à reta R, existe um único plano ! e uma reta $, através de um
perpendicular a R e que contém P. plano perpendicular a $
Assim, a distância é a seguinte:
!
! d(P, R) = d(P,Q) figura 11
! distância entre um ponto P
Por outro lado, dado uma reta R que passa e uma reta $, através do
por um ponto Q e que tem vetor diretor, e um ponto ângulo entre a reta $ e
P não pertencente à reta R, tem-se que:
! !!!"
outra reta que passe por P e
intersete a primeira
!!!" u × QP !!!"
! d(P, R) = QP sin θ = , sendo θ = !(u,QP )
u
!
Distância entre duas retas paralelas

A distância entre duas retas R e R’ é ! d(R', R) = d(P, R),∀P ∈R' .


!
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 28
Distância entre duas retas enviesadas
Dadas retas enviesadas R e R’, existe um único plano ! estritamente paralelo
a R e que contém R’. A distância entre as duas retas R e R’ é igual a:
!
! d(R, R') = d(R,P) = d(P,P),∀P ∈R
!
Ângulo entre duas retas
Dadas duas retas R e R’ de vetores diretores u e u’, respetivamente, o ângulo ângulo
entre ambas as retas é igual a:
⎛ u × u' ⎞ ⎡ π ⎤
! ∠(R, R') = θ = arccos ⎜ ∈ 0,
⎝ u × u ' ⎟⎠ ⎢⎣ 2 ⎥⎦
!
Ângulo entre dois planos
Dados dois planos ! e !’ e duas retas respetivamente perpendiculares R e R’,
o ângulo entre ambos os planos é igual a:
!
! ∠(P,P') = θ = ∠(R, R')
!
Ângulo entre uma reta e um plano
figura 12
Dados um plano ! e uma reta R, o ângulo ângulo entre uma reta e um
entre ambos é igual a… plano
!
π
! ∠(R,P) = θ = − ∠(R, R') =
2
⎛ u ⋅w ⎞ ⎡ π ⎤
! = arcsin ⎜ ∈ 0,
⎝ u w ⎟⎠ ⎢⎣ 2 ⎥⎦
!
, onde R’ é uma reta ortogonal ao plano !, u é um vetor diretor da reta R e w um
vetor ortogonal ao plano !.
!
4. Espaços Vetoriais Reais
Embora já tenhamos estudado anteriormente, os espaços vetoriais reais são espaços vetoriais reais
conceitos que são apenas desenvolvimentos de conhecimentos adquiridos.
!
Definição de espaço vetorial real
Para definirmos um espaço vetorial real, este terá de ser sujeito a
determinadas condições. Assim, o conjunto & é um espaço vetorial real se, munido das condições
operações ⊕ (adição) e ⊙ (multiplicação por um escalar), qualquer que seja o X, Y e Z
pertencentes ao conjunto & e o α, β reais:
! fecho da adição ⊕
‣ & é fechado relativamente à adição (⊕): ! X ⊕Y ∈V ;
‣ se a adição é comutativa: ! X ⊕Y = Y ⊕ X ;
29 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA
‣ se a adição é associativa: ! X ⊕ (Y⊕ Z ) = (X ⊕Y ) ⊕ Z ;
‣ se a adição tem elemento neutro: ! OV ⊕ X = X ;
‣ se a adição tem simétrico: ! −(X) ⊕ X = OV ;
‣ & é fechado relativamente à multiplicação por um escalar (⊙): ! α ⊙ X ∈V ; fecho da multiplicação 

‣ se ⊙ é distributiva (em relação à adição): ! α ⊙ (X ⊕Y ) = α ⊙ X ⊕ α ⊙Y ; escalar ⊙
‣ se ⊙ é “distributiva” (em relação a ⊙): ! (α+ β)⊙ X = α ⊙ X ⊕ β ⊙ X ;
‣ se os produtos (o real e o ⊙) são “associativos”: ! (αβ ) ⊙ X = α ⊙ (β ⊙ X) ;
‣ se o escalar 1 é o “elemento neutro” para ⊙: ! 1⊙ X = X ;
!
Exemplos de espaços vetoriais reais

‣ ! (!
n
,+, ⋅ ) , o conjunto ! ! n munido das operações +, · ;

+
O conjunto ! ! munido das operações ! x ⊕ y = xy e ! α ⊙ x = xα , sendo que
! O! + = 1 , ! 1 = 1 e o simétrico é ! 1 x ;
O conjunto ! !
m×n
‣ das matrizes m⨉n munido das operações adição de
matrizes e multiplicação de uma matriz por um escalar real;
‣ O conjunto de todas as funções reais de variável real munido da adição de
funções e multiplicação de uma função por um escalar real;
‣ Os conjuntos ! de todos os polinómios (de qualquer grau) e !n dos
polinómios de grau menor ou igual a n com as operações usuais.
!
Nota! O conjunto dos polinómios de grau n com as operações usuais não é espaço nota
vetorial!
!
Propriedades dos espaços vetoriais
Para podermos trabalhar com espaços vetoriais temos de conhecer as regras às
quais os espaços vetoriais são subjugados. Assim, as propriedades dos espaços vetoriais propriedades
são as seguintes:
!
‣ !0⊙ X = OV ,∀X ∈V ;
‣ ! α ⊙ OV = OV ,∀α ∈! ;
‣ ! α ⊙ X = OV ⇒ α = 0 ∨ X = OV ;
‣ ! (−1) ⊙ X = − X é o simétrico de X em relação a ⊕,∀X ∈V .
! nota
Nota! A partir deste ponto designaremos ⊕ por + e XY por X⊙Y.
!
Subespaço vetorial

Seja & um espaço vetorial real e ! S ⊂ V é um subespaço vetorial de & se: subespaço vetorial
!
‣ ' não é um conjunto vazio;
‣ ' é fechado relativamente à adição;
‣ ' é fechado relativamente à multiplicação escalar.
!
Uma proposição pode dizer que se ' é um subestação de &, então ! OV ∈S proposição
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 30
Um corolário às condições para a existência de subespaço vetorial real é que se corolário
! OV ∉S , então ' não é subespaço vetorial.
!
Combinação linear e espaço gerado
Se nos recordarmos da definição que demos anteriormente de combinação
linear, temos que, sendo x1, x2, …, xk elementos de um espaço vetorial &:
!
!X = α 1 x1 + α 2 x2 + ...+ α k xk , α 1 , α 2 , α k ∈!
!
Chama-se espaço gerado por K={x1, x2, …, xk} ao conjunto espaço gerado
!
! K = x1 , x2 ,..., xk
!
formado por todas as combinações lineares de x1, x2, …, xk. Este conjunto é um espaço
vetorial real. Denomina-se por espaço gerado por K. Também se pode dizer que K gera
' ou que K é um conjunto gerador de '.
!
Espaço das colunas e das linhas de uma matriz
Lembremo-nos de que dada uma matriz Am×n, o espaço das colunas, C(A), é o espaço das colunas
conjunto de todas as combinações lineares possíveis das colunas C1, C2, ..., Cn de A.
Assim:
!
!C (A) = {α 1C1 + α 2C2 + ...+ α nCn , α 1 ,..., α n ∈!}
!
Tomemos com exemplo a matriz T de dimensões 3×3:
!
⎡ 1 −1 −1 ⎤ ⎡ 1 ⎤ ⎡ −1 ⎤ ⎡ −1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
!A= 1 1 ! C1 = 1 ! C2 = ! C3 =
⎢ 1 ⎥ ⎢ ⎥ ⎢ 1 ⎥ ⎢ 1 ⎥
⎢⎣ 1 1 1 ⎥⎦ ⎢⎣ 1 ⎥⎦ ⎢⎣ 1 ⎥⎦ ⎢⎣ 1 ⎥⎦
!
Neste exemplo, xC1+yC2+zC3 é a combinação linear das três colunas da matriz
A com uma matriz coluna de três linhas de incógnitas (x, y, z) à qual chamamos de B.
!
⎡ x ⎤ ⎡ 1 ⎤
⎢ ⎥ ⎢ ⎥
! xC1 + yC2 + zC 3 = A y = B = 1
⎢ ⎥ ⎢ ⎥
⎢⎣ z ⎥⎦ ⎢⎣ 1 ⎥⎦
!
Podemos dizer, então, que C(A) = {AX, X ∈ R}. Tudo isto nos permite
compreender, também, o seguinte teorema, de que “Num sistema AX = B, Am×n só é teorema
possível, se e só se B ∈ C(A).”.
Por outro lado, dada uma matriz Am×n, o espaço das linhas, L(A), é o conjunto espaço das linhas
de todas as combinações lineares possíveis das transpostas das linhas L1, L2, ..., Lm de
A. Assim:
! L (A) = {α 1 LT1 + α 2 LT2 + ...+ α m LTm , α 1 ,..., α m ∈!}
31 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA
Por exemplo:
!
L1 = ⎡⎣ 1 −1 −1 ⎤⎦
⎡ 1 −1 −1 ⎤
⎢ ⎥
!A= 1 1
⎢ 1 ⎥ ! L2 = ⎡⎣ 1 1 1 ⎤⎦
⎢⎣ 1 1 1 ⎥⎦
L3 = ⎡⎣ 1 1 1 ⎤⎦

⎡ 1 ⎤ ⎡ 1 ⎤ ⎡ 1 ⎤
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
! L = −1 !L = 1 !L = 1
T T T
1 ⎢ ⎥ ⎢2 ⎥ 3 ⎢ ⎥
⎢⎣ −1 ⎥⎦ ⎢⎣ 1 ⎥⎦ ⎢⎣ 1 ⎥⎦

⎡ 1 1 1 ⎤ ⎡ α1 ⎤ ⎡ α1 ⎤
⎢ ⎥⎢
! α 1 L1 + α 2 L2 + α 3 L3 = −1 1 1 ⎢ α 2
⎥ ⎢ ⎥
⎥=A ⎢ α2
T T T T
⎢ ⎥ ⎥
⎢⎣ −1 1 1 ⎥⎦ ⎢ α 3 ⎥ ⎢ α ⎥
⎣ ⎦ ⎣ 3 ⎦
!
Podemos dizer, então, que L(A) = {ATX, X ∈ Rm}.
Em suma, uma matriz Am×n tem linhas L1, L2, ..., Lm pertencentes a ! ! e
m

colunas C1, C2, ..., Cn pertencentes a ! n . Logo, o espaço das linhas e o espaço das
#

colunas de A são subespaços de ! ! e ! ! , respetivamente.


m n

!
Nota! Um teorema diz que se as matrizes A e B são equivalentes por linhas, L(A)= teorema
=L(B).
!
Independência linear
Seja K={x1, x2, …, xk} um conjunto de vetores de um espaço vetorial &. Se:
!
! α 1 x1 + α 2 x2 + ...+ α k xk = OV ⇒ α 1 = α 2 = ... = α k = 0
!
, então K é um conjunto de vetores linearmente independentes. Caso contrário, os linearmente independentes
escalares não seriam iguais a zero e o conjunto de vetores K seria linearmente
dependente. Através de um teorema, podemos dizer que sendo K um conjunto de linearmente dependentes, 

vetores linearmente dependentes, um dos seus vetores pode-se escrever como teorema
combinação linear de alguns dos outros vetores.
!
Relação entre espaços gerados e independência linear
Sejam & um espaço vetorial real, K={x1, x2, …, xk} contido em & e '=<K>.
Tomemos como lema os dois pontos seguintes, para X pertencente a K: lema
!
‣ X é combinação linear dos vetores de K\{X};
‣ ' é gerado por K\{X}.
!
A partir deste lema, o seguinte teorema diz-nos que: K é um conjunto teorema
linearmente dependente se e só se existe um X pertencente a K que satisfaz a primeira
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 32
ou a segunda premissa do lema; K é um conjunto linearmente independente se e só se
para cada X pertencente a &\', o conjunto K ⋃ {X} for linearmente independente.
Como corolário a este teorema, temos que: corolário
!
‣ Se K gera & e não é linearmente independente, o conjunto obtido retirando
um oportuno elemento de K ainda é gerador de &;
‣ Se K é linearmente independente e não gera &, é possível acrescentar um
oportuno elemento a K mantendo a independência linear.
!
Base e dimensão de um espaço vetorial
Uma base de um espaço vetorial é um conjunto de vetores, não nulos, tais que base
sejam linearmente independentes e gerem o espaço vetorial. Por convenção, o espaço
vetorial trivial {O&} tem como base o conjunto vazio. Um conjunto linearmente
independente é base do espaço por ele gerado.
Um dado teorema diz que, considerando & um espaço vetorial com uma base
de n elementos e K contido em &, este contém n vetores. Em suma, a dimensão de um dimensão
espaço vetorial é o número de elementos de uma base desse espaço vetorial, que se
denota por dim(&). Por exemplo, podemos dizer que:
!
! dim(!
2
) = 2; dim(! 3 ) = 3; dim(P2 ) = 3
!
Generalizando, um outro teorema diz que se K={x1, x2, …, xk} está contido teorema
em & e dim(&)=n, então:
!
‣ Se K for linearmente independente, então K é base de &;
‣ Se K gerar &, então K é base de &.
!
Coordenadas de um vetor numa base
Seja & um espaço vetorial real e (={X1,…,Xn} uma base de &. Qualquer
vetor X pertencente ao espaço vetorial & escreve-se de modo único, como combinação
linear, dos elementos de uma base.
!
!X = α 1 x1 + α 2 x2 + ...+ α k xk , α 1 , α 2 , α k ∈!
!
Aos escalares α1, α2, …, αn chamamos de coordenadas de X na base (. coordenadas de um vetor

! numa base
⎡ α1 ⎤
⎢ ⎥
α2 ⎥
! [ X ]B =⎢
⎢ ! ⎥
⎢ ⎥
⎢⎣ αn ⎥

!
A [X]( chamamos de vetor das coordenadas de X na base (. Verifiquemos que: vetor de coordenadas numa

! base
! sendo B = {(2,0),(2, 3)} e C = {(1,0),(0,1)}
!
33 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA
⎡ 2 ⎤
! ! [ X ]C = ⎢ ⎥ → X = (2, 3) = 2(1,0) + 3(0,1)
⎣ 3 ⎦
⎡ 0 ⎤
! [ X ]B = ⎢ ⎥ → X = (2, 3) = 0(2,0) + 1(2, 3)
⎣ 1 ⎦
!
Mudança de base
Para podermos obter as coordenadas de um vetor numa determinada base,
precisamos de recorrer a algoritmos de mudança de base. Assim, note-se que para Y1, mudança de base
…,Yr pertencentes ao espaço vetorial &, ' base ordenada de & e a1, …, ar pertencentes
ao conjunto dos reais:
!
! [α Y + α Y
1 1 2 2 + ...+ α rYr ]S = α 1 [Y1 ]S + ...+ α r [Yr ]S
!
Assim, sejam ', )=(Y1,…,Yr), duas bases ordenadas de & e X pertencente a
&. Com esta informação, como poderemos avaliar a relação entre [X]' e [X])?
!
⎡ a1 ⎤
⎢ ⎥
! [ X ]T =⎢ ! ⎥ ⇒ X = a1Y1 + ...+ anYn
⎢ an ⎥
⎣ ⎦
!⇒ [ X ]S = a1 [Y1 ]S + ...+ an [Yn ]S
⎡ a1 ⎤
!⇔ [ X ]S = ⎡⎢ [Y1 ]S ... [Y ] ⎤⎢ ! ⎥
⎣ n S
⎦⎥ ⎢ ⎥
⎢ an ⎥
⎣ ⎦
!⇔ [ X ]S = M S←T [ X ]T
!
Um teorema diz-nos que sejam ' e )=(Y1,…,Yr) duas bases ordenadas de &, teorema
para cada X pertencente a &:
! [ X ]S = M S←T [ X ]T
, onde

! M S←T = ⎡⎢ [Y1 ]S ... [Y ] ⎤


⎣ n S
⎦⎥
!
é a matriz de mudança de base de ) para ', cujas colunas são os vetores das matriz de mudança de base
coordenadas na base ' (a azul claro) dos elementos da base ) (a azul escuro).
Consideremos o seguinte exemplo: sejam '=((1,1),(1,2)) e )=((0,1),(1,-1)),
bases ordenadas de ! ! . Dado ! X
2
∈! tal que…
!
⎡ a ⎤
! [ X ]T = ⎢ b
⎥ , tem-se que ! X = a(0,1) + b(1,−1)
⎣ ⎦
!
!
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 34
logo, ! [ X ]S = a ⎡⎣( 0,1)⎤⎦ S + b ⎡⎣(1,−1)⎤⎦ S .
!
pelo exemplo anterior…
!
⎡ −1 ⎤ ⎡ 3 ⎤
! ⎡⎣( 0,1) ⎤⎦ =⎢ ⎥ e ! ⎡⎣(1,−1) ⎤⎦ =⎢ ⎥
⎣ −2 ⎦
S S
⎣ 1 ⎦
!
então…
!
⎡ −1 ⎤ ⎡ 3 ⎤ ⎡ −1 3 ⎤ ⎡ a ⎤
! [ X ]S = a ⎢ ⎥+b⎢ ⎥=⎢ ⎥⎢ ⎥ = M S←T [ X ]T
⎣ 1 ⎦ ⎣ −2 ⎦ ⎣ 1 −2 ⎦ ⎣ b ⎦
!
Invertibilidade de uma matriz de mudança de base
A partir de uma matriz de mudança de base, podemos obter a matriz de
mudança de base num sentido inverso. Um teorema afirma-nos que sejam ' e ) duas teorema
bases ordenadas de &. Então M'←) é invertível e:
! −1
! M T ←S = M S←T
!
De forma a demonstrar este teorema, consideremos M como a matriz de
mudança de base de ) para ', dim & = n e Y pertencente a ! !
n
tal que MY = 0.
Existe assim X pertencente a & tal que Y = [X]). Então:
!
! [ X ]S = M [ X ]T = MY = 0 ⇒ X = 0V ⇒ Y =0
!
Mostrámos que o sistema homogéneo MY = 0 possui apenas a solução trivial,
ou seja, que M é invertível. Para cada X pertencente a &, tem-se que…
!
! [ X ]S = M [ X ]T ⇒ [ X ]T = M −1 [ X ]S
!
pelo que,
! −1
! M T ←S =M
! S←T

!
Matriz de mudança de base - caso particular de ! n Rn

Consideremos ' e ) duas bases de ! ! e + base canónica de ! ! . Para


n n

efetuarmos mudança entre bases, por vezes pode tornar-se difícil efetuar o cálculo.
Para tal poremos recorrer à base canónica, tornando a mudança quase imediata. Na
imagem presente na página seguinte, temos que M+←' é a matriz cujas colunas são os
vetores da base ', e que M+←) é a matriz cujas colunas são os vetores da base ).
! −1
! M S←T = M S←C M C←T = M C←S M C←T
35 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA

figura 13
alternativas para mudança
de base

Dadas as bases de ! ! , '=(X1, …, Xn), )=(Y1, …, Yn) e +, canónica.


n

!
!⎡ M C←S ! M C←T ⎤ = ⎡ X1 ... Xn ! Y1 ... Yn ⎤ ~
⎣ ⎦ ⎣ ⎦
!~ ⎡ I n ! M S←T ⎤
⎣ ⎦
(por eliminação de Gauss-Jordan)
!
Conjunto ortogonal e ortonormado em ! n Rn

Um conjunto {X1, …, Xn} de vetores de ! ! diz-se ortogonal se:


n
conjunto ortogonal
!
! Xi . X j = 0, i ≠ j, i, j = 1, ..., n
!
e diz-se ortonormado (o.n.) se é ortogonal e se também se verificar que… conjunto ortonormado
!
! Xi . Xi =1 i = 1, ..., n
! teorema
Um teorema diz que todo o conjunto ortogonal de vetores não nulos é
linearmente independente e, por consequência (corolário), todo o conjunto corolário
ortonormado é linearmente independente.
!
Coordenadas, numa base ortonormada, de um vetor de ! n Rn

Uma base ortogonal ou ortonormada é uma base que é um conjunto ortogonal base ortogonal e 

ou ortonormado, respetivamente. Note-se que todo o conjunto ortonormado de n ortonormada, nota
vetores de ! ! é uma base de ! ! . Um teorema diz-nos que, seja X pertencente a ! ! e
n n n
teorema
(=(X1, …, Xn) uma base ortonormada de ! ! , então…
n

!
⎡ X ⋅ X1 ⎤
⎢ ⎥
! [ X ]B =⎢ ! ⎥
⎢ X ⋅ Xn ⎥
⎣ ⎦
!
, isto é, X=a1X1 + … + anXn, sendo ai=X.Xi e i=1,…,n.
!
!
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 36
Projeção ortogonal em ! n Rn

Consideremos Y pertencente a ! ! sendo ortogonal ao subespaço , de ! ! se


n n

Y.Z=0, para cada Z pertencente a ,. Por teorema, seja Y pertencente a ! !


n
e ( uma teorema
base de um subespaço , de ! ! . Então, Y é ortogonal a , se e só se Y é ortogonal a
n

cada vetor de (.
A projeção ortogonal de X pertencente a ! ! sobre o subespaço , de ! ! é o
n n
projeção ortogonal
vetor Z=proj,X pertencente a ,, tal que X=Y+Z, sendo Y ortogonal a ,.
Por exemplo tomemos o seguinte cenário: sejam , = <X1> uma reta, com
!!!"
||X1||=1 (base ortonormada) e X=# OP . Logo, Z=proj,X=αX1 e Y.X1=0. Então, se
X=Y + Z = Y + αX1, X.X1=Y.X1 + αX1.X1=α. Portanto proj,X = (X.X1)X1.
!
5. Valores Próprios e Vetores Próprios
Agora que já finalizámos o estudo da unidade quatro, “Espaços Vetoriais
Reais”, passamos para um novo conceito, o de valor e vetor próprio.
!
Definição de valor próprio e vetor próprio

Sejam A uma matriz n×n e λ pertencente a ! ! . λ é um valor próprio de A se valor próprio


existe um vetor não nulo X pertencente a ! ! , tal que…
n

!
! AX = λX
!
Todo o vetor X pertencente a ! ! , não nulo, que satisfaz a condição AX=λX é
n

designado por vetor próprio de A, associado ao valor próprio λ. Assim, λ é um valor vetor próprio
próprio de A, logo o sistema homogéneo (A-λIn)X=0 possui uma solução não trivial,
pelo que det(A-λIn)=0. O sistema homogéneo referido, trata-se do desenvolvimento da
condição AX=λX.
O polinómio caraterístico de A é um polinómio de grau n em λ dado por: polinómio caraterístico
!
! pA (λ ) = det(A − λ I n )
!
A equação det(A-λIn)=0 diz-se a equação caraterística de A. Por teorema, os equação caraterística, 

valores próprios de A são as raízes reais do polinómio caraterístico de A. Constatemos teorema
que os valores próprios de uma matriz triangular são as entradas da sua diagonal
principal.
Consideremos o seguinte exemplo: seja A a seguinte matriz quadrada:
!
⎡ 1 1 ⎤
!A= ⎢ ⎥
⎣ −2 4 ⎦
!
Calculemos os seus valores próprios:
!
1− λ 1
! det(A − λ I 2 ) = 0 ⇔ = 0 ⇔ (1− λ )(4 − λ ) + 2 = 0 ⇔
−2 4−λ
37 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA
! (4 − λ − 4 λ + λ ) + 2 = 0 ⇔ λ 2 − 5λ + 6 = 0 ⇔ λ = 2 ∨ λ = 3
2

!
Agora, os vetores próprios:
(para λ=2)
!
⎡ 1− 2 1 0 ⎤ ⎡ −1 1 0 ⎤ ⎡ −1 1 0 ⎤
! (A − 2I 2 )X =0⇔⎢ ⎥⇔⎢ ⎥⇔⎢ ⎥
⎣ −2 4 − 2 0 ⎦ ⎣ −2 2 0 ⎦ ⎣ 0 0 0 ⎦
⎧⎪ −x + y = 0
!⎨
⎪⎩ y ∈!
!
⎡ y ⎤
! associados a λ =2: X = ⎢ ⎥ , y ∈! \ {0}
⎢⎣ y ⎥⎦
!
(para λ=3)
!
⎡ 1− 3 1 0 ⎤ ⎡ −2 1 0 ⎤ ⎡ −2 1 0 ⎤
! (A − 3I 2 )X =0⇔⎢ ⎥⇔⎢ ⎥⇔⎢ ⎥
⎣ −2 4 − 3 0 ⎦ ⎣ −2 1 0 ⎦ ⎣ 0 0 0 ⎦
⎧ ⎧ 1
⎪ −2x + y = 0 ⎪ x= y
!⎨ ⇔⎨ 2
⎪ y ∈! ⎪ y ∈!
⎩ ⎩
!
⎡ 1 y ⎤
! associados a λ = 3 : X = ⎢ 2 ⎥ , y ∈! \ {0}
⎢ y ⎥
⎣ ⎦
!
Subespaço próprio associado a um valor próprio
Através de um teorema, temos que, sendo λ um valor próprio da matriz An×n, teorema
então…
! Uλ = { X ∈! n :(A − λ I n )X = 0} = N (A − λ I n )
!
, onde Uλ se diz o subespaço próprio de A associado ao valor próprio λ. subespaço próprio
!
Um outro teorema considera uma matriz An×n com k valores próprios distintos teorema
λ1, …, λk e …
pA (λ ) = (λ1 − λ ) λ1 ...(λ k − λ ) λk
n n
!
!
então…
!
! 1 ≤ dimU λi ≤ nλi ,i = 1,..., k , com n sendo a multiplicidade do valor próprio λ
!
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 38
Matrizes semelhantes e matrizes diagonalizáveis
Duas matrizes A e B são semelhantes se existir uma matriz invertível P tal matrizes semelhantes
que:
−1
!P AP = B
!
, com P invertível, dado que:
! −1
! !P AP = B ⇔ AP = PB ⇔ A = PBP −1
!
Fixemos, pelo seguinte teorema, de que matrizes semelhantes possuem o teorema
mesmo polinómio caraterístico, pelo que possuem também os mesmos valores próprios.
Uma matriz diz-se diagonalizável se é semelhante a uma matriz diagonal. Sendo A matriz diagonalizável
diagonalizável, uma matriz diagonalizante de A é uma matriz invertível P, tal que: matriz diagonalizante
! −1
!P AP = D
!
é uma matriz diagonal.
Sejam A, P e D matrizes n×n, sendo X1, …, Xn as colunas de P e D, diagonal
com λ1, …, λk pertencentes a ! ! na diagonal principal. Então, verifiquemos que:
!
! AP = A ⎡ X1 ... Xn ⎤ = ⎡ AX1 ... AXn ⎤
⎣ ⎦ ⎣ ⎦
⎡ λ1 ! 0 ⎤
⎢ ⎥
! PD = ⎡ X1 ... X n ⎤ ⎢ " # " ⎥ = ⎡⎣ λ1 X1 ... λn Xn ⎤⎦
⎣ ⎦
⎢ 0 ! λn ⎥
⎣ ⎦
! AP = PD ⇔ Xi é vetor próprio de A associado a λi ,i = 1,...,n
!
Um teorema diz que uma matriz A, n×n, é diagonalizável se e só se A possui n teorema
vetores próprios linearmente independentes. Nestas condições, A é semelhante à matriz
diagonal P-1AP=D e: as colunas da matriz diagonalizastes P são n vetores próprios
linearmente independentes de A; a matriz D contém os valores próprios de A na
diagonal principal; a ordem dos vetores próprios determina a ordem dos valores
próprios.
Notemos o seguinte lema: vetores próprios associados a valores próprios lema
distintos são linearmente independentes. Demonstremos, então, este lema. Sejam X1 e
X2 vetores associados a dois valores próprios distintos λ1 e λ2 e suponha-se que
α1X1+α2X2=0. Pré-multiplicando ambos os membros da igualdade por A-λ1I, obtemos:
!
! α 1 (A − λ1 I )X1 + α 2 (A − λ1 I )X 2 = 0 ⇔ α 2 (λ2 − λ1 )X2 = 0
!
! (A − λ1 I )X1 =0 (A − λ1 I )X2 = AX2 − λ1 X2 (λ2 − λ1 ) ≠ 0 X2 ≠ 0
!
, donde α2=0. Logo, α1X1+α2X2=0 é equivalente a α1X1=0 e, como X1≠0, também
α1=0. Conclui-se que o conjunto {X1,X2} é linearmente independente.
39 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA
Pelo seguinte teorema, tem-se que, sendo λ1, …, λk os valores próprios teorema
distintos de A, A possui dim Uλ1+…+dim Uλk vetores próprios linearmente
independentes.
Um outro teorema refere que, sendo ! pA (λ ) = (λ1 − λ ) ...(λ k − λ ) λk o
nλ1 n
teorema
polinómio caraterístico de A, sendo λ1, …, λk os valores próprios distintos, A é
diagonalizável se e só se dim Uλi = nλi, com i=1, …, n.
Constatemos o seguinte, sendo A uma matriz n×n: Se A possui n valores
próprios distintos, é diagonalizável; o recíproco da afirmação anterior é falso; para
descobrir se A, com k<n valores próprios distintos, é diagonalizável, é preciso verificar
se dim Uλi = nλi, só para nλi>1; dim Uλi = dim N(A-λiI) = nul(A-λiI) = n - car(A-λiI).
!
Aplicação ao cálculo da potência e da inversa
Se A é diagonalizável, então existe uma matriz P invertível, tal que A=PDP-1.
Para k pertencente a ! ! ,
!
!A= PDP −1 ⇒ A k = PDP −1PDP −1 ...PDP −1 = PD k P −1
!
Se A é invertível, A = PDP-1 logo,
!
!A= PDP −1 ⇒ A −1 = PD −1P −1
!
Diagonalização e diagonalização ortogonal de matrizes simétricas
Muito atrás, referimos que uma matriz A é simétrica se AT=A. Através de um matriz ortogonal
teorema, podemos afirmar que uma matriz simétrica n×n possui n valores reais teorema
próprios. Um outro teorema, afirma que vetores próprios de uma matriz simétrica teorema
associados a valores próprios distintos são ortogonais.
Uma matriz quadrada P é ortogonal se PTP=I, ou seja, se for invertível e se matriz ortogonal
P =P . Por um teorema, dada uma matriz P de colunas P1, …, Pn, P é ortogonal se e
-1 T teorema
só se {P1, …, Pn} é uma base ortonormada de ! ! . A matriz A é ortogonalmente
n

diagonalizável se A é diagonalizável e possui uma matriz diagonalizante ortogonal


(cujas colunas são uma base ortonormada de A, formada por vetores próprios). Um ortogonalmente
teorema diz que toda a matriz simétrica é ortogonalmente diagonalizável. diagonalizável, teorema
!
6. Cónicas e Quádricas
Neste capítulo, após o estudo dos vetores próprios e valores próprios,
transitamos para a sua aplicação - um lado prático da unidade anterior.
!
Equação geral de uma cónica
As cónicas são curvas obtidas pela interseção de um plano com um cone.
Dados α, β e γ reais, não simultaneamente nulos e δ, η e µ reais, a equação geral de
uma cónica é a seguinte: equação geral de uma
! cónica
!α x + β y 2 + 2γ xy + δ x + η y + µ = 0 ⇔
2

!
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 40
⎡ α γ ⎤⎡ x ⎤ ⎡ x ⎤
!⇔ ⎡ x y ⎤⎢ ⎥⎢ ⎥ + ⎡⎣ δ η ⎤⎦ ⎢ ⎥+µ = 0 ⇔
⎣ ⎦⎢ γ β ⎥ ⎢⎣ y ⎦⎥ ⎢ y ⎥
⎣ ⎦ ⎣ ⎦
! ⇔ X AX + BX + µ = 0
T

!
, sendo que A é uma matriz simétrica 2×2 não nula e B uma matriz linha.
Existem vários tipos de cónicas, entre elas, as elipses, as hipérboles e as
parábolas. Neste capítulo iremos analisar caso por caso, começando com as elipses.
Assim, a equação reduzida de uma elipse é da seguinte forma: equação reduzida de uma
! elipse
⎡ 1 0 ⎤⎡
⎡ ⎤ ⎢ a 2
⎥ x ⎤ x 2 y2
Equação reduzida
! x y ⎢ de uma elipse
⎢ ⎥ − 1 = 0 ⇔ 2 + 2 = 1, a ≥ b > 0 [6–02]
⎣ ⎦
0 1 2 ⎥ ⎣⎢ y ⎥⎦ a b
2⎢ 3 2b 3 ⎥
⎣ 1 ⎦
h i
x y 4a
6 2 0 7 x
1 5
4 5 1=0 ,
2
!
2
x
a 2
y
+ 2 = 1, a
b
y a = b (= raio) ⇒ circunferência
b>0
! caso
0 particular:
! b2

! figura 14
! y
(0, b)
representação de uma elipse
!
!
! ( a, 0) (a, 0)
! x
!
!
! (0, b)
!
!
Caso
As particular:
hipérboles traduzem-se pela)seguinte
a = b (=raio) circunferência
equação reduzida (da hipérbole). equação reduzida de uma
! Equação reduzida de uma hipérbole [6–03] hipérbole
⎡2 1
Cónicas e Quádricas
0 2 3⎤ ⎡
3
ua dmat ALGA (agrupamento IV) 2013/14

⎢ 1 a2 ⎤
0 7 x ⎥ x − 1 = 0x⇔ x 2 y2
2
! ⎡ xh y ⎤i ⎢6 a2 4 5⎥ ⎢ ⎥ 2
y2 − 2 = 1, a,b > 0
⎣ x y⎦ 4
⎢ 00 −1 15 2y ⎥ ⎢⎣ 1y =⎥⎦ 0 , a2 ab2 =b 1, a, b > 0
⎣ b2
b ⎦
!
!
! y figura 15
! (0, b) representação de uma
! hipérbole
! ( a, 0) (a, 0)
! x
!
!
! (0, b)

!
!
!
! Cónicas e Quádricas ua dmat ALGA (agrupamento IV) 2013/14
41 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA
Já as parábolas têm a seguinte equação reduzida (da parábola). equação reduzida de uma
! Equação reduzida de uma parábola [6–04] parábola
⎡ a2 0 3⎤ 2⎡ 3x ⎤ 2 3 ⎡ x ⎤
!⎡ yh ⎤ ⎢ i a 0 ⎥ ⎢ x ⎥ h+ ⎡⎣ 0 i −1 ⎤
x ⎦ ⎢ y ⎥ = 0 ⇔ 2y = ax
2
x
⎣ ⎦
x ⎣y 0 0 ⎦ ⎢ y
4 5 4
⎣ +⎥⎦ 0 1
5 4 5 =⎢⎣ 0 ,⎥⎦ y = ax
! 0 0 y y

!
! a>0 a<0 figura 16

! representação de uma
! y y parábola
!
! a

! 1
! 1 x x

!
! a

!
!
Diagonalização ortogonal de uma matriz simétrica
Cónicas e Quádricas ua dmat ALGA (agrupamento IV) 2013/14

Podemos simplificar a equação geral de uma cónica ! X


T
AX + BX + µ = 0 ,
efetuando a diagonalização ortogonal da matriz simétrica A. Assim, seja P uma matriz diagonalização ortogonal
ortogonal tal que:
⎡ λ1 0 ⎤
!P
T
AP = D = ⎢ ⎥,
⎢⎣ 0 λ2 ⎥⎦
!
onde os valores próprios λ1 e λ2 de A estão ordenados do seguinte modo: λ1 ≥ λ2, se
ambos são não nulos; λ2=0, se um dos valores próprios é nulo.
!
Redução da equação de uma cónica
Considerando X=PX’ e B’=BP, na equação das cónicas, obtemos
!
!X
T
P T APX '+ BPX '+ µ = X 'T DX '+ B' X '+ µ = 0
!
, que, para…
⎡ x' ⎤
! X'= ⎢ ⎥ B' = ⎡ δ ' η ' ⎤
⎢⎣ y' ⎥⎦ ⎣ ⎦
é equivalente a,
⎡ λ1 0 ⎤ ⎡ x ' ⎤ ⎡ x' ⎤
!⎡x ' y' ⎤ ⎢ ⎥⎢ ⎥ + ⎡ δ ' η' ⎤⎢ ⎥+µ = 0 ⇔
⎣ ⎦ ⎢ 0 λ ⎥ ⎢ y' ⎥ ⎣ ⎦ ⎢ y' ⎥⎦
⎣ 2
⎦⎣ ⎦ ⎣
! ⇔ λ1 x ' + λ2 y' + δ ' x '+ η ' y'+ µ = 0
2 2

!
, onde o termo cruzado (termo em xy) foi eliminado.
!
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 42
Nota! Se |P|>0, esta mudança de variável corresponde a uma rotação. nota
!
Identificação de cónicas com 2 valores próprios não nulos
Identifiquemos a cónica representada pela seguinte equação:
!
! λ1 x + λ2 y 2 + µ = 0
2

!
‣ Caso 1: λ1 e λ2 têm o mesmo sinal, ou seja, |A|>0 :
- se µ e λ1 tiverem sinais opostos, é uma elipse;
- se µ e λ1 tiverem sinais iguais, é o conjunto vazio;
- se µ=0, é um ponto (0,0).
‣ Caso 2: λ1 e λ2 têm sinais contrários, ou seja, |A|<0 :
- se µ≠0 é uma hipérbole;
λ1
se µ=0 são duas retas concorrentes, onde ! y = ± − x
- λ2
!
Identificação de cónicas com 1 valor próprio não nulo
Identifiquemos a cónica representada pela seguinte equação, onde |A|=0:
!
! λ1 x + η y2 + µ = 0
2

!
‣ Caso 1: se η≠0, é uma parábola;
‣ Caso 2: η=0:
u
se µ e λ1 tiverem sinais opostos: duas retas paralelas (! y = ± − x)
- λ1
- se µ e λ1 tiverem sinais iguais, é o conjunto vazio;
- se µ=0, é uma reta (x=0).
!
Equação geral de uma quádrica
A equação geral (na forma matricial) de uma quádrica é:
!
!X
T
AX + BX + µ = 0
!
, com A sendo uma matriz simétrica 3×3 não nula, B sendo uma matriz 1×3 e X
pertencente a ! ! e µ real. A partir desta equação geral podem ser obtidas as equações
3

reduzidas das quádricas por um processo análogo ao levado a cabo para as cónicas: equações reduzidas das
rotação dos eixos (diagonalização ortogonal de A) e translação dos eixos. quádricas, rotação,
Agora, tal como foi realizado para as cónicas, analisemos caso por caso, em translação
relação às quádricas. O primeiro caso é a equação reduzida de um elipsoide. equação reduzida de um

2 2
! elipsoide
x y z2
! + + =1
a2 b2 c2
!
43
Equação reduzida do elipsóide
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA
x2 y2 z2
[6–16]

Equação reduzida
! quando a =elipsóide:
de um b = c ⇒ esfera + + = 1.
! a2 b2 c2
!
! figura 17
! representação gráfica de um
! elipsoide
!
!
!
!
!
!
! Equações reduzidas dos hiperbolóides [6–17]
!
Um outro grande grupo de quádricas, é o das hiperboloides. As hiperboloides hiperboloides
podemNota:ser de No umacaso
Equação =reduzida
folha particular
ou de duasafolhas.
b= de reduzida
umuma esfera.
c, tem-se
A equação
Equação reduzida de um
de um hiperboloide de hiperboloide de uma folha,
uma folha é a seguinte: hiperbolóide de uma folha: hiperbolóidede duas folhas,folhas:
de duas equação
2 2
x2 x y 2y zz 2
2
x2 reduzida
y 2
zde
2 um
Cónicas e Quádricas ! +2 + ua2 − dmat
2
==1 1. ALGA (agrupamento IV) 2013/14 hiperboloide=de1.uma folha
a2 a b2b cc2 a2 b2 c2
!
! figura 18
! representação gráfica de um
! hiperboloide de uma folha
!
!
!
!
!
!
!
!
!
!
es reduzidas dos hiperbolóides
!
[6–17]

Por outro lado, a equação reduzida de um hiperboloide de duas folhas é a equação reduzida de um
quação reduzida de um Equação reduzida de um
seguinte: Cónicas e Quádricas ua dmat hiperboloide de duas
ALGA (agrupamento IV) 2013/14
perbolóide de uma folha: hiperbolóide de2 duas folhas:
2 2
x2 y 2 z 2 folhas
x2 y2 z2 ! x2 − 2y − 2 z= 1
+ = 1. aa2 b b2 c c2 = 1.
a2 b2 c2
!
!
! figura 19
! representação gráfica de um
! hiperboloide de duas folhas
!
!
!
!
!
!
Quádricas ua dmat ALGA (agrupamento IV) 2013/14
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 44
Mais uma vez, tal como nas cónicas, certas alterações nos valores e nos sinais
de uma equação, podem provocar degenerações. Uma quádrica degenerada, neste caso, degenerações
Quádricas degeneradas:
um hiperboloide o cone,
degenerado é um coneprovocado pela seguinte equação: cone
[6–18]

!
x 2 y2 z 2 x2 y2 z2
Equação reduzida! de+ um− =
cone: 0 + = 0.
a2 b2 c2 a2 b2 c2
!
! figura 20
! representação gráfica de um
! cone
!
!
!
!
!
!
!
!
!
!
!
! Equações reduzidas dos parabolóides [6–19]
Só falta, então, um caso a referir de quádricas. Tal como nas cónicas temos as
parábolas, nas quádricas temos os paraboloides. Estes são constituídos por dois paraboloide
Cónicas e Quádricas
grandes grupos: os paraboloides Equação
elíticos reduzida
ua dmat de um
e os paraboloides Equação
ALGA (agrupamento reduzida elítico,
IV) 2013/14
hiperbólicos. A equação paraboloide de um

reduzida de um paraboloide elíticoparabolóide
é a seguinte: elı́ptico: parabolóide hiperbólico, equação
hiperbólico:
! x2 y2 reduzida
x 2
y 2de um
z =x 2 2 y+
2 . z = paraboloide. elítico
! z = 2a+ 2 b
2 a2 b2
a b
!
!
! figura 21

! representação gráfica de um

! paraboloide elítico

!
!
!
!
!
!
!
!
Por outro lado, a equação reduzida de um paraboloide hiperbólico é a equação reduzida de um
seguinte: paraboloide hiperbólico
Cónicas e Quádricas ua dmat ALGA (agrupamento IV) 2013/14
x 2 y2
!z = 2 − 2
a b
!
!
!
rabolóide elı́ptico: parabolóide hiperbólico:

45
x2 y2 x2 y2
z = 2 + 2. z= 2 .
a b ÁLGEBRA LINEAR E GEOMETRIA
a b2 ANALÍTICA
! Quádricas degeneradas: os cilindros
! figura 22
! representação gráfica de um
! paraboloide hiperbólico
!
! Equação reduzida de Equação reduzida de
! um cilindro elı́ptico: um cilindro hiperbólico:
!
! x2 y2
+ 2 = 1.
x2 y2
= 1.
! a2 b a2 b2
!
!
!
as existem casos degenerados,
Mais umauavez,dmat entre IV) 2013/14
ALGA (agrupamento casos degenerados
os quais três mais importantes. Referimos então o caso
do cilindro, que é capaz de apresentar três situações cilindro
Quádricas degeneradas: os cilindros [6–20]
diferentes. A primeira situação chamar-lhe-emos de
cilindro elítico e tem a seguinte equação reduzida (do cilindro elítico, equação
cilindro elítico): reduzida
! Equação reduzida de Equação reduzida de
um cilindro elı́ptico: um cilindro hiperbólico:
Equação reduzida de
figura
um 23 parabólico:
cilindro
x 2 y2 x2 y2 x2 y2 representação2 gráfica de um
! + =1 + 2 = 1. = 1. y = ax .
a2 b2 a 2 b a 2 b2 cilindro elítico

QuádricasAdegeneradas:
!
segunda situação os
é a cilindros
[6–20]
do cilindro hiperbólico, cilindro hiperbólico
a qual tem a seguinte equação e é representada pela
figura 24
imagem ao lado. Cónicas e Quádricas ua dmat
!Equação reduzida de 2
Equação reduzida de
2
Equação reduzida de
representação gráfica de um
cilindro hiperbólico
x
um cilindro elı́ptico: y cilindro hiperbólico:
! 2 − um=1 um cilindro parabólico:
x 2
y 2 a b 2 x2 y2
a2
+
b2
= 1.
a2 ! b2
= 1. y = ax2 .
A terceira e última situação é a do cilindro
parabólico, a qual tem a seguinte equação reduzida e a cilindro parabólico, equação
seguinte representação gráfica: Cónicas e Quádricas ua dmat
reduzida
ALGA (agrupamento IV) 2013/14

! figura 25
! y = ax
2

! representação gráfica de um
cilindro parabólico
Relembremo-nos de que estes três últimos casos
são casos degenerados de quádricas, os quais são
provocados por alterações do valor e do sinal das espécies
que compõem as respetivas equações reduzidas das
quádricas. A especificação de cada cilindro corresponde à
degeneração de uma determinada espécie de quádrica.
!
Identificação
Cónicas e Quádricas de quádricas comua3 valores
dmat própriosALGA
não(agrupamento
nulos IV) 2013/14
Atrás completámos a identificação de cónicas com dois e um valores próprios
não nulos. Agora compete-nos identificar quádricas, iniciando com três valores próprios
não nulos.
Do mesmo modo, sumariemos por casos, as respetivas identificações.
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 46
! λ1 x + λ2 y 2 + λ 3 z 2 + µ = 0
2

!
‣ Caso 1: λ1, λ2 e λ3 têm o mesmo sinal:
- se µ e λ1 tiverem sinais opostos, é um elipsoide;
- se µ e λ1 tiverem sinais iguais, é o conjunto vazio;
- se µ=0, é um ponto (0,0,0).
‣ Caso 2: λ1 e λ2 têm o mesmo sinal que é contrário ao de λ3 :
- se µ e λ1 têm sinais contrários, é um hiperboloide de uma folha;
- se µ e λ1 têm sinais iguais, é um hiperboloide de duas folhas;
- se µ=0 é um caso degenerado de um cone.
!
Identificação de quádricas com 2 valores próprios não nulos
Identifiquemos a quádrica representada pela seguinte equação.
!
! λ1 x + λ2 y 2 + η z + µ = 0
2

!
‣ Caso 1: λ1 e λ2 têm o mesmo sinal:
- se η≠0 é um paraboloide elítico;
- se η=0, e µ e λ1 tiverem sinais opostos, é um cilindro elítico;
- se η=0, e µ e λ1 tiverem sinais iguais, é o conjunto vazio;
- se η=0, e µ=0, é o eixo Oz.
‣ Caso 2: λ1 e λ2 têm sinal contrário:
- se η≠0 é um paraboloide hiperbólico;
- se η=0, e µ≠0 é um cilindro hiperbólico;
- se η=0, e µ=0 são dois planos concorrentes que se intersetam no eixo
λ1
Ox, com ! y = ± − x.
λ2
!
Identificação de quádricas com 1 valor próprio não nulo
Identifiquemos a quádrica representada pela seguinte equação.
!
! λ1 x + ηy + µ = 0
2

!
‣ Caso 1: se η≠0, é um cilindro parabólico;
‣ Caso 2: η=0:
- se λ1 e µ têm sinal contrário, são dois planos paralelos, representados
u
pela expressão: ! x = ± −
λ1
- se λ1 e µ têm o mesmo sinal, é o conjunto vazio;
- se µ=0, é o plano yOz.
!
!
!
!
47 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA
7. Aplicações Lineares
Sejam & e , dois espaços vetoriais reais. Uma aplicação linear (ou aplicação linear
transformação linear) de & em , é uma função que vamos designar por ϕ (letra grega
minúscula “fi”). Assim,
!ϕ : V → W
!X ! ϕ (X)
!
é uma função que se rege pelas seguintes propriedades: propriedades
!
! ϕ ( X + Y ) = ϕ ( X ) + ϕ (Y ) , ∀X,Y ∈V
! ϕ ( cX ) = c.ϕ ( X ) , c ∈!, ∀X,Y ∈V
!
Note-se que se &=,, então ϕ designa-se de operador linear (ou endomorfismo) de &. operador linear,
! endomorfismo
Exemplos de algumas aplicações lineares
Existem algumas operações lineares, as quais nós já usávamos, sem saber
realmente que se tratavam de transformações lineares. Vejamos algumas, começando
pela reflexão relativamente a um determinado eixo. A aplicação abaixo traduz a reflexão relativamente a um
reflexão relativamente ao eixo Ox: determinado eixo
!
!ϕ : ! → !2
2

! (x, y) ! (x,−y)
!
A derivação também é uma aplicação linear: derivação
!
! ϕ : Pn→ Pn−1
! p(x) ! ϕ ( p(x)) = p'(x)
!
Por outro lado, toda a rotação em torno de um eixo, num dado ângulo -, é rotação em torno de um eixo
uma transformação linear. Por exemplo, eis a rotação em torno do eixo Oz:
!
!ϕ : ! →!
3 3

! (x, y, z) ! ( x cos(θ ) − ysin(θ ), x sin(θ ) + y cos(θ ), z )


!
Tal como na derivação, na primitivação também se trata de uma aplicação primitivação
linear. Assim, a primitiva (nula em a) de um polinómio é obtido da seguinte forma:
!
! ϕ : Pn → Pn+1
x

! p(x) ! ∫ p(t)dt

! a

!
!
!
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 48
Propriedades e caraterização de uma aplicação linear
Através de um teorema, seja ϕ : & → , uma aplicação linear, então teorema
ϕ(0&)=0,. Demonstrando:
!
! ∀X ∈V, ϕ (0 ) = ϕ (0X) = 0.ϕ (X) = 0
V W
!
É noutro teorema que se diz que ϕ : & → , é uma aplicação linear se e só se: teorema
!
! ϕ (c1 X1 + ...+ ck X k ) = c1ϕ (X1 ) + ...+ ckϕ (X k ), ∀X k ∈V, ∀ck ∈!
!
Como consequência desse teorema, obtemos o seguinte corolário, onde seja ϕ : corolário
& → , uma aplicação linear e (&=(X1, …, Xn) uma base de &. Então ϕ é
completamente determinada por ϕ(X1), …, ϕ(Xn).
Vejamos o seguinte exercício: determinemos a aplicação linear ϕ : & → ,,
com &=! ! e ,=! ! , sabendo que ϕ(1,1)=(2,3,1) e ϕ(1,0)=(1,2,1).
2 3

!
‣ (1,1) e (1,0) são linearmente independentes, logo (&=((1,1),(1,0)) é base de
!! ;
2

‣ ! ϕ (c1 (1,1) + c2 (1,0)) = c1ϕ (1,1) + c2ϕ (1,0), ∀c1 ,c2 ∈! ;


‣ se ! (x1 , x2 ) = c1 (1,1) + c2 (1,0) = (c1 + c2 ,c1 ) , então
!
⎧⎪ c1 + c2 = x1 ⎧⎪ c1 = x1
!⎨ ⇔⎨
⎪⎩ c1 = x2 c = x1 − x2
⎩⎪ 2
!
‣ ! ϕ (x1 , x2 ) = x1ϕ (1,1) + (x1 − x2 )ϕ (1,0) = x1 (2, 3,1) + (x1 − x2 )(1,2,1) =
! = (x1 + x2 ,2x1 + x2 , x1 ) .
!
Aplicações lineares e vetores de coordenadas
Sejam ϕ : & → , uma aplicação linear, X pertencente a & e ϕ(X) pertencente
a ,, (&=(X1, …, Xn) uma base de & e (, uma base de ,. Qual a relação entre os
vetores de coordenadas ! [ X ]B e ! ⎡⎣ϕ ( X ) ⎤⎦
BW
.
!
V

⎡ a1 ⎤
⎢ ⎥
! [ X ]B V
= ⎢ ! ⎥ ⇒ X = a1 X1 + ...+ an Xn
⎢ an ⎥
⎣ ⎦
! ⇒ ϕ (X) = a1ϕ (X1 ) + ...+ anϕ (X n )
! ⇒ ⎡⎣ϕ ( X ) ⎤⎦
BW
= a1 ⎡⎣ϕ ( X1 ) ⎤⎦ B + ...+ an ⎡⎣ϕ ( Xn ) ⎤⎦ B
W W

⎡ a1 ⎤
⎢ ⎥
! ⇒ ⎡⎣ϕ ( X ) ⎤⎦ = ⎡ ⎡⎣ϕ ( X1 ) ⎤⎦ B + ...+ ⎡⎣ϕ ( Xn ) ⎤⎦ B ⎤ ⎢ ! ⎥
BW ⎣ W ⎦
⎢ an ⎥
W

⎣ ⎦
49 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA
⎡ a1 ⎤
⎢ ⎥
! ⇒ ⎡⎣ϕ ( X ) ⎤⎦ = ⎡ ⎡⎣ϕ ( X1 ) ⎤⎦ B + ...+ ⎡⎣ϕ ( Xn ) ⎤⎦ B ⎤ ⎢ ! ⎥
BW ⎣ W W ⎦
⎢ an ⎥
⎣ ⎦
! ⇒ ⎡⎣ϕ ( X ) ⎤⎦ = [ϕ ]B [ X ]B
BW W ←BV

!
V

Por um teorema temos que, sendo ϕ : & → , uma aplicação linear, X teorema
pertencente a & e ϕ(X) pertencente a ,, (&=(X1, …, Xn) uma base de & e (, uma
base de ,, para cada X, ! ⎡⎣ϕ ( X ) ⎤⎦ = [ϕ ]B [ X ]B , onde ! [ϕ ]B é a matriz
BW W ←BV V W ←BV

representativa de ϕ relativamente às bases (& e (,, cujas colunas são os vetores das matriz representativa de ϕ
coordenadas na base (, das imagens dos vetores da base (&.
Vejamos o seguinte exercício: determinemos a matriz da aplicação linear do
exercício anterior, relativa às bases (& de &=! !
2
e (,=((1,0,1), (1,1,0), (0,1,1)) de

,=! ! . Pela definição, !


3
[ϕ ]B W ←BV
= ⎡ ⎡⎣ϕ (1,1) ⎤⎦ B + ...+ ⎡⎣ϕ (1,0 ) ⎤⎦ B ⎤ basta calcular
⎣ W W ⎦

o seguinte:
⎡ α1 ⎤
⎢ ⎥
! ⎡⎣ϕ (1,1) ⎤⎦ = ⎢ α2 ⎥ ⇔ (2, 3,1) = α 1 (1,0,1) + α 2 (1,1,0) + α 3 (0,1,1)
BW
⎢ α ⎥
⎣ 3 ⎦
⎡ β1 ⎤
⎢ ⎥
! ⎡⎣ϕ (1,0 ) ⎤⎦ = ⎢ β 2 ⎥ ⇔ (1,2,1) = β1 (1,0,1) + β 2 (1,1,0) + β 3 (0,1,1)
BW
⎢ β ⎥
⎣ 3 ⎦
!
Obtêm-se os sistemas seguintes, que se podem resolver em simultâneo utilizando uma
matriz ampliada, como a que se encontra depois dos sistemas.
!
⎧ α1 + α 2 = 2 ⎧ β1 + β 2 = 1
⎪ ⎪
! ⎨ α2 + α3 = 3 e ! ⎨ β2 + β3 = 2
⎪ α +α =1 ⎪ β +β =1
⎩ 1 3
⎩ 1 3

!
⎡ 1 1 0 ⎡ α1 β1 ⎤ ⎡ 0 0 ⎤
2 1 ⎤ ⎡ 1 0 0 0 0 ⎤ ⎢ ⎥
!⎢ 0 1 1 ⎥ ⎢
3 2 ⎥∼⎢ 0 1 0
⎥⇒ ϕ
2 1 ⎥ [ ]BW ←BV = ⎢ α 2 β2 ⎥ = ⎢ 2 1 ⎥
⎢ ⎢ ⎥
⎢⎣ 1 0 1 1 1 ⎥⎦ ⎢⎣ 0 0 1 1 1 ⎥⎦ ⎢ α β 3 ⎥ ⎣⎢ 1 1 ⎥⎦
⎣ 3 ⎦
!
Um outro teorema diz-nos que, e considerando que ϕ : & → , uma aplicação teorema
linear, (& uma base de & e (, uma base de ,. Então:
!
! ⎡ M B←BW
⎣ [ϕ ]B←B ⎤ ∼ ⎡ I [ϕ ]
⎦ ⎣ m

BW ←BV ⎦

!
V
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 50
Como consequência, temos o seguinte corolário, considerando que (&=(X1, …, corolário
Xn) uma base de &=! ! e (,=(Y1, …, Yn) uma base de ,=! ! . Logo, usando o
n m

método de eliminação de Gauss:


!
! ⎡ M Cm ←BW
⎣ [ϕ ]C ←B ⎤ = ⎡Y ...Y ϕ (X )...ϕ (X ) ⎤ ∼ ⎡ I [ϕ ]
⎦ ⎣ 1 m 1 n ⎦
⎣ m

BW ←BV ⎦

!
m V

!
Mudança das bases da matriz de uma aplicação linear
As matrizes da aplicação linear ϕ : & → , relativa às bases (& de & e (, de
, e, respetivamente, às bases )& de & e ), de ,, satisfazem a seguinte igualdade,
onde ! M SV ←TV e ! M TW ←SW são as matrizes de mudança de base )& para a base '& de &
e, respetivamente, da base ', para a base ), de ,.
!
! figura 26
! alternativas para mudança
!
! de base em aplicações

! lineares

!
!
!
!
Vejamos o seguinte exercício: determinemos ϕ : & → , do primeiro exemplo
dado nesta unidade, usando mudança de base. Como φ(1,1)=(2,3,1), φ(1,0)=(1,2,1) e
(&=(X1, …, Xn), tem-se que:
!
‣ ! ϕ (X) =[ϕ (X)]C = [ϕ ]C ←C [ X ]C = [ϕ ]C ←C
3 3 2 2 3 2
X , sendo
‣ ! [ϕ ]C ←C = [ϕ ]C ←B M B ←C , com
3 2 3 V V 2

⎡ 2 1 ⎤
⎢ ⎥
! [ϕ ]C ←C
3 2
= ⎡⎣[ϕ (1,1)]C3 [ϕ (1,0)]C3 ⎤⎦ = ⎢ 3 2 ⎥ e

⎢⎣ 1 1 ⎥⎦
−1
−1 ⎡ 1 1 ⎤
! M BV ←C2 =M C2 ←BV =⎢ ⎥ .
‣ 1 0
⎣ ⎦
!
⎡ 2 1 ⎤ −1
⎡ x1 + x2 ⎤
⎢ ⎡
⎥ 1 1 ⎤ ⎡ x ⎤ ⎢ ⎥
Logo, ! ϕ (X) = [ϕ ]C ←B M BV ←C2 X = ⎢ ⎥ = ⎢ 2x1 + x2
1
⎢ 3 2 ⎢
⎥ 1 0 ⎥ ⎥.
3 V

⎢⎣ 1 1 ⎥⎦ ⎣ ⎦ ⎢

x2 ⎥ ⎢
⎦ ⎥
x1
⎣ ⎦
!
Operadores lineares, matrizes semelhantes e identidade
De um operador linear ϕ : & → & consideram-se, geralmente, matrizes
relativas a uma única base. Assim, sendo ' e ) duas bases de &, então (ver na página
seguinte…):
51 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA

[ϕ ]T ←T = M T ←S [ϕ ]S←S M S←T = ( M S←T ) [ϕ ]S←S M S←T


−1
!
!
Por um teorema, temos que duas matrizes são semelhantes se e só se são teorema
matrizes representativas do mesmo operador linear relativas a duas bases diferentes.
A aplicação (operador) identidade de & é id& : & → & tal que id& (X) = X. A identidade
matriz da aplicação identidade relativa a qualquer base ' de & é a matriz identidade:
! [id ]
V S←S = I . Já a matriz da aplicação identidade relativa às bases ' e ) de & é a
matriz de mudança de base ' para a base ): ! [id ]
V T ←S = M T ←S .
!
Núcleo e imagem de uma aplicação linear
Seja ϕ : & → , uma aplicação linear. O núcleo de ϕ é o seguinte conjunto: núcleo
!
! ker(ϕ ) = { X ∈V :ϕ (X) = 0 W }
!
Nota! ! ker(ϕ ) ≠ ø , já que ! 0 V ∈ker(ϕ ) .
Por outro lado, a imagem de ϕ é o seguinte conjunto: imagem
!
! im(ϕ ) = {ϕ (X) ∈W : X ∈V}
!
A imagem de ϕ é um conjunto de todos os vetores de , que são imagem de algum
vetor de &. Por um teorema temos que, sendo ϕ : & → , uma aplicação linear, o teorema
núcleo de ϕ é um subespaço vetorial de & e que a imagem de ϕ é um subespaço
vetorial de ,.
!
Aplicação linear injetiva, sobrejetiva e isomorfismo
Para iniciarmos o estudo desta secção, devemo-nos lembrar que uma função é
injetiva se a cada imagem corresponde um e um só objeto. Assim, e por via de um
teorema, seja ϕ : & → , uma aplicação linear, então ϕ é injetiva se e só se o seu teorema, injetiva
núcleo for igual ao zero do espaço vetorial &.
Do mesmo modo, devemos recordar que uma função ϕ é sobrejetiva se o seu
conjunto de chegada for igual ao seu contradomínio. Assim, e mais uma vez por via de
um teorema, temos que, sendo ϕ : & → , uma aplicação linear, então ϕ é sobrejetiva teorema, sobrejetiva
se e só se dim(im(φ))=dim(,).
Uma aplicação linear injetiva e sobrejetiva é um isomorfismo. isomorfismo
!
Núcleo e espaço nulo, imagem e espaço das colunas
Sejam ϕ : & → , uma aplicação linear, dim(&)=n, dim(,)=m, (& uma base
de &, (, uma base de , e ! A = [ϕ ]B W ←BV
(m×n). Então:
!
‣ !X ∈ker(ϕ ) ⇔ ϕ (X) = 0 W ⇔ A [ X ]BV = 0 ! m ⇔ [ X ]B ∈ N (A) ;
W

‣ !Y ∈im(ϕ ) ⇔ Y = ϕ (Z ) ⇔ [Y ]B = A [ Z ]BV ⇔ [Y ]B ∈C (A) ;


!
W W
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 52
Nota! N(A) e C(A) são, respetivamente, o espaço nulo e o espaço das colunas, da espaço nulo, espaço das
matriz representativa de ϕ. colunas
Um teorema diz-nos que, usando a notação anterior, sendo (& e (, bases teorema
quaisquer, dim(ker(φ)) = dimN(A) = nul(A) e dim(im(φ)) = dimC(A) = car(A).
!
Teorema das dimensões
É um teorema, de nome teorema das dimensões, que considerando ϕ : & → , teorema, teorema das
uma aplicação linear, então dim(ker(φ)) + dim(im(φ)) = {0&}. dimensões
Como consequência temos o seguinte corolário: corolário
!
‣ Se dim & < dim ,, então ϕ não é sobrejetiva;
‣ Se dim & > dim ,, então ϕ não é injetiva;
‣ Se dim & = dim ,, (por exemplo, quando ϕ é operador linear), então ϕ é
injetiva se e só se ϕ for sobrejetiva, logo, se e só se ϕ for um isomorfismo;
‣ Se ϕ é um isomorfismo, então dim & = dim ,.
!
Isomorfismo e invertibilidade
Por via de um teorema, podemos dizer que, e considerando ϕ : & → , uma teorema
aplicação linear, dim & = dim , = n, (& uma base de &, (, uma base de ,, ϕ é um
isomorfismo se e só se ! [ϕ ]B W ←BV
é invertível. Para além disso, se ϕ é um isomorfismo, isomorfismo
então ϕ é invertível e ϕ-1 : , → & é uma aplicação linear, confirmando-se a seguinte
igualdade:
⎤⎦ B ←B = [ϕ ]B ←B
−1
! ⎡⎣ϕ
−1

!
V W W V

E assim acaba o programa de Álgebra Linear e Geometria Analítica (ALGA),


mas tu podes informar-te mais sobre álgebra, se assim o pretenderes e se te sentires
curioso sobre mais e mais! Podes começar por pesquisar somas de espaços vetoriais,
matrizes particionadas, ou se és da área da informática, matrizes de bits e alguns
exercícios que te levem a programar álgebra. 

53 ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA
!
Matrizes e sistemas de equações lineares!
Introdução às Matrizes ............................................................................................................2
Sistema de m equações e n incógnitas ..................................................................................8
Matriz escalonada por linhas ..................................................................................................9
Operações elementares nas linhas de uma matriz ..............................................................10
Matrizes equivalentes por linhas...........................................................................................11
Método de eliminação de Gauss ..........................................................................................12
Método de eliminação de Gauss-Jordan ..............................................................................13
Classificação de sistemas ....................................................................................................13
Espaço das colunas de uma matriz......................................................................................13
Espaço das linhas de uma matriz ........................................................................................14
Sistema homogéneo, nulidade e espaço nulo......................................................................14
Inversa de uma matriz...........................................................................................................15

Determinantes!
Determinante da matriz 2x2 ..................................................................................................16
Determinante da matriz 3x3 ..................................................................................................17
Menor, cofator e adjunta .......................................................................................................17
Teorema de Laplace .............................................................................................................18
Propriedades do determinante .............................................................................................19
Relação entre determinante, adjunta e inversa de uma matriz ............................................19
Regra de Cramer ..................................................................................................................20
Significado geométrico do determinante ..............................................................................20

Vetores, Retas e Planos!


Produto Interno em Rn ..........................................................................................................21
Desigualdade de Cauchy-Schwarz e desigualdade triangular ............................................21
Ângulo entre vetores .............................................................................................................22
Vetores ortogonais, colineares, com o mesmo sentido e unitários .......................................22
Produto externo em R3 .........................................................................................................23
Propriedades do produto externo .........................................................................................23
Produto misto em R3 .............................................................................................................23
Retas em R3 ..........................................................................................................................24
Planos em R3 ........................................................................................................................25
Posição relativa entre dois planos ........................................................................................25
Posição relativa entre uma reta e um plano ..........................................................................26
Posição relativa entre duas retas ..........................................................................................26
Distância entre dois pontos ..................................................................................................26
Distância entre um ponto e um plano ...................................................................................26
Distância entre uma reta e um plano ....................................................................................27
Distância entre dois planos ...................................................................................................27
Distância entre um ponto e uma reta ....................................................................................27
Distância entre duas retas paralelas ....................................................................................27
Distância entre duas retas enviesadas .................................................................................28
Ângulo entre duas retas ........................................................................................................28
Ângulo entre dois planos ......................................................................................................28
Ângulo entre uma reta e um plano ........................................................................................28

Espaços Vetoriais Reais!


Definição de espaço vetorial real .........................................................................................28
Exemplos de espaços vetoriais reais ...................................................................................29
Propriedades dos espaços vetoriais ....................................................................................29
Subespaço vetorial ...............................................................................................................29
Combinação linear e espaço gerado ...................................................................................30
Espaço das colunas e das linhas de uma matriz .................................................................30
Independência linear ............................................................................................................31
Relação entre espaços gerados e independência linear .....................................................31
ÁLGEBRA LINEAR E GEOMETRIA ANALÍTICA 54
Base e dimensão de um espaço vetorial..............................................................................32
Coordenadas de um vetor numa base .................................................................................32
Mudança de base .................................................................................................................33
Invertibilidade de uma matriz de mudança de base ............................................................34
Matriz de mudança de base - caso particular de Rn ...........................................................34
Conjunto ortogonal e ortonormado em Rn...........................................................................35
Coordenadas, numa base ortonormada, de um vetor de Rn ..............................................35
Projeção ortogonal em Rn.....................................................................................................36

Valores Próprios e Vetores Próprios!


Definição de valor próprio e vetor próprio ............................................................................36
Subespaço próprio associado a um valor próprio................................................................37
Matrizes semelhantes e matrizes diagonalizáveis ................................................................38
Aplicação ao cálculo da potência e da inversa....................................................................39
Diagonalização e diagonalização ortogonal de matrizes simétricas ...................................39

Cónicas e Quádricas!
Equação geral de uma cónica ..............................................................................................39
Diagonalização ortogonal de uma matriz simétrica..............................................................41
Redução da equação de uma cónica ..................................................................................41
Identificação de cónicas com 2 valores próprios não nulos ................................................42
Identificação de cónicas com 1 valor próprio não nulo ........................................................42
Equação geral de uma quádrica ..........................................................................................42
Identificação de quádricas com 3 valores próprios não nulos .............................................45
Identificação de quádricas com 2 valores próprios não nulos .............................................46
Identificação de quádricas com 1 valor próprio não nulo ....................................................46

Aplicações Lineares!
Exemplos de algumas aplicações lineares ..........................................................................47
Propriedades e caraterização de uma aplicação linear .......................................................48
Aplicações lineares e vetores de coordenadas....................................................................48
Mudança das bases da matriz de uma aplicação linear......................................................50
Operadores lineares, matrizes semelhantes e identidade ...................................................50
Núcleo e imagem de uma aplicação linear ..........................................................................51
Aplicação linear injetiva, sobrejetiva e isomorfismo .............................................................51
Núcleo e espaço nulo, imagem e espaço das colunas........................................................51
Teorema das dimensões .......................................................................................................52
Isomorfismo e invertibilidade ................................................................................................52
índice remissivo
2x2, retas e planos operações 10
matriz 16 completa, elemento,
3x3, matriz 9 anular 10
matriz 17 componentes, neutro da multiplicação 8
adição, do vetor 4 eliminação,
de matrizes 3 comprimento 21 (método de) de Gauss 12
fecho da 28 concorrentes, (método de) de Gauss-Jordan 13
propriedades da 7 planos 25 elipse,
adjunta, retas 26 equação reduzida de uma 40
matriz 17 retas e planos 26 elipsoide,
ângulo, 28 cone 44 equação reduzida de um 42
entre vetores 22 cónica, elítico,
anular, equação geral de uma 39 cilindro 45
elementos 10 conjunto, equação reduzida de um paraboloide
associatividade, ortogonal 35 44
multiplicação 8 ortonormado 35 paraboloide 44
multiplicação por escalar 8 consequências, endomorfismo 47
ampliada, do produto externo 24 enviezadas,
matrizes 9 constante 2 retas 26
aplicação, coordenadas, equação (equações),
linear 47 de um vetor numa base 32 caraterística 36
(propriedades das) lineares 47 (vetor de) numa base 32 cartesiana do plano 25
aumentada, Cramer, cartesianas da reta 24
matriz 9 regra de 20 geral de uma cónica 39
base, 32 degenerações 44, 45 geral do plano 25
coordenadas de um vetor numa 32 dependente, linear 2!
matriz de mudança de 33 linearmente 31 normal da reta 24!
mudança de 33 derivação 47 paramétricas do plano 25!
ortogonal e ortonormada 35 desigualdade, paramétricas da reta 24!
vetor de coordenadas numa 32 de Cauchy-Schwarz 21 reduzida do cilindro elítico 45!
caraterística, triangular 21 reduzida de uma elipse 40
de uma matriz 13 determinado, reduzida de um elipsoide 42
equação 36 sistema possível 13 reduzida de uma hipérbole 40
caraterístico, determinante, 16 reduzida de um hiperboloide de uma
polinómio 36 propriedades do 19 folha 43
cartesiana, simbólico 23 reduzida de um hiperboloide de duas
(equação) do plano 25 diagonal, folhas 43!
(equações) da reta 24 matriz 5 reduzida de uma parábola 41!
Cauchy-Schwarz, principal 4 reduzida de um paraboloide elítico 44
desigualdade de 21 diagonalização, reduzida de um paraboloide
cilindro, 45 ortogonal 41 hiperbólico 44!
elítico 45 diagonalizante, reduzidas das quádricas 42!
parabólico 45 matriz 38 sistemas de 2, 8
coeficientes, diagonalizável, vetorial da reta 24
matriz dos 9 matriz 38 equivalente,
cofator 17 ortogonalmente 39 (matriz) por linhas 11
coincidentes, dimensão, 32 escalar, 3
planos 25 teorema das 52 fecho da multiplicação 29
retas 26 dimensão n, matriz 5
colinearidade 22 vetor de 5 multiplicação de linha por 10
coluna, distância 26 multiplicação por 3
espaço das 13, 30, 52 distributividade, escalonada,
matriz 6 multiplicação 8 (matriz) por linhas 9
combinação, multiplicação por escalar 8 (matriz) por linhas reduzida 10
linear 4 elementar, espaço,
complanares, matriz 5 das colunas 13, 30, 52
índice remissivo
das linhas 14, 30 matriz dos termos 9 incógnitas 9
gerado 30 indeterminado, linha 6
nulo 15, 52 sistema possível 13 multiplicação de 7
vetoriais reais 28 injetividade 51 nula 6
estritamente, inferior, ortogonal 39
(planos) paralelos 25 matriz triangular 5 quadrada 4
(retas) paralelas 26 interno, representativa 49
(retas e planos) paralelos 26 produto 21 semelhantes 38
externo, propriedades do produto 21 simétrica 39
consequências do produto 24 inversa, 15 singular 15
produto 23 propriedades da 15 termos independentes 9
propriedades do produto 23 invertível 15 transposta 6
fecho, isomorfismo 51, 52 triangular inferior 5
da adição 28 Laplace, triangular superior 6
da multiplicação escalar 29 teorema de 18 menor 17
folha, linear, método,
equação de um hiperboloide de uma aplicação 47 de eliminação de Gauss 12
43 combinação 4 de eliminação de Gauss-Jordan 13
equação de um hiperboloide de duas equação 2 misto,
43 operador 47 produto 23
forma, propriedades das aplicações 47 mudança,
matricial 9 linearmente, de base 33
Gauss, dependente 31 (matriz de) de base 33
método de eliminação de 12 independente 31 multiplicação,
Gauss-Jordan, linha, associatividade 8
método de eliminação de 13 espaço das 14, 30 de matrizes 7
gerado, matriz 6 de linha por escalar 10
espaço 30 matriz equivalente por 11 de uma linha 10
geral, matriz escalonada por 9 distributividade 8
(equação) de uma cónica 39 (matriz escalonada …) reduzida 10 elemento neutro 8
(equação) do plano 25 (multiplicação de) por escalar 10 (fecho da) escalar 28
hipérbole, multiplicação de uma 10 por escalar 3
equação reduzida de uma 40 troca de 10 propriedades da 8
hiperbólico, matricial, neutro,
clindro 45 forma 9 elemento da multiplicação 8
equação reduzida de um paraboloide matriz (matrizes), 4 norma 21
44 2x2 16 normal,
paraboloide 44 3x3 17 (equação) da reta 24
hiperboloide, 43 adjunta 17 núcleo 51
de uma folha 43 ampliada 9 nula,
de duas folhas 43 aumentada 9 matriz 6
(equação …) de uma folha 43 caraterística de uma 13 nulo,
(equação …) de duas folhas 43 coeficientes 9 espaço 15, 52
homogéneo, coluna 6 nulidade 15
sistema 14 completa 9 operador,
incógnita, 2 de mudança de base 33 linear 47
matriz das 9 diagonal 5 operações,
identidade, 51 diagonalizante 38 elementares 10
matriz 6 diagonalizável 38 ortogonal,
igualdade, elementar 5 base 35
de matrizes 6 equivalentes por linhas 11 conjunto 35
imagem 51 escalar 5 diagonalização 41
impossível, escalonada por linhas 9 matriz 39
sistema 13 escalonada por linhas reduzida 10 projeção 36
independentes, identidade 6 ortogonalidade 22
linearmente 31 igualdade de 6 ortogonalmente,
índice remissivo
diagonalizável 39 multiplicação 8 matriz 15
ortonormado, multiplicação por escalar 8 sistema,
base 35 potência 8 de equações 2, 8
conjunto 35 (do) produto externo 23! homogéneo 14
parábola, (do) produto interno 21 impossível 13
equação reduzida de uma 41 próprio, possível e determinado 13
parabólico, subespaço 37 possível e indeterminado 13
cilindro 45 valor 36 sobrejetividade 51
paraboloide, 44 vetor 36! solução,
elítico 44 quadrada, trivial 14
(equação reduzida de um) elítico 44 matriz 4 somatório 7
(equação reduzida de um) hiperbólico quádricas, subespaço,
44 equação reduzidas das 42 próprio 37
hiperbólico 44 real, vetorial 29
paralelismo 22 espaço vetorial 28 superior,
paralelos, reduzida, matriz triangular 6
planos estritamente 25 (equação) de um cilindro elítico 45 teorema,
retas e planos estritamente 26 (equação) de uma elipse 40 das dimensões 52
paramétricas, (equação) de um elipsoide 42 de Laplace 18
(equações) do plano 25 (equação) de uma hipérbole 40 termos,
(equações) da reta 24 (equação) de uma parábola 41 (matriz dos) independentes 9
pivot 9 (equação) de um paraboloide elítico transposta,
plano, 44 matriz 6
coincidentes 25 (equação) de um paraboloide triangular,
concorrentes 25 hiperbólico 44 desigualdade 21
equação cartesiana do 25 (equações) das quádricas 42 (matriz) inferior 5
equação geral do 25 matriz escalonada por linhas 10 (matriz) superior 6
equações paramétricas do 25 reflexão, translação 42
equação vetorial do 25 relativamente a um eixo 47 trivial,
estritamente paralelos 25 regra, solução 14
(reta e) estritamente paralelos 26 de Cramer 20 troca,
(reta e) complanares 26 de Sarrus 17 de linhas 10
(reta e) concorrentes 26 representativa, unitário,
polinómio, matriz 49 vetor 23
caraterístico 36 reta, 24 variável 2
possível, coincidentes 26 valor,
(sistema) e determinado 13 concorrentes 26 próprio 36
(sistema) e indeterminado 13 e plano estritamente paralelos 26 vetor (vetores),
potências, 8 e plano complanares 26 ângulo entre 22
propriedades 8 e plano concorrentes 26 componentes do 4
principal, enviezadas 26 (coordenadas de um) numa base 32
diagonal 4 equação cartesiana da 24 de coordenadas numa base 32
produto, equação normal da 24 de dimensão n 5
(consequências do) externo 24 equações paramétricas 24 em Rn 4
externo 23 equação vetorial 24 próprio 36
interno 21 estritamente paralelas 26 unitário 23
misto 23 rotação 42 vetorial,
(propriedades do) externo 23 Sarrus, (equação) da reta 24
(propriedades do) interno 21 regra de 17 (equação) do plano 25
projeção, semelhantes, (espaço) real 28
ortogonal 36 matrizes 38 subespaço 29
propriedades da, simbólico,
adição 7 determinante 23
aplicações lineares 47 simétrica,
(dos) determinantes 19 matriz 39
inversa 15 singular,
2ª edição. O conteúdo deste documento foi escrito, em grande parte, por Rui Lopes, tendo-se baseado, em grande parte, e até copiado, dos apontamentos disponibilizados pela
professora M. Cristina S. Requejo Agra, regente da disciplina de Álgebra Linear e Geometria Analítica, da Universidade de Aveiro, no ano letivo de 2013/2014. Algumas imagens
provêm da mesma fonte, que a principal deste texto. “Introdução à Álgebra Linear com Aplicações”, KOLMAN, Bernard et HILL, David R.,  Editora LTC, 2006,  8ª edição. ISBN:
85-216-1478-0; “Linear Algebra Done Wrong”, TREIL, Sergei. Brown University, Providence,  2009; “Álgebra Linear e Geometria Analítica - Problemas e Exercícios”,  MONTEIRO,
António et PINTO, Gonçalo et MARQUES, Catarina. McGrawHill, Lisboa, 1995. ISBN: 972-8298-66-8. Todas estas obras foram consultadas entre 16 de setembro de 2013 e 7 de
janeiro de 2014. © Rui Lopes 2014 Copyright: Pela Creative Commons, não é permitida a cópia e a venda deste documento. Qualquer fraude será punida. Respeite os autores e as
suas marcas. Original - This work is licensed under the Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License. To view a copy of this license, visit
http://creativecommons.org/licenses/by-nc-nd/4.0/deed.en_US.

Potrebbero piacerti anche