Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
1. SOMATÓRIO
A matemática utiliza diversos símbolos para simplificar a representação de
determinados procedimentos. Imaginemos que tivéssemos que representar a soma de
1.000 parcelas, de modo que cada parcela fosse equivalente à anterior acrescida de duas
unidades. Seríamos obrigados a gastar algumas folhas de papel e nossa paciência. O
somatório, produtório, operador lag, a letra , são exemplos de símbolos criados para
facilitar as representações, assim como o sinal “x” que representa a multiplicação ou “/”
que substitui as divisões.
n n n
b) ∑ (Xi − Yi) = ∑ (Xi) - ∑ (Yi)
i =1 i =1 i =1
n n
c) ∑ k.Yi = k. ∑ (Yi) , onde k = constante
i =1 i =1
n
d) ∑ k = n.k, onde k = constante
i =1
n m n
e) ∑ ∑ xij = ∑ (xi1 + xi2 + xi3... + xim) = x11 + x12 + ... + x1m + x21 + x22 + ... + x2m + ... + xn1
i =1 j =1 i =1
243
2. ÁLGEBRA LINEAR
MATRIZES
A matriz pode ser definida como um conjunto de elementos dispostos numa forma de
tabela, composta por linhas e colunas. Um exemplo é a apresentação de algumas taxas
de crescimento da economia brasileira na década de 90:
A representação de uma matriz é feita por uma letra maiúscula, sendo sua ordem (ou
seja, seu número de linhas e de colunas, respectivamente) indicada com letras
minúsculas, ou seja, Amxn. No exemplo anterior, teríamos C9x3.
Cada elemento de uma matriz pode ser representado pela sua posição, que indicará,
nesta ordem, sua linha e sua coluna. Por exemplo, na matriz anterior c12= -8,2 ; c32= -3,8 .
244
OPERAÇÃO DE MATRIZES:
a) SOMA E SUBTRAÇÃO
Assim como ocorre com os números escalares, duas matrizes podem ser somadas ou
subtraídas. No entanto, para que a soma (ou subtração) exista, é preciso que as duas
matrizes envolvidas possuam a mesma dimensão (mesmo número de linhas e de
colunas). Supondo Amxn = [aij] e Bmxn = [bij], então C = A + B = Cmxn = [cij] onde cij = aij + bij.
c) MULTIPLICAÇÃO
No caso da multiplicação de duas matrizes o procedimento não é tão simples. Para que
seja possível realizar a operação, é necessário que a primeira matriz tenha o número de
colunas igual ao número de linhas da segunda matriz. A matriz resultante terá o número
de linhas da primeira e o número de colunas da segunda. Assim, Amxn . Bnxp = Cmxp.
n
cij = ∑ aik bkj , i = 1, 2, ... , m j = 1, 2, ... , p
i =1
245
d) DIVISÃO
e) TRANSPOSTA
Transpor uma matriz é o mesmo que trocar suas linhas pelas colunas e vice-versa.
Representa-se esta operação pelo símbolo “’” ou “t”. Assim, se Amxn = [aij], então A’= Tnxm
= [tij] = [aji]
i) INVERSA
A inversa de uma matriz, definida por A-1, pode ser definida como a matriz que satisfaz à
seguinte condição: A.A-1 = I = A-1.A. Deste modo, A terá inversa se e somente se for
quadrada e não singular (de posto completo, ou seja, det A ≠ 0). De modo mais prático,
Adj(A)
A-1 = .
det(A)
246
TIPOS ESPECIAIS DE MATRIZES
! MATRIZ NULA: é aquela onde aij = 0, para qualquer i ou j. Não é necessário que
a matriz nula seja quadrada.
! MATRIZ DIAGONAL: similar à matriz identidade, com aij = 0, mas aii ≠ 0, ou seja,
apenas a diagonal principal tem valores não nulos e estes não precisam ser
iguais a 1.
! MATRIZ IDEMPOTENTE: é uma matriz quadrada que ao ser multiplicada por ela
mesma, gera ela própria, ou seja,
Amxm . Amxm = A2 = A3 = An = A ⇔ A é idempotente
! MATRIZ COFATORA: representada por Cof(A) = [cij], onde cij = (-1)i+j.|Mij|. |Mij|
representa o determinante (veja cálculo de determinante adiante) da matriz
menor e cij é chamado cofator de ordem ij. A matriz menor Mij é obtida
eliminando-se, da matriz principal, a linha i e a coluna j.
PROPRIEDADES DE MATRIZES
! Em geral, AB ≠ BA;
! (AB)’ = B’ A’;
247
! (ABC)’ = C’ B’ A’;
! (A + B) + C = A + (B + C);
! A (BC) = (AB) C;
! I.A = A.I;
! A + 0 = A;
! A * 0 = 0 * A = 0;
! A.A-1 = I
! (A-1)-1 = A;
! (A.B)-1 = B-1.A-1;
! (A’)-1 = (A-1)’;
! A = A’ ⇔ A é simétrica.
Observação: uma matriz será igual a outra se e somente se ambas possuírem a mesma
dimensão e os mesmos elementos dispostos na mesma ordem, ou seja, Amxn = [aij] = Bmxn
= [bij] ⇔ aij = bij ∀i, ∀j.
248
DETERMINANTES
O determinante, representado por duas barras verticais simétricas (como no módulo),
corresponde à associação de um número a uma determinada matriz. Este número é
particularmente importante porque define se a matriz tem posto completo, ou seja, se é
não singular e, portanto, admite a existência de inversa. A existência de uma matriz
inversa é de extrema importância para a resolução de sistemas, conforme visto na
apostila.
n n
|A| = ∑ aij cij = ∑ aij . (-1)i+j . |Mij| (expansão pela i-ésima linha)
j =1 j =1
! Det (In) = 1;
! O determinante de uma matriz com duas (ou mais) linhas (ou colunas)
linearmente dependentes (vide dependência linear) é nulo;
249
! det (A.B) = det (A) . det (B);
DIFERENCIAÇÃO DE MATRIZES
É mais fácil compreender a diferenciação de matrizes através do seu desenvolvimento
algébrico:
Admitindo A = eB=
a1 b1
a2 b2
... ...
an bn
Podemos definir a derivada de uma matriz M por outra matriz B como uma terceira
matriz particionada formada pelas derivadas parciais de M em relação a cada um dos
elementos da matriz B, ou seja,
∂ (A' B) ∂ (A' B)
= =A
∂B ∂ b1
∂ (A' B)
∂ b2
...
∂ (A' B)
∂ bn
Vejamos agora o caso relativo a um polinômio do segundo grau:
Admitindo uma matriz C simétrica, onde A = C.B,
B’.C.B = c11b12 + 2c12b1b2 + 2c13b1b3 + ... + 2c1nb1bn +
+ c22b22 + 2c23b2b3 + ... + 2c2nb2bn +
+ ... + cnnbn2
250
Do mesmo modo, a derivada de uma matriz M (neste caso, M = A’.B = B’.C.B) por outra
matriz B resulta numa terceira matriz particionada formada pelas derivadas parciais de M
em relação a cada um dos elementos da matriz B, ou seja,
∂ (B' CB)
= 2 . (c11b1 + c12b2 + ... + c1nbn)
∂ b1
∂ (B' CB)
= 2 . (c21b1 + c22b2 + ... + c2nbn)
∂ b2
∂ (B' CB)
Portanto, = 2.C.B = 2.A (lembre-se que C’ = C porque C é simétrica)
∂B
Se este conjunto L gerar uma reta, então podemos concluir que v1 é múltiplo de v2 e
vice-versa, sendo chamados de vetores linearmente dependentes (LD). Caso o conjunto
L dê origem a um plano bi-dimensional, então estes vetores são linearmente
independentes (LI).
Esta situação pode ser facilmente estendida a outras dimensões, de modo que, um
conjunto de 3 vetores, para ser linearmente independente, deve gerar um plano
tridimensional.
Caso estejamos diante de vetores LI, podemos também chamá-los de base de um plano
de mesma dimensão do número de vetores. Os vetores que mais comumente
encontramos como base de um plano, são os que formam a chamada base canônica, ou
seja, apenas um elemento do vetor é não nulo e unitário. Deste modo, a base canônica
para o ℜ2 é formada pelos vetores (1,0) e (0,1); e, para o ℜ3, pelos vetores (1,0,0), (0,1,0)
e (0,0,1). Facilmente podemos identificar que estes vetores são linearmente
independentes, pois nenhum deles pode ser escrito como uma combinação linear dos
demais. Estas bases são especiais porque seus vetores geram as retas que representam
os eixos cartesianos comumente utilizados.
De modo mais formal, vejamos a seguinte definição: os vetores v1, v2, ... , vn do ℜn são
linearmente dependentes se, e somente se, existem escalares c1, c2, ... , ck , pelo menos
251
um não nulo, tais que: c1v1 + c2v2 + ... + cnvn = 0. Os vetores v1, v2, ... , vn do ℜn são
linearmente independentes se, e somente se, c1v1 + c2v2 + ... + cnvn = 0 para escalares c1,
c2, ... , ck implica que c1 = c2 = ... = cn = 0.
Note que, em ℜ2, apenas 2 vetores podem ser LI. Se estamos trabalhando com 3
vetores ou mais, só é possível encontrar independência linear em cada par de vetores, de
modo que o 3º será sempre combinação linear dos demais. Se estamos trabalhando em
ℜ3, então apenas 3 vetores poderão ser LI e assim por diante.
Este conceito pode ser rapidamente levado para o estudo de matrizes. Se pensarmos
num vetor como uma matriz (veja matriz coluna na sub-seção tipos especiais de matrizes
neste mesmo apêndice), então podemos estender o conceito de independência linear
para posto de uma matriz. Cada coluna de uma matriz pode ser vista como a
representação de um vetor específico. Logo, uma matriz pode ser entendida como um
conjunto de vetores apresentados lado a lado.
Neste ponto podemos definir posto de uma matriz. Seu posto é definido como o seu
número de linhas (e/ou colunas) linearmente independentes. Desta forma, não é
necessário que uma matriz seja quadrada para encontrarmos o seu posto, mas o ponto
será, no máximo, equivalente ao mínimo entre o número de linhas e o número de colunas
da matriz. Assim, uma matriz quadrada e com vetores linearmente independentes
sempre terá posto igual ao seu número de linhas e/ou colunas.
Para que se possa dizer que a matriz tem posto completo, é preciso que não haja
nenhuma linha e/ou coluna LD. Somente as matrizes de posto completo (e, portanto,
quadradas) possuem determinante não nulo.
RESOLUÇÃO DE SISTEMAS
Um sistema de equações lineares sempre pode ser representado segundo uma forma
matricial. Imaginemos um sistema com três equações e três incógnitas:
2x1 + 3x2 + x3 = 11
x1 – x2 + x3 = 2
–3x1 + 2x2 – 3x3 = –8
252
2 3 1 x1 11
1 -1 1 x2 = 2
-3 2 -3 x3 -8
MATRIZ DOS MATRIZ DE
COEFICIENTES CONSTANTES
Sabemos que, para que um sistema tenha uma única solução, as equações devem ser
linearmente independentes e devemos trabalhar com o mesmo número de incógnitas e de
equações. Ora, isto equivale a dizer que a matriz de coeficientes é quadrada e tem posto
completo, ou seja, tem determinante não nulo. Caso a matriz não seja de posto completo,
seria equivalente a trabalhar com mais incógnitas do que equações, o que representa um
sistema com infinitas soluções.
A.X = d
REGRA DE CRAMER
Mas a resolução de sistemas pode ficar ainda mais fácil se utilizarmos as propriedades
da expansão de Laplace.
Adj(A) det(Ai)
X = A-1.d = . d ⇒ xi = ,
det(A) det(A)
Note que, no caso onde d for uma matriz nula, então se det (A) ≠ 0, o sistema só
admitirá a solução trivial, ou seja, todos os valores são nulos. No caso onde det(A) = 0,
253
0
então teremos xi = , um número indeterminado, o que implica num sistema com infinitas
0
soluções, onde não é possível encontrar valores utilizando a regra de Cramer.
AUTO-VETORES E AUTO-VALORES
Observe que λ pode ser o número zero, mas v não pode ser o vetor nulo.
Agora, vamos estender este conceito à álgebra matricial que nos interessa.
Mas usar estas definições para calcular autovetores e autovalores pode ser muito
complicado. Vejamos, agora, um método mais prático para seu cálculo.
Dada uma matriz quadrada Anxn, procuramos um escalar λ que atenda à seguinte
equação: Av = λv. Pelas propriedade de matrizes que já conhecemos, podemos aplicar a
matriz identidade (com a mesma ordem de A, ou seja, n) sem alterar o problema:
Av = λIv
Av – (λI)v = 0
ou (A –λI)v = 0
Pelas regras de resolução de sistemas vistas no item anterior, fica fácil perceber que, no
caso do determinante de (A – λI) ser não nulo, ou seja, esta ser uma matriz de posto
completo, então o sistema acima admite apenas uma solução: a solução trivial (todos os
valores iguais a zero). No entanto, é exatamente isto que não queremos, pois isto implica
em achar v = 0, ou seja, o vetor nulo. Desta forma, estamos interessados em encontrar
os valores de λ que tornam o determinante de (A – λI) nulo.
254
A expansão da igualdade det(A – λI) = 0 pela metodologia de Laplace (veja
determinantes) gera um polinômio com a ordem da matriz A (no caso, n) em λ, o que é
denominado polinômio característico de A. Suas raízes representam os autovalores de A
(que podem raízes múltiplas). Substituindo os diferentes autovalores de A, é possível
encontrar seus autovetores pelo método de substituição na equação Av = λv.
255