Sei sulla pagina 1di 13

APÊNDICE MATEMÁTICO

1. SOMATÓRIO
A matemática utiliza diversos símbolos para simplificar a representação de
determinados procedimentos. Imaginemos que tivéssemos que representar a soma de
1.000 parcelas, de modo que cada parcela fosse equivalente à anterior acrescida de duas
unidades. Seríamos obrigados a gastar algumas folhas de papel e nossa paciência. O
somatório, produtório, operador lag, a letra , são exemplos de símbolos criados para
facilitar as representações, assim como o sinal “x” que representa a multiplicação ou “/”
que substitui as divisões.

No caso particular da estatística e, em particular da econometria, é importante conhecer


e compreender a fundo o “somatório”, extremamente útil em se tratando de uma ciência
matemática. Somatório, como o próprio nome indica, representa a soma de determinadas
parcelas e é representado pela letra grega (sigma, “soma”). Assim, , lê-se
n de x , para i variando de 1 até n” e
“somatório dos valores = x1 + x2 + x3 + x4 +
i
∑ xi
x5 5 i =1
∑ xi
i =1
Destaca-se que, apesar do índice “i” ser comumente encontrado, a representação do
somatório pode ser feita por qualquer letra do alfabeto, sendo mais comum o uso de “j” e
“k”, principalmente quanto é necessário o uso de somatório duplo.

ALGUMAS PROPRIEDADES DO SOMATÓRIO:


n n n
a) ∑ (Xi + Yi) = ∑ (Xi) + ∑ (Yi)
i =1 i =1 i =1

n n n
b) ∑ (Xi − Yi) = ∑ (Xi) - ∑ (Yi)
i =1 i =1 i =1

n n
c) ∑ k.Yi = k. ∑ (Yi) , onde k = constante
i =1 i =1

n
d) ∑ k = n.k, onde k = constante
i =1

n m n
e) ∑ ∑ xij = ∑ (xi1 + xi2 + xi3... + xim) = x11 + x12 + ... + x1m + x21 + x22 + ... + x2m + ... + xn1
i =1 j =1 i =1

+ xn2 + ... + xnm

243
2. ÁLGEBRA LINEAR

MATRIZES
A matriz pode ser definida como um conjunto de elementos dispostos numa forma de
tabela, composta por linhas e colunas. Um exemplo é a apresentação de algumas taxas
de crescimento da economia brasileira na década de 90:

Ano PIB Indústria Agricultura


1990 -4,3 -8,2 -3,7
1991 0,3 -1,8 2,8
1992 -0,8 -3,8 5,4
1993 1,2 6,9 -1,0
1994 6,0 7,0 9,3
1995 4,3 2,1 5,1
1996 2,9 2,3 3,1
1997 3,1 4,6 3,1
1998* 0,2 -2,4 3,5
* previsão
Fonte: Gonçalves, Reinaldo, “Globalização e Desnacionalização”, p.81

Excluindo-se o cabeçalho, temos os dados representados na forma matricial:

-4,3 -8,2 -3,7


0,3 -1,8 2,8
-0,8 -3,8 5,4
1,2 6,9 -1,0
6,0 7,0 9,3
4,3 2,1 5,1
2,9 2,3 3,1
3,1 4,6 3,1
0,2 -2,4 3,5

A representação de uma matriz é feita por uma letra maiúscula, sendo sua ordem (ou
seja, seu número de linhas e de colunas, respectivamente) indicada com letras
minúsculas, ou seja, Amxn. No exemplo anterior, teríamos C9x3.

Cada elemento de uma matriz pode ser representado pela sua posição, que indicará,
nesta ordem, sua linha e sua coluna. Por exemplo, na matriz anterior c12= -8,2 ; c32= -3,8 .

244
OPERAÇÃO DE MATRIZES:

a) SOMA E SUBTRAÇÃO

Assim como ocorre com os números escalares, duas matrizes podem ser somadas ou
subtraídas. No entanto, para que a soma (ou subtração) exista, é preciso que as duas
matrizes envolvidas possuam a mesma dimensão (mesmo número de linhas e de
colunas). Supondo Amxn = [aij] e Bmxn = [bij], então C = A + B = Cmxn = [cij] onde cij = aij + bij.

No caso da subtração, a mesma regra se mantém, onde A – B = A + (-1). B, de modo


que D = A – B = Dmxn = [dij] onde dij = aij – bij.

A seguir veremos como é realizada a operação de multiplicação de uma matriz por um


escalar.

b) MULTIPLICAÇÃO POR UM ESCALAR

A multiplicação por um escalar é muito simples e consiste em multiplicar todos os


elementos da matriz pelo mesmo número. Portanto, k.A = [k.aij], onde k = constante.
Aplicando-se esta regra, podemos entender porque A – B = A + (-1). B = Dmxn = [dij] onde
dij = aij – bij

c) MULTIPLICAÇÃO

No caso da multiplicação de duas matrizes o procedimento não é tão simples. Para que
seja possível realizar a operação, é necessário que a primeira matriz tenha o número de
colunas igual ao número de linhas da segunda matriz. A matriz resultante terá o número
de linhas da primeira e o número de colunas da segunda. Assim, Amxn . Bnxp = Cmxp.

Os elementos cij da matriz C corresponderão ao somatório da multiplicação dos


elementos da i-ésima linha da primeira matriz pelos elementos correspondentes da j-
ésima coluna da segunda matriz. Para entender melhor, podemos utilizar o conceito de
somatório visto anteriormente. Supondo a matriz A = [aik]mxn multiplicada pela matriz B =
[bkj]nxp, obtemos a matriz C = [cij]mxp, de modo que os elementos de C podem ser escritos
com a seguinte representação:

n
cij = ∑ aik bkj , i = 1, 2, ... , m j = 1, 2, ... , p
i =1

245
d) DIVISÃO

Apesar de podermos somar, subtrair ou multiplicar matrizes, não é possível dividir


matrizes. Podemos apenas fazer a multiplicação de uma matriz pela inversa de outra
(veremos mais adiante como se obtém a matriz inversa), o que é representado pela
seguinte sentença: A . B-1 = E. Note que, no fundo, trata-se de uma multiplicação, de
modo que o pré-requisito descrito anteriormente (número de colunas da primeira igual ao
de linhas da segunda) deve ser preservado.

e) TRANSPOSTA

Transpor uma matriz é o mesmo que trocar suas linhas pelas colunas e vice-versa.
Representa-se esta operação pelo símbolo “’” ou “t”. Assim, se Amxn = [aij], então A’= Tnxm
= [tij] = [aji]

i) INVERSA

A inversa de uma matriz, definida por A-1, pode ser definida como a matriz que satisfaz à
seguinte condição: A.A-1 = I = A-1.A. Deste modo, A terá inversa se e somente se for
quadrada e não singular (de posto completo, ou seja, det A ≠ 0). De modo mais prático,
Adj(A)
A-1 = .
det(A)

Adiante veremos a definição de matriz adjunta (Adj).

246
TIPOS ESPECIAIS DE MATRIZES

! MATRIZ QUADRADA: é aquela cujo número de linhas é idêntico ao número de


colunas

! MATRIZ NULA: é aquela onde aij = 0, para qualquer i ou j. Não é necessário que
a matriz nula seja quadrada.

! MATRIZ IDENTIDADE: é uma matriz quadrado onde aii = 1 e aij = 0, quando i ≠ j,


ou seja, apenas a diagonal principal tem valores não nulos e estes valores são
iguais à unidade.

! MATRIZ DIAGONAL: similar à matriz identidade, com aij = 0, mas aii ≠ 0, ou seja,
apenas a diagonal principal tem valores não nulos e estes não precisam ser
iguais a 1.

! MATRIZ SIMÉTRICA: é uma matriz quadrada onde os elementos simetricamente


dispostos em relação à diagonal principal são iguais, ou seja, aij = aji.

! MATRIZ-COLUNA: é aquela que possui apenas uma coluna, também chamada


de vetor-coluna.

! MATRIZ-LINHA: é aquela que possui apenas uma linha, correspondendo à


transposta de uma matriz-coluna. Também é chamada de vetor-linha.

! MATRIZ IDEMPOTENTE: é uma matriz quadrada que ao ser multiplicada por ela
mesma, gera ela própria, ou seja,
Amxm . Amxm = A2 = A3 = An = A ⇔ A é idempotente

! MATRIZ COFATORA: representada por Cof(A) = [cij], onde cij = (-1)i+j.|Mij|. |Mij|
representa o determinante (veja cálculo de determinante adiante) da matriz
menor e cij é chamado cofator de ordem ij. A matriz menor Mij é obtida
eliminando-se, da matriz principal, a linha i e a coluna j.

! MATRIZ ADJUNTA: representada por Adj (A), corresponde à transposta da Cof


(A)

PROPRIEDADES DE MATRIZES

! Em geral, AB ≠ BA;

! (AB)’ = B’ A’;

247
! (ABC)’ = C’ B’ A’;

! (A + B) + C = A + (B + C);

! A (BC) = (AB) C;

! I.A = A.I;

! A.B = (A.I).B = A.I.B = A.B;

! Ik = I, onde k é um número real;

! A + 0 = A;

! A * 0 = 0 * A = 0;

! Se A-1 é inversa de A, ela é única;

! A.A-1 = I

! (A-1)-1 = A;

! (A.B)-1 = B-1.A-1;

! (A’)-1 = (A-1)’;

! Mesmo quando A.B = 0, podemos ter situações onde A ≠ 0 e B ≠ 0;

! A = A’ ⇔ A é simétrica.

Observação: uma matriz será igual a outra se e somente se ambas possuírem a mesma
dimensão e os mesmos elementos dispostos na mesma ordem, ou seja, Amxn = [aij] = Bmxn
= [bij] ⇔ aij = bij ∀i, ∀j.

248
DETERMINANTES
O determinante, representado por duas barras verticais simétricas (como no módulo),
corresponde à associação de um número a uma determinada matriz. Este número é
particularmente importante porque define se a matriz tem posto completo, ou seja, se é
não singular e, portanto, admite a existência de inversa. A existência de uma matriz
inversa é de extrema importância para a resolução de sistemas, conforme visto na
apostila.

O determinante da matriz A é representado por det (A) ou |A|. Destaca-se que só é


possível calcular o determinante de matrizes quadradas.

! Matrizes de ordem 2: para se achar o determinante, basta fazer o “produto da


diagonal principal menos o produto da diagonal secundária”;

! Matrizes de ordem superior a 2: seguindo a metodologia de Laplace, “o


determinante de uma matriz é a soma dos produtos dos elementos de uma linha
(ou coluna) qualquer pelos seus respectivos cofatores.” (Vide matriz cofatora,
apresentada anteriormente) Seja Anxn = [aij],

n n
|A| = ∑ aij cij = ∑ aij . (-1)i+j . |Mij| (expansão pela i-ésima linha)
j =1 j =1

PROPRIEDADES DOS DETERMINANTES


! Se A tiver uma linha (ou coluna) nula, então det (A) = 0;

! Det (A) = det (A’);

! Det (In) = 1;

! Determinante de matriz diagonal = produto da diagonal

! O determinante de uma matriz com duas (ou mais) linhas (ou colunas)
linearmente dependentes (vide dependência linear) é nulo;

! Se multiplicarmos uma linha (ou coluna) de uma matriz por K (constante), o


determinante desta matriz fica multiplicado por k;

! Se det (A) = K1, det (K2.A) = K1n, sendo K1 e K2 constantes e n a ordem da


matriz;

! Em geral, det (A + B) ≠ det (A) + det (B)

249
! det (A.B) = det (A) . det (B);

! se det (A) ≠ 0, A tem inversa e é chamada não-singular;

! det (A-1) = 1 / det (A)

DIFERENCIAÇÃO DE MATRIZES
É mais fácil compreender a diferenciação de matrizes através do seu desenvolvimento
algébrico:

Vejamos primeiramente o caso correspondente à derivada de um polinômio do primeiro


grau:

Admitindo A = eB=
a1 b1
a2 b2
... ...
an bn

Conforme visto anteriormente em multiplicação de matrizes,

M = A’B = a1b1 + a2b2 + ... + anbn.

Podemos definir a derivada de uma matriz M por outra matriz B como uma terceira
matriz particionada formada pelas derivadas parciais de M em relação a cada um dos
elementos da matriz B, ou seja,

∂ (A' B) ∂ (A' B)
= =A
∂B ∂ b1
∂ (A' B)
∂ b2
...
∂ (A' B)
∂ bn
Vejamos agora o caso relativo a um polinômio do segundo grau:
Admitindo uma matriz C simétrica, onde A = C.B,
B’.C.B = c11b12 + 2c12b1b2 + 2c13b1b3 + ... + 2c1nb1bn +
+ c22b22 + 2c23b2b3 + ... + 2c2nb2bn +
+ ... + cnnbn2

250
Do mesmo modo, a derivada de uma matriz M (neste caso, M = A’.B = B’.C.B) por outra
matriz B resulta numa terceira matriz particionada formada pelas derivadas parciais de M
em relação a cada um dos elementos da matriz B, ou seja,

∂ (B' CB)
= 2 . (c11b1 + c12b2 + ... + c1nbn)
∂ b1
∂ (B' CB)
= 2 . (c21b1 + c22b2 + ... + c2nbn)
∂ b2
∂ (B' CB)
Portanto, = 2.C.B = 2.A (lembre-se que C’ = C porque C é simétrica)
∂B

DEPENDÊNCIA E INDEPENDÊNCIA LINEAR


Para definirmos o conceito de dependência e independência linear, devemos partir de
dois vetores não-nulos v1 e v2. A partir deles é possível montar um conjunto com todas as
suas combinações lineares possíveis: L[v1,v2] = { 1v1 + 2v2; 1, 2 ∈ ℜ}.

Se este conjunto L gerar uma reta, então podemos concluir que v1 é múltiplo de v2 e
vice-versa, sendo chamados de vetores linearmente dependentes (LD). Caso o conjunto
L dê origem a um plano bi-dimensional, então estes vetores são linearmente
independentes (LI).

Esta situação pode ser facilmente estendida a outras dimensões, de modo que, um
conjunto de 3 vetores, para ser linearmente independente, deve gerar um plano
tridimensional.

Caso estejamos diante de vetores LI, podemos também chamá-los de base de um plano
de mesma dimensão do número de vetores. Os vetores que mais comumente
encontramos como base de um plano, são os que formam a chamada base canônica, ou
seja, apenas um elemento do vetor é não nulo e unitário. Deste modo, a base canônica
para o ℜ2 é formada pelos vetores (1,0) e (0,1); e, para o ℜ3, pelos vetores (1,0,0), (0,1,0)
e (0,0,1). Facilmente podemos identificar que estes vetores são linearmente
independentes, pois nenhum deles pode ser escrito como uma combinação linear dos
demais. Estas bases são especiais porque seus vetores geram as retas que representam
os eixos cartesianos comumente utilizados.

De modo mais formal, vejamos a seguinte definição: os vetores v1, v2, ... , vn do ℜn são
linearmente dependentes se, e somente se, existem escalares c1, c2, ... , ck , pelo menos

251
um não nulo, tais que: c1v1 + c2v2 + ... + cnvn = 0. Os vetores v1, v2, ... , vn do ℜn são
linearmente independentes se, e somente se, c1v1 + c2v2 + ... + cnvn = 0 para escalares c1,
c2, ... , ck implica que c1 = c2 = ... = cn = 0.

Note que, em ℜ2, apenas 2 vetores podem ser LI. Se estamos trabalhando com 3
vetores ou mais, só é possível encontrar independência linear em cada par de vetores, de
modo que o 3º será sempre combinação linear dos demais. Se estamos trabalhando em
ℜ3, então apenas 3 vetores poderão ser LI e assim por diante.

Este conceito pode ser rapidamente levado para o estudo de matrizes. Se pensarmos
num vetor como uma matriz (veja matriz coluna na sub-seção tipos especiais de matrizes
neste mesmo apêndice), então podemos estender o conceito de independência linear
para posto de uma matriz. Cada coluna de uma matriz pode ser vista como a
representação de um vetor específico. Logo, uma matriz pode ser entendida como um
conjunto de vetores apresentados lado a lado.

Neste ponto podemos definir posto de uma matriz. Seu posto é definido como o seu
número de linhas (e/ou colunas) linearmente independentes. Desta forma, não é
necessário que uma matriz seja quadrada para encontrarmos o seu posto, mas o ponto
será, no máximo, equivalente ao mínimo entre o número de linhas e o número de colunas
da matriz. Assim, uma matriz quadrada e com vetores linearmente independentes
sempre terá posto igual ao seu número de linhas e/ou colunas.

Para que se possa dizer que a matriz tem posto completo, é preciso que não haja
nenhuma linha e/ou coluna LD. Somente as matrizes de posto completo (e, portanto,
quadradas) possuem determinante não nulo.

RESOLUÇÃO DE SISTEMAS
Um sistema de equações lineares sempre pode ser representado segundo uma forma
matricial. Imaginemos um sistema com três equações e três incógnitas:

2x1 + 3x2 + x3 = 11
x1 – x2 + x3 = 2
–3x1 + 2x2 – 3x3 = –8

Lembrando do procedimento de operação de matrizes descrito anteriormente, podemos


transformar as equações acima numa simples multiplicação:

252
2 3 1 x1 11
1 -1 1 x2 = 2
-3 2 -3 x3 -8
MATRIZ DOS MATRIZ DE
COEFICIENTES CONSTANTES

Sabemos que, para que um sistema tenha uma única solução, as equações devem ser
linearmente independentes e devemos trabalhar com o mesmo número de incógnitas e de
equações. Ora, isto equivale a dizer que a matriz de coeficientes é quadrada e tem posto
completo, ou seja, tem determinante não nulo. Caso a matriz não seja de posto completo,
seria equivalente a trabalhar com mais incógnitas do que equações, o que representa um
sistema com infinitas soluções.

Se chamarmos a matriz de coeficientes de A, a matriz das incógnitas de X e a matriz de


constantes de d, podemos reescrever o sistema da seguinte forma:

A.X = d

Multiplicando-se ambos os lados por A-1, mantemos a igualdade:

A-1.A.X = I.X = X = A-1.d

Portanto, para chegar aos valores de X, basta identificarmos as matrizes A e d e


fazermos a multiplicação A-1.d. Neste ponto podemos perceber porque é imprescindível
que o determinante de A seja não nulo, pois, desta forma, a inversa de A existe e o
sistema possui uma única solução.

REGRA DE CRAMER

Mas a resolução de sistemas pode ficar ainda mais fácil se utilizarmos as propriedades
da expansão de Laplace.

Adj(A) det(Ai)
X = A-1.d = . d ⇒ xi = ,
det(A) det(A)

onde Ai é a matriz que se obtém substituindo a coluna i da matriz A pela matriz d.

Note que, no caso onde d for uma matriz nula, então se det (A) ≠ 0, o sistema só
admitirá a solução trivial, ou seja, todos os valores são nulos. No caso onde det(A) = 0,

253
0
então teremos xi = , um número indeterminado, o que implica num sistema com infinitas
0
soluções, onde não é possível encontrar valores utilizando a regra de Cramer.

AUTO-VETORES E AUTO-VALORES

Vamos primeiro relembrar o conceito de auto-vetores e auto-valores.

Definição: Seja T:V → V um operador linear. Se existirem v ∈ V, v ≠ 0 e λ ∈ ℜ tais que


Tv = λv, λ é um aitovalor de T e v um autovetor de T associado a λ.

Observe que λ pode ser o número zero, mas v não pode ser o vetor nulo.

Agora, vamos estender este conceito à álgebra matricial que nos interessa.

Dada uma matriz quadrada e de posto completo Anxn, autovalor e autovetor de A


correspondem à transformação linear TA: ℜn → ℜn, associada à matriz A em relação à
base canônica, isto é, TA(v) = A.v (na forma coluna). Assim, um autovalor λ ∈ ℜ de A e
um autovetor v ∈ ℜn, são soluções da equação A . v = v, v ≠ 0.

Mas usar estas definições para calcular autovetores e autovalores pode ser muito
complicado. Vejamos, agora, um método mais prático para seu cálculo.

Dada uma matriz quadrada Anxn, procuramos um escalar λ que atenda à seguinte
equação: Av = λv. Pelas propriedade de matrizes que já conhecemos, podemos aplicar a
matriz identidade (com a mesma ordem de A, ou seja, n) sem alterar o problema:

Av = λIv

Fazendo uma operação algébrica, teremos:

Av – (λI)v = 0

ou (A –λI)v = 0

Pelas regras de resolução de sistemas vistas no item anterior, fica fácil perceber que, no
caso do determinante de (A – λI) ser não nulo, ou seja, esta ser uma matriz de posto
completo, então o sistema acima admite apenas uma solução: a solução trivial (todos os
valores iguais a zero). No entanto, é exatamente isto que não queremos, pois isto implica
em achar v = 0, ou seja, o vetor nulo. Desta forma, estamos interessados em encontrar
os valores de λ que tornam o determinante de (A – λI) nulo.

254
A expansão da igualdade det(A – λI) = 0 pela metodologia de Laplace (veja
determinantes) gera um polinômio com a ordem da matriz A (no caso, n) em λ, o que é
denominado polinômio característico de A. Suas raízes representam os autovalores de A
(que podem raízes múltiplas). Substituindo os diferentes autovalores de A, é possível
encontrar seus autovetores pelo método de substituição na equação Av = λv.

É possível que matrizes distintas apresentem os mesmos polinômios característicos e,


portanto, os mesmos autovalores. No entanto, os seus autovetores sempre serão
diferentes. Também é possível encontrarmos raízes complexas, indicando que o espaço
em estudo é um espaço vetorial complexo. Isto implica apenas na perda da
representação geométrica do problema, mas não invalida os conceitos apresentados.

Os autovalores de uma matriz são fundamentais para se determinar se ela é definida


(ou semi-definida) positiva ou negativa, sendo importantes na aplicação da metodologia
para determinação de pontos críticos. Quando todos os autovalores são negativos, a
matriz é negativa definida (no caso de haver algum valor nulo e os autovalores serem,
portanto, não positivos, a matriz é semi-definida negativa). Caso contrário, ou seja,
autovalores positivas, a matriz é definida positiva (semi-definida positiva em caso de
valores positivos e nulos). Caso haja alternância de valores positivos e negativos, não há
como definição. Este conceito é particularmente importante quando precisamos verificar
as condições de 2ª ordem para determinar se um certo ponto corresponde a máximo ou
mínimo de uma função.

255

Potrebbero piacerti anche