Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
ESTATÍSTICA MULTIVARIADA 2
CAPÍTULO # 1
ANÁLISE DE COMPONENTES
PRINCIPAIS
2º SEMESTRE DE 2013
Capítulo 1 – Análise de Componentes Principais
1.1. INTRODUÇÃO:
O processo seletivo da UFSCar é composto por nove provas: Língua Portuguesa, Língua
Inglesa e Redação, Química, Matemática e História, Biologia, Física e Geografia. Cada uma destas
provas, exceto a de Redação, era constituída de uma parte de Questões Objetivas e de uma parte
de Questões Discursivas. Cada questão da parte objetiva valia um ponto e cada questão discursiva
valia até dois pontos, com a seguinte forma de correção: em branco ou totalmente errada: 0
ponto; 25% de acerto: 0.5 ponto; 50% de acerto 1.0 ponto; 75% de acerto: 1.5 pontos;
totalmente correta: 2 pontos. O número de pontos possíveis em cada parte, de cada uma das
provas, e o número total de pontos possíveis, são apresentados na tabela abaixo:
Tabela 1.1 – Provas do Processo Seletivo - UFSCar
Número de Pontos
Prova Parte Parte Total
Objetiva Discursiva
Língua Portuguesa 10 16 26
Língua Inglesa 6 8 14
Redação 30
Química 10 10 20
Matemática 10 10 20
História 10 10 20
Biologia 10 10 20
Física 10 10 20
Geografia 10 10 20
Total Geral 190
Para efeito de classificação dos candidatos, as provas são ponderadas de acordo com a
carreira de opção do candidato. Sem a ponderação, para todos os cursos o total de pontos
possíveis é de 190, conforme a tabela acima, enquanto que com a ponderação o total, por curso,
poderia estar entre 236 e 270.
A Comissão do Vestibular da UFSCar (Covest) desejava verificar como é o aproveitamento
conjunto nas provas do processo seletivo. Nesse sentido três questões são apresentadas:
Seja A uma matriz simétrica positiva definida de ordem k. A matriz A pode ser reescrita a
partir dos seus autovalores e autovetores, da seguinte forma:
A=PΛP
A = Σ λi ei ei’
com
ei’ei = 1 e ei’ej = 0;
Exemplo:
25 − 2 4
A = − 2 4 1
4 1 9
Usando SAS-IML
proc iml;
A = {25 -2 4,
-2 4 1,
4 1 9};
l = eigval(A); /* calcula autovalores */
lambda = diag(l);
print 'Autovalores de A';
print Lambda;
P = eigvec(A); /* calcula autovetores */
Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho 3
Capítulo 1 – Análise de Componentes Principais
Resultados:
Autovalores de A
LAMBDA
26.078452 0 0
0 8.4957958 0
0 0 3.4257518
Autovetores de A
A A1
25 -2 4 25 -2 4
-2 4 1 -2 4 1
4 1 9 4 1 9
3. Lema da Maximização:
Seja B(px p) uma matriz positiva definida e d(p x 1) um dado vetor. Então para um vetor
arbitrário x(p x 1) (x ≠ 0),
max
( x' d )
2
= d ' B −1 d
x≠0 x' Bx
x' Bx
max = λ1 obtido quando x = e1
x≠0 x' x
x' Bx
min = λ p obtido quando x = e p
x≠0 x' x
e ainda mais;
x' Bx
max = λk +1 obtido quando x = e k +1, k = 1,2,..., p − 1
x ⊥e1 ...ek x' x
Considerando que V1, V2, ..., Vk são variáveis quantitativas, temos que uma importante
propriedade deve ser considerada. Usualmente, apenas operações, como por exemplo, a soma dos
valores das linhas da tabela pode ser realizada.
Uma tabela de dados pode ser representada geometricamente de duas diferentes formas:
no espaço das linhas (ou dos indivíduos) e no espaço das colunas (ou das variáveis). No espaço
das linhas, os eixos são dados pelas colunas (variáveis) e no das colunas, vice-versa. Dessa forma,
Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho 6
Capítulo 1 – Análise de Componentes Principais
d (i, j ) = ∑ mk (xik − x jk )
K
2 2
k =1
Se considerarmos todas as variáveis com mesmo grau de importância (mk=1 para todo k),
temos que:
2
d (i, j ) = ∑ xik − x jk
K
2
k =1
A representação no espaço dos indivíduos pode então ser vista na seguinte figura:
O gráfico nos permite uma primeira idéia sobre as distâncias entre duas quaisquer
unidades de observação bem como da variabilidade total dos dados. É importante, porém lembrar
que a representação esta numa dimensão três, o que, numa primeira visualização pode mascarar
determinadas distâncias. Por outro lado a distância entre indivíduos pode também nos levar a
visualizar a variabilidade total dos dados. Se considerarmos o “ponto central” dos valores
observados e as distâncias do mesmo para cada um dos dados observados, teremos uma medida
da variabilidade geral dos dados.
Problema:
Os indivíduos estão representados num espaço de dimensão K, porém uma adequada
visualização das distâncias entre dois pontos quaisquer é possível nos casos onde k = 2.
1 n xik − xk xip − x p
d (k ; p ) = r(k ; p ) = ∑
n i =1 sk s
p
1 n xim − xm xik − xk
cos(m; k ) = 〈 m, k 〉 = ∑
n i =1 sm sk
cos(m; k ) = r(m;k )
ou seja, o coseno do ângulo entre dois vetores (variáveis, nesse caso) coincide com o coeficiente
de correlação.
Conseqüentemente:
• Duas variáveis próximas terão um ângulo pequeno, correspondente a um coeficiente de
correlação alto entre ambas.
• Duas variáveis independentes terão um coeficiente de correlação nulo, formando um
ângulo reto (90o).
Problema:
Como identificar essas relações, do ponto de vista geométrico na situação usual onde o
número de observações é maior que 3 ?
Conclusão:
Verificamos acima que, tanto no espaço dos indivíduos como no das variáveis, a
representação geométrica é uma ferramenta para identificação de associação seja de indivíduos
seja de variáveis, porém a limitação da representação geométrica, em ambos os casos, não
permite uma maior análise do problema em estudo, segundo este procedimento. Portanto, uma
alternativa e buscar uma forma de representação de indivíduos e variáveis num espaço menor,
sem grandes perdas de informação e que possibilite uma análise e interpretação simples do
problema em estudo.
informação a ser utilizada. Resumindo, deve ser obtida a melhor representação plana dos dados
observados.
Nessa perspectiva o método dos componentes principais se propõe a definir um novo
espaço que seja função de todas as unidades e variáveis observadas que contenham o máximo
possível da variabilidade dos dados.
Consideremos uma situação simples onde são observadas três variáveis e um conjunto de
n observações. Nesse a busca de um espaço menor dimensão que possa bem representar os
dados se resume a encontrar uma reta ou um plano a duas dimensões que contenham o máximo
de informação possível do espaço completo a três dimensões.
Geometricamente, podemos representar este problema da seguinte forma:
Problema:
Geometricamente, estamos procurando dentre todas as possíveis direções aquelas duas
que possam conter a maior quantidade de informação dos dados na sua dimensão original. E, mais
ainda, que cada eixo a ser identificado, contenha diferentes informações a respeito dos dados, ou
ainda, que a informação de um eixo não seja também objeto de outro eixo (direção) já
encontrado.
A solução para este problema é dado pela obtenção de eixos na direção da maior
variabilidade dos dados e, que sucessivos eixos sejam ortogonais. Para a situação da figura 1.6. a
solução seria dada pela seguinte figura.
Para facilitar a apresentação dos dados, podemos “girar” o plano de forma a apresentá-lo
na forma tradicional.
Como mostrado na Figura 1.9, seja X1∗ um novo eixo no espaço bidimensional fazendo um
ângulo de θ graus com o eixo X1 . A projeção de cada ponto em X1∗ dará as coordenadas dessas
10
2 X1*
θ
0
X2
-2
-4
-6
-8
-10
-10 -8 -6 -4 -2 0 2 4 6 8 10
X1
Figura 1.9.
Gráfico dos dados corrigidos pela média
A coordenada das observações com respeito ao novo eixo X1∗ é uma combinação linear
das coordenadas (antigas) do ponto com respeito aos eixos originais. Isto é:
x 1∗ = x1 cos(θ) + x 2 sen(θ)
x 1∗ = 0,985 x 1 + 0,174 x 2
que pode ser usada para obter as novas coordenadas das observações com respeito ao novo eixo
X1∗ .
∗
Tabela 1.5. Dados corrigidos pela média e a nova variável ( x 1 ) para uma rotação de 10°
Observação x1 x2 x 1∗
1 8 5 8,747
2 4 7 5,155
3 5 3 5,445
4 3 –1 2,781
5 2 5 2,838
6 1 –4 0,290
7 0 1 0,174
8 –1 3 −0,464
9 –3 –6 −3,996
10 –5 –4 −5,619
11 –6 –6 −6,951
12 –8 –3 −8,399
Média 0 0 0
Variância 23,091 21,091 28,659
A partir das coordenadas dos pontos com respeito a esse novo eixo (Tabela 2) pode-se
perceber que:
i) a nova variável também está corrigida pela média (i.e. sua média é igual a zero);
ii) a variância de x 1∗ é 28,659 e explica 64,87% (= 28,659/44,182) da variância total dos dados.
Essa porcentagem é superior à porcentagem da variância explicada por qualquer uma das
variáveis originais.
Fazendo variar o ângulo entre X1 e X1∗ , vamos obter valores diferentes para as
∗
Tabela 1.6. Porcentagem explicada pelas novas variáveis x 1 para vários novos eixos
100
90
80
Porcentagem
70
60
50
40
0 10 20 30 40 50 60 70 80 90
Ângulo
Figura 1.10. Porcentagem total da variância explicada para novos eixos X1∗
Pela Tabela 1.6. e pela Figura 2.10, podemos ver que a porcentagem da variância
explicada aumenta até o ângulo θ = 43,261° e depois desse valor máximo, a porcentagem da
variância explicada por x 1∗ começa a diminuir. A equação correspondente a esse ângulo, a ser
x 1∗ = 0,728 x 1 + 0,685 x 2
Note que x 1∗ não explica toda a variabilidade dos dados. É possível identificar um segundo
eixo que corresponde a uma segunda nova variável que explique o máximo da variância que não
foi explicada por x 1∗ . Se o ângulo entre X1 e X1∗ é θ, o ângulo entre e X ∗2 também será θ e a
x ∗2 =− x1 sen(θ) + x 2 cos(θ)
e para θ = 43, 261° a equação anterior fica
x ∗2 = − 0,685 x 1 + 0,728 x 2
∗ ∗
Tabela 1.7. Dados corrigidos pela média e x 1 e x 2 para o novo eixo e θ = 43, 261°
Observação x1 x2 x 1∗ x ∗2
1 8 5 9,253 –1,841
2 4 7 7,710 2,356
3 5 3 5,697 –1,242
4 3 –1 1,499 –2,784
5 2 5 4,883 2,271
6 1 –4 –2,013 –3,598
7 0 1 0,685 0,728
8 –1 3 1,328 2,870
9 –3 –6 –6,297 –2,313
10 –5 –4 –6,382 0,514
11 –6 –6 –8,481 –0,257
12 –8 –3 –7,882 3,298
Média 0 0 0 0
Variância 23,091 21,091 38,576 5,606
variável, x 1∗ , é maior que a porcentagem explicada por qual-quer uma das variáveis originais.
A segunda nova variável explica a variância que não foi explicada pela primeira nova variável.
As duas novas variáveis explicam toda a variância dos dados.
vi) A correlação entre as duas novas variáveis é zero , isto é, x 1∗ e x ∗2 não são
correlacionadas .
10
8
X2* X1*
6
0
X2
-2
-4
-6
-8
-10
-10 -8 -6 -4 -2 0 2 4 6 8 10
X1
Figura 1.11.
Gráfico dos dados corrigidos pela média e novos eixos
OBS: Essa ilustração geométrica desenvolvida para os componentes principais pode ser
facilmente estendida para o caso de mais de duas variáveis (p > 2).
A técnica de análise de componentes principais pode ser vista como uma técnica para
reduzir a dimensão dos dados originais, já que um número pequeno de componentes principais
pode explicar uma grande porcentagem da variabilidade original dos dados.
Geometricamente, o objetivo principal da análise de componentes principais é identificar
um novo conjunto de eixos ortogonais tais que:
1. As coordenadas das observações com respeito a cada um dos eixos fornecem os valores das
novas variáveis. Os novos eixos ou novas variáveis são chamados componentes principais e os
valores das novas variáveis são chamados de escores dos componentes principais.
2. Cada nova variável é uma combinação linear das variáveis originais.
3. A primeira nova variável (primeiro componente principal) explica o máximo da variância dos
dados.
4. A segunda nova variável (segundo componente principal) explica o máximo da variância que
não foi explicada pela primeira nova variável ... e a p-ésima nova variável explica a variância
que não foi explicada pelas p − 1 primeiras novas va-riáveis.
5. As p novas variáveis não são correlacionadas.
• A matriz de dispersão V é simétrica, seus autovetores são ortogonais dois a dois. Sendo
vetores de norma 1, formam uma base ortonormal de RK.
Retornando aos dados apresentados nas figura 1.6 a 1.8., o processo de diagonalização
aplicado ao mesmo, pode ser visto na seguinte figura:
que tem X1 , X 2 , ..., X p como eixos das coordenadas. Os novos eixos representam as direções
com máxima variabilidade e fornecem uma descrição simples e parcimoniosa da estrutura de
covariâncias (e a correspondente interdependência entre as variáveis).
Seja o vetor aleatório X' = [ X1 , X 2 , ..., X p ] que tem matriz de covariâncias Σ com
autovalores λ1 ≥ λ2 ≥ ... ≥ λp ≥ 0. Considere as combinações lineares
Y1 = a 1t X = a 11 X1 + a 12 X 2 + ... + a 1p X p
Y2 = a 2t X = a 21 X1 + a 22 X 2 + ... + a 2 p X p
ξ ξ ξ (8.1)
Yp = a pt X = a p1 X1 + a p 2 X 2 + ... + a pp X p
Cov ( Yi , Yk ) = a it Σ a k , i ≠ k = 1, 2, ..., p
Observação:
Na notação anteriormente apresentada
Desse resultado, podemos calcular a proporção da variância total devida (ou explicada)
pelo i-ésimo componente principal através da fórmula
λi
i = 1, 2, ..., p (8.7)
λ1 + λ 2 + + λ p
Em situações ideais, 80-90% da variância total, para grandes valores de p, pode ser
explicada por 1, 2 ou 3 componentes principais e então, esses componentes podem substituir as p
variáveis originais sem a perda de muita informação.
Xk .
Teorema 1.3. Se Y1 t
= e1 X , Y2 = e 2t X , ..., Yp = e pt X são os
eik λi
ρX = , i, k = 1, 2, ..., p
σ kk
k ,Yi
lações sejam usadas para interpretar os componentes. Embora essas duas abordagens
possam levar a conclusões diferentes sobre a importância das variáveis, JOHNSON &
WICHERN (1999) afirmaram que elas não são apreciavelmente diferentes.
Na prática, variáveis com coeficientes relativamente grandes (em valor absoluto)
tendem a ter correlações relativamente grandes, de tal maneira que as duas medidas de
importância, a primeira multivariada e a segunda univariada, apresentem resultados
similares. A recomendação é que ambos (coeficientes dos autovetores e coeficientes de
correlação) sejam examinados para auxiliar na interpretação dos componentes principais.
1 − 2 0
Σ = − 2 5 0
0 0 2
proc iml;
A = {1 -2 0,
-2 5 0,
0 0 2};
v={0,0,0};
r ={0 0 0,
0 0 0,
0 0 0};
l = eigval(A); /* calcula autovalores */
print 'Autovalores de A';
st=sum(l[1:3]);
do i=1 to 3;
v[i]=l[i]/st;
end;
print l v;
e1 = eigvec(A); /* calcula autovetores */
e=t(e1);
do i=1 to 3; /* Calculo da correlação entre Y's e X's */
do k=1 to 3;
r[i,k]=(e[i,k]*sqrt(l[i]))/sqrt(a[k,k]);
end;
end;
r1=t(r);
print e r1;
quit;
RESULTADOS:
Autovetores de Σ
Autovalores de Σ % Var. Explicada
e1 e2 e3
5.8284271 0.7285534
-0.382683 0 0.9238795
2.0000000 0.2500000
0.9238795 0 0.3826834
0.1715729 0.0214466
0 1 0
Var (Y1) = Var (0.383 X1 −0.924 X2) = (.383)2 Var(X1) + (-924)2 Var(X2)– 2(.381)(-
Y1 Y2 Y3
X1 0.925 0 0.382
X2 −0.998 0 0.070
X3 0 1 0
data exemplo2;
input obs x1 x2;
cards;
1 8 5
2 4 7
3 5 3
4 3 -1
5 2 5
6 1 -4
7 0 1
8 -1 3
9 -3 -6
10 -5 -4
11 -6 -6
12 -8 -3
;
proc princomp cov out=dados2 outstat=dados3;
var x1 x2;
run;
proc print;
run;
proc corr data=dados2;
var x1 x2;
with prin1 prin2;
run;
proc transpose data=dados3 out=dados4;
run;
goptions reset=all gunit=pct border cback=white
ftitle=swissb htitle=6
htext=2.5;
symbol1 color=red value=dot height=3;
symbol2 color=blue value=dot height=3;
proc gplot data=dados4;
title1 'Grafico das Variaveis no 1o Plano Fatorial';
Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho 30
Capítulo 1 – Análise de Componentes Principais
RESULTADOS:
x1 x2 x1 x2
Eigenvectors
Prin1 Prin2
x1 0.728238 -.685324
x2 0.685324 0.728238
1 1 8 5 9.25253 -1.84140
2 2 4 7 7.71022 2.35637
3 3 5 3 5.69716 -1.24191
4 4 3 -1 1.49939 -2.78421
5 5 2 5 4.88310 2.27054
6 6 1 -4 -2.01306 -3.59828
7 7 0 1 0.68532 0.72824
8 8 -1 3 1.32773 2.87004
9 9 -3 -6 -6.29666 -2.31346
10 10 -5 -4 -6.38249 0.51367
11 11 -6 -6 -8.48137 -0.25748
12 12 -8 -3 -7.88188 3.29788
x1 x2
0.94126 0.92684
Prin1
<.0001 <.0001
-0.33768 0.37545
Prin2
0.2831 0.2291
Representação Correta:
Simple Statistics
Covariance Matrix
Eigenvectors
Programa SAS
Estatística Multivariada 2 – 2o Semestre de 2013 – Prof. Pedro Ferreira Filho 40
Capítulo 1 – Análise de Componentes Principais
X i − µi
Zi = , i = 1, 2, ..., p
σ ii
e na notação matricial
( ) (X − µ )
Z = V1 2
−1
(8.10)
Cov (Z ) = V1 2 ( ) Σ(V ) −1 1 2 −1
=ρ
Os componentes principais de Z podem ser obtidos dos autovetores da matriz de
correlações ρ. Todos os resultados prévios se aplicam a essa situação, com algumas
simplificações adicionais, já que a variância de cada Z i é a unidade. Entretanto, os pares
Yi = e it Z = e it V1 2 ( ) −1
(X − µ ) i = 1, 2, ..., p
Ainda
p p
∑ Var (Yi ) = ∑ Var ( Z i ) = p
i =1 i =1
ρ Yi ,Zk = e ik λ i i, k = 1, 2, ..., p
Questão:
Qual das matrizes deve ser utilizada? Existe situações onde que
uma específica matriz deve ser utilizada preferencialmente?
Resultados:
Covariance Matrix
Correlation Matrix
Eigenvectors - CORR
Os valores dos autovetores nos deixam claro a diferença das duas situações em
estudo. No caso da matriz de covariâncias temos que o primeiro componente responsável
por 91% da variabilidade total dos dados, tem como componente importante quase que
exclusivamente a variável peso, que como vimos é aquela que, quantitativamente em
valor absoluto, apresenta a maior variabilidade nos dados observados. O segundo
componente responsável por aproximadamente 8% da variabilidade total é explicado
quase que unicamente pela variável comprimento enquanto que o terceiro componente
apenas pela variável perímetro. Por outro lado ao observarmos os resultados a partir da
matriz de correlações, verificamos que o primeiro componente, que também explica uma
grande proporção da variabilidade dos dados (77%) tem a contribuição aproximadamente
a mesma das três variáveis em estudo. O segundo componente (17% da variabilidade)
tem uma contribuição positiva bem acentuada da variável comprimento, mas não se deve
desprezar a contribuição negativa da variável peso. O mesmo pode ser observado no
terceiro componente considerando as variáveis perímetro e peso. Essas observações
Conclusão:
O exemplo apresentado deixa bem claro a diferença existente no uso da matriz de
variâncias e covariâncias e matriz de correlações na obtenção dos componentes principais.
A presença de variáveis com diferentes unidades de medida produz medidas de
variabilidade em função dessas medidas o que acarreta forte impacto no calculo da
variabilidade total, conseqüentemente no calculo dos componentes principais, isto é,
variáveis com maior variabilidade tendem a “dominar” os primeiros componentes
enquanto que a contribuição das demais variáveis fica restrita a componentes com baixa
proporção da variabilidade total. Esse problema não existe nos caso da matriz de
correlações, pois como vimos anteriormente o uso da matriz de correlações significa
utilizar variáveis reduzidas e padronizadas, consequentemente sem efeito da escala de
medida das mesmas.
Portanto, a recomendação encontrada na maior arte da literatura é de que a matriz
de covariâncias somente deva ser utilizada onde as variáveis no estudo tenham a mesma
escala de medida e que as variâncias das mesmas sejam também muito próximas.
ESTRUTURAS ESPECIAIS:
Suponhamos que Σ = diag (σ 11,σ 22,σ 33, ..., σ pp , ) é uma matriz diagonal. Tomando e i'
= [ 0, ..,0, 1, 0,..., 0], com o 1 na i-ésima posição, observamos que Σe i' = σ ii e i' e
Yi = ei' X = X i , que corresponde à variável original X i . Neste caso, não ganhamos nada
extraindo os componentes principais porque as variáveis originais já são não
correlacionadas e então, não há sentido na obtenção de componentes principais, ou seja,
as variáveis devem ser estudadas de forma independente.
Exemplo:
proc iml;
reset print;
SIGMA={7.5 0 0,
0 6 0,
0 0 5};
AUTOVALOR=eigval(SIGMA);
AUTOVETOR=eigvec(SIGMA);
quit;
7.5 0 0
0 6 0
0 0 5
7.5
1 0 0
0 1 0
0 0 1
σ2 ρσ 2 ... ρσ 2 1 ρ ... ρ
2
ρσ σ 2 ... ρσ 2 2 ρ 1 ... ρ
Σ= =σ
... ... ... ... ... ... ... ...
2
ρσ ρσ 2 ... σ 2 ρ ρ ... 1
1 ρ ... ρ
ρ 1 ... ρ
ρ=
... ... ... ...
ρ ρ ... 1
λ1 = 1 + ( p − 1) ρ
1 1 1
e1' = , ,...,
p p p
λ2 = λ3 = ... = λ p = 1 − ρ
com autovalores dados por (um dos possíveis valores)
1 −1
e2' = , ,0,0,...,0
1* 2 1* 2
1 1 −2
e3' = , , ,0,0,...,0
2*3 2*3 2*3
...
1 1 − (i − 1)
ei' = ,.., , ,0,0,...,0
(i − 1)i (i − 1)i (i − 1)i
...
1 1 − ( p − 1)
e 'p = ,.., ,
p (i − 1) p ( p − 1)p ( p − 1)p
(x − µ ) t Σ −1 (x − µ ) = c 2
de Σ .
Tomando µ = 0, podemos escrever que
( )
p 1 t
c 2 = x t Σ −1x = ∑
2
ei x
i =1 λ i
a equação define um elipsóide ( λ1 > λ 2 > ... > λ p > 0) no sistema de coordenadas
X 2 , ..., X p . Também,
ê ik λˆ i
amostral: rŷ , x = i , k = 1, 2, ..., p
i k
s kk
ŷ i = ê it (x − x) , i = 1, 2, ..., p
ŷ ji = ê it (x j − x) , i = 1, 2, ..., p
continua igual a λ̂ i .
autovalor versus seu número). Neste caso, o número de componentes é tomado como
o ponto onde os autovalores restantes são relativamente pequenos e têm tamanhos
aproximadamente iguais.
5
Autovalor
0
1 2 3 4 5
Ordem
O "cotovelo" que ocorre na Figura 8.2 por volta de i = 3, indica que os autovalores
Resumindo:
x j por ŷ jq ê q + ... + ŷ jp ê p , cujos quadrados dos seus comprimentos são ŷ 2jq , ..., ŷ 2jp .
Observações suspeitas serão aquelas que, no mínimo, em uma das coordenadas, ŷ jq , ... ,
3
8
4
2
12 14
1
5 1
2 7 13 6
CP-2
0
3
-1 11
10
-2
9
-3
-6 -4 -2 0 2 4 6
CP-1
Figura 1.16. Dispersão dos indivíduos em relação aos dois primeiros componentes principais.
𝑝𝑝2 − 𝑝𝑝 2𝑝𝑝 + 5
𝜒𝜒 2 � � = − �(𝑛𝑛 − 1) − � ln|𝑅𝑅|
2 6
Sendo que:
ln|𝑅𝑅| = log 𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛 𝑑𝑑𝑑𝑑 𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑𝑑 𝑑𝑑𝑑𝑑 𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚 𝑑𝑑𝑑𝑑 𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐𝑐çã𝑜𝑜
𝑝𝑝 2 −𝑝𝑝
� 2
� = 𝑛𝑛ú𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚 𝑑𝑑𝑑𝑑 𝑔𝑔𝑔𝑔𝑔𝑔𝑔𝑔𝑔𝑔 𝑑𝑑𝑑𝑑 𝑙𝑙𝑙𝑙𝑙𝑙𝑙𝑙𝑙𝑙𝑙𝑙𝑙𝑙𝑙𝑙𝑙𝑙 𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎 𝑎𝑎𝑎𝑎 𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡 𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒í𝑠𝑠𝑠𝑠𝑖𝑖𝑖𝑖𝑖𝑖 𝑑𝑑𝑑𝑑 𝑞𝑞𝑞𝑞𝑞𝑞 − 𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞𝑞
|𝑅𝑅| = � 𝜆𝜆𝑗𝑗
𝑖𝑖=1
Exemplo:
Consideremos: p=6, n=86 |R| = 0.701
Assim,
2
𝑝𝑝2 − 𝑝𝑝 2𝑝𝑝 + 5 2
62 − 6 2∗6+5
𝜒𝜒 � � = − �(𝑛𝑛 − 1) − � ln|𝑅𝑅| = 𝜒𝜒 � � = − �(86 − 1) − � ln|0.701|
2 6 2 6
𝜒𝜒 2 [15] = −[(85) − 10](−0355)
𝜒𝜒 2 [15] = 29.2
Agora:
𝜒𝜒 2 15 0.05 = 25 < 29.2
Logo rejeitamos a hipótese de que é aproximadamente uma I6 e portanto justifica-
se o uso da ACP neste caso.
Cuidado: O teste de Bartlett é um teste assintótico e sensível ao tamanho de amostra,
logo é incomum encontrar em problemas práticos situações onde a esferecidade não é
rejeitada.
1.17. EXEMPLOS
Problema :
Verificar se o Índice de Desenvolvimento Humano (IDH) é um índice econômico
apropriado para descrever a situação socioeconômica dos países sul-americanos.
Unidades de Observação:
Paises Sul-americanos:
Argentina
Bolivia
Brasil
Chile
Colombia
Equador
Paraguai
Peru
Uruguai
Vemezuela
Variáveis Observadas:
• V3: Produto Interno Bruto (PIB), per capta (em US$) (1990)
Resultados:
Estatísticas Descritivas
Simple Statistics
V2 10 6.22000 1.61713 62.20000 3.90000 8.70000 Tempo médio de escolaridade (em anos) (1990)
V3 10 9049 16246 90492 1572 55099 Produto Interno Bruto (PIB), per capta (em US$) (1990)
V4 10 2.82000 0.98635 28.20000 1.00000 4.10000 = Gasto público em educação (em % do PIB) (1990)
V7 10 28.10000 15.77234 281.00000 9.00000 52.00000 População rural (em % da população total) (1991)
V8 10 997.00000 389.53106 9970 370.00000 1530 Quantidade de habitantes por médico (período de 1984-1989)
V9 10 73.80000 44.74818 738.00000 27.00000 163.00000 Quantidade de telefones, por 1000 hab. (período de 194-1989)
V11 10 64.60000 28.85288 646.00000 25.00000 121.00000 Total da Divida Externa (em % do Produto Nacional Bruto) (1990)
V13 10 50.70000 12.05589 507.00000 31.00000 68.00000 Empregados no setor de serviços (em % da população ativa)
Simple Statistics
(1989-1991)
V1
Esperança de - - - - -
1.00000 0.73620 0.38531 0.05391 0.95155 0.65570 0.00348 0.61591 0.96797
vida no 0.94271 0.70252 0.59766 0.79837 0.36916
nascimento 0.0152 0.2715 0.8824 <.0001 0.0395 0.9924 0.0580 <.0001
(1990)
<.0001 0.0235 0.0680 0.0056 0.2938
V2
Tempo médio - - - - - -
0.73620 1.00000 0.31803 0.79845 0.56649 0.28791 0.70533 0.72388
de escolaridade 0.08457 0.72370 0.67705 0.65518 0.68742 0.07792
(em anos) 0.0152 0.3705 0.0056 0.0878 0.4199 0.0227 0.0179
(1990)
0.8163 0.0180 0.0315 0.0398 0.0281 0.8306
V3
Produto Interno - - - -
0.38531 0.31803 1.00000 0.07340 0.36237 0.14940 0.03106 0.07640 0.10033 0.41657
Bruto (PIB), per 0.50796 0.38675 0.35311 0.04057
capta (em US$) 0.2715 0.3705 0.8403 0.3035 0.6804 0.9321 0.8338 0.7827 0.2311
(1990)
0.1339 0.2696 0.3169 0.9114
V4
= Gasto público - - - - - - -
0.05391 0.07340 1.00000 0.02191 0.29010 0.50513 0.21660
em educação 0.08457 0.13865 0.49867 0.19532 0.40358 0.09105 0.03689
(em % do PIB) 0.8824 0.8403 0.9521 0.4162 0.1364 0.5478
(1990)
0.8163 0.7025 0.1423 0.5887 0.2475 0.8025 0.9194
V5
Taxa de
mortalidade em - - - - - - - -
0.02191 1.00000 0.69346 0.48678 0.76766 0.29246
menores de 15 0.94271 0.72370 0.50796 0.94777 0.68594 0.19506 0.56165 0.93980
anos (a cada 0.9521 0.0262 0.1536 0.0095 0.4122
100 nascidos
<.0001 0.0180 0.1339 <.0001 0.0285 0.5892 0.0911 <.0001
vivos) (1991)
V6
Taxa de
alfabetização de
mulheres - - - - - -
0.95155 0.79845 0.36237 1.00000 0.66376 0.09785 0.51314 0.90407
(em % da 0.13865 0.94777 0.65449 0.63382 0.68768 0.26142
população <.0001 0.0056 0.3035 0.0364 0.7880 0.1293 0.0003
feminina com
0.7025 <.0001 0.0400 0.0491 0.0280 0.4656
idade superior a
15 anos) (1990)
V7
População rural - - - - - - - - -
0.69346 1.00000 0.68276 0.84970 0.29260
(em % da 0.70252 0.67705 0.38675 0.49867 0.65449 0.77090 0.10590 0.71739 0.83403
população total) 0.0262 0.0296 0.0019 0.4120
(1991)
0.0235 0.0315 0.2696 0.1423 0.0400 0.0090 0.7709 0.0195 0.0027
Quantidade de 0.59766 0.65518 0.6804 0.19532 0.1536 0.63382 0.0296 0.72162 0.0656 0.9808 0.23947 0.56829 0.63244
habitantes por
médico (período 0.0680 0.0398 0.5887 0.0491 0.0185 0.5052 0.0865 0.0497
de 1984-1989)
V9
Quantidade de - - - - -
telefones, por 0.65570 0.56649 0.03106 0.29010 0.66376 1.00000 0.43727 0.70632 0.77470
1000 hab. 0.68594 0.77090 0.72162 0.83264 0.43492
0.0395 0.0878 0.9321 0.4162 0.0364 0.2063 0.0224 0.0085
(período de 0.0285 0.0090 0.0185 0.0028 0.2091
194-1989)
V10 - - - - - - - - -
Taxa de 0.76766 0.84970 0.60197 1.00000 0.43966
Nascimentos 0.79837 0.68742 0.35311 0.40358 0.68768 0.83264 0.28207 0.85323 0.90092
0.0095 0.0019 0.0656 0.2036
(1991) 0.0056 0.0281 0.3169 0.2475 0.0280 0.0028 0.4298 0.0017 0.0004
V11
Total da Divida - - - - - - -
Externa (em % 0.07640 0.29246 0.29260 0.00878 0.43966 1.00000 0.32664
do Produto 0.36916 0.07792 0.09105 0.26142 0.43492 0.27477 0.40366
0.8338 0.4122 0.4120 0.9808 0.2036 0.3570
Nacional Bruto) 0.2938 0.8306 0.8025 0.4656 0.2091 0.4423 0.2474
(1990)
V12
Importância da
Divida Externa - - - - - -
0.00348 0.28791 0.09785 0.43727 0.32664 1.00000 0.38256 0.09732
(em % de 0.04057 0.03689 0.19506 0.10590 0.23947 0.28207
exportações de 0.9924 0.4199 0.7880 0.2063 0.3570 0.2752 0.7891
bens e serviços)
0.9114 0.9194 0.5892 0.7709 0.5052 0.4298
(1990)
V13
Empregados no
setor de - - - - -
0.61591 0.70533 0.10033 0.50513 0.51314 0.70632 0.38256 1.00000 0.69942
serviços (em % 0.56165 0.71739 0.56829 0.85323 0.27477
da população 0.0580 0.0227 0.7827 0.1364 0.1293 0.0224 0.2752 0.0244
ativa) (1989-
0.0911 0.0195 0.0865 0.0017 0.4423
1991)
X14 - - - - -
Índice de 0.96797 0.72388 0.41657 0.21660 0.90407 0.77470 0.09732 0.69942 1.00000
Desenvolviment 0.93980 0.83403 0.63244 0.90092 0.40366
<.0001 0.0179 0.2311 0.5478 0.0003 0.0085 0.7891 0.0244
o Humano <.0001 0.0027 0.0497 0.0004 0.2474
Eigenvectors
0.34087 - - - -
V1 Esperança de vida no nascimento (1990)
0 .243614 .095139 .075475 .093795
0.31291 - 0.23919 - -
V2 Tempo médio de escolaridade (em anos) (1990)
2 .152976 5 .000885 .134807
Produto Interno Bruto (PIB), per capta (em US$) 0.12777 - - 0.68203 0.14071
V3
(1990) 6 .390621 .129523 9 5
- - 0.14158 - 0.19500
V7 População rural (em % da população total) (1991)
.333845 .131846 1 .178006 5
Quantidade de telefones, por 1000 hab. (período de 0.32463 0.22317 0.03882 - 0.20877
V9
194-1989) 5 2 8 .198056 2
V1 - - 0.10921 - -
Taxa de Nascimentos (1991)
0 .353503 .123601 4 .083512 .187352
V1 Importância da Divida Externa (em % de exportações 0.09968 0.24126 0.62219 0.11004 0.54168
2 de bens e serviços) (1990) 3 5 4 2 3
V1 Empregados no setor de serviços (em % da população 0.30804 0.30631 0.01672 0.07685 0.11602
3 ativa) (1989-1991) 3 8 3 3 4
0.90217 0.82817 0.33818 0.25088 -0.88735 0.87216 -0.88358 -0.72959 0.85920 -0.93560 -0.34471 0.26383 0.81529 0.96110
Prin1
0.0004 0.0031 0.3392 0.4845 0.0006 0.0010 0.0007 0.0166 0.0014 <.0001 0.3293 0.4614 0.0040 <.0001
-0.31747 -0.19935 -0.50904 0.72081 0.37865 -0.41981 -0.17182 -0.24700 0.29083 -0.16107 -0.01150 0.31440 0.39918 -0.15226
Prin2
0.3714 0.5808 0.1329 0.0187 0.2806 0.2271 0.6351 0.4915 0.4149 0.6567 0.9748 0.3763 0.2531 0.6746
-0.11665 0.29328 -0.15881 -0.41077 -0.00945 0.07595 0.17359 -0.28226 0.04761 0.13391 0.70108 0.76288 0.02050 -0.14810
Prin3
0.7483 0.4108 0.6612 0.2383 0.9793 0.8348 0.6315 0.4294 0.8961 0.7123 0.0239 0.0103 0.9552 0.6830
Pobreza
conjuntural
Pobreza
estrutural
Investimento público
Em Educação
V1 V2 V5 V6
Ficaremos restritos aos dados dos alunos ingressos na UFSCar em 2006. Dessa forma
os objetivos a serem investigados ficarão restritos a:
Alguns resultados:
Medidas Descritivas:
Graficamente:
Histogramas:
F F F
r r r
e e e
q q q
u u u
e e e
n n n
c c c
Redação Matematica Fisica
F F F
r r r
e e e
q q q
u u u
e e e
n n n
c c c
Lingua Portugues Quimica Biologia
F F F
r r r
e e e
q q q
u u u
e e e
n n n
c c c
Lingua Inglesa História Geografia
Para uma análise conjunta das variáveis observadas, objetivo, é possível inicialmente
construir uma matriz de gráficos, onde todos os possíveis gráficos de dispersão das
variáveis, duas a duas, são apresentados. Desta forma, através desta matriz é possível a
observação do comportamento conjunto, duas a duas, das variáveis observadas.
Matriz de Gráficos:
25 25 25
Redp tlp tli tmat tqui this tfis tbio tgeo : Redp tlp tli tmat tqui this tfis tbio tgeo
R 20 R 20 R 20
e e e
d 25 25 25 d d
25 25 25
p 15 p 15 p 15
R R R 20 R 20 R 20 R 20
20 20
e 10 e e e e e 10 10
d d d d d d
p p 15 p 15 p 15 p 15 p 15
15 5 10 15 5 10 15
10 15 20 25
tlp tbio tgeo
10 10 10 10 10
10
2 4 6 8 10 12 14 5 10 15 5 10 15 5 10 15 5 10 15 20
10 15 20 25
Redp tli tmat tqui this tfis
25 25 25 25 25
25 25 25 25
20 20 20 20 20
20 20 20 20
t t t t t t
t t t
l l l l l l
l l l
p p p p p p
p p p
15 15 15 15 15
15 15 15 15
10 10 10 10 10
10 10 10 10
5 10 15 5 10 15 5 10 15 20 5 10 15 5 10 15
10 15 20 25 10 15 20 25 2 4 6 8 10 12 14 5 10 15
tmat tqui this tfis tbio tgeo
Redp tlp tli
14 14 14 14 14
14 14 14 14
12 12 12 12 12
12 12 12 12
10 10 10 10 10
10 10 10 10
t t t t t t
t t t 8 8 8 8 8 8 8
8 8
l l l l l l
l l l
i i i i i i 6
i 6 i 6 i 6 6 6 6 6 6
4 4 4 4 4
4 4 4 4
2 2 2 2 2
2 2 2 2
5 10 15 5 10 15 5 10 15 20 5 10 15 5 10 15
10 15 20 25 10 15 20 25 2 4 6 8 10 12 14 5 10 15
tmat tqui this tfis tbio tgeo
Redp tlp tli
15 15 15 15 15
15 15 15 15
t t t t t t
t t t 10 10 10 10 10 10 10
10 10
m m m m m m
m m m
a a a a a a
a a a
t t t t t t
t t t
5 5 5 5 5
5 5 5 5
5 10 15 5 10 15 5 10 15 20 5 10 15 5 10 15
10 15 20 25 10 15 20 25 2 4 6 8 10 12 14 5 10 15
tmat tqui this tfis tbio tgeo
Redp tlp tli
15 15 15 15 15
15 15 15 15
t t t t t t
t t t
q q q q q q
q q q 10 10 10 10 10
10 10 10
u
10
u u u u u
u u u
i i i i i i
i i i
5 5 5 5 5
5 5 5 5
5 10 15 5 10 15 5 10 15 20 5 10 15 5 10 15
10 15 20 25 10 15 20 25 2 4 6 8 10 12 14 5 10 15
tmat tqui this tfis tbio tgeo
Redp tlp tli
15 15 15 15 15
15 15 15 15
t t t t t t
t t t
h h h h h h
h h h 10 10 10 10 10
10 10 10
i
10
i i i i i
i i i
s s s s s s
s s s
5 5 5 5 5
5 5 5 5
5 10 15 5 10 15 5 10 15 20 5 10 15 5 10 15
10 15 20 25 10 15 20 25 2 4 6 8 10 12 14 5 10 15
tmat tqui this tfis tbio tgeo
Redp tlp tli
20 20 20 20 20
20 20 20 20
15 15 15 15 15
15 15 15 15
t t t t t t
t t t
f f f f f f
f f f 10 10 10
10 10 10
i
10
i
10
i
10
i i i
i i i
s s s s s s
s s s
5 5 5 5 5
5 5 5 5
5 10 15 5 10 15 5 10 15 20 5 10 15 5 10 15
10 15 20 25 10 15 20 25 2 4 6 8 10 12 14 5 10 15
tmat tqui this tfis tbio tgeo
Redp tlp tli
15 15 15 15 15
15 15 15 15
t t t t t t
t t t
b b b b b b
b b b
i i i i i i
i 10 i 10 i 10 10 10 10 10 10 10
o o o o o o
o o o
5 5 5 5 5
5 5 5 5
5 10 15 5 10 15 5 10 15 20 5 10 15 5 10 15
10 15 20 25 10 15 20 25 2 4 6 8 10 12 14 5 10 15
tmat tqui this tfis tbio tgeo
Redp tlp tli
15 15 15 15 15
15 15 15 15
t t t t t t
t t t
g g g g g g
g g g 10 10 10 10 10
10 10 10
e
10
e e e e e
e e e
o o o o o o
o o o
5 5 5 5 5
5 5 5 5
5 10 15 5 10 15 5 10 15 20 5 10 15 5 10 15
10 15 20 25 10 15 20 25 2 4 6 8 10 12 14 5 10 15
tmat tqui this tfis tbio tgeo
Redp tlp tli
A matriz de gráficos acima nos permite identificar possíveis associações (lineares ou não lineares) das variáveis de forma
bivariada. Do ponto de vista da associação linear esta informação pode ser também expressa a partir da matriz de
correlação das variáveis observadas.
Matriz de Correlações:
1.00000
Lingua Portuguesa
0.36006 1.00000
Lingua Inglesa <.0001
Eigenvectors
Lingua
tlp 0.288070 0.289584 0.490396 0.073485 -.432078 -.632176 -.013674 -.006596 -.026472
Portuguesa
tli Lingua Inglesa 0.297135 0.164925 0.648150 -.083717 0.142261 0.611999 -.250165 0.005489 0.002981
Redp Redação 0.188387 0.362645 -.187124 0.860977 0.217530 0.060083 -.038704 0.053189 -.038025
tmat Matematica 0.355280 -.431519 0.130128 0.050511 0.331103 -.181182 0.220021 0.590673 0.358221
tqui Quimica 0.429537 -.254451 -.125428 0.092605 -.183132 0.100737 0.120702 -.642455 0.505412
tfis Fisica 0.430802 -.367070 -.026565 0.004811 0.148644 -.061577 0.119549 -.199180 -.774008
tbio Biologia 0.349202 0.044832 -.367658 -.066604 -.650682 0.331211 -.037041 0.441257 -.085278
this História 0.228284 0.569989 -.136038 -.351259 0.238037 0.041932 0.649428 -.029069 0.009396
tgeo Geografia 0.350521 0.211752 -.342560 -.327629 0.316924 -.252933 -.659798 -.015097 0.087356
0.5214
0.5378 0.3410 0.6431 0.7775 0.7798 0.6321 0.4132 0.6345
Prin 5
6 1 1 3 2 1 3 0
1 <.000
<.0001 <.0001 <.0001 <.0001 <.0001 <.0001 <.0001 <.0001
1
0.3415 - - -
0.1945 0.4277 0.0528 0.6723 0.2497
Prin 7 0.5089 0.3001 0.4329
3 5 8 1 7
2 <.000 9 3 7
<.0001 <.0001 0.0499 <.0001 <.0001
1 <.0001 <.0001 <.0001
0.4743 - - - - - -
0.6268 0.1258
Prin 1 0.1809 0.1213 0.0256 0.3556 0.1315 0.3313
9 6
3 <.000 9 1 9 0 8 3
<.0001 <.0001
1 <.0001 <.0001 0.3411 <.0001 <.0001 <.0001
- - - -
0.0676 0.7926 0.0465 0.0852 0.0044
Prin 0.0770 0.0613 0.3233 0.3016
5 2 0 5 3
4 7 2 7 2
0.0121 <.0001 0.0848 0.0016 0.8697
0.0042 0.0230 <.0001 <.0001
Editando:
Lingua Lingua
Redação Matematica Quimica Fisica Biologia História Geografia
Portuguesa Inglesa
Curso
Pedagogia 18.04 5.79 17.07 2.97 6.17 3.63 8.53 10.55 8.01
Medicina 22.91 12.24 23.14 8.83 16.65 16.83 16.30 14.61 14.36
UFSCar 19.62 9.18 19.00 5.49 11.49 10.44 11.45 11.52 10.05
Lingua Lingua
Redação Matematica Quimica Fisica Biologia História Geografia
Portuguesa Inglesa
Curso
Imagem e Som 21.59 11.91 20.51 6.38 12.38 12.18 12.33 15.05 12.53
Biologia Bach. 21.20 10.77 20.70 5.27 13.60 11.77 14.27 13.60 11.43
Psicologia 21.44 11.10 20.48 5.43 11.81 9.81 13.06 14.26 11.24
Eng Computação 20.53 11.28 19.45 8.42 14.53 16.12 12.90 12.28 11.75
Eng Química 20.64 10.34 19.28 7.33 14.86 14.98 12.28 11.80 10.68
Eng Física 21.43 10.98 20.15 9.40 14.28 16.50 13.15 13.10 11.92
UFSCar 19.62 9.18 19.00 5.49 11.49 10.44 11.45 11.52 10.05
Lingua Lingua
Redação Matematica Quimica Fisica Biologia História Geografia
Portuguesa Inglesa
Curso
Biologia Lic. 19.37 9.23 18.75 4.32 12.95 9.03 14.12 12.18 10.68
Enfermagem 19.35 7.35 18.40 3.82 10.38 6.87 11.82 9.98 7.88
Biotecnologia 20.12 8.98 20.46 5.70 14.44 13.72 13.66 12.26 10.82
UFSCar 19.62 9.18 19.00 5.49 11.49 10.44 11.45 11.52 10.05
Lingua Lingua
Redação Matematica Quimica Fisica Biologia História Geografia
Portuguesa Inglesa
Curso
Biblioteconomia 18.25 7.61 18.11 2.59 6.34 3.66 8.80 10.84 8.43
Matemática
Diurno 17.07 5.67 16.40 5.20 7.57 7.32 7.92 8.12 7.82
UFSCar 19.62 9.18 19.00 5.49 11.49 10.44 11.45 11.52 10.05
Lingua Lingua
Redação Matematica Quimica Fisica Biologia História Geografia
Portuguesa Inglesa
Curso
Turismo 18.74 8.60 18.41 2.74 7.54 4.75 9.34 12.13 9.46
Letras 19.30 9.89 19.09 2.85 8.31 4.95 9.08 12.30 8.76
Eng
Computação 20.53 11.28 19.45 8.42 14.53 16.12 12.90 12.28 11.75
Eng Física 21.43 10.98 20.15 9.40 14.28 16.50 13.15 13.10 11.92
UFSCar 19.62 9.18 19.00 5.49 11.49 10.44 11.45 11.52 10.05
Lingua Lingua
Redação Matematica Quimica Fisica Biologia História Geografia
Portuguesa Inglesa
Curso
Imagem e
Som 21.59 11.91 20.51 6.38 12.38 12.18 12.33 15.05 12.53
Biologia
Bach. 21.20 10.77 20.70 5.27 13.60 11.77 14.27 13.60 11.43
Psicologia 21.44 11.10 20.48 5.43 11.81 9.81 13.06 14.26 11.24
Engenharia
Agronômica 17.47 7.39 17.67 4.06 10.96 7.55 11.62 9.51 8.63
Matemática
Diurno 17.07 5.67 16.40 5.20 7.57 7.32 7.92 8.12 7.82
Matemática
Noturno 18.52 5.92 17.75 4.72 7.83 8.28 9.55 9.43 9.03
Química
Noturno 17.58 5.73 18.15 4.05 11.48 7.08 10.43 9.68 8.20
UFSCar 19.62 9.18 19.00 5.49 11.49 10.44 11.45 11.52 10.05