Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Se você não leu o post de introdução à análise fatorial, estará perdendo metade da história.
Leia-o aqui.
Abaixo, você pode ver a estatística descritiva com a média e desvio padrão dos itens.
Você pode pedir para o SPSS realizar o cálculo da assimetria (skewness) e da curtose.
Valores muito diferentes de zero nessas características certamente serão um sinal de
não-normalidade da variável. Teste isso com os testes de Kolmogorov-Smirnov e de
Shapiro-Wilk - valores de p menores que 0,05 indicarão uma diferença estatisticamente
significativa da curva normal esperada.
A matriz de correlação dos itens seguida da significância unicaudal é mostrada
parcialmente abaixo, por motivos de espaço.
O valor do determinante foi menor que 0,00001. Isto pode suscitar as hipóteses de que a
matriz de correlações apresenta multicolinearidade ou singularidade, ou seja: variáveis
excessivamente ou perfeitamente correlacionadas, respectivamente. O exame da matriz
não revela variáveis com coeficientes maiores que 0,9. Mesmo assim, é interessante
realizar o teste de significância de Haitovsky (não realizado pelo SPSS) para avaliar se
o determinante é diferente de zero, ou seja, se a matriz é singular. Se o teste for
significante, sabe-se que a matriz de correlação é siginificativamente diferente de uma
matriz singular, o que demonstraria não haver multicolinearidade grave.
O teste de Haitovsky é dado pela seguinte fórmula:
Sabendo que os graus de liberdade são dados pela fórmula p(p – 1)/2, então gl = 20(20 –
1)/2 = 20 * 19 / 2 = 380 / 2 = 190. Como os valores críticos do qui-quadrado para p
menor que 0,05 com 100 e 200 graus de liberdade são, respectivamente, 124,34 e
233,99. O valor do qui-quadrado encontrado foi bem menor que esses valores,
indicando não significância, ou seja, o determinante da matriz não é significativamente
diferente de zero, e portanto há uma possibilidade grande de multicolinearidade nesses
dados, embora a inspeção da matriz de correlações não tenha mostrado coeficientes com
valores elevados. Como a multicolinearidade não é um problema tão grave na análise
fatorial quanto é na regressão, vamos conceder o benefício da dúvida e realizar a análise
mesmo assim.
Para esses dados o KMO acima de 0,9 e os valores acima de 0,92 para todas as variáveis
na matriz de correlações de anti-imagem indicam tamanho adequado da amostra
(procure os valores de adequação amostral para cada variável assinalados com a letra
"a" em sobrescrito na matriz de correlações de anti-imagem, não na matriz de
covariâncias de anti-imagem). Os valores da matriz de correlações de anti-imagem
mostraram baixos coeficientes, indicando baixo nível de correlações parciais. O teste de
Bartlett foi altamente significativo [ X2 (190) = 6478,514, p menor que 0,001]; portanto,
a realização da análise fatorial é apropriada.
Em seguida o SPSS mostra a tabela de comunalidades.
Para entender o conceito de comunalidade é necessário entender os conceitos de
variância comum e variância única (ou específica). A variância total de uma variável em
particular terá dois componentes na comparação com as demais variáveis: a variância
comum, na qual ela estará dividida com outras variáveis medidas e a variância única,
que é específica para essa variável. No entanto, há também variância que é específica a
uma variável, mas de forma imprecisa, não-confiável, a qual é chamada de variância
aleatória ou erro. Comunalidade é a proporção de variância comum presente numa
variável.
Para fazer a redução a dimensões, precisamos saber o quanto de variância dos nossos
dados é variância comum. Todavia, a única maneira de sabermos a extensão da
variância comum é reduzir as variáveis em dimensões.
Quando os fatores são extraídos, novas comunalidades podem ser calculadas, as quais
representam a correlação múltipla entre cada variável e os fatores extraídos. Portanto,
pode-se dizer que a comunalidade é uma medida da proporção da variância explicada
pelos fatores extraídos.
Se a rotação oblíqua é escolhida (como o método promax utilizado para estes dados)
pretende-se que os fatores (no caso, componentes) obtidos sejam correlacionados entre
si. Os eixos que representam os componentes não são mais rotacionados
perpendiculares entre si, e sim por um outro ângulo θ qualquer.
Alguns autores argumentam que não existe construto psicológico que não esteja
relacionado a outro construto psicológico, e que por isso, dados obtidos em seres
humanos jamais deveriam ser submetidos a rotações ortogonais. Portanto, rotações
oblíquas como a promax e a oblimin seriam sempre preferíveis.
No SPSS, as rotações ortogonais geram apenas uma matriz fatorial. Quando se escolhe
um método de rotação oblíqua, a matriz fatorial é dividida em duas matrizes: a matriz
de padrões e a matriz de estrutura.
E para finalizar a série sobre análise fatorial, um pequeno epílogo: Como escrever resumidamente
e de forma correta os resultados da sua análise fatorial.
Vou melhorar sempre que possível o texto deste post. Aguardo as sugestões de vocês.
Abraços,
Collares