Sei sulla pagina 1di 18

ANALISI DEI DATI 2015/2016

ANALISI DEI FATTORI


Marilena Pillati

E uno dei pi popolari metodi di analisi multivariata, il cui obiettivo individuare


un insieme di m variabili non osservabili in grado di spiegare le correlazioni tra p
variabili osservate.
Gli aspetti caratteristici dellanalisi fattoriale si fondano sulle origini del metodo,
che si sviluppato allinizio del secolo scorso ad opera di Spearman, nellambito
della ricerca psicometrica sulle misure delle capacit psicoattitudinali. In un lavoro
del 1904, Spearman riporta le correlazioni osservate tra i voti di un gruppo di studenti in tre diverse materie: lettere (X1), francese (X2), inglese (X3).
1 0,83 0,78

R
1
0,67

Egli si chiede se le correlazioni osservate non possano essere spiegate dalla relazione delle tre variabili con ununica variabile latente f che pu essere pensata
come lintelligenza o labilit in determinate materie.
Poste certe condizioni sulle variabili non osservate, facile verificare che un modello che ipotizzi una relazione lineare di ciascuna variabile osservata con f in
grado di spiegare la correlazione tra le X. Infatti, se f spiega le correlazioni, allora le
variabili osservate possono essere espresse in funzione di f nel modo seguente:
X1 = 1f + u1
X2 = 2f + u2
X3 = 3f + u3
dove:
-

f un fattore comune a tutte le variabili, che rappresenta labilit generale


di uno studente;

i sono detti pesi fattoriali;

gli ui sono i fattori specifici di ogni singola variabile.

Il fattore specifico pu avere in questo contesto una duplice interpretazione:


- labilit individuale in ogni singola disciplina dipende anche in una certa misura
dallabilit specifica in tale disciplina;

Analisi dei fattori

inoltre, la presenza del fattore specifico legata anche al fatto che la prova o lesame solo una misura approssimata dellabilit generale dello studente e perci affetta da errore.

FORMULAZIONE DEL MODELLO


Lanalisi dei fattori, nellaspetto metodologico pi generale, si propone di spiegare
le correlazioni fra un insieme di p variabili osservate attraverso un numero pi esiguo di variabili non osservate (fattori o variabili latenti).
Lidea che sta alla base del metodo che la correlazione tra due variabili Xi e Xj
pu essere spiegata dalla relazione lineare di entrambe con un insieme di m variabili f1, f2 fm.
Lanalisi fattoriale ipotizza che ciascuna variabile osservata Xi dipenda in parte da
m fattori comuni a tutte le variabili, fk k = 1, , m, in parte da un fattore specifico ui. Ipotizzando una relazione lineare tra le variabili osservate e i fattori, si definisce un sistema di equazioni del tipo:
X1 = 1 + 11f1 + + 1kfk + + 1mfm + u1

Xi = i + i1f1 + + ikfk + + imfm + ui

Xp = p + p1f1 + + pkfk + + pmfm + up


dove i la media della variabile Xi.
La determinazione dei coefficienti ik, detti pesi fattoriali, consente di valutare
linfluenza di ciascun fattore espressa in termini di apporto relativo alla variabilit
complessiva del sistema. Si noti che tutti gli elementi a destra delluguale sono
quantit incognite, non direttamente misurabili o osservabili.
Sotto certe condizioni facile verificare che un modello di questo tipo in grado
di spiegare le correlazioni osservate. Si tratta di un modello ed quindi necessario
verificare se tale modello sia in grado di dare una spiegazione adeguata di quanto osservato.
In termini matriciali, il precedente sistema pu essere espresso come segue:
X = + f + u
dove (pxm) una matrice di costanti (pesi fattoriali) e f (mx1) e u (px1) sono vettori aleatori.
X1 1 11


Xh h h1


Xp p p1

1k

hk

pk

1m
u1


f1
hm uh


fm
up
pm

Analisi dei dati a.a. 2015/2016

Analisi dei fattori

I vincoli che pi frequentemente si impongono sulle componenti del modello sono


i seguenti:
1)

Le variabili f, i fattori comuni, hanno media zero, varianza unitaria e sono tra
loro incorrelati cio:
a) E(f)=0 nullit delle medie aritmetiche dei fattori comuni
b) E(ff)=I unitariet delle varianze dei fattori comuni e incorrelazione a
coppie

2)

Le variabili u, i fattori specifici, hanno media zero, varianza ii e sono tra loro
incorrelate (ci significa che la correlazione tra le variabili originarie spiegata completamente dai fattori comuni) cio
a) E(u)=0 nullit delle medie aritmetiche dei fattori specifici
b) E(uu)= (dove =diag(11, , pp)) incorrelazione a coppie
11

3)

hh


pp

Inoltre, i fattori specifici sono incorrelati anche con i fattori comuni, cio
E(fu)=0

Le ipotesi 2b e 3 implicano che le correlazioni tra le Xi siano completamente spiegate dai fattori. Per assicurare che i fattori comuni siano in grado di spiegare
completamente le correlazioni tra le variabili osservate sono determinanti due ipotesi:
i)

che i fattori specifici siano incorrelati tra loro E(uu)=


(dove =diag(11, , pp))

ii)

[ipotesi 2b]

che i fattori specifici siano incorrelati con i fattori comuni


E(fu)=0

[ipotesi 3a]

Diversamente, lipotesi E(ff)= I non fondamentale. Infatti la matrice di varianzecovarianze tra i fattori potrebbe essere una qualunque matrice f simmetrica e definita positiva e, in quanto simmetrica, per la scomposizione di Cholesky esister
sempre una matrice triangolare inferiore L tale che f = LL.
Si dimostra che il vettore f* = L-1f ha media nulla e matrice di varianze-covarianze
uguale alla matrice identit; infatti:
E(f*f*) = E(L-1ff(L)-1) = L-1E(ff)(L)-1 = L-1f(L)-1 = L-1LL(L)-1 = I
Se ora si pone * = L si ha che *f* = LL-1f = f
Il modello
X = + *f* + u
quindi indistinguibile dal modello
X = + f + u,
Analisi dei dati a.a. 2015/2016

Analisi dei fattori

ma il vettore f* ha elementi standardizzati e incorrelati. Senza perdere in generalit, tali vincoli possono essere imposti direttamente sugli elementi di f.
Per semplicit si pu, inoltre, porre = 0; ci equivale a immaginare le variabili Xi
come variabili scarto dalla media. Il modello si riduce cos allespressione:
X = f + u
In forma esplicita
X1 = 11f1 + + 1kfk + + 1mfm + u1 =

k 1

f u1

1k k

Xi = i1f1 + + ikfk + + imfm + ui =

ik k

k 1

ui

Xp = p1f1 + + pkfk + + pmfm + up =

k 1

f up

pk k

Se il modello fattoriale descrive adeguatamente i dati, vale una particolare relazione per la matrice di varianze-covarianze delle variabili osservate, che pu essere scomposta nella somma di due matrici:
= +
Infatti
= E(XX) = E[(f + u)(f + u)] =
= E[ff + fu + uf + uu] =
= E[ff] + E[fu] + E[uf] + E[uu] =
= +
dove

m 2
1k
k 1
m
2 k 1k
=
k

m ...

pk 1k
k 1

1k2 k
k 1
m

2
2k

k 1

...

k 1

pk 2 k

...

1k pk

... 2 k pk
k 1

...
...

m
2
...
pk

k 1

k 1
m

e
= diag(11, , pp)
Poich la matrice diagonale, le quantit al di fuori della diagonale di coinAnalisi dei dati a.a. 2015/2016

Analisi dei fattori

cidono con i corrispondenti elementi di . Ci significa quindi che, valido il modello fattoriale, i fattori comuni sono in grado di spiegare le covarianze tra le variabili osservate, che risultano dipendere unicamente dai pesi fattoriali.
Si noti che affinch ci accada sono fondamentali le due ipotesi del modello che
fanno riferimento allincorrelazione tra fattori specifici [2b] (matrice diagonale) e
allincorrelazione tra fattori comuni e fattori specifici [3] (E[fu] = E[uf] = 0).

COMUNALIT E SPECIFICIT
Indicando con i=(i1, ik,... im) il vettore riga dei pesi fattoriali relativi alla variabile Xi, la covarianza tra due variabili Xi e Xj con i j risulta quindi data da:
Cov(Xi,Xj) = ij = i1j1 + + imjm
La varianza della generica variabile Xi risulta essere
Var(Xi) = i2 = ii =

2
ik

ii

Il primo addendo della varianza definisce la cosiddetta comunalit e rappresenta


la parte di varianza di Xi spiegata dai fattori comuni.
hi2 =

2
ik

= ii - ii

Pi la comunalit h12 si avvicina a 1, tanto pi il set di fattori scelto sar in grado di


spiegare la varianza della variabile Xi.
Supponiamo di considerare un modello fattoriale a 3 fattori. Se la comunalit per
una variabile X pari a 0,79 significa che il 79% della variabilit di X spiegata dalla relazione lineare con i fattori comuni. Guardando i livelli delle comunalit si in
grado di capire di quali variabili osservate il modello fattoriale in grado di riprodurre il comportamento.
La varianza ii detta invece varianza specifica (o specificit) ed dovuta al
fattore specifico ui; la parte di variabilit di Xi non spiegata dai fattori comuni.
Si osservi inoltre quanto segue:
E(Xf) = E[(f + u)f] = E(ff) + E(uf) =
Questo significa che i pesi fattoriali rappresentano le covarianze tra fattori e variabili
manifeste.

Analisi dei dati a.a. 2015/2016

Analisi dei fattori

PROPRIET DEL MODELLO FATTORIALE


1) EQUIVARIANZA rispetto a cambiamenti di scala
Se
Y = CX
dove C una matrice diagonale e il modello fattoriale
X = xf + u
descrive in modo adeguato le correlazioni tra le variabili osservate in X, si avr:
Y = CX = C[xf+u] = Cxf + Cu= Yf + Cu
cio per Y vale un modello fattoriale nel quale la matrice dei pesi fattoriali
Y = Cx.
Inoltre:
Y = E(YY) = E(CXXC) = CC = C[xx+x]C
= CxxC + CxC
Quindi, nota la matrice dei pesi fattoriali x, la matrice Y si ottiene semplicemente
moltiplicando ciascuna riga per lelemento corrispondente sulla diagonale di C.
Tali risultati sono validi anche nel caso della standardizzazione delle variabili, che
un particolare tipo di cambiamento di scala. Infatti, se indichiamo con D la matrice diagonale che contiene le varianze delle variabili in X
12 0

0 22

0
0

p2

e con D1/2 la matrice diagonale che contiene le radici delle varianze,

D1 2

12

22


p2

Poich X composta da variabili scarto dalla media, le variabili standardizzate si


ottengono con la seguente trasformazione:
Y = D-1/2X
e la matrice di varianze-covarianze Y sar:
Analisi dei dati a.a. 2015/2016

Analisi dei fattori

Y = = D-1/2xD-1/2 = D-1/2xxD-1/2 + D-1/2xD-1/2


Quindi la relazione tra i pesi fattoriali nel modello con le variabili originarie e quelli
relativi alle variabili standardizzate sono uguali a meno di D-1/2:
Y = D-1/2x
Perci, almeno a livello di modello fattoriale in popolazione, possibile ricavare i
parametri delluno riscalando i parametri dellaltro.
Come si detto, poich il modello fattoriale risulta equivariante rispetto a cambiamenti di scala delle variabili in X, operando sulle variabili standardizzate i fattori
individuati non cambiano e vale la relazione:
R = +
che per la variabile Xi, essendo rii = 1, d luogo a:

1 k 2ik ii hi2 ii
Per differenza si ottiene:
= R -
che per la variabile Xi d luogo a:

ii 1 k 2ik 1 hi2
2) INVARIANZA del modello rispetto a rotazioni ortogonali
Il modello risulta INVARIANTE rispetto a rotazioni ortogonali.
Infatti, se si consideri una generica matrice ortogonale G (tale cio che
GG = GG = I), allora
X = f+u X = I f + u X = GG f + u
X = GfG+u
I due modelli sono del tutto equivalenti e godono delle stesse propriet (si ricordi il
modello X = *f* + u indistinguibile dal modello X = f + u):
E(fG) = E(Gf) = GE(f) = 0
E(fGfG) = E(GffG) = GE(ff)G = GIG = I
E(fGu) = E(Gfu) = GE(fu) = G0 = 0
Inoltre:
G = GG + = GG + = +

Analisi dei dati a.a. 2015/2016

Analisi dei fattori

IDENTIFICAZIONE DEL MODELLO FATTORIALE


In generale, un qualunque modello si dice identificato se la soluzione al problema
di stima esiste ed unica.
Per il modello fattoriale non esiste una soluzione unica al problema di stima dei pesi fattoriali, per linvarianza rispetto a rotazioni ortogonali.
Lindeterminatezza della soluzione pu essere risolta imponendo dei vincoli alla rotazione. Generalmente si impone che la matrice
-1
sia diagonale con elementi sulla diagonale ordinati in senso decrescente. Prescindendo da possibili inversioni dei segni, risulta cos univocamente determinata.
Nulla vieta poi al ricercatore di ruotare successivamente i fattori postmoltiplicando
la matrice per una nuova matrice G ortogonale qualora ci sia utile in fase di interpretazione dei risultati, ma largomento verr trattato successivamente.
Abbiamo posto le condizioni per lunicit della soluzione, ma siamo sicuri che esista sempre una soluzione?
I parametri da stimare sono contenuti nelle matrici e .
Il numero delle incognite pari a
pxm (pesi fattoriali) + p (varianze dei fattori specifici)
Il numero dei parametri da stimare non pu essere maggiore delle informazioni disponibili, date dal numero di valori distinti contenute nelle matrici S o R (stime delle
corrispondenti matrici di popolazione), che sono:
p(p+1)/2 (informazioni disponibili)
Il vincolo per lunicit della soluzione, cio
-1
introduce m(m-1)/2 vincoli, riducendo il numero di parametri liberi a:
pxm + p - m(m-1)/2
Perch la soluzione esista , dunque, necessario imporre un limite al numero di fattori che possono essere inclusi nel modello fattoriale, poich deve risultare:
p(p+1)/2 > pxm + p - m(m-1)/2
C quindi un limite al numero di fattori che possono essere inclusi in un modello
fattoriale.
Infatti, se vale il segno > allora la soluzione esiste, anche se si tratta di una soluzione
approssimata che porta a una riduzione delle dimensioni; possibile determinare
in modo empirico, facendo riferimento alla disuguaglianza, il numero massimo di
fattori comuni da includere nel modello per un certo numero p di variabili osservate.

Analisi dei dati a.a. 2015/2016

Analisi dei fattori

STIMA DEI PARAMETRI DEL MODELLO


Identificato il modello, necessario stimare le matrici dei parametri e .
Essendo nota la relazione
= +
cerchiamo stimatori di e di che approssimino al meglio la relazione = +
in cui stimata con la matrice di varianze e covarianze campionarie S.

+
S

Sono stati proposti nel tempo vari metodi di stima. Quelli che vedremo sono 3:
a)

metodo delle componenti principali

b)

metodo dei fattori principali (iterato)

c)

metodo della massima verosimiglianza

In alcuni software statistici, come per esempio SPSS, vengono messi a disposizione
anche altri metodi basati sui minimi quadrati e su altri sistemi di fattorizzazione.
Metodo delle componenti principali
Con lanalisi delle componenti principali si definiscono delle particolari combinazioni lineari Y=AX delle variabili osservate X. Se si riscrive la relazione come X= AY,
essa pu sembrare un modello fattoriale senza il fattore specifico, per il quale si
avrebbe: S
Il teorema spettrale ci pu aiutare a individuare una stima per .
Tale teorema afferma che data una matrice Spxp simmetrica, sempre possibile
trovare una matrice Apxp ortogonale tale che
A-1 S A = L
con L diagonale. Data lortogonalit di A possibile riscrivere luguaglianza come
A S A = LDIAG
Il teorema specifica, inoltre, che gli elementi presenti sulla diagonale di L sono gli
autovalori di S, mentre le colonne di A rappresentano i rispettivi autovettori normalizzati associati agli autovalori di S.
Per la scomposizione spettrale, vale quindi la seguente uguaglianza:
S = A L A
dove L la matrice diagonale che contiene in ordine decrescente gli autovalori di
S, e A la matrice ortogonale avente per colonne i corrispondenti autovettori.
Poich S una matrice di varianze e covarianze e, quindi, semidefinita positiva, gli
autovalori di S saranno tutti maggiori o uguali a zero. Dal momento che
L = L1/2 L1/2
Analisi dei dati a.a. 2015/2016

10

Analisi dei fattori

ne segue che
S = A L1/2 L1/2 A

= A L1/2 si avrebbe S =

.
Se si ponesse
avrebbe dimensioni pxp e non pxm.
Ma in questo caso
Si pu pensare di selezionare gli m autovalori pi grandi di S e i rispettivi autovettori. Si definisce L11/2 la matrice di dimensioni mxm che contiene sulla diagonale le m
radici quadrate dei primi m autovalori e A1 la matrice di dimensioni pxm che contiene gli m autovettori ad essi associati.
Si ottiene cos una stima della matrice dei pesi fattoriali di dimensione pxm

= A1 L11/2

per la quale si ha S

Le stime delle varianze specifiche si ricavano per differenza:

=S-

cio

ii = Var(xi) -

2ik

k 1

)
per i = 1, , p (i
ik sono in

Allo stesso modo possibile condurre lanalisi facendo riferimento alla matrice di
correlazione; tuttavia, le soluzioni ottenute usando le due diverse matrici (R e S),
caratteristica gi nota se si gi affrontato lo studio dellanalisi delle componenti
principali, non sono legate in alcun modo da una relazione algebrica. Il modello
stimato non gode, quindi, della propriet di equivarianza rispetto ai cambiamenti
di scala delle variabili osservate.
Il metodo delle componenti principali non richiede alcuna ipotesi distributiva, ma
non pi molto utilizzato. La stima di si ricava a partire dallipotesi dellassenza di
un fattore specifico, salvo poi stimarne la varianza in modo residuale.

Analisi dei dati a.a. 2015/2016

Analisi dei fattori

Metodo dei fattori principali


Una variante di tale metodo per la stima di e , che sfrutta il teorema spettrale,
il metodo dei fattori principali. Tale metodo ricava stime iniziali per le varianze
specifiche definendo stime iniziali per le comunalit hi2, tenendo conto che
m

ii = sii -

2
ik

k 1

= sii hi2,

Se lanalisi viene condotta su R tale relazione diventa


m

ii = rii -

k 1

2
ik

= 1 hi2

In generale i criteri pi seguiti per stimare le comunalit consistono, nel caso si


analizzi la matrice R di correlazione, nel sostituire hi2 con:
a) il quadrato del coefficiente di correlazione multiplo tra Xi e tutte le altre variabili, Ri21..., i 1,i 1,..., p , indicato anche con Ri20
oppure con
b) il pi elevato coefficiente di correlazione lineare tra Xi e le altre variabili,
max rii' i i '
Nel caso, invece si utilizzi la matrice S di varianze-covarianze, si useranno rispettivamente:
a) sii Ri21..., i 1,i 1,...,p , indicato anche con sii Ri20
b) sii max rii' i i '

che si otNel caso della matrice R, si calcola la matrice di correlazione ridotta R-


tiene sostituendo gli 1 che si trovano sulla diagonale principale con le stime delle
comunalit diventando:
~2
h
1

ri1
R

rp1

r1i


~
h2i

rpi

r1p

rip

~2
hp

Una volta stimate le comunalit, si otterranno direttamente anche le stime delle


varianze dei fattori specifici, come complemento a 1 delle comunalit stesse (si ottiene, quindi, 0).

che si ottieNel caso di S, si calcola la matrice di varianze-covarianze ridotta S-


ne sostituendo le varianze che si trovano sulla diagonale principale con le stime
Analisi dei dati a.a. 2015/2016

12

Analisi dei fattori

~
delle comunalit h2i diventando
~2
h
1

si1
S

sp1

s1p

~
h2i sip

~
spi h2p

s1i

Per il teorema spettrale sar possibile la scomposizione

= A1 L1 A1
R-
dove L1 la matrice diagonale che contiene in ordine decrescente gli autovalori

, e A1 la matrice ortogonale avente per colonne i corrispondenti autodi R -


vettori. Se i primi m autovalori sono positivi, dal momento che
L1 = L11/2 L11/2
e che

=
R-

ne segue che la stima di sar

0 = A1 L11/2

dove A1 ha per colonne i primi m autovettori e L1 ha sulla diagonale i corrispondenti autovalori.

0 vengono stimate successivaUsando le stime dei pesi fattoriali contenute in


mente le varianze specifiche tramite la relazione

ii = 1 -

2ik

k 1

1 (lindice 1 indica che si tratta di uno step successiOttenuta una nuova stima di

1 (o S -
1 ) e di conseguenza una
vo), possiamo calcolare una nuova matrice R -
1 .
nuova stima
i

i 1

Il processo si arresta quando le differenze tra


ri di un prefissato.

e tra

i 1

sono mino-

Il processo di stima pu essere molto lento o, addirittura, pu non arrivare alla


convergenza.
Anche il metodo dei fattori principali, che non richiede alcuna ipotesi sulla forma
distributiva delle variabili X nella popolazione di riferimento, cos come quello delle
componenti principali, non garantisce linvarianza rispetto a cambiamenti di scala.
Analisi dei dati a.a. 2015/2016

Analisi dei fattori

Il metodo della massima verosimiglianza


Una soluzione alternativa per stimare i pesi fattoriali, quando si pu assumere che
X abbia una distribuzione normale multivariata di parametri e , si fonda sul meltodo della massima verosimiglianza.
La funzione di verosimiglianza funzione dei parametri incogniti. Essa indica, per
diversi valori dei parametri qual la densit di probabilit (o probabilit se X discreta) di osservare ci che poi si effettivamente osservato, cio il campione. Il
principio della massima verosimiglianza indica di scegliere come stima di un parametro il valore che d la massima probabilit a ci che si osservato, cio il valore che rende massima la verosimiglianza del campione estratto.
Quindi se
X ~ Np(,)
lespressione della funzione di densit multivariata :
f X 2

1/ 2

exp 1/ 2x 1x

Il campione costituito da n vettori p-dimensionali indipendenti e identicamente


distribuiti.
X* = (X1, , Xj, , Xn) I.I.D.
La funzione di verosimiglianza in questo caso ricavabile a partire dal prodotto di
n funzioni di densit multivariata marginali:

j 1

j 1

L X * , , f x j 2
2

1/ 2

n/ 2

exp 1/ 2x j 1x j

exp 1/ 2 x j 1x j
j 1

La trasformata logaritmica della verosimiglianza (funzione di log-verosimiglianza) :

n
1 n

l X * , , log 2 X j 1X j
2
2 j 1
che, dopo alcuni passaggi e sostituendo e con gli stimatori X e S, diventa:
n
n
log 2 tr 1S
2
2

Poich

la l X * , diviene funzione di e :

n
n
1
l x * , , log 2 tr S
2
2

La massimizzazione di l x * , , rispetto a e avviene sotto il solito vincolo che la


matrice

sia diagonale (per ottenere una soluzione unica). Uguagliando a


Analisi dei dati a.a. 2015/2016

14

Analisi dei fattori

zero le derivate di l x * , , rispetto a e (sottoposte al vincolo) si ottengono le


equazioni di verosimiglianza

S 1 I 1

diagS

Risolvendo tali equazioni rispetto alle incognite e , si ricavano le stime di massima verosimiglianza.
Non esiste per una soluzione completamente analitica per queste equazioni e si
ricorre perci a procedimenti numerici iterativi che talvolta presentano problemi di
convergenza. La soluzione equivariante rispetto a cambiamenti di scala.

ADEGUATEZZA DEL MODELLO E SCELTA DEL NUMERO M DI FATTORI COMUNI


Dopo aver stimato le matrici e , prima di procedere alla stima del vettore f per
ognuna delle n unit, necessario verificare ladeguatezza del modello con m
fattori ai dati. Per questo occorre valutare:
a) le percentuali di varianza spiegate dai fattori comuni: sebbene lo scopo
dellanalisi fattoriale sia quello di spiegare la covarianza o la correlazione tra
le variabili osservate piuttosto che la varianza, tuttavia per ciascuna variabile la percentuale di varianza spiegata dai fattori comuni dovrebbe essere
ragionevolmente elevata;

. Un metodo per verib) la matrice di correlazione (covarianza) riprodotta
ficare ladeguatezza del modello si ottiene dal confronto della matrice di
correlazione riprodotta con quella osservata;

a) il test sulla bont di adattamento, se le matrici e sono stimate con la


massima verosimiglianza. Introducendo lipotesi di normalit distributiva, si
pu effettuare un test del rapporto di verosimiglianza, per valutare lipotesi
H0 che la matrice di covarianza osservata abbia la forma specificata dal
modello fattoriale. Se tale ipotesi non viene rifiutata c un buon adattamento del modello ai dati. La statistica test, indicata con W, si distribuisce
come un 2 con [(p - m)2 - (p + m)2] / 2 gradi di libert.
Se il modello con un dato numero di fattori non ha un buon adattamento, si
pu scegliere un numero maggiore di fattori. Tuttavia, bisogna sempre tener
presente lequilibrio tra linterpretabilit dei fattori e la bont di adattamento. Un modello con un ottimo adattamento e un elevato numero di fattori
potrebbe non essere interpretabile, mentre un modello con minor adattamento potrebbe in realt svelare interessanti caratteristiche dei dati.
Il rifiuto dellipotesi nulla pu talvolta dipendere da altri motivi come, per
esempio, lallontanamento dalla normalit distributiva piuttosto che dalla
reale necessit di altri fattori.

Analisi dei dati a.a. 2015/2016

Analisi dei fattori

ROTAZIONE DEGLI ASSI FATTORIALI E STIMA DEI PUNTEGGI FATTORIALI


Una volta verificata la bont del modello necessario valutare se, tra tutte le soluzioni equivalenti per , ve ne sia una pi utile allinterpretazione dei fattori comuni.
Si procede, quindi, alla ricerca di una matrice G di rotazione. Solo successivamente si proceder con la stima del vettore f per ogni unit seguendo uno dei diversi
metodi di stima per i punteggi fattoriali.
Per interpretare pi agevolmente i pesi fattoriali possibile effettuare delle rotazioni degli assi fattoriali per semplificare la struttura del sistema di pesi.
Il criterio da seguire dovrebbe condurre a suddividere le variabili in gruppi in modo
tale che i pesi allinterno di ciascun gruppo siano elevati su un singolo fattore e
bassi o trascurabili sugli altri. Tuttavia difficile trovare una struttura fattoriale che
soddisfi questi requisiti e sono pertanto state proposte soluzioni analitiche che ottimizzano criteri meno restrittivi.
Le soluzioni pi utilizzate rispettano lortogonalit dei fattori.
Rotazione VARIMAX. La nuova matrice viene determinata in modo tale da massimizzare un indice basato sulla somma delle varianze dei quadrati dei pesi fattoriali
normalizzati entro ciascuna colonna della matrice dei pesi fattoriali. La rotazione
agisce sui pesi dei fattori facendo convergere proporzionalmente verso 0 quelli pi
bassi e proporzionalmente verso 1 quelli pi alti.
Con questo criterio di rotazione, le modifiche avvengono sulle colonne della matrice di pesi fattoriali. Idealmente, come se la rotazione fosse eseguita colonna
per colonna della matrice dei pesi fattoriali, mantenendo fissa la varianza del
quadrato dei pesi fattoriali per colonna. E una trasformazione utile soprattutto in
presenza di pi fattori.
Rotazione QUARTIMAX. La nuova matrice ortogonale viene determinata in modo
tale da massimizzare un indice basato sulla varianza dei quadrati dei pxm pesi fattoriali. Idealmente, come se la rotazione fosse eseguita riga per riga sulla matrice
dei pesi fattoriali.
Lapplicazione di questo criterio rende facile lattribuzione dei fattori comuni alla
singola variabile. La rotazione QUARTIMAX adatta per identificare i fattori che
governano la variabilit dei caratteri osservati.
D risultati migliori della VARIMAX quando si voglia semplificare il primo fattore
estratto perch un metodo che minimizza il numero dei fattori.
Rotazione EQUAMAX. E una soluzione di compromesso tra i criteri VARIMAX e
QUARTIMAX: invece di concentrarsi sulla semplificazione dei pesi sulle righe o di
quelli sulle colonne, tenta di realizzare una semplificazione simultanea, mantenendo costante la varianza complessivamente spiegata dalla soluzione fattoriale.
Il criterio EQUAMAX non in genere efficace nella ricerca di strutture semplici.

Analisi dei dati a.a. 2015/2016

16

Analisi dei fattori

UN ESEMPIO
Sono noti i voti ottenuti da un gruppo di studenti inglesi in alcune materie e si
scelto di effettuare unANALISI FATTORIALE a partire dalla matrice di correlazione,
usando il metodo di stima della massima verosimiglianza.
X1 = Gaelico
X2 = Inglese
X3 = Storia
X4 = Aritmetica
X5 = Algebra
X6 = Geometria
Autovalori matrice R e percentuale var spiegata dalle componenti
2.729
1.129
0.615
0.603
0.523
0.402

45.48%
18.81%
10.25%
10.05%
8.70%
6.69%

Sulla base del valore degli autovalori si considera un modello a 2 fattori


X1 11

X2 21
X3 31

X4 41
X5 51

X6 61

12
u1


22
u1
32 f1 u3

42 f2 u4
u5
52


62
u6

Dopo aver stimato i pesi fattoriali con il metodo della massima verosimiglianza si
ottiene
0.558 0.425

0.569 0.286
0.392 0.450

0.738 -0.279
0.718 -0.209

0.595 -0.133

Analisi dei dati a.a. 2015/2016

Analisi dei fattori

Il modello diventa quindi:


X1 0.558 0.425
u1

X2 0.569 0.286
u1
X3 0.392 0.450 f1 u3


X4 0.738 -0.279 f2 u4
X5 0.718 -0.209
u5

X6 0.595 -0.133
u6

La matrice delle correlazioni riprodotte viene determinata come segue:


0.558 0.425

0.569 0.286
0.392 0.450 0.558 0.569 0.392 0.738 0.718 0.595

0.738 -0.279 0.425 0.286 0.450 -0.279 -0.209 -0.133


0.718 -0.209

0.595 -0.133

Un metodo efficace per verificare ladeguatezza del modello si ottiene dal


confronto della matrice di correlazione riprodotta e quella osservata

Matrice delle correlazioni riprodotte


Gaelico Inglese Storia Aritm. Algeb. Geom.
Gaelico

0,49

0,44

0,41

0,29

0,31

0,28

Inglese

0,44

0,41

0,35

0,34

0,35

0,30

Storia

0,41

0,35

0,36

0,16

0,19

0,17

Aritmetica

0,29

0,34

0,16

0,62

0,59

0,48

Algebra

0,31

0,35

0,19

0,59

0,56

0,46

Geometria 0,28

0,30

0,17

0,48

0,46

0,37

Matrice delle differenze R-


Gaelico

0,00

0,00 0,00 0,02

Inglese

0,00

Storia

0,00

0,00

Aritmetica

0,00

0,01

Algebra

0,00

-0,03 0,00 0,00

-0,03

0,00 0,01 -0,03 0,03

Geometria -0,03 0,03

0,00 0,00

0,00

0,00

0,00

0,00

0,00 0,00 0,00

0,00
0,00

Analisi dei dati a.a. 2015/2016

18

Analisi dei fattori

Cosa rappresenta nella matrice delle correlazioni riprodotte il valore 0,49?


La COMMUNALITA della prima variabile h12 k 2ik

0.558
h12 0.558 0.425
0,49
0.425
Cosa rappresenta nella matrice delle correlazioni riprodotte il valore 0,44?
La correlazione tra la prima e la seconda variabile riprodotta dal modello
0.569

1 2 0.558 0.425
0,44
0.425

Analisi dei dati a.a. 2015/2016