Maurizio Cornalba
1.
Polinomi e matrici
Sia
V uno spazio vettoriale sul campo K, e sia f un suo endomorsmo. Sia poi
P (X) = i ai X i un polinomio a coecienti in K. Poniamo
P (f ) =
ai f i ,
dove f i sta per la composizione di f con se stesso i volte. Allo stesso modo, se A `e una
matrice n n a coecienti in K, porremo
P (A) =
ai Ai .
i bi X
, cosicche
Xi .
ah bk
h+k=i
Daltra parte
ah f h )(
bk f k )
P (f )Q(f ) = (
h
i
i
h
ah f bk f
h+k=i
ah bk
fi ,
h+k=i
C
=
,
0 Bk
0 B
dove D `e una matrice 1 (n 1). Ne segue che
0 E
Q()
M
Q() M
A I =
,
Q(A) =
=
,
0 G
0
Q(B)
0
0
dove G `e una matrice (n 1) (n 1) e E, M sono matrici 1 (n 1). Dunque
0 E
Q() M
P (A) = (A I)Q(A) =
= 0,
0 G
0
0
come si doveva dimostrare.
Nel resto di questa sezione supporremo sempre che V abbia dimensione nita. Il
teorema di Cayley-Hamilton asserisce tra laltro lesistenza di un polinomio non nullo a
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 2
coecienti in K che si annulla se valutato su f . Tra tutti i polinomi non nulli con questa
propriet`
a consideriamo quelli di grado minimo. Questi polinomi sono tutti proporzionali fra
loro, poiche in caso contrario si potrebbe costruire per combinazione lineare un polinomio
non nullo di grado pi`
u basso che si annulla se valutato su f ; vi `e dunque tra loro un solo
polinomio monico, che si chiama polinomio minimo di f . Allo stesso modo si denisce il
` chiaro che, se A `e la matrice di f rispetto
polinomio minimo di una matrice quadrata. E
a una qualche base, i polinomi minimi di f e di A coincidono.
Sia ora Q il polinomio minimo di f , e sia G un polinomio a coecienti in K tale che
G(f ) = 0. Vogliamo mostrare che esiste un altro polinomio H a coecienti in K tale che
G = HQ. Infatti se dividiamo G per Q possiamo scrivere
G = HQ + R ,
` chiaro che R(f ) = 0; quindi, se R
dove R `e nullo o ha grado pi`
u basso di quello di Q. E
non fosse nullo, Q non potrebbe essere il polinomio minimo di f .
Proposizione (1.3). Sia V uno spazio vettoriale di dimensione nita su K, sia f un suo
endomorsmo, e indichiamo con Q il polinomio minimo di f . Allora:
i) ogni autovalore di f `e radice di Q;
ii) f `e diagonalizzabile (su K) se e solo se Q ha deg(Q) radici distinte in K.
Sia un autovalore di f ; dunque c`e un vettore non nullo v V tale che f (v) = v.
Ne segue che f i (v) = i v per ogni i, e quindi che H(f )(v) = H()v per ogni polinomio
H. In particolare 0 = Q(f )(v) = Q()v, e come conseguenza Q() = 0. Supponiamo ora
che f sia diagonalizzabile, cio`e che V abbia una base v1 , . . . , vn costituita da autovettori.
Riordinando questa base possiamo supporre che
1 vi
2 vi
f (vi ) = 3 vi
...
h vi
se 0 = n0 < i n1
se n1 < i n2
se n2 < i n3
se nh1 < i nh = n
si `e visto,
dove 1 , . . . , h sono distinti. Dico che Q(X) = i (X i ). Dato che, come
ognuno dei i `e radice di Q, basta mostrare che H(f ) = 0, dove H(X) = i (X i ). In
eetti, se j `e un intero compreso tra 1 e n, e i `e scelto in modo che ni1 < j ni , allora
f (vj ) = i vj e quindi
H(f )(vj ) =
(f k 1)(f (vj ) i vj ) = 0 .
k=i
Poiche vj `e un elemento arbitrario della base scelta per V , H(f ) deve essere nullo.
Per completare la dimostrazione di (1.3) resta da mostrare che, se Q(X) = i (X i ),
dove i i sono distinti, allora f `e diagonalizzabile. Ragioneremo per induzione sul grado
di Q. Se questo `e 1, f `e una omotetia, e quindi diagonalizzabile. Descriviamo ora il passo
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 3
induttivo. Scriviamo Q(X) = (X 1 )R(X), dove R(X) = k>1 (X k ). Osserviamo
o scrivere
che, poiche 1 non `e una radice di R, dividendo R per (X 1 ) si pu`
R(X) = C(X)(X 1 ) + c ,
dove c `e una costante non nulla. Dividendo per c se ne ricava che ci sono polinomi A e B
tali che
(1.4)
(X 1 )A(X) + R(X)B(X) = 1 .
i3
Pi =
Pi AH + BQ .
i3
Dato che H divide Q se ne deduce che divide anche P3 Ph . Iterando questo ragionamento
si giunge alla conclusione che H divide Ph , il che `e assurdo visto che P1 e Ph sono primi
fra loro.
Torniamo alla dimostrazione di (1.5). Il lemma che abbiamo appena dimostrato dice
che P1 e Q = P2 Ph sono primi fra loro. Usando il caso h = 2 della proposizione ne
deduciamo che V `e somma diretta di V1 e del nucleo di Q(f ). Osserviamo che f Q(f ) =
Q(f )f , e che quindi f (ker Q(f )) ker Q(f ). Ne segue che f induce per restrizione un
endomorsmo g di ker Q(f ). Per la denizione di ker Q(f ) si ha che Q(g) = 0, e quindi,
per ipotesi induttiva, se ne ricava che
ker Q(f ) =
ker Pi (g) ,
i2
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 5
o anche che
V = V1 ker Q(f ) = V1
ker Pi (g) .
i2
(X i )i ,
i=1
dove i i sono distinti. Allora V `e somma diretta dei sottospazi Vi = ker(f i 1)i ,
i = 1, . . . , h. Inoltre la dimensione di Vi `e i .
Dato che P (f ) = 0 per il teorema di Cayley-Hamilton, e che (X i )i e (X j )j
sono primi fra loro se i = j, `e necessario dimostrare solo lasserzione sulle dimensioni dei
V1 . Scegliamo una base v1 , . . . , vn1 , vn1 +1 , . . . , vn2 , . . . per V in modo che v1 , . . . , vn1 sia
una base di V1 , vn1 +1 , . . . , vn2 una base di V2 , e cos` via. Dato che f Pi (f ) = Pi (f )f , e
quindi f (Vi ) Vi , per ogni i, la matrice di f rispetto a questa base `e diagonale a blocchi ed
ha sulla diagonale blocchi di dimensioni n1 = dim V1 , n2 n1 = dim V2 , n3 n2 = dim V3 ,
e cos` via. Inoltre f induce per restrizione un endomorsmo fi di Vi . Le matrici di
questi endomorsmi non
sono altro che i blocchi diagonali della matrice di f . Ne segue in
particolare che P (X) = i Pi (X), dove Pi `e il polinomio caratteristico di fi . Si ha che
Pi (X) = det(X1 fi ) = det((X i )1 (fi i 1)) = Q(X i ), dove Q `e il polinomio
caratteristico di Ni = fi i 1. Poiche il grado di Pi `e la dimensione di Vi , per concludere
basta mostrare che Q `e una potenza di X per ogni i. Ricordiamo che un endomorsmo si
dice nilpotente se una sua potenza `e nulla. Gli endomorsmi Ni sono nilpotenti. Infatti, per
denizione, Vi `e il nucleo di (f i 1)i , e quindi Nii = 0. Quanto dobbiamo dimostrare
segue dunque dal seguente risultato.
Lemma (1.9). Sia V uno spazio vettoriale di dimensione nita n, e sia N un suo endomorsmo. Allora N `e nilpotente se e solo se il suo polinomio caratteristico `e X n .
La dimostrazione `e semplice. Da un lato, se il polinomio caratteristico `e X n , il teorema
di Cayley-Hamilton dice che N n = 0. Per dimostrare il viceversa poniamo Vi = ker N i , e
osserviamo che N (Vi ) Vi1 Vi . Se N `e nilpotente, Vi = V per i abbastanza grande.
Vi `e dunque una ltrazione crescente di V
{0} = V0 V1 Vj Vj+1 = V .
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 6
Possiamo costruire una base v1 , . . . , vn1 , vn1 +1 , . . . , vn2 , . . . in modo che v1 , . . . , vn1 sia una
base di V1 , v1 , . . . , vn2 una base di V2 , e cos` via. Rispetto a questa base la matrice A di N
`e triangolare superiore e ha zeri sulla diagonale. Quindi XI A `e triangolare superiore e
i suoi elementi diagonali sono tutti uguali a X. Di conseguenza det(XI A) = X n , come
si voleva.
Completiamo questa sezione dando unaltra dimostrazione del teorema di CayleyHamilton (1.1). Anche questa dimostrazione `e per induzione sulla dimensione n dello
spazio vettoriale V . Come si `e gi`a osservato nel corso della prima dimostrazione, il teorema
`e banalmente vero per n = 1. Se n > 1 distinguiamo due casi. Il primo `e quello in cui esiste
un sottospazio vettoriale W V , diverso da {0} e da V , tale che f (W ) W , il secondo
quello in cui ci`
o non accade. Nel primo caso possiamo scegliere una base v1 , . . . , vn per V
in modo che v1 , . . . , vh sia una base di W , dove h < n. Rispetto a questa base la matrice
di f `e della forma
A1 B
A=
,
0 A2
dove A1 `e un blocco h h, A2 un blocco (n h) (n h) e B un blocco h (n h).
Lemma (1.10). det(A) = det(A1 ) det(A2 ) e P (X) = P1 (X)P2 (X), dove P1 (X) `e il
polinomio caratteristico di A1 e P2 (X) quello di A2 .
Dato che
P (X) = det(XI A) = det
XI A1
0
B
XI A2
,
G
P2 (A2 )
=
F
0
G
0
,
(1.11)
n1
ai f i (v) = 0 .
i=0
Poniamo
n
Q(X) = X +
n1
ai X i .
i=0
La relazione (1.11) dice che Q(f )(v) = 0. Applicando f j1 alla (1.11) si ottiene che
0=f
n+j1
(v) +
n1
ai f
i+j1
(v) = f (f
i=0
j1
(v)) +
n1
ai f i (f j1 (v)) ,
i=0
cio`e che Q(f )(vj ) = 0 per ogni j. Dato che i vj generano V se ne deduce che Q(f ) = 0. Per
concludere baster`
a mostrare che Q(X) non `e altro che il polinomio caratteristico P (X).
La matrice di f rispetto alla base v1 , . . . , vn , che indicheremo con A, `e particolarmente
semplice. In eetti segue dalla denizione dei vi e da (1.11) che
f (vi ) = vi+1
n
f (vn ) =
ai1 vi .
se i < n ,
i=1
Dunque
0
1
0
A=
0
0
1
0
0
0
0
a0
0
a1
0
a2
,
1 an1
e quindi
X
0
1 X
0 1
P (X) = det
0
0
0
0
X
a0
a1
a2
X + an1
0
0
0
Per calcolare questo determinante usiamo la regola di Laplace, sviluppando rispetto allultima colonna. Si ottiene
P (X) = (X + an1 ) det(Mn1 ) +
n2
ni1
(1)
ai det
i=0
= (X + an1 ) det(Mn1 ) +
n2
Mi
0
Lni1
i=0
dove Mi `e la matrice i i
X
1
0
e Li `e la matrice i i
0
X
1
1 X
0 1
0
0
0
0
0
0
0
0
0
X
1
0
0
0
1
0
0
0
0
.
X
1
0
X
Dato che
det(Mi ) = X i ,
det(Li ) = (1)i ,
si conclude che
P (X) = (X + an1 )X n1 +
n2
(1)ni1 ai X i (1)ni1
i=0
= Xn +
n1
ai X i
i=0
= Q(X) ,
come si voleva. Questo completa la dimostrazione del teorema di Cayley-Hamilton.
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 9
2.
Matrici normali
Sia V uno spazio vettoriale reale o complesso di dimensione nita, munito di prodotto
scalare, o hermitiano, denito positivo , . Una applicazione lineare f : V V si dice
normale se commuta con la sua aggiunta f , cio`e se f f = f f . Ad esempio sono normali
le applicazioni lineari autoaggiunte o quelle unitarie. Sia v1 , . . . , vn una base ortonormale
di V e sia A la matrice di f rispetto a questa base. Dire che f `e normale equivale a dire
a verr`
a detta normale.
che A tA = tAA; una matrice con questa propriet`
Teorema (2.1). Sia V uno spazio vettoriale complesso di dimensione nita munito di un
prodotto hermitiano denito positivo e sia f : V V una applicazione lineare normale.
Allora vi `e una base ortonormale di V interamente costituita da autovettori di f .
` chiaro che la traduzione di questo teorema nel linguaggio delle matrici `e la seguente:
E
se A `e una matrice normale vi `e una matrice unitaria U tale che U 1 AU sia diagonale.
Dimostreremo (2.1) per induzione sulla dimensione di V . Se questa vale 1 non vi `e
nulla da dimostrare dato che A `e gi`a diagonale. Per il passo induttivo ci serve la seguente
osservazione, che `e utile e interessante anche di per s`e.
Lemma (2.2). Siano f e g applicazioni lineari di V in s`e tali che f g = gf . Allora, se
V = {0}, vi `e un elemento non nullo di V che `e autovettore sia per f che per g.
Sia un autovalore di f , e sia V lautospazio corrispondente. Se v V ,
f (g(v)) = g(f (v)) = g(v) = g(v) .
In altre parole, g(v) V . Dunque g(V ) V e g induce, per restrizione, una applicazione
lineare di V in s`e. Questa applicazione ha almeno un autovettore v V . Dunque v `e un
autovettore sia per f che per g. Questo dimostra (2.2).
Torniamo alla dimostrazione di (2.1). Il lemma che abbiamo appena dimostrato ci
dice che vi `e un vettore non nullo v1 V tale che f (v1 ) = v1 e f (v1 ) = v1 , dove e
sono opportuni numeri complessi. Notiamo subito che = . Infatti
v1 , v1 = f (v1 ), v1 = v1 , f (v1 ) = v1 , v1 .
In denitiva si ha che
f (v1 ) = v1 ,
f (v1 ) = v1 .
B1
0
...
0
B2
0
...
0
B3
...
...
...
0
0
...
Bh
AX = X ,
AX = X .
AU =
=
1
1
0
0
U2
1
0
0
U21
U11 AU1
0
B
1
0
0
U2
1
0
0
U2
=
=
1
1
0
0
U2
U21 BU2
0
0 B
1
0
0
U2
AX = X .
X = v + iw ,
X = v iw .
Inoltre
v, w =
i
i
X, X X, X = 0 ,
4
4
1
1
(AX + AX) = (X + X) = av bw ,
2
2
1
1
Aw = (AX AX) = (X X) = bv + aw ,
2i
2i
1 t
1
t
t
Av = ( AX + AX) = (X + X) = av + bw ,
2
2
1
1
t
Aw = ( tAX tAX) = (X X) = bv + aw .
2i
2i
Av =
3.
Spazi quoziente
(u) + (v) = (u + v) ,
a(u) = (au) .
Bisogna notare che queste sono buone denizioni, cio`e che, se (u ) = (u) e (v ) = (v),
allora (u + v ) = (u + v) e (au ) = (au). In eetti u u W e v v W , quindi
u + v (u + v) = u u + v v W e au au = a(u u) W . Lasciamo al lettore
di vericare che V /W , con le operazioni sopra denite, `e uno spazio vettoriale. Notiamo
` chiaro che `e
piuttosto che le (3.1) dicono che `e un omomorsmo di spazi vettoriali. E
suriettivo. Il suo nucleo `e linsieme dei v tali che (v) = (0), cio`e W .
Loperazione di passaggio al quoziente gode della seguente propriet`
a universale.
Proposizione (3.2) (Teorema di omomorfismo). Sia : V U un omomorsmo di
spazi vettoriali tale che ker() W . Allora vi `e uno e un solo omomorsmo : V /W U
tale che = . Il nucleo di `e ker()/W ; in particolare `e iniettivo se e solo se
ker() = W . Inne `e suriettivo se e solo se `e suriettivo.
Notiamo innanzitutto che, se esiste, ((v)) = (v) per ogni v V . Dato che ogni
elemento di V /W `e della forma (v) per qualche v V , `e univocamente determinato.
Per dimostrare lesistenza di poniamo ((v)) = (v). Questa `e una buona denizione.
Infatti, se (v ) = (v), allora v v ker() = W ker(), e quindi (v ) = (v). Poi
((u) + (v)) = ((u + v)) = (u + v) = (u) + (u) = ((u)) + ((v)) ,
a((v)) = a(v) = (av) = ((av)) = (a(v)) ,
` chiaro che `e suriettivo se e solo se lo `e . Se invece
e quindi `e un omomorsmo. E
(v) ker(), cio`e (v) = 0, allora (v) (ker()) = ker()/W , e viceversa. Questo
conclude la dimostrazione.
Siano v1 , . . . , vn elementi di V . Diremo che v1 , . . . , vn sono linearmente indipendenti
modulo W se (v1 ), . . . , (vn ) sono linearmente indipendenti in V /W , cio`e se ogni volta che
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 14
una combinazione lineare i ai vi appartiene a W si ha che ai = 0 per ogni i. Analogamente
diremo che v1 , . . . , vn costituiscono una base di V modulo W se (v1 ), . . . , (vn ) sono una
. , wm `e una
base di V /W . Osserviamo che, se v1 , . . . , vn `e una base di V modulo W
e w1 , . .
Infatti se
ai vi + bj wj = 0,
base diW , allora v1 , . . . , vn , w1 , . . . , wm `e una base di V .
bj = 0
allora ai vi W e quindi ai = 0 per ogni i; ne segue che bj wj = 0 e dunque che
che
(v)
=
a
(v
),
cio`
e
tali
che
v
per ogni j. Se poi v V vi sono scalari ai tali
i
i
ai vi
appartenga a W e sia quindi della forma
bj wj ; si conclude che v =
ai vi + bj wj .
Pi`
u in generale, supponiamo date una catena
{0} = V0 V1 Vk1 Vk = V
di sottospazi di V , e una base vi,1 , . . . , vi,ni di Vi modulo Vi1 per ogni i tale che 1 i k.
Allora quanto appena osservato mostra, per induzione su k, che
v1,1 , . . . , v1,n1 , v2,1 , . . . , v2,n2 , . . . , vk,1 , . . . , vk,nk
`e una base di V .
4.
A1 0 . . .
0 A2 0 . . .
0 A3
0
... ,
...
...
...
0 Am
dove ogni Ai `e della forma
0
...
1
0
...
0
1
0
...
...
0
1
...
...
0
...
0
...
...
1
0
Inoltre tutte queste inclusioni sono strette. Se infatti fosse Vi1 = Vi , con i k, si
avrebbe che Vi = f 1 (Vi1 ) = f 1 (Vi ) = Vi+1 , e dunque Vi1 = Vi = Vi+1 = =
V , da cui i 1 k, in contraddizione con quanto supposto. Losservazione cruciale `e
Vi1 , allora
che, se i > 1 e v1 , . . . , vh sono elementi di Vi che sono indipendenti modulo
modulo Vi2 . Supponiamo infatti che ai f (vi ) Vi2 .
f (v1 ), . . . , f (v
h ) sono indipendenti
Allora f i1 ( ai vi ) = 0, e quindi ai vi appartiene a Vi1 . Dato che i vi sono indipendenti
modulo Vi1 se ne deduce che tutti gli ai sono nulli.
Possiamo ora costruire la base richiesta. Scegliamo una base vk,1 , . . . , vk,mk di V = Vk
modulo Vk1 , poi scegliamo vettori vk1,1 , . . . , vk1,mk1 di Vk1 in modo che
f (vk,1 ), . . . , f (vk,mk ), vk1,1 , . . . , vk1,mk1
sia una base di Vk1 modulo Vk2 , poi vettori vk2,1 , . . . , vk2,mk2 di Vk2 in modo che
f 2 (vk,1 ), . . . , f 2 (vk,mk ), f (vk1,1 ), . . . , f (vk1,mk1 ), vk2,1 , . . . , vk2,mk2
sia una base di Vk2 modulo Vk3 , e cos` via. Lunione delle basi dei Vi modulo Vi1 cos`
ottenute `e una base di V , che basta riordinare per trovare la base cercata. Per esempio,
una base con le caratteristiche desiderate `e
f k1 (vk,1 ),f k2 (vk,1 ), . . . , vk,1 , . . . , f k1 (vk,mk ), . . . , vk,mk ,
f k2 (vk1,1 ), . . . , vk1,1 , . . . , f k2 (vk1,mk1 ), . . . , vk1,mk1 , . . . , v1,1 , . . . , v1,m1 .
Questo dimostra (4.1).
Vogliamo ora applicare la proposizione (4.1) allo studio di un endomorsmo di uno
spazio vettoriale complesso. In generale, se `e uno scalare chiameremo blocco di Jordan
di dimensione n e autovalore la matrice n n
...
Jn () =
0
1
...
...
...
0
1
0
...
...
0
...
...
.
Teorema (4.2) (Forma canonica di Jordan). Sia V uno spazio vettoriale complesso
di dimensione nita, e sia f : V V un endomorsmo di V . Vi `e una base di V rispetto
alla quale la matrice di f `e diagonale a blocchi, con blocchi di Jordan sulla diagonale.
Una matrice diagonale a blocchi, con blocchi di Jordan sulla diagonale, verr`
a detta
in forma canonica di Jordan. La proposizione (4.1) aerma che, rispetto a una base
opportuna, la matrice di un endomorsmo nilpotente `e in forma canonica di Jordan, e che
inoltre i suoi blocchi diagonali sono tutti del tipo Jn (0); questo `e vero su qualsiasi campo
base, e non solo su C.
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 16
(X i )ki
i=1
A1
0
...
0
A2
0
...
0
A3
...
...
...
0
0
... ,
Am
5.
A1
0
...
0
A2
0
...
0
A3
...
...
...
0
0
... ,
Am
Applichiamo il lemma con W = Vk1 e v = vk,1 . Siano gli ai scalari tali che
h1
ai f i (vk,1 ) Vk1 .
i=0
h1
Se poniamo R(X) = i=0 ai X i , questo equivale a dire che R(f )(vk,1 ) Vk1 , cio`e che
R(X) I. Dato che Qk1 (f )(Q(f )(vk,1 )) = 0, anche Q(X) appartiene a I. Per il lemma
che si `e appena dimostrato, I `e un ideale in K[X], e quindi ha un generatore monico che
divide sia Q che R. Dato che Q `e irriducibile e il grado di R `e strettamente minore del
grado di Q, se R = 0 questo generatore deve essere 1. Dato che Vk = Vk1 , questo `e assurdo. Lunica via di uscita `e che sia R = 0, cio`e che tutti gli ai siano nulli. Questo mostra
che vk,1 , f (vk,1 ), f 2 (vk,1 ), . . . , f h1 (vk,1 ) sono indipendenti modulo Vk1 . Notiamo inoltre
che il sottospazio W di V generato da Vk1 e da vk,1 , f (vk,1 ), f 2 (vk,1 ), . . . , f h1 (vk,1 ) `e invariante. In eetti ogni elemento v di W si scrive come somma di un elemento di Vk1 e di
una combinazione lineare di vk,1 , f (vk,1 ), f 2 (vk,1 ), . . . , f h1 (vk,1 ). Dunque f (v) `e somma
di un elemento di Vk1 e di una combinazione lineare di vk,1 , f (vk,1 ), f 2 (vk,1 ), . . . , f h (vk,1 ).
Ma daltra parte il fatto che Q(f )(vk,1 ) appartenga a Vk1 ci dice che f h (vk,1 ) `e somma di
un elemento di Vk1 e di una combinazione lineare di vk,1 , f (vk,1 ), f 2 (vk,1 ), . . . , f h1 (vk,1 ).
Quindi f (v) W . Se vk,1 , f (vk,1 ), f 2 (vk,1 ), . . . , f h1 (vk,1 ) non `e una base di Vk modulo
Vk1 , scegliamo un vettore vk,2 appartenente a Vk ma non a W . Ragionando esattamente
come sopra si mostra che vk,2 , f (vk,2 ), f 2 (vk,2 ), . . . , f h1 (vk,2 ) sono indipendenti modulo
W e che il sottospazio generato da W e da vk,2 , f (vk,2 ), f 2 (vk,2 ), . . . , f h1 (vk,2 ) `e invariante. Iterando questo procedimento si giunge, in un numero nito di passi, a costruire
una base di Vk modulo Vk1 della forma
vk,1 , f (vk,1 ), . . . , f h1 (vk,1 ), . . . , vk,nk , f (vk,nk ), . . . , f h1 (vk,nk ) .
Come si `e osservato,
Q(f )(vk,1 ), . . . , Q(f )(f h1 (vk,1 )), . . . , Q(f )(vk,nk ), . . . , Q(f )(f h1 (vk,nk ))
sono indipendenti modulo Vk2 . Ragionando come sopra si possono trovare elementi
vk1,1 , . . . , vk1,nk1 di Vk1 tali che
Q(f )(vk,1 ), . . . , Q(f )(f h1 (vk,1 )), . . . , Q(f )(vk,nk ), . . . , Q(f )(f h1 (vk,nk ))
vk1,1 ,f (vk1,1 ), . . . , f h1 (vk1,1 ), . . . , vk1,nk1 , f (vk1,nk1 ), . . . , f h1 (vk1,nk1 )
siano una base di Vk1 modulo Vk2 . Iterando questa costruzione si giunge a trovare una
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 19
...
...
...
k1
k1 h1
(vk,nk ), . . . , Q
(vk,nk ), . . . , Q
(f
(vk,nk )),
vk,nk , . . . , f
vk1,1 , . . . , f h1 (vk1,1 ), . . . , Qk2 (vk1,1 ), . . . , Qk2 (f h1 (vk1,1 )),
...
...
...
vk1,nk1 , . . . , f h1 (vk1,nk1 ), . . . , Qk2 (vk1,nk1 ), . . . , Qk2 (f h1 (vk1,nk1 )),
...
...
...
h1
(v1,1 ),
v1,1 , . . . , f
...
v1,n1 , . . . , f h1 (v1,n1 ).
Dato che, per ogni scelta di i, j, s, t, il vettore Qi (f )(f j (vs,t )) `e combinazione lineare di
vs,t , f (vs,t ), . . . , f hi+j (vs,t ), un altro sistema di generatori per V `e
vk,1 , f (vk,1 ) . . . , f hk1 (vk,1 ),
...
vk,nk , f (vk,nk ) . . . , f hk1 (vk,nk ),
vk1,1 , f (vk1,1 ) . . . , f h(k1)1 (vk1,1 ),
...
vk1,nk1 , f (vk1,nk1 ) . . . , f h(k1)1 (vk1,nk1 ),
...
...
v1,1 , . . . , f h1 (v1,1 ),
...
v1,n1 , . . . , f h1 (v1,n1 ).
Dato che questo sistema di generatori consta di dim(V ) elementi, `e anchesso una base di
` questa la base cercata. Per vedere come `e fatta la matrice di f rispetto a questa
V. E
base notiamo che, per ogni scelta di s e t, si ha che Qs (f )(vs,t ) = 0, e quindi f hs
(vs,t ) `e
u esattamente, se Qs (X) = ai X i ,
combinazione lineare di vs,t , f (vs,t ), . . . , f hs1 (vs,t ). Pi`
allora
hs1
hs1
hs
(vs,t )) = f (vs,t ) =
ai f i (vs,t ) .
f (f
i=0
La matrice di f rispetto alla nostra base `e dunque una matrice diagonale a blocchi
C1 0 . . .
0 C2 0 . . .
0 ...
. . . 0 C3
...
...
0 Cn
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 20
0 0
1 0
0 1 0
Cj =
...
...
...
...
...
...
c0
c1
c2
chi2
chi1
0
0
0
...
...
0
1
1
...
dove i `e il pi`
u grande intero tale che j ni + + nk e
Qi (X) = X hi + chi1 X hi1 + chi2 X hi2 + + c1 X + c0 .
Abbiamo dunque dimostrato in generale il seguente risultato.
Teorema (5.2) (Forma normale razionale o di Frobenius). Sia V uno spazio
vettoriale di dimensione nita sul campo K, e sia f un endomorsmo di V . Vi `e una base
di V rispetto alla quale la matrice di f `e una matrice diagonale a blocchi
B1
0
...
dove
0
B2
0
...
0
B3
...
...
0 0
1 0
0 1 0
...
Bi =
...
...
... ,
...
0
...
...
...
1
...
Bn
0
0
0
...
...
0
1
b0
b1
b2
bs2
bs1
e
X s + bs1 X s1 + bs2 X s2 + + b1 X + b0
`e una potenza di un polinomio irriducibile in K[X].
6.
Proiettori
i=1
i=1
7.
Osserviamo che, se `e uno scalare e A e B sono matrici delle stesse dimensioni, allora
A = ||A ,
A + B A + B .
La prima di queste due relazioni `e ovvia, mentre la seconda segue dalla considerazione che
A + B = |aij + bij | per qualche scelta di i e j, e dunque
A + B = |aij + bij | |aij | + |bij | A + B .
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 22
Notiamo incidentalmente che quella appena denita non `e la sola norma sensata denibile
sulle matrici reali o complesse; la scelta che abbiamo fatto `e solo la pi`
u conveniente per i
nostri scopi. Notiamo anche che, se A `e una matrice n m e B `e una matrice m k, allora
AB mAB .
(7.1)
1 i
A2
A3
exp(A) =
A =I +A+
+
+
i!
2
6
i=0
`e di Cauchy e exp(A) `e il suo limite. Per mostrare che {Bh } `e di Cauchy basta notare che
se h k allora, in virt`
u di (7.1),
h
h
1 i
ni1
A
Ai ,
Bh Bk =
i!
i!
i=k+1
i=k+1
1
0
0
2
0
...
0
3
...
...
...
...
...
i1
0
i
=
0
i2
0
0
i3
...
...
...
...
...
...
in
exp(1 )
0
...
0
...
0
exp(2 )
0
exp(3 ) . . .
exp(A) = U exp()U 1 = U
...
...
...
0
1
U .
exp(n )
Supponiamo ora che A sia antihermitiana, cio`e che tA = A. Possiamo dunque scrivere
A = U U 1 , dove U `e unitaria e `e una matrice diagonale puramente immaginaria. La
matrice exp() `e una matrice diagonale con numeri complessi di modulo 1 sulla diagonale.
Ne segue che exp(A) `e unitaria. Se invece A `e hermitiana possiamo scrivere A = U U 1 ,
dove U `e unitaria e `e una matrice diagonale reale. Allora exp() `e una matrice diagonale
con numeri reali positivi sulla diagonale, e quindi exp(A) `e hermitiana denita positiva.
Siano A e B due matrici complesse n n che commutano. Mostriamo, per induzione
su i, che
i
i
(7.2)
(A + B) =
Aj B h .
j
j+h=i
j,h0
j+h=i1
j,h0
j,h0
i 1 j+1 h
A B +
j
j+h=i1
j,h0
i 1 j h+1
A B
j
i 1 i 1
=
+
Aj B h
j
1
j
j+h=i
j,h0
i
=
Aj B h .
j
j+h=i
j,h0
i!
k
k
k
1
1 i
1 j 1 h
Aj B h =
=
Aj B h =
A
B .
j
i!
j!h!
j!
h!
j+h=i
j+hk
i=0
j=0
j,h0
h=0
j,h0
Osserviamo che (7.2) e (7.3) non sono sempre valide se A e B non commutano. Un esempio
`e dato da
1 1
0 1
A=
,
B=
.
0 0
0 0
In eetti
2
(A + B) =
exp(A + B) =
1
0
0
0
e
0
0
1
,
,
1
0
A + 2AB + B =
e
exp(A) exp(B) =
0
1
,
0
1
.
1