Sei sulla pagina 1di 25

Complementi di algebra lineare

Maurizio Cornalba

1.

Polinomi e matrici

Sia 
V uno spazio vettoriale sul campo K, e sia f un suo endomorsmo. Sia poi
P (X) = i ai X i un polinomio a coecienti in K. Poniamo
P (f ) =

ai f i ,

dove f i sta per la composizione di f con se stesso i volte. Allo stesso modo, se A `e una
matrice n n a coecienti in K, porremo
P (A) =

ai Ai .

Se V ha dimensione nita e A `e la matrice di f rispetto a una sua base, allora P (A) `e la


matrice di P (f ) rispetto a questa stessa base. Ci`o segue dal fatto che la composizione di
applicazioni lineari corrisponde al prodotto di matrici. Sia ora Q(X) un altro polinomio.
Valgono le seguenti propriet`
a
P (f ) + Q(f ) = (P + Q)(f ) ,
P (f )Q(f ) = P Q(f ) .
Solo la seconda merita un cenno di dimostrazione. Scriviamo Q(X) =
P Q(X) =

i bi X

, cosicche


Xi .

ah bk

h+k=i

Daltra parte


ah f h )(
bk f k )
P (f )Q(f ) = (
h


i


i


h

ah f bk f

h+k=i


ah bk

fi ,

h+k=i

come si voleva. Naturalmente propriet`


a analoghe a quelle appena dimostrate valgono
quando al posto di f vi sia una matrice quadrata.
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 1

Teorema (1.1) (Cayley-Hamilton). Sia V uno spazio vettoriale di dimensione nita


sul campo K, sia f : V V una applicazione lineare, e sia P (X) il suo polinomio
caratteristico. Allora P (f ) = 0.
Scegliamo una base di V , e sia A la matrice di f rispetto a questa base. Dunque
P (X) = det(XI A), e dobbiamo dimostrare che P (A) = 0. Siamo naturalmente liberi
di cambiare la base o, che `e lo stesso, di rimpiazzare la matrice A con una sua coniugata,
se necessario. La dimostrazione `e per induzione su n. Il teorema `e sicuramente vero per
n = 1, in quanto in questo caso A `e uno scalare a e P (X) = X a. Per n > 1 ci baseremo
sul seguente semplice risultato algebrico, che enunciamo senza dimostrazione.
Lemma (1.2). Esiste un campo F di cui K `e sottocampo (esiste cio`e una estensione F di
K) tale che P abbia una radice in F .
Possiamo considerare la matrice A come matrice a coecienti in F , senza che questo
cambi il suo polinomio caratteristico. Lannullarsi o meno di P (A) `e inoltre indipendente
dal fatto che si lavori sul campo K o sul campo F . Possiamo dunque supporre che P abbia
una radice gi`
a in K. Scegliamo la base di V in modo che il suo primo elemento sia un
autovettore per . Allora


C
,
A=
0 B
dove B `e un blocco (n 1) (n 1) e C un blocco 1 (n 1). Applicando la regola di
Laplace e sviluppando il determinante rispetto alla prima colonna si ottiene
P (X) = det(XI A) = (X ) det(XI B) .
In altre parole, il polinomio caratteristico di A `e il prodotto di X e del polinomio
caratteristico di B, che indichiamo con Q(X). Per ipotesi induttiva sappiamo che Q(B) =
` immediato mostrare che
0. E


k  k
D

C
=
,
0 Bk
0 B
dove D `e una matrice 1 (n 1). Ne segue che



 

0 E
Q()
M
Q() M
A I =
,
Q(A) =
=
,
0 G
0
Q(B)
0
0
dove G `e una matrice (n 1) (n 1) e E, M sono matrici 1 (n 1). Dunque



0 E
Q() M
P (A) = (A I)Q(A) =
= 0,
0 G
0
0
come si doveva dimostrare.
Nel resto di questa sezione supporremo sempre che V abbia dimensione nita. Il
teorema di Cayley-Hamilton asserisce tra laltro lesistenza di un polinomio non nullo a
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 2

coecienti in K che si annulla se valutato su f . Tra tutti i polinomi non nulli con questa
propriet`
a consideriamo quelli di grado minimo. Questi polinomi sono tutti proporzionali fra
loro, poiche in caso contrario si potrebbe costruire per combinazione lineare un polinomio
non nullo di grado pi`
u basso che si annulla se valutato su f ; vi `e dunque tra loro un solo
polinomio monico, che si chiama polinomio minimo di f . Allo stesso modo si denisce il
` chiaro che, se A `e la matrice di f rispetto
polinomio minimo di una matrice quadrata. E
a una qualche base, i polinomi minimi di f e di A coincidono.
Sia ora Q il polinomio minimo di f , e sia G un polinomio a coecienti in K tale che
G(f ) = 0. Vogliamo mostrare che esiste un altro polinomio H a coecienti in K tale che
G = HQ. Infatti se dividiamo G per Q possiamo scrivere
G = HQ + R ,
` chiaro che R(f ) = 0; quindi, se R
dove R `e nullo o ha grado pi`
u basso di quello di Q. E
non fosse nullo, Q non potrebbe essere il polinomio minimo di f .
Proposizione (1.3). Sia V uno spazio vettoriale di dimensione nita su K, sia f un suo
endomorsmo, e indichiamo con Q il polinomio minimo di f . Allora:
i) ogni autovalore di f `e radice di Q;
ii) f `e diagonalizzabile (su K) se e solo se Q ha deg(Q) radici distinte in K.
Sia un autovalore di f ; dunque c`e un vettore non nullo v V tale che f (v) = v.
Ne segue che f i (v) = i v per ogni i, e quindi che H(f )(v) = H()v per ogni polinomio
H. In particolare 0 = Q(f )(v) = Q()v, e come conseguenza Q() = 0. Supponiamo ora
che f sia diagonalizzabile, cio`e che V abbia una base v1 , . . . , vn costituita da autovettori.
Riordinando questa base possiamo supporre che

1 vi

2 vi
f (vi ) = 3 vi

...
h vi

se 0 = n0 < i n1
se n1 < i n2
se n2 < i n3
se nh1 < i nh = n


si `e visto,
dove 1 , . . . , h sono distinti. Dico che Q(X) = i (X i ). Dato che, come

ognuno dei i `e radice di Q, basta mostrare che H(f ) = 0, dove H(X) = i (X i ). In
eetti, se j `e un intero compreso tra 1 e n, e i `e scelto in modo che ni1 < j ni , allora
f (vj ) = i vj e quindi
H(f )(vj ) =

(f k 1)(f (vj ) i vj ) = 0 .

k=i

Poiche vj `e un elemento arbitrario della base scelta per V , H(f ) deve essere nullo.

Per completare la dimostrazione di (1.3) resta da mostrare che, se Q(X) = i (X i ),
dove i i sono distinti, allora f `e diagonalizzabile. Ragioneremo per induzione sul grado
di Q. Se questo `e 1, f `e una omotetia, e quindi diagonalizzabile. Descriviamo ora il passo
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 3


induttivo. Scriviamo Q(X) = (X 1 )R(X), dove R(X) = k>1 (X k ). Osserviamo
o scrivere
che, poiche 1 non `e una radice di R, dividendo R per (X 1 ) si pu`
R(X) = C(X)(X 1 ) + c ,
dove c `e una costante non nulla. Dividendo per c se ne ricava che ci sono polinomi A e B
tali che
(1.4)

(X 1 )A(X) + R(X)B(X) = 1 .

Sia ora v un elemento di V . Da (1.4) si deduce che


v = (f 1 1)A(f )(v) + R(f )B(f )(v) .
Si noti che (f 1 1)R(f )B(f )(v) = Q(f )B(f )(v) = 0 e che R(f )(f 1 1)A(f )(v) =
Q(f )A(f )(v) = 0. Ci`
o mostra che v `e somma di un elemento di V1 = ker(R(f )) e di uno
di V2 = ker(f 1 1); in altre parole, V `e somma di V1 e V2 . Questa somma `e diretta. In
eetti, se v V1 V2 , allora da (1.4) si ricava che
v = A(f )(f (v) 1 v) + B(f )R(f )(v) = 0 .
Osserviamo ora che f R(f )(w) = R(f )(f (w)) per ogni w V , e quindi in particolare
f (w) ker R(f ) ogni volta che w ker R(f ). In altri termini, se conveniamo di chiamare
invariante per f un sottospazio W di V nel caso in cui f (W ) W , il sottospazio V1 =
ker R(f ) `e invariante. Ne segue che f induce per restrizione un endomorsmo g di V1 .
Il polinomio minimo di g `e R(X). Per ipotesi induttiva g `e diagonalizzabile, cio`e vi `e
una base di V1 costituita da autovettori di g, e quindi di f . Una base di V costituita da
autovettori si ottiene aggiungendo a questa una base di V2 , che `e lautospazio di f relativo
a 1 . La dimostrazione di (1.3) `e completa.
Ricordiamo che due polinomi si dicono primi fra loro se non vi sono polinomi, oltre
alle costanti, che li dividano entrambi.
Proposizione (1.5). Sia V uno spazio vettoriale di dimensione nita su K e
sia f un suo
endomorsmo. Siano P1 , . . . , Ph polinomi a due a due primi fra loro tali che Pi (f ) = 0.
Allora V `e somma diretta dei sottospazi Vi = ker(Pi (f )), i = 1, . . . , h.
Questa proposizione e la sua dimostrazione generalizzano la parte nale della dimostrazione di (1.3). Iniziamo dal caso h = 2. Faremo uso del seguente semplice lemma
algebrico.
Lemma (1.6). Siano P1 e P2 polinomi a coecienti in K. Se P1 e P2 sono primi fra loro
esistono polinomi A e B a coecienti in K tali che
A(X)P1 (X) + B(X)P2 (X) = 1 .
Osserviamo, per inciso, che (1.4) `e un caso particolare di questo lemma. Per dimostrare
(1.6) indichiamo con H un polinomio non nullo di grado minimo tra quelli della forma
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 4

M P1 + N P2 , dove M e N sono polinomi. Possiamo scrivere P1 (X) = C(X)H(X) + R(X),


dove R `e nullo o ha grado minore di quello di H. Quindi R = (1 CM )P1 CN P2 .
Per la minimalit`
a del grado di H, R deve essere nullo. Dunque H divide P1 , e lo stesso
ragionamento mostra che divide P2 . Poiche P1 e P2 sono primi fra loro, ne segue che H `e
costante. Dividendo per questa costante si ottiene la relazione cercata.
Torniamo alla dimostrazione di (1.5). Se v V segue da (1.6) che
v = 1(v) = P2 (f )B(f )(v) + P1 (f )A(f )(v) .
Dato che P1 (f )P2 (f )B(f )(v) = 0 e P2 (f )P1 (f )A(f )(v) = 0, ci`
o esprime v come somma di
un elemento di V1 e di uno di V2 . Se poi v appartiene a V1 V2 possiamo scrivere, sempre
usando (1.6):
v = 1(v) = B(f )P2 (f )(v) + A(f )P1 (f )(v) = 0 .
Ci`
o mostra che V = V1 V2 , completando la dimostrazione nel caso h = 2.
Per h > 2 si procede per induzione su h. Faremo uso di un altro lemma algebrico.
Lemma (1.7). Siano P1 , . . . , Ph polinomi a coecienti in K. Se P1 `e primo con P2 , . . . , Ph ,
allora P1 `e primo con Q = P2 Ph .
Ragioniamo per assurdo. Se quanto aermato dal lemma non fosse vero potremmo
trovare polinomi di grado positivo che sono divisori sia di P1 che di Q. Sia H un polinomio
di grado minimo tra questi; in particolare H non ha divisori di grado minore di quello di
o implica che H deve essere
H a parte le costanti. Dato che P1 e P2 sono primi fra loro, ci`
o scrivere
primo con P2 , e quindi, per (1.6), che si pu`
1 = AH + BP2 ,
da cui


i3

Pi =

Pi AH + BQ .

i3

Dato che H divide Q se ne deduce che divide anche P3 Ph . Iterando questo ragionamento
si giunge alla conclusione che H divide Ph , il che `e assurdo visto che P1 e Ph sono primi
fra loro.
Torniamo alla dimostrazione di (1.5). Il lemma che abbiamo appena dimostrato dice
che P1 e Q = P2 Ph sono primi fra loro. Usando il caso h = 2 della proposizione ne
deduciamo che V `e somma diretta di V1 e del nucleo di Q(f ). Osserviamo che f Q(f ) =
Q(f )f , e che quindi f (ker Q(f )) ker Q(f ). Ne segue che f induce per restrizione un
endomorsmo g di ker Q(f ). Per la denizione di ker Q(f ) si ha che Q(g) = 0, e quindi,
per ipotesi induttiva, se ne ricava che
ker Q(f ) =

ker Pi (g) ,

i2
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 5

o anche che
V = V1 ker Q(f ) = V1

ker Pi (g) .

i2

Per concludere basta osservare che, per i 2,


ker Pi (g) = ker Q(f ) ker Pi (f ) = ker Pi (f ) ,
dato che Pi divide Q e quindi ker Pi (f ) ker Q(f ). La dimostrazione di (1.5) `e ora
completa.
Corollario (1.8). Sia V uno spazio vettoriale di dimensione nita su K e sia f un
suo endomorsmo. Supponiamo che il polinomio caratteristico P di f si decomponga
completamente in fattori lineari, e scriviamo
P (X) =

(X i )i ,

i=1

dove i i sono distinti. Allora V `e somma diretta dei sottospazi Vi = ker(f i 1)i ,
i = 1, . . . , h. Inoltre la dimensione di Vi `e i .
Dato che P (f ) = 0 per il teorema di Cayley-Hamilton, e che (X i )i e (X j )j
sono primi fra loro se i = j, `e necessario dimostrare solo lasserzione sulle dimensioni dei
V1 . Scegliamo una base v1 , . . . , vn1 , vn1 +1 , . . . , vn2 , . . . per V in modo che v1 , . . . , vn1 sia
una base di V1 , vn1 +1 , . . . , vn2 una base di V2 , e cos` via. Dato che f Pi (f ) = Pi (f )f , e
quindi f (Vi ) Vi , per ogni i, la matrice di f rispetto a questa base `e diagonale a blocchi ed
ha sulla diagonale blocchi di dimensioni n1 = dim V1 , n2 n1 = dim V2 , n3 n2 = dim V3 ,
e cos` via. Inoltre f induce per restrizione un endomorsmo fi di Vi . Le matrici di
questi endomorsmi non
sono altro che i blocchi diagonali della matrice di f . Ne segue in
particolare che P (X) = i Pi (X), dove Pi `e il polinomio caratteristico di fi . Si ha che
Pi (X) = det(X1 fi ) = det((X i )1 (fi i 1)) = Q(X i ), dove Q `e il polinomio
caratteristico di Ni = fi i 1. Poiche il grado di Pi `e la dimensione di Vi , per concludere
basta mostrare che Q `e una potenza di X per ogni i. Ricordiamo che un endomorsmo si
dice nilpotente se una sua potenza `e nulla. Gli endomorsmi Ni sono nilpotenti. Infatti, per
denizione, Vi `e il nucleo di (f i 1)i , e quindi Nii = 0. Quanto dobbiamo dimostrare
segue dunque dal seguente risultato.
Lemma (1.9). Sia V uno spazio vettoriale di dimensione nita n, e sia N un suo endomorsmo. Allora N `e nilpotente se e solo se il suo polinomio caratteristico `e X n .
La dimostrazione `e semplice. Da un lato, se il polinomio caratteristico `e X n , il teorema
di Cayley-Hamilton dice che N n = 0. Per dimostrare il viceversa poniamo Vi = ker N i , e
osserviamo che N (Vi ) Vi1 Vi . Se N `e nilpotente, Vi = V per i abbastanza grande.
Vi `e dunque una ltrazione crescente di V
{0} = V0 V1 Vj Vj+1 = V .
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 6

Possiamo costruire una base v1 , . . . , vn1 , vn1 +1 , . . . , vn2 , . . . in modo che v1 , . . . , vn1 sia una
base di V1 , v1 , . . . , vn2 una base di V2 , e cos` via. Rispetto a questa base la matrice A di N
`e triangolare superiore e ha zeri sulla diagonale. Quindi XI A `e triangolare superiore e
i suoi elementi diagonali sono tutti uguali a X. Di conseguenza det(XI A) = X n , come
si voleva.
Completiamo questa sezione dando unaltra dimostrazione del teorema di CayleyHamilton (1.1). Anche questa dimostrazione `e per induzione sulla dimensione n dello
spazio vettoriale V . Come si `e gi`a osservato nel corso della prima dimostrazione, il teorema
`e banalmente vero per n = 1. Se n > 1 distinguiamo due casi. Il primo `e quello in cui esiste
un sottospazio vettoriale W V , diverso da {0} e da V , tale che f (W ) W , il secondo
quello in cui ci`
o non accade. Nel primo caso possiamo scegliere una base v1 , . . . , vn per V
in modo che v1 , . . . , vh sia una base di W , dove h < n. Rispetto a questa base la matrice
di f `e della forma


A1 B
A=
,
0 A2
dove A1 `e un blocco h h, A2 un blocco (n h) (n h) e B un blocco h (n h).
Lemma (1.10). det(A) = det(A1 ) det(A2 ) e P (X) = P1 (X)P2 (X), dove P1 (X) `e il
polinomio caratteristico di A1 e P2 (X) quello di A2 .


Dato che
P (X) = det(XI A) = det

XI A1
0

B
XI A2


,

`e suciente dimostrare la prima aermazione. Sappiamo che questa `e vera se B = 0, e


vogliamo ridurci a questo caso. Se le righe di A2 sono tra loro dipendenti, anche le righe
di A lo sono, e quindi det(A) = det(A2 ) = 0; in questo caso, dunque, il lemma `e vero.
Se invece le righe di A2 sono indipendenti, costituiscono una base di K nh . Ne segue che
ogni riga di B `e combinazione lineare di righe di A2 e quindi, per eliminazione Gaussiana,
possiamo ridurre la nostra matrice alla forma


A1 0
,
0 A2
senza cambiarne il determinante, che vale perci`
o det(A1 ) det(A2 ). Questo conclude la
dimostrazione del lemma.
Torniamo alla dimostrazione del teorema di Cayley-Hamilton. Induttivamente, possiamo supporre che esso valga per A1 e A2 ; possiamo cio`e supporre che P1 (A1 ) = 0,
` immediato mostrare che
P2 (A2 ) = 0. E
k  k


A1 C
A1 B
=
,
0 A2
0 Ak2
dove C `e una matrice h (n h). Ne segue che


 

P1 (A1 ) D
F
0 D
=
,
P2 (A) =
P1 (A) =
0
0
E
0 E

G
P2 (A2 )

Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 7


=

F
0

G
0


,

dove F `e una matrice h h, E una matrice (n h) (n h), D e G matrici h (n h).


Dunque



0 D
F G
P (A) = P1 (A)P2 (A) =
= 0,
0 E
0 0
come si doveva dimostrare.
Resta da esaminare il caso in cui non vi sono sottospazi non banali W V tali
che f (W ) W . Scegliamo un elemento non nullo v di V , e sia h il minimo tra gli
interi m per cui v, f (v), f 2 (v), . . . , f m (v) sono linearmente dipendenti. In altre parole,
v, f (v), f 2 (v), . . . , f h1 (v) sono linearmente indipendenti ma si ha una relazione di dipendenza lineare
h1

ai f i (v) = 0 .
f h (v) +
i=0

Questa relazione mostra che, se W `e il sottospazio di V generato da v, f (v), . . . , f h1 (v),


allora f (W ) W . Dato che W `e diverso da {0}, deve essere necessariamente uguale a
a
V . In altre parole, v, f (v), f 2 (v), . . . , f n1 (v) costituiscono una base di V ; per brevit`
i1
n
porremo vi = f (v), per i = 1, . . . , n. Dato che f (v) `e combinazione lineare dei vi si ha
una relazione di dipendenza lineare
f n (v) +

(1.11)

n1


ai f i (v) = 0 .

i=0

Poniamo
n

Q(X) = X +

n1


ai X i .

i=0

La relazione (1.11) dice che Q(f )(v) = 0. Applicando f j1 alla (1.11) si ottiene che
0=f

n+j1

(v) +

n1


ai f

i+j1

(v) = f (f

i=0

j1

(v)) +

n1


ai f i (f j1 (v)) ,

i=0

cio`e che Q(f )(vj ) = 0 per ogni j. Dato che i vj generano V se ne deduce che Q(f ) = 0. Per
concludere baster`
a mostrare che Q(X) non `e altro che il polinomio caratteristico P (X).
La matrice di f rispetto alla base v1 , . . . , vn , che indicheremo con A, `e particolarmente
semplice. In eetti segue dalla denizione dei vi e da (1.11) che
f (vi ) = vi+1
n

f (vn ) =
ai1 vi .

se i < n ,

i=1

Dunque

0
1

0
A=

0
0
1

0
0
0

0
a0
0
a1

0
a2
,

1 an1

Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 8

e quindi

X
0
1 X

0 1
P (X) = det

0
0

0
0
X

a0
a1

a2

X + an1

0
0
0

Per calcolare questo determinante usiamo la regola di Laplace, sviluppando rispetto allultima colonna. Si ottiene
P (X) = (X + an1 ) det(Mn1 ) +

n2



ni1

(1)

ai det

i=0

= (X + an1 ) det(Mn1 ) +

n2


Mi
0

Lni1

(1)ni1 ai det(Mi ) det(Lni1 ) ,

i=0

dove Mi `e la matrice i i

X
1

0
e Li `e la matrice i i

0
X
1

1 X
0 1

0
0

0
0

0
0
0

0
0


X
1

0
0
0

1
0

0
0

0
.

X
1

0
X

Dato che
det(Mi ) = X i ,

det(Li ) = (1)i ,

si conclude che
P (X) = (X + an1 )X n1 +

n2


(1)ni1 ai X i (1)ni1

i=0

= Xn +

n1


ai X i

i=0

= Q(X) ,
come si voleva. Questo completa la dimostrazione del teorema di Cayley-Hamilton.
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 9

2.

Matrici normali

Sia V uno spazio vettoriale reale o complesso di dimensione nita, munito di prodotto
scalare, o hermitiano, denito positivo  , . Una applicazione lineare f : V V si dice
normale se commuta con la sua aggiunta f , cio`e se f f = f f . Ad esempio sono normali
le applicazioni lineari autoaggiunte o quelle unitarie. Sia v1 , . . . , vn una base ortonormale
di V e sia A la matrice di f rispetto a questa base. Dire che f `e normale equivale a dire
a verr`
a detta normale.
che A tA = tAA; una matrice con questa propriet`
Teorema (2.1). Sia V uno spazio vettoriale complesso di dimensione nita munito di un
prodotto hermitiano denito positivo e sia f : V V una applicazione lineare normale.
Allora vi `e una base ortonormale di V interamente costituita da autovettori di f .
` chiaro che la traduzione di questo teorema nel linguaggio delle matrici `e la seguente:
E
se A `e una matrice normale vi `e una matrice unitaria U tale che U 1 AU sia diagonale.
Dimostreremo (2.1) per induzione sulla dimensione di V . Se questa vale 1 non vi `e
nulla da dimostrare dato che A `e gi`a diagonale. Per il passo induttivo ci serve la seguente
osservazione, che `e utile e interessante anche di per s`e.
Lemma (2.2). Siano f e g applicazioni lineari di V in s`e tali che f g = gf . Allora, se
V = {0}, vi `e un elemento non nullo di V che `e autovettore sia per f che per g.
Sia un autovalore di f , e sia V lautospazio corrispondente. Se v V ,
f (g(v)) = g(f (v)) = g(v) = g(v) .
In altre parole, g(v) V . Dunque g(V ) V e g induce, per restrizione, una applicazione
lineare di V in s`e. Questa applicazione ha almeno un autovettore v V . Dunque v `e un
autovettore sia per f che per g. Questo dimostra (2.2).
Torniamo alla dimostrazione di (2.1). Il lemma che abbiamo appena dimostrato ci
dice che vi `e un vettore non nullo v1 V tale che f (v1 ) = v1 e f (v1 ) = v1 , dove e
sono opportuni numeri complessi. Notiamo subito che = . Infatti
v1 , v1  = f (v1 ), v1  = v1 , f (v1 ) = v1 , v1  .
In denitiva si ha che

f (v1 ) = v1 ,
f (v1 ) = v1 .

Possiamo anche supporre che v1  = 1. Sia ora W = {w V : w, v1  = 0} il complemento


ortogonale di v1 . Per ogni w W si ha che
f (w), v1  = w, f (v1 ) = w, v1  = 0 ,
e quindi f (W ) W . Analogamente f (W ) W , e laggiunta dellapplicazione lineare
da W in s`e indotta da f non `e altro che lapplicazione lineare indotta da f . Dato che
la dimensione di W `e dim(V ) 1, sappiamo per ipotesi induttiva che W ha una base
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 10

ortonormale v2 , . . . , vn costituita da autovettori di f . La base cercata di V `e v1 , . . . , vn .


Questo conclude la dimostrazione del teorema (2.1).
Ci si pu`
o chiedere se nel caso reale valga un analogo del teorema appena dimostrato.
In questi termini, la risposta `e negativa. Infatti, se A `e una matrice reale e U `e una matrice
ortogonale tale che U 1 AU sia diagonale, gli autovalori di A sono necessariamente tutti
reali. Daltra parte la matrice ortogonale, e quindi normale,


cos sin
sin cos
ha come autovalori exp(i) e exp(i), che non sono reali a meno che non sia della
forma 2k o (2k + 1), dove k `e un intero. Qualcosa si pu`
o tuttavia fare anche nel caso
reale. Per spiegarlo useremo il linguaggio delle matrici.
Proposizione (2.3). Sia A una matrice reale normale. Esiste una matrice ortogonale U
tale che U 1 AU sia la matrice diagonale a blocchi

B1
0

...

0
B2
0

...
0
B3
...
...

...
0
0

...

Bh

dove ogni Bi `e o un numero reale o una matrice reale 2 2 della forma






Indichiamo con n la dimensione di A. Sappiamo che, se consideriamo A e tA come matrici complesse, vi `e un autovettore comune ad entrambe, che indichiamo con X. Sappiamo
dunque che
(2.4)

AX = X ,
AX = X .

Se `e reale questo ci dice che X `e soluzione di un sistema omogeneo di equazioni lineari


reali. Prendendo le parti reali o immaginarie dei due membri delle (2.4) si trova che anche
i vettori reali Re(X) = (X + X)/2 e Im(X) = (X X)/2i sono soluzioni dello stesso
sistema; dato che X = 0, almeno uno dei due non `e nullo. Si pu`
o dunque supporre che X
sia reale, e anche che abbia norma 1. Sia ora W il complemento ortogonale di X in Rn ;
come nel caso complesso si vede che AW W e tAW W . Dunque, se X2 , . . . , Xn `e una
base ortonormale di W , la matrice U1 le cui colonne sono X, X2 , . . . , Xn `e ortogonale e


0
1
,
U1 AU1 =
0 B
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 11

dove B `e una matrice normale (n 1) (n 1). Induttivamente si pu`


o supporre che vi sia
1
una matrice ortogonale U2 tale che U2 BU2 sia come nella tesi della proposizione. Dunque


1 0
U = U1
0 U2
`e ortogonale e
U

AU =

=

1

1
0

0
U2

1
0

0
U21

U11 AU1



0
B



1
0

0
U2

1
0

0
U2


=


=

1 

1
0

0
U2

U21 BU2

0
0 B




1
0

0
U2

`e della forma richiesta.


Occupiamoci ora del caso in cui non `e reale. Coniugando le (2.4) si ottengono le
relazioni
AX = X ,
t

AX = X .

Notiamo che X e X sono ortogonali fra loro. Infatti


X, X = AX, X = X, tAX = X, X = X, X ;
dato che = se ne deduce che X, X = 0. Poniamo ora
v = Re(X) ,
w = Im(X) .
Si ha che

X = v + iw ,
X = v iw .

Inoltre
v, w =

i
i
X, X X, X = 0 ,
4
4

dato che X, X = X, X, mentre


1
(X2 + X2 ) = w2 .
4
Rinormalizzando opportunamente X possiamo dunque supporre che v = w = 1.
Osserviamo ora che, scrivendo a per indicare la parte reale di e b per indicare la parte
immaginaria,
v2 =

1
1
(AX + AX) = (X + X) = av bw ,
2
2
1
1
Aw = (AX AX) = (X X) = bv + aw ,
2i
2i
1 t
1
t
t
Av = ( AX + AX) = (X + X) = av + bw ,
2
2
1
1
t
Aw = ( tAX tAX) = (X X) = bv + aw .
2i
2i
Av =

Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 12

Ne segue in particolare che, se u `e un vettore ortogonale sia a v che a w, allora anche Au


e tAu sono ortogonali a v e a w; infatti Au, v = u, tAv = 0, e cos` via. Se dunque
indichiamo con W il sottospazio di Rn consistente di tutti i vettori ortogonali sia a v che
w, si ha che AW W e tAW W . Dunque, se v3 , . . . , vn `e una base ortonormale di W ,
la matrice U1 le cui colonne sono v, w, v3 , . . . , vn `e ortogonale e


B1 0
1
U1 AU1 =
,
0 B
dove


a b
B1 =
b a
e B `e una matrice normale (n 2) (n 2). Induttivamente si pu`
o supporre che vi sia una
1
matrice ortogonale U2 tale che U2 BU2 sia come nella tesi della proposizione. Dunque,
a 2 2,
indicando con I2 la matrice identit`


I2 0
U = U1
0 U2
`e ortogonale e


1

 
1 

I2 0
I2 0
I2 0
I2 0
B1 0
1
1
U AU =
U1 AU1
=
0 U2
0 U2
0 U2
0 B
0 U2


 


0
I2 0
0
B1 0
B1
I2
=
=
1
1
0 U2
0 B
0 U2
0 U2 BU2
`e della forma richiesta.
Concludiamo questa sezione con un risultato che asserisce la possibilit`
a, sotto opportune condizioni, di diagonalizzare simultaneamente pi`
u matrici.
Proposizione (2.5). Sia V uno spazio vettoriale complesso di dimensione nita munito
di un prodotto hermitiano denito positivo. Siano f1 , . . . , fh applicazioni lineari normali
di V in s`e tali che fi fj = fj fi per ogni i e ogni j. Allora vi `e una base ortonormale di V
ogni cui elemento `e autovettore per ognuna delle fi .
Nel linguaggio delle matrici, la proposizione dice che, date matrici normali A1 , . . . , Ah
che commutano, tali cio`e che Ai Aj = Aj Ai per ogni i e ogni j, vi `e una matrice unitaria U
tale che U 1 Ai U sia diagonale per ogni i. La dimostrazione, per induzione su h, `e simile
a quella del lemma (2.2). Il caso h = 1 `e il teorema (2.1). Se h > 1, siano 1 , . . . , k gli
autovalori di f1 , elencati senza ripetizioni. Segue da (2.1) che i relativi autospazi Vi sono
ortogonali fra loro. Inoltre segue dalla dimostrazione del lemma (2.2) che fj (Vi ) Vi
per ogni j e ogni i. Quindi, per ogni i, f2 , . . . , fh inducono applicazioni lineari normali di
o supporre di sapere che ogni Vi ha una base ortonormale
Vi in s`e. Induttivamente, si pu`
vi,1 , . . . , vi,ni ogni cui elemento `e simultaneamente autovettore di f2 , . . . , fh . Una base
ortonormale di V con le caratteristiche cercate `e allora
v1,1 , . . . , v1,n1 , v2,1 , . . . , v2,n2 , . . . , vk,1 , . . . , vk,nk .
Esercizio (2.6). Mostrare che, date matrici complesse quadrate A1 , . . . , Ah , diagonalizzabili ma non necessariamente normali, che commutano, vi `e una matrice complessa
invertibile B tale che B 1 Ai B sia diagonale per ogni i.
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 13

3.

Spazi quoziente

Sia f : V U un omomorsmo di spazi vettoriali sul campo K. Il nucleo di f `e


un sottospazio vettoriale di V . Ci si pu`
o chiedere se, viceversa, dato un sottospazio W di
V , vi sia un omomorsmo da V in un altro spazio vettoriale di cui W sia il nucleo. La
risposta `e aermativa e la costruzione `e la seguente. Diciamo che due elementi u e v di V
sono equivalenti, e scriviamo u v, se u v W . Si tratta, per fortuna, di una relazione
di equivalenza. In eetti, u u = 0 W , v u = (u v) W se u v W , e inne,
se u v e v z, allora u z = (u v) + (v z) W , e quindi u z. Indichiamo con
V /W il quoziente di V modulo la relazione di equivalenza . La classe di equivalenza di
un elemento v di V `e linsieme di tutti gli elementi di V della forma v + w, dove w W ,
che si indica con v + W e si chiama classe laterale, o semplicemente laterale, di v modulo
W . Sia : V V /W lapplicazione naturale, che associa ad ogni elemento di V la sua
classe laterale. Si pu`
o denire su V /W una struttura di spazio vettoriale. Se u e v sono
elementi di V e a `e uno scalare si pone
(3.1)

(u) + (v) = (u + v) ,
a(u) = (au) .

Bisogna notare che queste sono buone denizioni, cio`e che, se (u ) = (u) e (v  ) = (v),
allora (u + v  ) = (u + v) e (au ) = (au). In eetti u u W e v  v W , quindi
u + v  (u + v) = u u + v  v W e au au = a(u u) W . Lasciamo al lettore
di vericare che V /W , con le operazioni sopra denite, `e uno spazio vettoriale. Notiamo
` chiaro che `e
piuttosto che le (3.1) dicono che `e un omomorsmo di spazi vettoriali. E
suriettivo. Il suo nucleo `e linsieme dei v tali che (v) = (0), cio`e W .
Loperazione di passaggio al quoziente gode della seguente propriet`
a universale.
Proposizione (3.2) (Teorema di omomorfismo). Sia : V U un omomorsmo di
spazi vettoriali tale che ker() W . Allora vi `e uno e un solo omomorsmo : V /W U
tale che = . Il nucleo di `e ker()/W ; in particolare `e iniettivo se e solo se
ker() = W . Inne `e suriettivo se e solo se `e suriettivo.
Notiamo innanzitutto che, se esiste, ((v)) = (v) per ogni v V . Dato che ogni
elemento di V /W `e della forma (v) per qualche v V , `e univocamente determinato.
Per dimostrare lesistenza di poniamo ((v)) = (v). Questa `e una buona denizione.
Infatti, se (v  ) = (v), allora v  v ker() = W ker(), e quindi (v  ) = (v). Poi
((u) + (v)) = ((u + v)) = (u + v) = (u) + (u) = ((u)) + ((v)) ,
a((v)) = a(v) = (av) = ((av)) = (a(v)) ,
` chiaro che `e suriettivo se e solo se lo `e . Se invece
e quindi `e un omomorsmo. E
(v) ker(), cio`e (v) = 0, allora (v) (ker()) = ker()/W , e viceversa. Questo
conclude la dimostrazione.
Siano v1 , . . . , vn elementi di V . Diremo che v1 , . . . , vn sono linearmente indipendenti
modulo W se (v1 ), . . . , (vn ) sono linearmente indipendenti in V /W , cio`e se ogni volta che
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 14


una combinazione lineare i ai vi appartiene a W si ha che ai = 0 per ogni i. Analogamente
diremo che v1 , . . . , vn costituiscono una base di V modulo W se (v1 ), . . . , (vn ) sono una
. , wm `e una
base di V /W . Osserviamo che, se v1 , . . . , vn `e una base di V modulo W
 e w1 , . .
Infatti se
ai vi + bj wj = 0,
base diW , allora v1 , . . . , vn , w1 , . . . , wm `e una base di V . 
bj = 0
allora ai vi W e quindi ai = 0 per ogni i; ne segue che bj wj = 0 e dunque che 
che
(v)
=
a
(v
),
cio`
e
tali
che
v
per ogni j. Se poi v V vi sono scalari ai tali
i
i


 ai vi
appartenga a W e sia quindi della forma
bj wj ; si conclude che v =
ai vi + bj wj .
Pi`
u in generale, supponiamo date una catena
{0} = V0 V1 Vk1 Vk = V
di sottospazi di V , e una base vi,1 , . . . , vi,ni di Vi modulo Vi1 per ogni i tale che 1 i k.
Allora quanto appena osservato mostra, per induzione su k, che
v1,1 , . . . , v1,n1 , v2,1 , . . . , v2,n2 , . . . , vk,1 , . . . , vk,nk
`e una base di V .

4.

La forma canonica di Jordan

Sia V uno spazio vettoriale di dimensione nita su un campo K, e sia f : V V


una applicazione lineare. Ricordiamo che f si dice nilpotente se vi `e un intero k tale che
f k = 0. Analogamente, una matrice quadrata si dice nilpotente se una sua potenza `e nulla.
Proposizione (4.1). Sia V uno spazio vettoriale di dimensione nita sul campo K, e sia
f : V V un endomorsmo nilpotente. Vi `e una base di V rispetto alla quale la matrice
di f `e la matrice diagonale a blocchi

A1 0 . . .
0 A2 0 . . .

0 A3
0
... ,
...

...
...
0 Am
dove ogni Ai `e della forma

0
...

1
0
...

0
1
0
...

...
0
1
...

...
0
...
0
...

...

1
0

Per dimostrare la proposizione ragioniamo come segue. Se f = 0 non vi `e nulla da


dimostrare. Se f = 0 sia k lintero tale che f k = 0 ma f k1 = 0. Poniamo Vi = ker(f i ).
Chiaramente
{0} = V0 V1 Vk1 Vk = V .
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 15

Inoltre tutte queste inclusioni sono strette. Se infatti fosse Vi1 = Vi , con i k, si
avrebbe che Vi = f 1 (Vi1 ) = f 1 (Vi ) = Vi+1 , e dunque Vi1 = Vi = Vi+1 = =
V , da cui i 1 k, in contraddizione con quanto supposto. Losservazione cruciale `e
Vi1 , allora
che, se i > 1 e v1 , . . . , vh sono elementi di Vi che sono indipendenti modulo

modulo Vi2 . Supponiamo infatti che ai f (vi ) Vi2 .
f (v1 ), . . . , f (v
h ) sono indipendenti
Allora f i1 ( ai vi ) = 0, e quindi ai vi appartiene a Vi1 . Dato che i vi sono indipendenti
modulo Vi1 se ne deduce che tutti gli ai sono nulli.
Possiamo ora costruire la base richiesta. Scegliamo una base vk,1 , . . . , vk,mk di V = Vk
modulo Vk1 , poi scegliamo vettori vk1,1 , . . . , vk1,mk1 di Vk1 in modo che
f (vk,1 ), . . . , f (vk,mk ), vk1,1 , . . . , vk1,mk1
sia una base di Vk1 modulo Vk2 , poi vettori vk2,1 , . . . , vk2,mk2 di Vk2 in modo che
f 2 (vk,1 ), . . . , f 2 (vk,mk ), f (vk1,1 ), . . . , f (vk1,mk1 ), vk2,1 , . . . , vk2,mk2
sia una base di Vk2 modulo Vk3 , e cos` via. Lunione delle basi dei Vi modulo Vi1 cos`
ottenute `e una base di V , che basta riordinare per trovare la base cercata. Per esempio,
una base con le caratteristiche desiderate `e
f k1 (vk,1 ),f k2 (vk,1 ), . . . , vk,1 , . . . , f k1 (vk,mk ), . . . , vk,mk ,
f k2 (vk1,1 ), . . . , vk1,1 , . . . , f k2 (vk1,mk1 ), . . . , vk1,mk1 , . . . , v1,1 , . . . , v1,m1 .
Questo dimostra (4.1).
Vogliamo ora applicare la proposizione (4.1) allo studio di un endomorsmo di uno
spazio vettoriale complesso. In generale, se `e uno scalare chiameremo blocco di Jordan
di dimensione n e autovalore la matrice n n

...
Jn () =

0
1

...
...

...
0
1
0
...

...
0
...

...
.

Teorema (4.2) (Forma canonica di Jordan). Sia V uno spazio vettoriale complesso
di dimensione nita, e sia f : V V un endomorsmo di V . Vi `e una base di V rispetto
alla quale la matrice di f `e diagonale a blocchi, con blocchi di Jordan sulla diagonale.
Una matrice diagonale a blocchi, con blocchi di Jordan sulla diagonale, verr`
a detta
in forma canonica di Jordan. La proposizione (4.1) aerma che, rispetto a una base
opportuna, la matrice di un endomorsmo nilpotente `e in forma canonica di Jordan, e che
inoltre i suoi blocchi diagonali sono tutti del tipo Jn (0); questo `e vero su qualsiasi campo
base, e non solo su C.
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 16

Indichiamo con P (X) il polinomio caratteristico di f , e sia


P (X) =

(X i )ki

i=1

la sua decomposizione in fattori irriducibili, dove i i sono numeri complessi distinti. Il


corollario (1.8) ci assicura che
V = V1 Vm ,
dove
Vi = ker((f i 1V )ki ) .
I Vi sono sottospazi invarianti per f . Quindi, se vi,1 . . . , vi,ni `e una base di Vi ,
v1,1 . . . , v1,n1 , v2,1 . . . , v2,n2 , . . . , vm,1 . . . , vm,nm
`e una base di V rispetto alla quale la matrice di f `e diagonale a blocchi della forma

A1
0

...

0
A2
0

...
0
A3
...
...

...
0
0

... ,

Am

dove Ai `e la matrice, rispetto alla base vi,1 . . . , vi,ni , dellendomorsmo fi di Vi indotto da


f per restrizione. Baster`a dunque mostrare che si possono scegliere le basi vi,1 . . . , vi,ni
in modo che le matrici Ai siano in forma canonica di Jordan. La denizione stessa di Vi
dice che gi = fi i 1Vi `e nilpotente; (4.1) ci assicura allora che vi `e una base vi,1 . . . , vi,ni
di Vi rispetto alla quale la matrice Bi di gi `e in forma canonica di Jordan. Rispetto a
questa stessa base, la matrice di fi `e Bi + i I, che `e anchessa in forma canonica di Jordan.
Questo dimostra (4.2).
Va osservato che, se f : V V `e un endomorsmo di uno spazio vettoriale di dimensione nita su un campo K qualsiasi, non `e detto che si possa trovare una base di
V rispetto alla quale la matrice A di f sia in forma canonica di Jordan. In eetti, se
questo
`e possibile, il polinomio caratteristico di f , che indichiamo con P (X), `e della forma

(X i ), dove i i sono i termini diagonali di A, e dunque si fattorizza, in K[X], in
fattori di grado 1. Se si suppone, viceversa, che P (X) sia fattorizzabile su K in fattori
lineari, come accade sempre nel caso complesso, la dimostrazione di (4.2) funziona ancora,
senza alcuna modica, e mostra che, rispetto a una opportuna base, la matrice di f `e in
forma canonica di Jordan.

5.

Forme canoniche razionali

Sia f : V V un endomorsmo di uno spazio vettoriale di dimensione nita su un


campo K. Come si `e osservato, non `e in generale detto che si possa trovare una base
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 17

di V rispetto alla quale la matrice di f sia in forma canonica di Jordan. Si pu`


o per`
o
trovare una base di V rispetto alla quale la matrice di f `e diagonale a blocchi di una forma
particolarmente semplice, detta forma canonica razionale,
m o forma canonica di Frobenius.
Sia P (X) il polinomio caratteristico di f , e sia P = i=1 Piki la sua decomposizione in
con Wi il nucleo
fattori irriducibili, dove i Pi sono a due a due primi fra loro. Indichiamo

di Piki (f ). Sappiamo che i Wi sono sottospazi invarianti e che V = i Wi . Rispetto a una
base di V costruita mettendo insieme una base di W1 , una di W2 , e cos` via, la matrice di
f `e dunque diagonale a blocchi della forma

A1
0

...

0
A2
0

...
0
A3
...
...

...
0
0

... ,

Am

dove Ai `e la matrice della applicazione lineare fi da Wi in s`e indotta da f . Poiche il


polinomio caratteristico di fi `e Piki , questo ci permette di limitarci a studiare il caso in cui
P (X) `e una potenza di un polinomio irriducibile Q(X) di grado h. Sia k lintero positivo
tale che Qk (f ) = 0 ma Qk1 (f ) = 0, e poniamo Vi = ker(Qi (f )) per ogni intero i tale che
` chiaro che i Vi sono invarianti e che
0 i k. E
{0} = V0 Vi1 Vi Vk = V .
Osserviamo che, se i > 1 e v1 , . . . , vs sono elementi di Vi che sono indipendenti modulo
, allora Q(f )(v1 ), . . . , Q(f )(vs ) sono indipendenti
modulo V
Vi1
i2 . Supponiamo infatti

i1
ai vi appartiene a Vi1 .
che
ai Q(f )(vi ) Vi2 . Allora Q(f ) ( ai vi ) = 0, e quindi
Dato che i vi sono indipendenti modulo Vi1 se ne deduce che tutti gli ai sono nulli.
Costruiamo ora una base V costruendo una opportuna base di Vi modulo Vi1 per
ogni i. Iniziamo con i = k. Sia vk,1 un elemento di Vk non appartenente a Vk1 , e notiamo
che vk,1 , f (vk,1 ), f 2 (vk,1 ), . . . , f h1 (vk,1 ) sono indipendenti modulo Vk1 . Per dimostrarlo
ci baseremo sul seguente semplice risultato.
Lemma (5.1). Sia W un sottospazio invariante di V , e sia v un elemento di V . Allora
I = {Q K[X] : Q(f )(v) W }
`e un ideale in K[X].
La dimostrazione `e immediata. Se P e Q appartengono a I allora
(P + Q)(f )(v) = P (f )(v) + Q(f )(v) W .
Daltra parte, se R K[X], allora
(RP )(f ) = R(f )(P (f )(v)) W
poiche P (f )(v) W e W `e invariante. Questo dimostra il lemma.
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 18

Applichiamo il lemma con W = Vk1 e v = vk,1 . Siano gli ai scalari tali che
h1


ai f i (vk,1 ) Vk1 .

i=0

h1
Se poniamo R(X) = i=0 ai X i , questo equivale a dire che R(f )(vk,1 ) Vk1 , cio`e che
R(X) I. Dato che Qk1 (f )(Q(f )(vk,1 )) = 0, anche Q(X) appartiene a I. Per il lemma
che si `e appena dimostrato, I `e un ideale in K[X], e quindi ha un generatore monico che
divide sia Q che R. Dato che Q `e irriducibile e il grado di R `e strettamente minore del
grado di Q, se R = 0 questo generatore deve essere 1. Dato che Vk = Vk1 , questo `e assurdo. Lunica via di uscita `e che sia R = 0, cio`e che tutti gli ai siano nulli. Questo mostra
che vk,1 , f (vk,1 ), f 2 (vk,1 ), . . . , f h1 (vk,1 ) sono indipendenti modulo Vk1 . Notiamo inoltre
che il sottospazio W  di V generato da Vk1 e da vk,1 , f (vk,1 ), f 2 (vk,1 ), . . . , f h1 (vk,1 ) `e invariante. In eetti ogni elemento v di W  si scrive come somma di un elemento di Vk1 e di
una combinazione lineare di vk,1 , f (vk,1 ), f 2 (vk,1 ), . . . , f h1 (vk,1 ). Dunque f (v) `e somma
di un elemento di Vk1 e di una combinazione lineare di vk,1 , f (vk,1 ), f 2 (vk,1 ), . . . , f h (vk,1 ).
Ma daltra parte il fatto che Q(f )(vk,1 ) appartenga a Vk1 ci dice che f h (vk,1 ) `e somma di
un elemento di Vk1 e di una combinazione lineare di vk,1 , f (vk,1 ), f 2 (vk,1 ), . . . , f h1 (vk,1 ).
Quindi f (v) W  . Se vk,1 , f (vk,1 ), f 2 (vk,1 ), . . . , f h1 (vk,1 ) non `e una base di Vk modulo
Vk1 , scegliamo un vettore vk,2 appartenente a Vk ma non a W  . Ragionando esattamente
come sopra si mostra che vk,2 , f (vk,2 ), f 2 (vk,2 ), . . . , f h1 (vk,2 ) sono indipendenti modulo
W  e che il sottospazio generato da W  e da vk,2 , f (vk,2 ), f 2 (vk,2 ), . . . , f h1 (vk,2 ) `e invariante. Iterando questo procedimento si giunge, in un numero nito di passi, a costruire
una base di Vk modulo Vk1 della forma
vk,1 , f (vk,1 ), . . . , f h1 (vk,1 ), . . . , vk,nk , f (vk,nk ), . . . , f h1 (vk,nk ) .
Come si `e osservato,
Q(f )(vk,1 ), . . . , Q(f )(f h1 (vk,1 )), . . . , Q(f )(vk,nk ), . . . , Q(f )(f h1 (vk,nk ))
sono indipendenti modulo Vk2 . Ragionando come sopra si possono trovare elementi
vk1,1 , . . . , vk1,nk1 di Vk1 tali che
Q(f )(vk,1 ), . . . , Q(f )(f h1 (vk,1 )), . . . , Q(f )(vk,nk ), . . . , Q(f )(f h1 (vk,nk ))
vk1,1 ,f (vk1,1 ), . . . , f h1 (vk1,1 ), . . . , vk1,nk1 , f (vk1,nk1 ), . . . , f h1 (vk1,nk1 )
siano una base di Vk1 modulo Vk2 . Iterando questa costruzione si giunge a trovare una
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 19

base di V della forma


vk,1 , . . . , f h1 (vk,1 ), Q(f )(vk,1 ), . . . , Q(f )(f h1 (vk,1 )), . . . , Qk1 (vk,1 ), . . . , Qk1 (f h1 (vk,1 )),
h1

...
...
...
k1
k1 h1
(vk,nk ), . . . , Q
(vk,nk ), . . . , Q
(f
(vk,nk )),

vk,nk , . . . , f
vk1,1 , . . . , f h1 (vk1,1 ), . . . , Qk2 (vk1,1 ), . . . , Qk2 (f h1 (vk1,1 )),
...
...
...
vk1,nk1 , . . . , f h1 (vk1,nk1 ), . . . , Qk2 (vk1,nk1 ), . . . , Qk2 (f h1 (vk1,nk1 )),
...
...
...
h1
(v1,1 ),
v1,1 , . . . , f
...
v1,n1 , . . . , f h1 (v1,n1 ).
Dato che, per ogni scelta di i, j, s, t, il vettore Qi (f )(f j (vs,t )) `e combinazione lineare di
vs,t , f (vs,t ), . . . , f hi+j (vs,t ), un altro sistema di generatori per V `e
vk,1 , f (vk,1 ) . . . , f hk1 (vk,1 ),
...
vk,nk , f (vk,nk ) . . . , f hk1 (vk,nk ),
vk1,1 , f (vk1,1 ) . . . , f h(k1)1 (vk1,1 ),
...
vk1,nk1 , f (vk1,nk1 ) . . . , f h(k1)1 (vk1,nk1 ),
...
...
v1,1 , . . . , f h1 (v1,1 ),
...
v1,n1 , . . . , f h1 (v1,n1 ).
Dato che questo sistema di generatori consta di dim(V ) elementi, `e anchesso una base di
` questa la base cercata. Per vedere come `e fatta la matrice di f rispetto a questa
V. E
base notiamo che, per ogni scelta di s e t, si ha che Qs (f )(vs,t ) = 0, e quindi f hs
(vs,t ) `e

u esattamente, se Qs (X) = ai X i ,
combinazione lineare di vs,t , f (vs,t ), . . . , f hs1 (vs,t ). Pi`
allora
hs1

hs1
hs
(vs,t )) = f (vs,t ) =
ai f i (vs,t ) .
f (f
i=0

La matrice di f rispetto alla nostra base `e dunque una matrice diagonale a blocchi

C1 0 . . .

0 C2 0 . . .

0 ...
. . . 0 C3

...
...
0 Cn
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 20

dove n = n1 + + nk e, per ogni j tale che nk + + ni < j nk + + ni1 ,

0 0
1 0

0 1 0

Cj =
...

...

...

...
...
...

c0
c1

c2

chi2
chi1

0
0
0
...
...
0
1

1
...

dove i `e il pi`
u grande intero tale che j ni + + nk e
Qi (X) = X hi + chi1 X hi1 + chi2 X hi2 + + c1 X + c0 .
Abbiamo dunque dimostrato in generale il seguente risultato.
Teorema (5.2) (Forma normale razionale o di Frobenius). Sia V uno spazio
vettoriale di dimensione nita sul campo K, e sia f un endomorsmo di V . Vi `e una base
di V rispetto alla quale la matrice di f `e una matrice diagonale a blocchi

B1
0

...

dove

0
B2
0

...
0
B3
...
...

0 0
1 0

0 1 0

...
Bi =

...

...

... ,

...
0

...
...
...

1
...

Bn
0
0
0
...
...
0
1

b0
b1

b2

bs2
bs1

e
X s + bs1 X s1 + bs2 X s2 + + b1 X + b0
`e una potenza di un polinomio irriducibile in K[X].

6.

Proiettori

Sia V uno spazio vettoriale reale o complesse di dimensione nita, munito di un


prodotto scalare (o di un prodotto hermitiano)  ,  denito positivo. Sia W un sottospazio
vettoriale di V e sia W = {v V : v, w = 0 per ogni w W } il suo complemento
ortogonale. Indichiamo con p la proiezione ortogonale di V su W , cio`e lapplicazione
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 21

lineare da V in s`e denita come segue. Sia v un elemento di V ; dato che V = W W


possiamo scriverlo, in modo unico, sotto la forma v = w + w , dove w W e w W .
Allora p(v) = w. Notiamo che, se w1 , . . . , wh `e una base ortonormale di W , allora p(v) =
h
i=1 v, wi wi . In eetti,


h
h
h



v, wi wi , wj = v, wj 
v, wi wi , wj  = v, wj 
v, wi i,j = 0 .
v
i=1

i=1

i=1

Notiamo che p2 = p, cio`e che, come si dice, la proiezione p `e un operatore idempotente.


Infatti, se w W , allora evidentemente p(w) = w; dunque, per ogni v V , p(p(v)) = p(v),
dato che p(v) W . Inoltre p `e un operatore autoaggiunto. Infatti, dati vettori v e z in V ,
scriviamo v = p(v) + v  e z = p(z) + z  , dove v  e z  appartengono a W ; allora
p(v), z = p(v), p(z) + z   = p(v), p(z) = p(v) + v  , p(z) = v, p(z) .
Le due propriet`
a di p appena dimostrate caratterizzano le proiezioni ortogonali. Diremo
che una applicazione lineare f : V V `e un proiettore se `e autoaggiunta e idempotente.
Vale allora il seguente risultato.
Proposizione (6.1). Sia f : V V un proiettore. Allora esiste un sottospazio vettoriale
W di V tale che f sia la proiezione ortogonale su W .
Per la dimostrazione poniamo W = f (V ), e notiamo che per ogni w W si ha che
f (w) = w. Infatti si pu`
o scrivere w = f (v) per qualche v V , e dunque f (w) = f (f (v)) =
f (v) = w. Daltra parte, per ogni v V e ogni w W si ha che
v f (v), w = v, w f (v), w = v, w v, f (w) = v, w v, w = 0 ,
dato che f `e autoaggiunta. Questo mostra che v = f (v) + (v f (v)) `e la decomposizione
di v in somma di un vettore appartenente a W , e cio`e f (v), e di uno appartenente a W ,
cio`e v f (v). Dunque f (v) `e la proiezione ortogonale di v su W .

7.

Esponenziale di una matrice

Sia A = (aij ) una matrice a coecienti in K, dove K `e il campo reale o il campo


complesso. La norma di A `e
A = max |aij | .
i,j

Osserviamo che, se `e uno scalare e A e B sono matrici delle stesse dimensioni, allora
A = ||A ,
A + B A + B .
La prima di queste due relazioni `e ovvia, mentre la seconda segue dalla considerazione che
A + B = |aij + bij | per qualche scelta di i e j, e dunque
A + B = |aij + bij | |aij | + |bij | A + B .
Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 22

Notiamo incidentalmente che quella appena denita non `e la sola norma sensata denibile
sulle matrici reali o complesse; la scelta che abbiamo fatto `e solo la pi`
u conveniente per i
nostri scopi. Notiamo anche che, se A `e una matrice n m e B `e una matrice m k, allora
AB mAB .

(7.1)

Sia ora Ai , i = 0, 1, . . . una successione di matrici n m a coecienti in K, e indichiamo


(i)
con ahk il coeciente di posto h, k in Ai . Diremo che la successione {Ai } converge alla
(i)
o equivale a dire
matrice A, e scriveremo Ai A, se ahk ahk per ogni h e ogni k. Ci`
(i)
che |ahk ahk | 0 per ogni h e ogni k, e in denitiva che Ai A 0. Diremo che
{Ai } `e una successione di Cauchy se, scelto comunque > 0, esiste un intero i0 tale che,
(i)
per ogni scelta di i, j i0 , si abbia che Ai Aj  < . Ci`
o equivale a dire che {ahk } `e una
successione di Cauchy per ogni scelta di h e k. Dunque, se {Ai } `e di Cauchy, per ogni h e
(i)
o signica che Ai A, dove A = (ahk ).
ogni k vi `e ahk K tale che ahk ahk . Ci`
Sia ora A una matrice n n a coecienti in K. Poniamo


1 i
A2
A3
exp(A) =
A =I +A+
+
+
i!
2
6
i=0

Il signicato di questa scrittura `e che la successione delle somme parziali


h

1 i
A
Bh =
i!
i=0

`e di Cauchy e exp(A) `e il suo limite. Per mostrare che {Bh } `e di Cauchy basta notare che
se h k allora, in virt`
u di (7.1),
h
h


1 i
ni1
A
Ai ,
Bh Bk  = 
i!
i!
i=k+1

i=k+1

e che il lato destro di questa catena di disuguaglianze `e maggiorato da


2k1 + 2k2 + + 2h = 2k1 (1 + 21 + + 2h+k+1 ) < 2k
non appena
nk (2A)k+1 (k + 1)! .
Supponiamo che A sia una matrice n n diagonalizzabile, cio`e che
A = U U 1 ,
dove

1
0

0
2
0

...

0
3
...
...

...
...
...

Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 23

Dato che, per ogni intero non negativo i,


Ai = U i U 1 ,
e che

i1
0

i
=

0
i2
0

0
i3
...
...

...

...
...
...

in

dalla denizione di esponenziale di una matrice si ricava che

exp(1 )
0
...
0
...
0
exp(2 )

0
exp(3 ) . . .

exp(A) = U exp()U 1 = U
...

...
...
0

1
U .

exp(n )

Supponiamo ora che A sia antihermitiana, cio`e che tA = A. Possiamo dunque scrivere
A = U U 1 , dove U `e unitaria e `e una matrice diagonale puramente immaginaria. La
matrice exp() `e una matrice diagonale con numeri complessi di modulo 1 sulla diagonale.
Ne segue che exp(A) `e unitaria. Se invece A `e hermitiana possiamo scrivere A = U U 1 ,
dove U `e unitaria e `e una matrice diagonale reale. Allora exp() `e una matrice diagonale
con numeri reali positivi sulla diagonale, e quindi exp(A) `e hermitiana denita positiva.
Siano A e B due matrici complesse n n che commutano. Mostriamo, per induzione
su i, che
 i
i
(7.2)
(A + B) =
Aj B h .
j
j+h=i
j,h0

Per i = 1 non vi `e nulla da dimostrare. Altrimenti


 i 1
i
Aj B h
(A + B) = (A + B)
j
j+h=i1
=


j+h=i1
j,h0

j,h0


i 1 j+1 h
A B +
j


j+h=i1
j,h0


i 1 j h+1
A B
j

  i 1  i 1
=
+
Aj B h
j

1
j
j+h=i
j,h0

 i
=
Aj B h .
j
j+h=i
j,h0

Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 24

Da quanto si `e appena dimostrato si ricava che


k

(A + B)i
i=0

i!

 
k
k
k
 1


1  i
1 j 1 h
Aj B h =
=
Aj B h =
A
B .
j
i!
j!h!
j!
h!
j+h=i
j+hk
i=0
j=0
j,h0

h=0

j,h0

Passando al limite per k ne otteniamo


(7.3)

exp(A + B) = exp(A) exp(B) .

Osserviamo che (7.2) e (7.3) non sono sempre valide se A e B non commutano. Un esempio
`e dato da




1 1
0 1
A=
,
B=
.
0 0
0 0


In eetti
2

(A + B) =

exp(A + B) =

1
0

0
0

e
0

0
1


,


,

1
0

A + 2AB + B =

e
exp(A) exp(B) =
0

Cornalba, Complementi di algebra lineare, 3.3.2000 pagina 25


1
,
0

1
.
1

Potrebbero piacerti anche