Sei sulla pagina 1di 34

Dipartimento di Scienze Fisiche, Informatiche e Matematiche

Corso di Laurea in Matematica

Insegnamento di: Geometria B

Anno accademico 2023/2024


******************************

Complementi di Algebra Lineare


********************************

Appunti a cura di di Arrigo BONISOLI: aggiornamento del 26 settembre 2023

1
POLINOMI E OPERATORI LINEARI/MATRICI
Sia V uno spazio vettoriale n-dimensionale sul campo K. Sia H : V → V un
operatore lineare, cioè un elemento di End(V). Equivalentemente, fissata una volta
per tutte una base di V, possiamo pensare che H sia una matrice n × n a coefficienti
in K, cioè un elemento di Mn (K).
Sia f (X) = ak X k + ak−1 X k−1 + . . . + a1 X + a0 ∈ K[X] un polinomio a coefficienti
in K. Vogliamo dare significato all’espressione f (H). Poniamo H 0 = IV (operatore
identico), H 1 = H e, induttivamente, per m ≥ 1, H m+1 = H · H m dove · indica
la composizione di operatori (cioè l’ordinaria composizione di funzioni). Possiamo
allora scrivere
f (H) = ak H k + ak−1 H k−1 + . . . + a1 H + a0 IV ∈ End(V)
Detto 0V l’operatore nullo di V, diremo che il polinomio f è annullato da H o che
H è uno zero di f se risulta f (H) = 0V .
Proposizione 1. Esiste un polinomio non nullo f (X) ∈ K[X] tale che risulti
f (H) = 0V .
Dimostrazione. Basta osservare che, poichè End(V) è uno spazio vettoriale di di-
2
mensione n2 sul campo K, gli operatori della lista IV , H, . . . , H n sono linearmente
dipendenti, quindi esistono scalari α0 , α1 , . . . , αn2 in K, non tutti nulli, tali che risulti
2 2
αn2 H n +. . .+α1 H +α0 IV = 0V vale a dire, posto f (X) = αn2 X n +. . .+α1 X +α0 ,
risulta proprio f (H) = 0V .

Definizione 1. Se H è un operatore lineare di V poniamo


I(H) = { f (X) ∈ K[X] : f (H) = 0V } .

In altre parole I(H) consiste di tutti quei polinomi che sono annullati da H. Si
verifica immediatamente che valgono per I(H) le seguenti proprietà:
1) Il polinomio nullo appartiene a I(H)
2) Se f (X), g(X) ∈ I(H), allora si ha anche f (X) − g(X) ∈ I(H)
3) Se f (X) ∈ I(H) e h(X) ∈ K[X], allora si ha anche h(X)f (X) ∈ I(H)
Con terminologia algebrica, queste proprietà si riassumono in breve dicendo che
I(H) è un IDEALE nell’anello dei polinomi K[X].

Proposizione 2. Esiste un polinomio monico (cioè di coefficiente principale uguale a 1) di grado


minimo tra quelli che vengono annullati dall’operatore H. Tale polinomio è uni-
vocamente determinato e viene chiamato IL POLINOMIO MINIMO dell’operatore
H.

2
Dimostrazione. Se q(X) è un polinomio non nullo di grado minimo tra quelli che
vengono annullati da H e α è il suo coefficiente principale, allora α−1 q(X) è un
polinomio monico dello stesso grado di q(X) (quindi di grado minimo tra i polinomi
che vengono annullati da H) e ovviamente H annulla α−1 q(X).
Se p(X) e p0 (X) sono due polinomi monici di grado minimo tra quelli che vengono
annullati da H, allora p(X) e p0 (X) hanno lo stesso grado e anche il polinomio
p(X) − p0 (X) viene annullato da H.
Dato che p(X) e p0 (X) sono entrambi monici, se la differenza p(X) − p0 (X) non
fosse il polinomio nullo, sarebbe un polinomio non nullo di grado inferiore a quello
di p(X), p0 (X), cioè inferiore al grado minimo dei polinomi non nulli che vengono
annullati da H, contraddizione. Pertanto p(X) − p0 (X) è il polinomio nullo, cioè
p(X) = p0 (X) e l’unicità del polinomio minimo è dimostrata.
Proposizione 3. Sia H : V → V un operatore lineare con polinomio minimo p(X).
Se f (X) è un polinomio che viene annullato da H, allora p(X) è un divisore di f (X),
cioè f (X) è un multiplo di p(X).
Dimostrazione. Mediante l’algoritmo di divisione polinomiale, possiamo determinare
polinomi q(X) e r(X) tali che risulti f (X) = q(X)p(X) + r(X) dove r(X) è il
polinomio nullo oppure il suo grado è minore del grado di p(X). Nel secondo caso,
osservando che r(X) = f (X) − q(X)p(X) avremmo r(H) = f (H) − q(H)p(H) =
0n − q(H)0n = 0n , cioè r(X) sarebbe un polinomio non nullo annullato da H con
grado minore del grado del polinomio minimo, contraddizione. Quindi r(X) è il
polinomio nullo e abbiamo f (X) = q(X)p(X), cioè p(X) è un divisore di f (X).
Teorema 1 (Cayley–Hamilton). Ogni matrice quadrata A d’ordine n (ovvero, ogni
operatore lineare di uno spazio vettoriale n-dimensionale) annulla il proprio polino-
mio caratteristico.
Dimostrazione. Sia PA (X) = det(A−X In ) = (−1)n (X n +an−1 X n−1 +. . .+a1 X +a  0)
il polinomio carattetristico della matrice A. Poniamo B(X) = t cof(A − X In ) e
osserviamo che i minori d’ordine n − 1 della matrice A − X In sono polinomi di grado
al più n − 1 in X, quindi tali sono i coefficienti della matrice B(X). Potremo quindi
scrivere B(X) = Bn−1 X n−1 + Bn−2 X n−2 + . . . + B1 X + B0 , dove Bj è una matrice
n × n per j = 0, 1, . . . , n − 1.
Da una identità matriciale dimostrata a suo tempo come conseguenza della regola
di Laplace, sappiamo che risulta
A − X In · t cof(A − X In ) = det A − X In In
  

quindi possiamo scrivere


 
A − X In · B(X) = det A − X In In

3
ovvero
A − X In · Bn−1 X n−1 + Bn−2 X n−2 + . . . + B1 X + B0 =
 

(−1)n X n + an−1 X n−1 + . . . + a1 X + a0 In




Uguagliando i monomi di ugual grado al primo e al secondo membro otteniamo le


seguenti relazioni
−Bn−1 X n = (−1)n In X n
(ABn−1 − Bn−2 )X n−1 = (−1)n an−1 In X n−1
..
.
(AB1 − B0 )X = (−1)n a1 In X 1
1

(AB0 )X 0 = (−1)n a0 In X 0
dalle quali seguono le seguenti uguaglianze matriciali
−Bn−1 = (−1)n In
(ABn−1 − Bn−2 ) = (−1)n an−1 In
..
.
(AB1 − B0 ) = (−1)n a1 In
(AB0 ) = (−1)n a0 In
Moltiplico la prima equazione per An , la seconda equazione per An−1 , . . . , l’ultima
per A0 , ottenendo le uguaglianze
−An Bn−1 = (−1)n An
(An Bn−1 − An−1 Bn−2 ) = (−1)n an−1 An−1
..
.
(A B1 − AB0 ) = (−1)n a1 A
2

(AB0 ) = (−1)n a0 In
Sommando membro a membro ricaviamo
On = (−1)n (An + an−1 An−1 + . . . + a1 A + a0 In )
vale a dire On = PA (A) come richiesto.
Come prima conseguenza abbiamo che se A è una matrice n × n con polinomio
caratteristico PA (X) e polinomio minimo p(X) allora p(X) divide PA (X). Questa
proprietà si può parzialmente invertire in una forma più debole come mostra il
seguente risultato.
Teorema 2. Se A è una matrice n × n con polinomio
n caratteristico PA (X) e poli-
nomio minimo p(X) allora PA (X) divide p(X) .

4
Dimostrazione. Sia p(X) = X k + pk−1 X k−1 + . . . + p1 X + p0 . Definiamo
B0 = In
B1 = A + pk−1 In
B2 = A2 + pk−1 A + pk−2 In
..
.
Bk−2 = Ak−2 + pk−1 Ak−3 + . . . + p2 In
Bk−1 = Ak−1 + pk−1 Ak−2 + . . . + p2 A + p1 In
Da ciascuna delle precedenti uguaglianze matriciali, partendo dall’ultima e poi a sali-
re fino alla seconda, sottraggo membro a membro l’equazione precedente moltiplicata
per A, ottenendo la seguente nuova lista di uguaglianze.
B0 = In
B1 − AB0 = pk−1 In
B2 − AB1 = pk−2 In
..
.
Bk−1 − ABk−2 = p1 In
Considero ancora l’ultima uguaglianza della penultima lista, cioè
Bk−1 = Ak−1 + pk−1 Ak−2 + . . . + p1 In ,
e moltiplico primo e secondo membro a sinistra per A, ottenendo
ABk−1 = Ak + pk−1 Ak−1 + . . . + p1 AIn .
Al secondo membro di quest’ultima sottraggo e sommo p0 In e ricavo quindi
ABk−1 = −p0 In + (Ak + pk−1 Ak−1 + . . . + p1 AIn + p0 In )
ovvero, cambiando di segno
−ABk−1 = p0 In − (Ak + pk−1 Ak−1 + . . . + p1 AIn + p0 In )
cioè
−ABk−1 = p0 In − p(A),
e quindi, dato che per definizione di polinomio minimo si ha p(A) = 0n×n ,
−ABk−1 = p0 In .

5
Mettendo quest’ultima uguaglianza insieme alle altre, ottengo la seguente lista di
uguaglianze matriciali.
B0 = In
B1 − AB0 = pk−1 In
B2 − AB1 = pk−2 In
..
.
Bk−1 − ABk−2 = p1 In
−ABk−1 = p0 In
Definendo a questo punto
B(X) = X k−1 B0 + X k−2 B1 + . . . + XBk−2 + Bk−1
otterremo
(A − XIn ) · B(X) =
A − XIn · X k−1 B0 + X k−2 B1 + . . . + XBk−2 + Bk−1 =
 

X k−1 AB0 + X k−2 AB1 + . . . + XABk−2 + ABk−1 −




X k B0 + X k−1 B1 + . . . + X 2 Bk−2 + XBk−1 =




X k (−B0 ) + X k−1 (AB0 − B1 ) + . . . + X(ABk−2 − Bk−1 ) + ABk−1 =




−X k In − X k−1 pk−1 In − . . . − Xp1 In − p0 In


= − X k + pk−1 X k−1 + . . . + p1 X + p0 In = −p(X)In .


Abbiamo dunque
(A − XIn ) · B(X) = −p(X)In
e quindi, prendendo il determinante di entrambi i membri,
 
det(A − XIn ) · det B(X) = det −p(X)In .
quindi
det(A − XIn ) · det B(X) = (−1)n (p(X))n det In .
 

Dato che i coefficienti di B(X) sono polinomi e dato che det B(X) è la som-
ma di prodotti
 di coefficienti di B(X), possiamo certamente affermare che anche
det B(X) è un polinomio. Pertanto moltiplicando l’ultima uguaglianza ottenuta
per (−1)n otteniamo l’uguaglianza polinomiale
n
PA (X) (−1)n det B(X) = p(X)
 

che è ciò che si voleva.

6
Teorema 3. Se A è una matrice n × n con polinomio caratteristico PA (X) e poli-
nomio minimo p(X) allora il polinomio caratteristico PA (X) e il polinomio minimo
p(X) hanno gli stessi fattori irriducibili. In particolare, gli autovalori di una matrice
quadrata sono le radici del suo polinomio minimo.
Dimostrazione. Sia f (X) un polinomio irriducibile. Se f (X) divide p(X) allora,
poichè per il teorema di Cayley–Hamilton p(X) divide PA (X), risulta che f (X)
divide PA (X) n
Se viceversa f (X) divide PA (X), allora f (X) divide anche p(X) per il teorema
precedente. Se un polinomio irriducibile divide un prodotto di polinomi, allora
n deve
dividere almeno uno dei fattori, quindi, poichè i fattori del prodotto p(X) sono
tutti uguali a p(X), vediamo che f (X) divide p(X).

LA SOMMA DIRETTA DI r SOTTOSPAZI VETTORIALI, r ≥ 2


Ricordiamo che, dati i sottospazi vettoriali W1 , W2 , . . . , Wr dello spazio vettoriale
V, il sottospazio vettoriale da essi generato (cioè generato dalla loro unione) è il
sottospazio SOMMA W1 + W2 + . . . + Wr costituito da tutti i vettori v ∈ V che
si possono esprimere come somma v = w1 + w2 + . . . + wr per opportuni vettori
w1 ∈ W1 , w2 ∈ W2 , . . . , wr ∈ Wr .

Definizione 2. Sia V uno spazio vettoriale n-dimensionale sul campo K e siano


W1 , W2 , . . . , Wr sottospazi vettoriali di V. Diremo che V è SOMMA DIRETTA
di W1 , W2 , . . . , Wr se ciascun vettore v ∈ V si può esprimere in un unico modo
nella forma v = w1 + w2 + . . . + wr con w1 ∈ W1 , w2 ∈ W2 , . . . , wr ∈ Wr .
Scriveremo V = W1 ⊕ W2 ⊕ . . . ⊕ Wr per indicare che V è somma diretta dei suoi
sottospazi vettoriali W1 , W2 , . . . , Wr .

Ripetendo la dimostrazione standard che si fa per due addendi, è immediato


riconoscere che la somma W1 + W2 + . . . + Wr dei sottopazi vettoriali W1 , W2 ,
. . . , Wr risulta essere una somma diretta se e solo se per j = 1, 2, . . . , r ciascun
addendo Wj ha intersezione banale (cioè ridotta al solo vettore nullo) con la somma
W1 + . . . + Wj−1 + Wj+1 + . . . + Wr degli altri sottospazi vettoriali.

Teorema 4. Con la notazione precedente, posto dim Wj = nj per j = 1, 2, . . . , r
e detta Bj = {wj,1 , wj,2 , . . . , wj,nj } una base di Wj , si ha che V è somma diretta di
W1 , W2 , . . . , Wr se e solo se B = B1 ∪ B2 ∪ . . . ∪ Br è una base di V.
Dimostrazione. Se abbiamo V = W1 ⊕ W2 ⊕ . . . ⊕ Wr , allora chiaramente B =
B1 ∪ B2 ∪ . . . ∪ Br risulta essere un sistema di generatori per V.

7
Sia v1 + v2 + . . . + vr = 0V con vj ∈ Wj . Allora poichè risulta anche 0V + 0V +
. . . + 0V = 0V , per l’unicità della rappresentazione segue necessariamente v1 = 0V ,
v 2 = 0V , . . . , v r = 0V .
Dimostriamo ora che l’insieme B è costituito da vettori linearmente indipendenti.
Supponiamo che risulti
λ1,1 w1,1 + λ1,2 w1,2 + . . . + λ1,n1 w1,n1 +
λ2,1 w2,1 + λ2,2 w2,2 + . . . + λ2,n2 w2,n2 +
......
+λr,1 wr,1 + λr,2 wr,2 + . . . + λr,nr wr,nr = 0V
per coefficienti λj,s in K. Per j = 1, 2, . . . , r definiamo
vj = λj,1 wj,1 + λj,2 wj,2 + . . . + λj,nj wj,nj .
Abbiamo dunque vj ∈ Wj e v1 + v2 + . . . + vr = 0V . Pertanto, per quanto appena
visto,
v 1 = 0V , v 2 = 0V , . . . , vr = 0V .
Per j = 1, 2, . . . , r abbiamo dunque λj,1 wj,1 + λj,2 wj,2 + . . . + λj,nj wj,nj = 0V
e di conseguenza, essendo wj,1 , wj,2 , . . . , wj,nj linearmente indipendenti in Wj ,
ricaviamo
λj,1 = λj,2 = . . . = λj,nj = 0 per j = 1, 2, . . . , r
e possiamo concludere che i vettori in B sono linearmente indipendenti.
Sia viceversa B una base di V e sia v un vettore di V. Esprimendo v come
combinazione lineare dei vettori di B e definendo per j = 1, 2, , . . . , r il vettore vj
come il contributo alla combinazione lineare che proviene dai vettori di Bj potremo
scrivere v = v1 + v2 + . . . + vr con vj ∈ Wj per j = 1, 2, . . . , r. Se questa rappresen-
tazione non fosse unica, cioè se risultasse anche v = v10 + v20 + . . . + vr0 con vj0 ∈ Wj
per j = 1, 2, . . . , r potremmo scrivere vj = λj,1 wj,1 + λj,2 wj,2 + . . . + λj,nj wj,nj e
vj0 = λ0j,1 wj,1 + λ0j,2 wj,2 + . . . + λ0j,nj wj,nj per opportuni elementi λj,s , λ0j,s in K.
Otterremmo dunque
v = λ1,1 w1,1 + λ1,2 w1,2 + . . . + λ1,n1 w1,n1 +
λ2,1 w2,1 + λ2,2 w2,2 + . . . + λ2,n2 w2,n2 +
......
+λr,1 wr,1 + λr,2 wr,2 + . . . + λr,nr wr,nr
e anche
v = λ01,1 w1,1 + λ01,2 w1,2 + . . . + λ01,n1 w1,n1 +

8
λ02,1 w2,1 + λ02,2 w2,2 + . . . + λ02,n2 w2,n2 +
......
+λ0r,1 wr,1 + λ0r,2 wr,2 + . . . + λ0r,nr wr,nr .
Dall’unicità della rappresentazione di v come combinazione lineare dei vettori della
base B, otteniamo dunque λj,s = λ0j,s per j = 1, 2, . . . , r e per s = 1, 2, . . . , nj . Da
ciò segue, in particolare, vj = vj0 .

SOTTOSPAZI VETTORIALI INVARIANTI (rispetto a un operatore lineare)

Definizione 3. Se F : V → V è un operatore lineare e W è un sottospazio vettoriale


di V, diremo che W è invariante rispetto a F (oppure che W è F -invariante) se
risulta F (W) ⊆ W.

Teorema 5. Sia F : V → V un operatore lineare e sia W un sottospazio vettoriale


F -invariante di V. Esiste una base B di V tale che la matrice associata a F rispetto
a B sia della forma  
A | B
− − −
0 | C
essendo A la matrice associata alla restrizione F |W dell’operatore F a W (rispetto
a una opportuna base di W).
Dimostrazione. Basta scegliere una base {w1 , w2 , . . . , wk } di W, completarla a una
base
B = {w1 , w2 , . . . , wk , uk+1 , uk+2 , . . . , un , }
di tutto V e scrivere la matrice associata a F rispetto a B.

Teorema 6. Se F : V → V è un operatore lineare e g(X) ∈ K[X] è un polinomio,


allora il nucleo ker g(F ) dell’operatore lineare g(F ) è invariante rispetto a F .
Dimostrazione.
 Poniamo g(X) = gk X k + gk−1 X k−1 + . . .+ g1 X + g0 e sia v ∈
ker g(F ) . Dimostriamo che risulta anche F (v) ∈ ker g(F ) , cioè g(F ) F (v) = 0.
Abbiamo infatti  
g(F ) F (v) = g(F )F (v)
gk F k + gk−1 F k−1 + . . . + g1 F + g0 IV F v =
  

gk F k+1 + gk−1 F k + . . . + g1 F 2 + g0 F (v) =




F (gk F k + gk−1 F k−1 + . . . + g1 F + g0 IV ) (v) =




9
 
F g(F ) (v) = F g(F )(v) = F (0) = 0

Teorema 7. Sia F : V → V un operatore lineare, sia W un sottospazio vettoriale


F -invariante di V e sia G : W → W la restrizione di F a W, cioè G = F |W . Se
b(X) ∈ K[X] è un polinomio allora per ogni w ∈ W risulta b(F )(w) = b(G)(w).
Inoltre il polinomio minimo di G divide il polinomio minimo di F
Dimostrazione. Sia b(X) = bk X k + bk−1 X k−1 + . . . + b1 X + b0 . Abbiamo
b(F )(w) = (bk F k + bk−1 F k−1 + . . . + b1 F + b0 IV )(w) =
bk F k (w) + bk−1 F k−1 (w) + . . . + b1 F (w) + b0 IV (w) =
bk Gk (w) + bk−1 Gk−1 (w) + . . . + b1 G(w) + b0 IW (w) =
(bk Gk + bk−1 Gk−1 + . . . + b1 G + b0 IW )(w) = b(G)(w).
Sia p(X) il polinomio minimo di F . Per quanto visto, per ogni vettore w ∈ W risulta
p(G)(w) = p(F )(w) = 0V (w) = 0. Pertanto abbiamo p(G) = 0W , in altre parole
p(X) è annullato da G. Per un risultato visto, il polinomio minimo dell’operatore
lineare G deve dividere il polinomio p(X), come si voleva.

SOMME DIRETTE DI SOTTOSPAZI INVARIANTI

Definizione 4. Sia V uno spazio vettoriale n-dimensionale sul campo K e sia F :


V → V un operatore lineare. Supponiamo che esistano sottospazi vettoriali F -
invarianti W1 , W2 , . . . , Wr di V tali che risulti V = W1 ⊕ W2 ⊕ . . . ⊕ Wr .
Detta Fj = F |Wj la restrizione di F al sottospazio Wj , diremo che F è la SOMMA
DIRETTA degli operatori F1 , F2 , . . . , Fr e scriveremo F = F1 ⊕F2 ⊕. . .⊕Fr . Diremo
anche che i sottospazi vettoriali W1 , W2 , . . . , Wr danno luogo a una decomposizione
dello spazio vettoriale V per somma diretta F -invariante.

Definizione 5. Siano n1 , n2 , . . . , nr interi positivi e sia n = n1 +n2 +. . .+nr . Siano


M , M1 , M2 , . . . , Mr matrici quadrate d’ordine n, n1 , n2 , . . . , nr , rispettivamente.
Diremo che M è SOMMA DIRETTA delle matrici M1 , M2 , . . . , Mr e scriveremo

10
M = M1 ⊕ M2 ⊕ . . . ⊕ Mr se risulta
 
M1 | 0 | ... | 0
 − | − | − | − 
 
 0
 | M2 | ... | 0 

M = − | − | − | −
 

 .. .. ... ..
| | |

 . . . 
 
 − | − | − | − 
0 | 0 | ... | Mr
dove le matrici nulle hanno le dimensioni che si evincono dal contesto. In tal caso si
dice anche che M è una matrice DIAGONALE A BLOCCHI con blocchi diagonali
M1 , M2 , . . . , Mr

Teorema 8. Sia V uno spazio vettoriale n-dimensionale sul campo K e sia F :


V → V un operatore lineare. Siano n1 , n2 , . . . , nr interi positivi tali che risulti
n = n1 + n2 + . . . + nr . Esistono sottospazi vettoriali W1 , W2 , . . . , Wr , di rispettive
dimensioni n1 , n2 , . . . , nr , che danno luogo a una decomposizione per somma diretta
F -invariante di V se e solo se esiste una base B di V rispetto alla quale la matrice
associata sia diagonale a blocchi, con blocchi diagonali di rispettivi ordini n1 , n2 ,
. . . , nr .
Dimostrazione. Del tutto evidente.

DECOMPOSIZIONE PRIMARIA DI UN OPERATORE LINEARE

Teorema 9. Sia F = F1 ⊕ F2 una decomposizione per somma diretta invariante


dell’operatore lineare F : V → V con V = W1 ⊕ W2 . Siano p(X), p1 (X), p2 (X)
i polinomi minimi di F , F1 e F2 , rispettivamente. Siano PF (X), PF1 (X), PF2 (X) i
polinomi caratteristici di F , F1 e F2 , rispettivamente.
1) Il polinomio p(X) risulta essere il minimo comune multiplo monico di p1 (X) e
p2 (X).
2) Abbiamo PF (X) = PF1 (X) · PF2 (X).

Dimostrazione. 1) Per un teorema risulta p1 (X) | p(X), p2 (X) | p(X), quindi p(X)
è multiplo comune di p1 (X) e p2 (X).
Sia ora a(X) un polinomio che risulti multiplo comune di p1 (X) e p2 (X). Risulta
in particolare a(F1 ) = 0W1 , a(F2 ) = 0W2 . Dato un vettore v di V scriviamolo
nella forma v = w1 + w2 con w1 ∈ W1 , w2 ∈ W2 . Per un Teorema precedente
abbiamo a(F )(w1 ) = a(F1 )(w1 ) = 0, a(F )(w2 ) = a(F2 )(w2 ) = 0. Risulta pertanto

11
a(F )(v) = a(F )(w1 + w2 ) = a(F )(w1 ) + a(F )(w2 ) = 0 + 0 = 0. In altre parole
abbiamo a(F )(v) = 0 per ogni vettore v ∈ V, cioè a(F ) = 0V . Pertanto a(X) è
annullato da F , ne segue p(X)|a(X).
Quindi p(X) divide ogni multiplo comune di p1 (X) e p2 (X). Possiamo concludere
che p(X) è un minimo comune multiplo di p1 (X) e p2 (X). Essendo un polinomio
monico, p(X) è dunque il minimo comune multiplo monico di p1 (X) e p2 (X).
2) Scriviamo la matrice associata a F nella forma
 
M1 | 0
M = − | − 
0 | M2
essendo M1 la matrice associata a F1 rispetto a una data base di W1 e M2 la matrice
associata a F2 rispetto a una data base di W1 . Utilizzando le notazioni precedenti
abbiamo allora, sfruttando una proprietà dei determinanti
M1 − XIn1 | 0
PF (X) = PM (X) = det(M − XIn ) = −−− | −−− =
0 | M2 − XIn2
det(M1 − XIn1 ) det(M2 − XIn2 ) = PF1 (X)PF2 (X)

Teorema 10. Siano h1 (X) e h2 (X) due polinomi relativamente primi e sia g(X) =
h1 (X)·h2 (X). Sia F : V → V un operatore
 lineare tale che risulti g(F ) = 0V . Posto
W1 = ker h1 (F ) , W2 = ker h2 (F ) , abbiamo che W1 e W2 sono F -invarianti e
risulta V = W1 ⊕ W2 .
Se inoltre g(X) è proprio il polinomio minimo di F e h1 (X), h2 (X) sono monici,
allora h1 (X) è il polinomio minimo di F1 = F |W1 e h2 (X) è il polinomio minimo di
F2 = F |W2 .
Dimostrazione. Per il Teorema 6 i sottospazi vettoriali W1 e W2 sono F -invarianti.
Dalla teoria degli ideali negli anelli polinomiali sappiamo che esistono polinomi a1 (X)
e a2 (X) nell’anello K[X] con a1 (X)h1 (X) + a2 (X)h2 (X) = 1. Otteniamo quindi
a1 (F )h1 (F ) + a2 (F )h2 (F ) = IV .
Se v ∈ V abbiamo
  
v = IV (v) = a1 (F )h1 (F )+a2 (F )h2 (F ) (v) = a1 (F )h1 (F )) (v)+ a2 (F )h2 (F ) (v)
quindi
  
h2 (F ) a1 (F )h1 (F )(v) = h2 (F )a1 (F )h1 (F ) (v) = a1 (F )h2 (F )h1 (F ) (v) =

12

a1 (F )g(F ) (v) = a1 (F )(0) = 0,
  
h1 (F ) a2 (F )h2 (F )(v) = h1 (F )a2 (F )h2 (F ) (v) = a1 (F )h1 (F )h2 (F ) (v) =

a2 (F )g(F ) (v) = a2 (F )(0) = 0.
 
Abbiamo dimostrato a1 (F )h1 (F ) (v) ∈ W2 , a2 (F )h2 (F ) (v) ∈ W1 , pertanto
ogni vettore v ∈ V risulta somma di un vettore w1 ∈ W1 e di un vettore w2 ∈ W2 .
In altre parole risulta W1 + W2 = V: verifichiamo che la somma è diretta. Sia
u ∈ W1 ∩ W2 . Abbiamo
u = a1 (F )h1 (F )(u) + a2 (F )h2 (F )(u) = a1 (F )(0) + a2 (F )(0) = 0 + 0 = 0.
Dunque W1 ∩ W2 = {0} e V = W1 ⊕ W2
Per j = 1, 2 sia pj (X) il polinomio minimo di Fj = F |Wj . Per ogni vettore
w1 ∈ W1 abbiamo h1 (F1 )(w1 ) = h1 (F )(w1 ) = 0, dunque h1 (F1 ) = 0W1 . In maniera
del tutto simile si dimostra h2 (F2 ) = 0W2 . Seguono dunque le relazioni p1 (X)|
h1 (X), p2 (X) | h2 (X). Inoltre per il Teorema 9 si ha g(X) = mcm p1 (X), p2 (X) .
D’altro canto, essendo h1 (X) e h2 (X) relativamente primi, tali sono anche p1 (X) e
p2 (X) e quindi g(X) = p1 (X)p2 (X). Essendo anche g(X) = h1 (X)h2 (X) otteniamo
p1 (X)p2 (X) = h1 (X)h2 (X). Da quest’ultima e dalle relazioni p1 (X) | h1 (X), p2 (X)|
h2 (X), seguono
 necessariamente
 le ulteriori relazioni deg p1 (X) = deg h1 (X) ,
deg p2 (X) = deg h2 (X) . Essendo p1 (X) un divisore di h1 (X) ed essendo p1 (X)
e h1 (X) polinomi monici dello stesso grado, deve essere p1 (X) = h1 (X). Alla stessa
maniera deduciamo p2 (X) = h2 (X).

Teorema 11 (Teorema di Decomposizione Primaria).  n1 n2 F : V → Vnr un operatore


Sia
lineare con polinomio minimo p(X) = p1 (X) p2 (X) . . . pr (X) dove p1 (X),
p2 (X), . . . , pr (X) sono polinomi monici  irriducibili a due a due distinti. Per j =
nj
1, 2, . . . , r poniamo Wj = ker (pj (F )) .
Il sottospazio vettoriale Wj è F -invariante per j = 1, 2, . . . , r. Vale inoltre la
n
decomposizione in somma diretta V = W1 ⊕W2 ⊕. . .⊕Wr e pj (X) j è il polinomio
minimo di Fj = F |Wj
Dimostrazione. Per induzione su r. Se r = 1 non c’è nulla da dimostrare. Sia r > 1
e supponiamo che nr−1vero per r − 1. Poniamo
n1 il teorema sia n r p(X) = g(X)h(X) con
g(X) = p1 (X) . . . pr−1 (X) e h(X) = pr (X) . 
Abbiamo MCD  g(X), h(X) = 1. Per il Teorema 10, posto W = ker g(F ) ,
Wr = ker h(F ) , abbiamo che W, Wr danno luogo a una decomposizione per
somma diretta F -invariante di V. Inoltre g(X) è il polinomio minimo di G = F |W ,
mentre h(X) è il polinomio minimo di H = F |Wr .

13
Per l’ipotesi induttiva W è la somma diretta  di sottospazi vettoriali G-invarianti
nj
W1 , W2 , . . . , Wr−1 dove Wj = ker pj (G) j = 1, 2, . . . , r − 1 e pj (X)nj è il
polinomio minimo di G|Wj . 
nj
Dimostriamo che  risulta ker p j (F ) ⊆ W. Sia infatti v ∈ V un vettore tale che
risulti pj (F )nj v = 0. Abbiamo
n n n n n
g(X) = p1 (X) 1 . . . pj−1 (X) j−1 pj+1 (X) j+1 . . . pr−1 (X) r−1 pj (X) j
da cui segue
n n n n n
g(F )(v) = p1 (F ) 1 . . . pj−1 (F ) j−1 pj+1 (F ) j+1 . . . pr−1 (F ) r−1 pj (F ) j (v)
n n n n
= p1 (F ) 1 . . . pj−1 (F ) j−1 pj+1 (F ) j+1 . . . pr−1 (F ) r−1 (0) = 0.
  
Quindi v ∈ ker g(F ) = W. Ne segue ker pj (F )nj = ker pj (G)nj = Wj . Ab-
biamo inoltre F |Wj = G|Wj , dato che, essendo Wj ⊆ W con W sottospazio
F -invariante, dire che Wj è G-invariante è esattamente come dire che Wj è F -
invariante. Pertanto il polinomio minimo di F |Wj coincide con il polinomio minimo
di G|Wj , cioè con pj (X)nj per j = 1, 2, . . . , r − 1. Otteniamo infine che

V = W ⊕ Wr = W1 ⊕ W2 ⊕ . . . ⊕ Wr−1 ⊕ Wr = W1 ⊕ W2 ⊕ . . . ⊕ Wr−1 ⊕ Wr
è la richiesta decomposizione in somma diretta F -invariante.

Teorema 12. Sia F : V → V un operatore lineare con polinomio minimo p(X).


L’operatore F risulta diagonalizzabile se e solo se p(X) è un prodotto di polinomi
monici di primo grado distinti
p(X) = (X − α1 )(X − α2 ) . . . (X − αs ) con αi 6= αj per i 6= j.
Dimostrazione. Supponiamo che l’operatore lineare F : V → V sia diagonalizzabile
con autovalori α1 , α2 , . . . , αs a due a due distinti. Per j = 1, 2, . . . , s sia Vj
l’autospazio relativo all’autovalore αj . Risulta allora V = V1 ⊕ V2 ⊕ . . . ⊕ Vs .
Poniamo q(X) = (X − α1 )(X − α2 ) . . . (X − αs ). Abbiamo
q(X) = (X − α1 )(X − α2 ) . . . (X − αj−1 )(X − αj+1 ) . . . (X − αs )(X − αj ),
quindi per ogni vj ∈ Vj otteniamo
q(F )(vj ) =
(F − α1 IV )(F − α2 IV ) . . . (F − αj−1 IV )(F − αj+1 IV ) . . . (F − αs IV )(F − αj IV )(vj ) =
(F − α1 IV )(F − α2 IV ) . . . (F − αj−1 IV )(F − αj+1 IV ) . . . (F − αs IV )(0) = 0.
Se v è un arbitrario vettore in V, scriviamo v = v1 + v2 + . . . + vs con vj ∈ Vj
abbiamo
q(F )(v) = q(F )(v1 + v2 + . . . + vs ) = q(F )(v1 ) + q(F )(v2 ) + . . . + q(F )(vs ) =

14
0 + 0 + ... + 0 = 0
da cui segue q(F ) = 0V . Pertanto il polinomio minimo p(X) di F è un divisore di
q(X). Dato che q(X) è prodotto di polinomi monici di primo grado distinti, anche il
polinomio minimo p(X) di F ha questa proprietà. Inoltre, poichè ciascun autovalore
di F è una radice del suo polinomio minimo, risulta che p(X) è divisibile per ciascun
polinomio X − αj , j = 1, 2, . . . , s, quindi in definitiva p(X) è divisibile anche per
q(X) = (X − α1 )(X − α2 ) . . . (X − αs ) Dunque il polinomio minimo p(X) di F è
proprio q(X).
Supponiamo viceversa che risulti p(X) = (X − α1 )(X − α2 ) . . . (X − αs ) con α1 ,
α2 , . . . , αs elementi a due a due distinti di K. Per il Teorema di Decomposizione

Primaria abbiamo V = W1 ⊕W2 ⊕. . .⊕Ws dove Wj = ker F −αj IV . Ciò significa
che se w ∈ Wj risulta F − αj IV (w) = 0, ovvero F (w) = αj w. Dunque se w è un
vettore non nullo di Wj allora è un autovettore. Detta Bj una base di Wj abbiamo
che B = B1 ∪ B2 ∪ . . . ∪ Bs è una base di autovettori di V = W1 ⊕ W2 ⊕ . . . ⊕ Ws ,
quindi B è una base diagonalizzante per l’operatore lineare F .
Esercizio 1. Sia A 6= In una matrice quadrata n × n a coefficienti reali tale che
risulti A3 = In .
1) Stabilire se A è diagonalizzabile su R.
2) Stabilire se A è diagonalizzabile su C.

Svolgimento. Poniamo f (X) = X 3 − 1 = (X − 1)(X 2 + X + 1). Abbiamo f (A) =


0n×n e quindi il polinomio minimo p(X) di A divide f (X).
1) Essendo che X 2 + X + 1 è irriducibile sul campo reale, il polinomio p(X) non
può avere in comune con X 2 + X + 1 un fattore di primo grado. D’altro canto non
può essere p(X) = X − 1 perchè per ipotesi abbiamo A − In 6= 0n×n . Dunque risulta
p(X) = (X − 1)(X 2 + X + 1) oppure p(X) = (X 2 + X + 1): in nessuno dei due
casi p(X) risulta essere il prodotto di polinomi di primo grado. Possiamo pertanto
concludere che A non è diagonalizzabile sul campo reale.
2) Sul campo complesso abbiamo f (X) = (X − 1)(X − ζ)(X − ζ 2 ) dove ζ è una
radice terza primitiva dell’unità. Vediamo che il polinomio minimo p(X) essendo
un divisore di f (X) (diverso da X − 1) è comunque il prodotto di fattori di primo
grado distinti. Dunque A è diagonalizzabile sul campo complesso.

OPERATORI LINEARI NILPOTENTI

Lemma 1. Sia V uno spazio vettoriale sul campo K. Siano U e W sottospazi


vettoriali di V con U ⊆ W. Sia {u1 , u2 , . . . , uk } una base di U e sia

15
{u1 , u2 , . . . , uk , w1 , w2 , . . . , ws } una base di W ottenuta dalla precedente per com-
pletamento.
Se {u01 , u02 , . . . , u0k } è un’altra base di U allora anche {u01 , u02 , . . . , u0k , w1 , w2 , . . . , ws }
è una base di W.

Dimostrazione. Poichè i vettori sono in numero giusto, basta far vedere che formano
un sistema di generatori per W. A tale scopo è sufficiente far vedere che generano
tutti i vettori della base vecchia {u1 , u2 , . . . , uk , w1 , w2 , . . . , ws }. Ma ciò è chiaro,
infatti i vettori wj sono in entrambi gli insiemi, mentre ogni vettore uh può essere
espresso come combinazione lineare dei vettori u01 , u02 ,. . . ,u0k , dato che questi ultimi
formano una base di U.
Definizione 6. Sia F : V → V un operatore lineare di uno spazio vettoriale n-
dimensionale V. Si dice che F è NILPOTENTE se esiste un intero positivo k tale
che risulti F k = 0V . Se k è il minimo intero positivo per cui ciò accade si dice che k
è l’INDICE DI NILPOTENZA di F . Analoghe definizioni si danno per una matrice
quadrata d’ordine n.
Teorema 13. Un operatore lineare F : V → V risulta nilpotente d’indice k se e
solo se p(X) = X k è il suo polinomio minimo.

Dimostrazione. Se F è nilpotente d’indice k allora risulta F k = 0V , quindi X k è


annullato da F . Il polinomio minimo p(X) di F è un divisore di X k , quindi è del
tipo p(X) = X h con h ≤ k. Se fosse h < k avremmo 0V = p(F ) = F h , contro
l’ipotesi di minimo per k. Dunque p(X) = X k .
Se viceversa p(X) = X k è il polinomio minimo di F allora 0V = p(F ) = F k e
quindi F è nilpotente. Se l’indice di nilpotenza di F fosse h < k avremmo F h = 0V ,
quindi F annullerebbe X h , un polinomio non nullo di grado inferiore al grado di
p(X) che è il polinomio minimo, contraddizione.
Definizione 7. Sia λ ∈ K. Sia J1 (λ) la matrice 1 × 1 con unico coefficiente uguale
a λ. Per ogni intero k ≥ 2 definiamo
 
λ 1 0 ... 0 0
 0 λ 1 ... 0 0 
 
 .. .. .. . . .. .. 
Jk (λ) =  . . . . . . 
 
 0 0 0 ... λ 1 
0 0 0 ... 0 λ
La matrici cosı̀ definite prendono il nome di MATRICI o BLOCCHI DI JORDAN.
Teorema 14. La matrice di Jordan Jk (0) è nilpotente d’indice k.

16
Dimostrazione. Abbiamo J1 (0) = (0) quindi J1 (0) è nilpotente d’indice di nilpotenza
1. Abbiamo      
0 1 0 1 0 0
J2 (0)2 = · =
0 0 0 0 0 0
quindi J2 (0) è nilpotente d’indice di nilpotenza 2.
Sia ora k ≥ 3. La prima riga di Jk (0) è il secondo vettore canonico (0, 1, 0, . . . , 0);
la seconda riga di Jk (0) è il terzo vettore canonico (0, 0, 1, 0, . . . , 0); . . . ; la (k − 1)-
esima riga di Jk (0) è il k-esimo vettore canonico (0, 0, . . . , 0, 1); la k-esima riga di
Jk (0) è la riga nulla (0, 0, . . . , 0, 0).
Vediamo quindi che moltiplicando la matrice Jk (0) per una qualunqe matrice M
d’ordine k, otteniamo una matrice d’ordine k in cui la prima riga è la seconda riga
di M , la seconda riga è la terza riga di M , la (k − 1)-esima riga è la k-esima riga di
M , l’ultima riga è la riga nulla.
Pertanto moltiplicando la matrice Jk (0) per se stessa, otteniamo una matrice
d’ordine k in cui la prima riga è (0, 0, 1, 0, . . . , 0), la seconda riga è (0, 0, 0, 1, . . . , 0),
. . . , la (k − 2)-esima riga è (0, 0, 0, 0, . . . , 1), la k − 1-esima riga è la riga nulla, la
k-esima riga è la riga nulla.
Iterando il ragionamento, vediamo che Jk (0) · Jk (0)h ha come prima riga l’(h + 2)-
esimo vettore canonico, come seconda riga l’(h + 3)-esimo vettore canonico, . . . ,
come (k − h − 1)-esima riga il k-esimo vettore canonico e poi tutte righe nulle.
Proseguendo abbiamo quindi che Jk (0)k−1 ha 1 in posizione (1, k) e tutti zeri altrove
e infine Jk (0)k è la matrice nulla.
Teorema 15. Sia F : V → V un operatore lineare. Sia v ∈ V un vettore per il
quale esiste un intero positivo k con F k (v) = 0 mentre F k−1 (v) 6= 0.
(i) I vettori v, F (v), . . . , F k−1 (v) sono linearmente indipendenti.
(ii) Posto W = hv, F (v), . . . , F k−1 (v)i abbiamo che W è un sottospazio vettoriale
F -invariante di V.
(iii) Posto G = F |W abbiamo che l’operatorte lineare G : W → W è nilpotente
d’indice k. 
(iv) La matrice associata a G rispetto alla base B = F k−1 (v), . . . , F (v), v è il
blocco di Jordan Jk (0).

Dimostrazione. (i) Siano λ0 , λ1 , . . . , λk−1 ∈ K tali che risulti


0 = λ0 v + λ1 F (v) + . . . + λk−1 F k−1 (v).
Ne segue
0 = F k−1 0 = F k−1 λ0 v + λ1 F (v) + . . . + λk−1 F k−1 (v) =
 

17
λ0 F k−1 (v) + λ1 F k (v) + . . . + λk−1 F 2k−2 (v) =
λ0 F k−1 (v) + λ1 0 + . . . + λk−1 0 = λ0 F k−1 (v).
Essendo F k−1 (v) 6= 0 otteniamo λ0 = 0.
Tornando indietro abbiamo
0 = λ1 F (v) + . . . + λk−1 F k−1 (v).
Ne segue
0 = F k−2 0 = F k−2 λ1 F (v) + . . . + λk−1 F k−1 (v) =
 

λ1 F k−1 (v) + λ2 F k (v) + . . . + λk−1 F 2k−3 (v) =


λ1 F k−1 (v) + λ2 0 + . . . + λk−1 0 = λ1 F k−1 (v).
Essendo F k−1 (v) 6= 0 otteniamo λ1 = 0. Si prosegue allo stesso modo sino a ottenere
λ2 = 0, . . . , λk−1 = 0.
(ii) Basta dimostrare che le immagini mediante F dei vettori v, F (v), . . . , F k−1 (v)
che generano W appartengono ancora a W. Ma ciò è di verifca immediata, essendo
F (v) ∈ W,
F (F (v)) = F 2 (v) ∈ W,
..
.
F (F (v)) = F k−1 (v) ∈ W,
k−2

F (F k−1 (v)) = F k (v) = 0 ∈ W.


(iii) Per j = 0, 1, . . . , k − 1 abbiamo
Gk F j (v) = F k F j (v) = F k+j (v) = F j F k (v) = F j (0) = 0.
  

Pertanto Gk vale 0 su tutti i vettori della base B = F k−1 (v), . . . , F (v), v di W,
pertanto abbiamo Gk = 0W .
Risulta inoltre Gk−1 (v) = F k−1 (v) 6= 0, vale a dire Gk−1 6= 0W . Concludiamo che
G è nilpotente d’indice di nilpotenza k.
(iv) Calcoliamo
G F k−1 (v) = F F k−1 (v) = F k (v) = 0 = 0 · F k−1 (v) + 0 · F k−2 (v) + . . . + 0 · v.
 

Pertanto la prima colonna della matrice associata a G rispetto alla base B è


 
0
0
 
0
 
 .. 
 . 
0

18
Calcoliamo
G F k−2 (v) = F F k−2 (v) = F k−1 (v) = 1 · F k−1 (v) + 0 · F k−2 (v) + . . . + 0 · v.
 

Pertanto la seconda colonna della matrice associata a G rispetto alla base B è


 
1
0
 
0
 
 .. 
 . 
0
Calcoliamo
G F k−3 (v) = F F k−3 (v) = F k−2 (v)
 

= 0 · F k−1 (v) + 1 · F k−2 (v) + 0 · F k−3 (v) + . . . + 0 · v.


Pertanto la terza colonna della matrice associata a G rispetto alla base B è
 
0
1
 
0
 
 .. 
 . 
0
Proseguiamo cosı̀ fino a calcolare
G F (v) = F F (v) = F 2 (v) = 0 · F k−1 (v) + . . . + 1 · F 2 (v) + 0 · F (v) + 0 · v.
 

Pertanto la (k − 1)-esima (penultima) colonna della matrice associata a G rispetto


alla base B è  
0
0
 
 .. 
 . 
 
1
 
0
0
Infine calcoliamo
G(v) = F (v) = 0 · F k−1 (v) + . . . + 0 · F 2 (v) + 1 · F (v) + 0 · v.

19
Pertanto la k-esima (ultima) colonna della matrice associata a G rispetto alla base
B è  
0
0
 
 .. 
 . 
 
0
 
1
0


Lemma 2. Sia F : V → V un operatore lineare. Posto U = ker F i , W =
ker F i+1 , risulta F W ⊆ U ⊆ W.
Dimostrazione. Dimostriamo  l’inclusione U ⊆ W. Se u ∈ U abbiamo  F i (u) = 0,
quindi F i+1 (u) = F F i (u) = F (0) = 0, vale a dire u ∈ ker F i+1 = W.
Dimostriamo l’inclusione F W ⊆ U. Se w ∈ W abbiamo F i+1 (w) = 0,
equivalentemente F i F (w) = 0, che significa appunto F (w) ∈ ker(F i ) = U
 
Sia F : V → V un operatore lineare. Posto U = ker F i−2 , W = ker F i−1 ,
Y = ker F i . Per quanto visto risulta U ⊆ W ⊆ Y.
Supponiamo che {u1 , u2 , . . . , ur } sia una base di U.
Supponiamo che {u1 , u2 , . . . , ur , w1 , w2 , . . . , ws } sia una base di W.
Supponiamo che {u1 , u2 , . . . , ur , w1 , w2 , . . . , ws , y1 , y2 , . . . , yt }, sia una base di Y.
Teorema 16. I vettori u1 , u2 ,. . . , ur F (y1 ), F (y2 ), . . . , F (yt ) ∈ W sono linear-
mente indipendenti.
Dimostrazione. I vettori indicati sono in W per il Lemma 2. Siano α1 , . . . , αr , β1 ,
. . . , βt ∈ K tali che risulti
α1 u1 + . . . + αr ur + β1 F (y1 ) + . . . + βt F (yt ) = 0,
vale a dire
β1 F (y1 ) + . . . + βt F (yt ) = −α1 u1 − . . . − αr ur ∈ U = ker F i−2 .


Abbiamo pertanto
0 = F i−2 β1 F (y1 )+. . .+βt F (yt ) = F i−2 F (β1 y1 +. . .+βt yt ) = F i−1 β1 y1 +. . .+βt yt .
  

Pertanto β1 y1 +. . .+βt yt ∈ ker F i−1 = W ed esistono quindi γ1 ,. . . ,γr ,δ1 ,. . . ,δs ∈ K
tali che risulti
β1 y1 + . . . + βt yt = γ1 u1 + . . . + γr ur + δ1 w1 + . . . + δs ws .

20
Riscrivendo, otteniamo
β1 y1 + . . . + βt yt − γ1 u1 − . . . − γr ur − δ1 w1 − . . . − δs ws = 0
e poichè i vettori u1 ,. . . ,ur , w1 ,. . . ,ws , y1 ,. . . ,yt sono linearmente indipendenti ne
segue
β1 = 0, . . . , βt = 0, γ1 = 0, . . . , γr = 0, δ1 = 0, . . . , δs = 0.
Tornando indietro risulta anche
α1 u1 + . . . + αr ur = 0,
e quindi, essendo u1 , . . . , ur linearmente indipendenti, α1 = . . . = αr = 0. In
definitiva abbiamo dimostrato
α1 = . . . = αr = β1 = . . . = βt = 0
come si voleva.
Teorema 17. Sia V uno spazio vettoriale n-dimensionale, n > 0, e sia F : V → V
un operatore lineare nilpotente di indice di nilpotenza k > 1. Esiste una base di
V rispetto alla quale la matrice associata è diagonale a blocchi, dove tutti i blocchi
diagonali sono del tipo Ji (0) per qualche intero i ≥ 1.
(i) Esiste almeno un blocco Jk (0) e per ogni altro blocco Ji (0) risulta i ≤ k.
(ii) La somma degli ordini di tutti i blocchi è n.
(iii) Il numero di blocchi di ciascun ordine i è univocamente determinato da F
e risulta uguale a 2(n − ri ) − (n − ri+1 ) − (n − ri−1 ) = ri−1 − 2ri + ri+1 essendo
ri = rk(F i ) = dim(Im(F i )
(in particolare:
r0 = rk(F 0 ) = rk(IV ) = n, rk = rk(F k ) = rk(0V ) = 0, rk+1 = rk(F k+1 ) = rk(0V ) = 0).

(iv) Il numero totale dei blocchi di tutti gli ordini è uguale a n−rk(F ) = dim ker(F )

Dimostrazione. Poniamo
{0} ⊂ W1 = ker F ⊂ W2 = ker F 2 ⊂ . . .
 

. . . ⊂ Wk−1 = ker F k−1 ⊂ Wk = ker F k = V


 

Le inclusioni valgono per il Lemma 2 e avendo supposto F nilpotente d’indice di


nilpotenza k si vede subito
 che tutte le inclusioni sono proprie. Infatti non può
essere {0} = W1 = ker F altrimenti l’operatore lineare F sarebbe iniettivo, mentre
 k 
risulta 0 = det F k = det F  e quindi 0 = det F , cioè
 F non è iniettivo. Non
può essere nemmeno ker F i−1 = Wi−1 = Wi = ker F i per qualche indice i tale
che risulti 2 ≤ i ≤ k, perchè, diversamente, per ogni vettore v ∈ ker F i+1 =

21
  
Wi+1 avremmo 0 = Fi+1 (v) = F i F (v) , da cui F (v) ∈ ker F i = ker F i−1 ,
ovvero 0= F i−1 F (v) = F i (v), cioè  v ∈ ker F i = Wi : otterremmo pertanto
ker F i−1 = Wi−1 = W  i = ker F
i
= ker F i+1  = Wi+1 e quindi, reiterando il
i−1 k i−1
ragionamento ker F = Wi−1 = . . . = ker F = Wk = V , vale a dire F = 0V
e l’indice di nilpotenzadi F dovrebbe essere minore di k.
Posto mi = dim Wi per i = 1, 2, . . . , k, abbiamo mi = n − ri e risulta 0 < m1 <
m2 < . . . < mk = n, quindi anche m1 > 0, m2 − m1 > 0, . . . , mk − mk−1 > 0.
Possiamo scegliere una base u1 , u2 , . . . , un di V in modo tale che u1 , u2 , . . . , umi
risulti essere una base di Wi .
Definiamo
v(1,k) = umk−1 +1 , v(2,k) = umk−1 +2 , ... , v(mk −mk−1 ,k) = umk .
Quindi i vettori u1 , u2 , . . . , umk−1 , v(1,k) , . . . , v(mk −mk−1 ,k) formano una base di V.
Definiamo
  
v(1,k−1) = F v(1,k) , v(2,k−1) = F v(2,k) , . . . , v(mk −mk−1 ,k−1) = F v(mk −mk−1 ,k) .
Per il Teorema 16 applicato alla catena di inclusioni Wk−2 ⊂ Wk−1 ⊂ Wk e quindi
alla sequenza di vettori
u1 , u2 , . . . , umk−2 , umk−2 +1 , . . . , umk−1 , v(1,k) , . . . , v(mk −mk−1 ,k)
abbiamo che i vettori
u1 , u2 , . . . , umk−2 , v(1,k−1) , . . . , v(mk −mk−1 ,k−1)
sono linearmente indipendenti in Wk−1 . Possiamo completarli a una base di Wk−1
aggiungendo dei vettori opportuni che indichiamo con
v(mk −mk−1 +1,k−1) , ... , v(mk−1 −mk−2 ,k−1)
il cui numero è (mk−1 − mk−2 ) − (mk − mk−1 ) = 2mk−1 − mk−2 − mk . In definitiva

u1 , u2 , . . . , umk−2 , v(1,k−1) , . . . , v(mk−1 −mk−2 ,k−1)
è base di Wk−1 , mentre

u1 , u2 , . . . , umk−2 , v(1,k−1) , . . . , v(mk−1 −mk−2 ,k−1) , v(1,k) , . . . , v(mk −mk−1 ,k)
è base di V.
Definiamo ora
 
v(1,k−2) = F v(1,k−1) , ... , v(mk−1 −mk−2 ,k−2) = F v(mk−1 −mk−2 ,k−1) .

22
Per il Teorema 16 applicato alla catena di inclusioni Wk−3 ⊂ Wk−2 ⊂ Wk−1 e
quindi alla sequenza di vettori
u1 , u2 , . . . , umk−3 , umk−3 +1 , . . . , umk−2 , v(1,k−1) , . . . , v(mk−1 −mk−2 ,k−1)
abbiamo che i vettori
u1 , u2 , . . . , umk−3 , v(1,k−2) , . . . , v(mk−1 −mk−2 ,k−2)
sono linearmente indipendenti in Wk−2 . Possiamo completarli a una base di Wk−2
aggiungendo dei vettori opportuni che indichiamo con
v(mk−1 −mk−2 +1,k−2) , ... , v(mk−2 −mk−3 ,k−2)
il cui numero è (mk−2 −mk−3 )−(mk−1 −mk−2 ) = 2mk−2 −mk−3 −mk−1 . In definitiva
i vettori
u1 , u2 , . . . , umk−3 , v(1,k−2) , . . . , v(mk−2 −mk−3 ,k−2)
formano una base di Wk−2 , mentre i vettori
u1 , u2 , . . . , umk−3 , v(1,k−2) , . . . , v(mk−2 −mk−3 ,k−2) , v(1,k−1) , . . . , v(mk−1 −mk−2 ,k−1)
formano una base di Wk−1 e infine i vettori
u1 , u2 , . . . , umk−3 , v(1,k−2) , . . . , v(mk−2 −mk−3 ,k−2) , v(1,k−1) , . . . , v(mk−1 −mk−2 ,k−1) ,
v(1,k) , . . . , v(mk −mk−1 ,k)
formano una base di Wk = V.
Ripetendo il processo arriviamo a una base di V fatta in questo modo
 
v(1,1) v(2,1) . . . v(m1 ,1) base di W1 
base di W2 

v(1,2) v(2,2) . . . v(m2 −m1 ,2) 
.. .. base di Wk = V
. . 


v(1,k) v(2,k) . . . v(mk −mk−1 ,k) 

Capovolgiamo l’ordine delle righe nella tabella precendente e riscriviamo il tutto


nell’ordine in cui si è svolta la costruzione, dall’alto verso il basso:
v(1,k) v(2,k) . . . v(mk −mk−1 ,k)
.. .. ..
. . .
v(1,2) v(2,2) ... v(m2 −m1 ,2)
v(1,1) v(2,1) ... ... v(m1 ,1)
l’ultima riga forma una base di W1 , le ultime due righe insieme formano una base di
W2 , . . . , le k righe insieme formano una base di Wk = V. Inoltre, per costruzione,

23
le immagini dei vettori di una riga danno luogo ai vettori di ugual posto della riga
successiva (andando verso il basso) , mentre le immagini dei vettori dell’ultima riga
sono tutte uguali al vettore nullo. In altre parole
 
F v(j,i) = v(j,i−1) , i = k, k − 1, . . . , 2, F v(j,1) = 0.
Partiamo dal primo vettore della prima riga in alto e consideriamo i vettori che
si trovano sotto di lui (quindi i vettori della prima colonna). In sostanza stiamo
considerando i vettori
v(1,k) 
v(1,k−1) = F v(1,k)   
v(1,k−2) = F v(1,k−1) = F F v(1,k) = F 2 v(1,k)
..
. 
v(1,2) = F k−2 v(1,k) 
v(1,1) = F k−1 v(1,k)
Per quanto visto nel Teorema 15, il sottospazio vettoriale generato dai vettori
suddetti
v(1,k) 
v(1,k−1) = F v(1,k)
..
. 
v(1,2) = F k−2 v(1,k) 
v(1,1) = F k−1 v(1,k)
è F -invariante e naturalmente i vettori di questa lista ne formano una base. Questo
sarà pertanto il primo sottospazio della nostra decomposizione per somma diretta
F -invariante di V.
Per il medesimo Teorema 15, il sottospazio vettoriale generato dai vettori
v(2,k) 
v(2,k−1) = F v(2,k)
..
. 
v(2,2) = F k−2 v(2,k) 
v(2,1) = F k−1 v(2,k)
è F -invariante e naturalmente i vettori di questa lista ne formano una base. Questo
sarà pertanto il secondo sottospazio della nostra decomposizione per somma diretta
F -invariante di V.
Si procede cosı̀ verso destra finchè non sono stati esauriti tutti i vettori della
prima riga. Si scende quindi di livello e si ripete il tutto per ciascuno degli eventuali
vettori residui della seconda riga: ciascuno di essi, insieme ai vettori che si trovano al

24
disotto nella medesima colonna, genera un sottospazio vettoriale k − 1-dimensionale
F -invariante.
Esauriti i vettori dela seconda riga si scende di nuovo di livello, andando avanti
fino a quando tutti i vettori di tutte le righe sono stati coinvolti.
Riportiamo il tutto in uno schema a scala.
mk −mk−1
k (mk−1 −mk−2 )−(mk −mk−1 )
k−1
..
.
(m2 −m1 )−(m3 −m2 )
2 m1 −(m2 −m1 )
1
k k−1 2 1
A questo punto le affermazioni (i) e (ii) sono chiare.
Per quanto riguarda (iii), il numero indicato in cima a ciascuna colonna della tabel-
la riassuntiva, ci dà il numero di sottospazi vettoriali F -invarianti della dimensione
indicata in fondo alla colonna stessa.
Pertanto i vettori che occupano ciascuna delle prime mk − mk−1 colonne della
tabella danno luogo a un sottospazio vettoriale k-dimensionale F -invariante. Il
numero di tali sottospazi risulta quindi uguale a mk − mk−1 = (n − rk ) − (n − rk−1 ) =
rk−1 − rk = rk−1 − 2rk + rk+1 , essendo rk+1 = rk = 0. Si osservi che mk − mk−1 > 0.
Questo sarà il numero dei blocchi di Jordan Jk (0) che compariranno nella matrice
associata, quando i vettori della base che occupano le prime mk − mk−1 colonne sono
riordinati in modo tale che i vettori di ciascuna colonna compaiano consecutivamente
nella sequenza dal basso verso l’alto.
Analogamente, le successive (mk−1 − mk−2 ) − (mk − mk−1 ) = 2mk−1 − mk −
mk−2 colonne (se presenti) danno luogo ad altrettanti sottospazi vettoriali (k −
1)-dimensionali F -invarianti. Il numero di tali sottospazi risulta quindi uguale a
2mk−1 − mk − mk−2 = 2(n − rk−1 ) − (n − rk ) − (n − rk−2 ) = rk−2 − 2rk−1 + rk .
Anche qui vale il fatto che per avere nella matrice associata i blocchi di Jordan
Jk−1 (0) occorrerà riordinare i vettori in modo tale che i vettori di ciascuna colonna
compaiano consecutivamente nella sequenza dal basso verso l’alto.
Proseguendo cosı̀ arriviamo alle ultime m1 − (m2 − m1 ) = 2m1 − m2 colonne che
danno luogo (ove presenti) a sottospazi vettoriali 1-dimensionali F -invarianti. Il
numero di tali sottospazi risulta quindi uguale a 2m1 − m2 = 2(n − r1 ) − (n − r2 ) =
n − 2r1 + r2 = r0 − 2r1 + r2 , essendo r0 = n.
Di nuovo osserviamo che le dimensioni di questi sottospazi vettoriali F -invarianti
via via costruiti danno anche gli ordini i dei blocchi di Jordan Ji (0) che compa-
iono nella matrice associata, una volta che i vettori della tabella vengano ordinati

25
opportunamente.
Per quanto riguarda (iv), il numero complessivo di sottospazi vettoriali F -invarianti
che compaiono nella decomposizione, cioè il numero complessivo di blocchi di Jordan
di tutti i possibili ordini, risulta uguale a
(mk − mk−1 ) + (2mk−1 − mk − mk−2 ) + (2mk−2 − mk−1 − mk−3 ) + . . .
. . . + (2m2 − m3 − m1 ) + (2m1 − m2 ) =

= m1 = dim(W1 ) = dim ker(F ) = n − rk(F )
Questa conclusione concorda col fatto che il numero di sottospazi F -invarianti nella
decomposizione in somma diretta è dato dal numero dei vettori dell’ultima riga in
basso della tabella. Infatti questi vettori formano una base di W1 = ker(F ). Cia-
scuno di essi appartiene ad esattamente uno dei sottospazi della decomposizione e,
viceversa, ciascun sottospazio della decomposizione contiene esattamente un vettore
dell’ultima riga della tabella.

LA FORMA CANONICA DI JORDAN

Teorema 18. Sia V uno spazio vettoriale n-dimensionale e sia F : V → V


un operatore lineare con polinomio caratteristico PF (X) = (−1)n (X − λ1 )n1 (X −
λ2 )n2 . . . (X − λr )nr dove λ1 , λ2 , . . . , λr ∈ K sono a due a due distinti con n1 + n2 +
. . . + nr = n. Sia p(X) = (X − λ1 )m1 (X − λ2 )m2 . . . (X − λr )mr il polinomio minimo
di F con 1 ≤ mj ≤ nj per j = 1, 2, . . . , r. Esiste una base di V rispetto alla
quale la matrice associata all’operatore lineare F è una matrice diagonale a blocchi,
i cui blocchi diagonali sono tutti blocchi di Jordan del tipo Ji (λj ) dove λj è uno degli
autovalori di F .
Per i blocchi di Jordan relativi all’autovalore λj valgono le seguenti proprietà.
(i) Esiste almeno un blocco di ordine mj , ogni altro blocco Ji (λj ) è tale che i ≤ mj .
(ii) La somma degli ordini di tutti i blocchi relativi al fissato autovalore λj è uguale
alla molteplicità algebrica nj di λj .
(iii) Per il fissato autovalore λj , il numero di blocchi di Jordan Ji (λj ) di ciascun
ordine i è univocamente determinato da F per ogni i = 1, 2, . . . , mj .
(iv) Il numero totale di blocchi di Jordan di ogni ordine relativi al fissato autovalore
λj è uguale alla molteplicità geometrica di λj .
Dimostrazione. Per il Teorema di Decomposizione Primaria, l’operatore lineare F dà
luogo a una decomposizione per somma diretta F -invariante V = V1 ⊕V2 ⊕. . .⊕Vr
mj mj
dove Vj = ker (F − λj IV ) e (X − λj ) è il polinomio minimo di Fj = F |Vj . In
particolare risulta (Fj − λj IVj )mj = 0Vj . Posto Nj = Fj − λj IVj abbiamo che Nj

26
è un operatore nilpotente d’indice di nilpotenza mj . Riscrivendo Fj = Nj + λj IVj
abbiamo una rappresentazione di Fj come somma di un operatore nilpotente e di
un operatore scalare.
Per il Teorema 17 sugli operatori nilpotenti possiamo scegliere una base Bj di Vj
in modo tale che Nj sia in forma canonica. Rispetto a tale base la matrice associata
a Fj è una matrice diagonale a blocchi Mj , i cui blocchi diagonali sono del tipo
Ji (λj ).
La matrice diagonale a blocchi
 
M1 | 0 | . . . | 0
 − | − | − | − 
 
 0 | M | ... | 0 
 2 
 − | − | − | − 
M = 
 .. . . .
 . | .. | . . | .. 

 
 − | − | − | − 
0 | 0 | . . . | Mr
rappresenta l’operatore lineare F rispetto alla base B = B1 ∪ B2 ∪ . . . ∪ Br di V.
Dobbiamo dimostrare che i blocchi Ji (λj ), i quali compaiono tutti all’interno di Mj ,
hanno le proprietà richieste.
(i) Segue dal fatto che un blocco Ji (λj ) per Fj nasce da un corrispondente blocco
Ji (0) per Nj , il quale è nilpotente d’indice di nilpotenza mj .
(ii) Abbiamo PF (X) = PM (X) = PM1 (X) PM2 (X) . . . PMr (X). Poichè Mj è una
matrice triangolare superiore con tutti gli elementi diagonali uguali a λj , avremo
che PMj (X) a meno del segno sarà uguale a (X − λj )aj . Il confronto fra PF (X) =
(−1)n (X − λ1 )n1 (X − λ2 )n2 . . . (X − λr )nr e i polinomi PMj (X), tenendo conto del
fatto che λ1 , λ2 , . . . , λr sono a due a due distinti, dà luogo all’uguaglianza aj = nj .
Pertanto la somma degli ordini di tutti i blocchi Ji (λj ) che compaiono in Mj è uguale
a nj .
(iii) Per la formula dimostrata per gli operatori lineari nilpotenti, il numero totale
dei blocchi Ji (0) d’ordine i per l’operatore nilpotente Nj risulta uguale a
2(nj − rj, i ) − (nj − rj, i+1 ) − (nj − rj, i−1 ) = rj, i−1 − 2rj, i + rj, i+1
 
essendo rj,i = rk (Nj )i = rk (Fj − λj IVj )i che pertanto è univocamente determi-
nato da Nj , cioè da Fj e quindi, in definitiva, da F .
(iv)
Il numero totale dei blocchi Ji (λj ) che compaiono in Mj è uguale al numero
totale dei blocchi Ji (0) che compaiono in Nj . Per l’analoga proprietà (iv) della
forma canonica di Jordan per gli operatori lineari nilpotenti, quest’ultimo nume-
ro risulta uguale a nj − rk(Nj ) = nj − rk(Fj − λj IVj ). L’autospazio Vλj (F ) di

27
F relativo all’autovalore
 λj risulta contenuto in Vj : abbiamo infatti Vλj (F ) =
ker F − λj IV ⊆ ker (F − λj IV )mj = Vj (questa relazione segue dalla più ge-
s
nerale ker(G) ⊆ ker(G )). Abbiamo
 dunque Vλj (F ) = Vλj (Fj ) e quindi anche
dim Vλj (F ) = dim Vλj (Fj ) = nj −rk(Fj −λj IVj ). Pertanto quest’utlimo numero,
che è il numero cercato, è proprio uguale alla molteplicità geometrica dell’autovalore
λj per l’operatore lineare F .

Esercizio 2. (Da S. Lipschutz, Algebra Lineare, Collana Schaum, ETAS Libri, Giugno 1975, Esercizio 10.19, p.237).
Determinare tutte le possibili forme canoniche di Jordan per un operatore lineare
F : R5 → R5 avente polinomio caratteristico PF (X) = (−1)5 (X − 2)3 (X − 5)2

Svolgimento. Detto p(X) il polinomio minimo di F , abbiamo p(X) = (X −2)a (X −


5)b con a ∈ {1, 2, 3}, b ∈ {1, 2}.
i) a = 1, b = 1, p(X) = (X − 2)(X − 5).
In tal caso F è diagonalizzabile perchè p(X) è il prodotto di polinomi di primo grado
distinti. Una forma canonica di Jordan della matrice che rappresenta F è
 
2 0 0 0 0
0 2 0 0 0
 
M =  0 0 2 0 0 .

0 0 0 5 0
0 0 0 0 5

ii) a = 1, b = 2, p(X) = (X − 2)(X − 5)2 .


Ci deve essere un blocco di Jordan 2 × 2 relativo all’autovalore 5, quindi uno solo,
mentre tutti i blocchi realtivi all’autovalore 2 sono 1 × 1. Una forma canonica di
Jordan della matrice che rappresenta F è
 
2 0 0 0 0
0 2 0 0 0
 
M =  0 0 2 0 0 .

0 0 0 5 1
0 0 0 0 5

iii) a = 2, b = 1, p(X) = (X − 2)2 (X − 5).


Ci deve essere un blocco di Jordan 2 × 2 relativo all’autovalore 2, quindi ne deve
esistere un altro 1 × 1. Tutti i blocchi realtivi all’autovalore 5 sono 1 × 1. Una forma

28
canonica di Jordan della matrice che rappresenta F è
 
2 1 0 0 0
0 2 0 0 0
 
M =  0 0 2 0 0 .

0 0 0 5 0
0 0 0 0 5

iv) a = 2, b = 2, p(X) = (X − 2)2 (X − 5)2 .


Ci deve essere un blocco di Jordan 2 × 2 relativo all’autovalore 2, quindi ne deve
esistere un altro 1 × 1. Ci deve essere un blocco di Jordan 2 × 2 relativo all’auto-
valore 5, quindi questo è l’unico. Una forma canonica di Jordan della matrice che
rappresenta F è  
2 1 0 0 0
0 2 0 0 0
 
M =  0 0 2 0 0 .

0 0 0 5 1
0 0 0 0 5
v) a = 3, b = 1, p(X) = (X − 2)3 (X − 5).
Ci deve essere un blocco di Jordan 3 × 3 relativo all’autovalore 2, quindi questo è
l’unico. Tutti i blocchi di Jordan relativi all’autovalore 5 sono 1 × 1. Una forma
canonica di Jordan della matrice che rappresenta F è
 
2 1 0 0 0
0 2 1 0 0
 
M =  0 0 2 0 0 .

0 0 0 5 0
0 0 0 0 5

vi) a = 3, b = 2, p(X) = (X − 2)3 (X − 5)2 .


Ci deve essere un blocco di Jordan 3 × 3 relativo all’autovalore 2, quindi questo è
l’unico. Ci deve essere un blocco di Jordan 2 × 2 relativo all’autovalore 5, quindi
questo è l’unico. Una forma canonica di Jordan della matrice che rappresenta F è
 
2 1 0 0 0
0 2 1 0 0
 
M =  0 0 2 0 0 .

0 0 0 5 1
0 0 0 0 5

29
Esercizio 3. Si consideri l’operatore lineare
F : R3 → R 3 , (X, Y, Z) 7→ (X + 3Y − Z, 4Y − Z, Y + 2Z).
Dimostrare che F ammette una forma canonica di Jordan su R. Determinare una
base B di R3 rispetto alla quale la matrice associata sia in forma canonica di Jordan.

Svolgimento. La matrice associata a F rispetto alla base canonica di R3 è


 
1 3 −1
A=0 4 −1  .
0 1 2
Il polinomio caratterisctico PF (X) risulta uguale a
1−X 3 −1 
PF (X) = 0 4 − X −1 = (1 − X) (4 − X)(2 − X) + 1 =
0 1 2−X
(1 − X)(X 2 − 6X + 9) = −(X − 1)(X − 3)2
Poichè il polinomio caratteristico si spezza nel prodotto di polinomi di primo grado
su R, possiamo concludere che F ammette una forma canonica di Jordan su R.
Gli autovalori di F sono 1 con molteplicità algebrica 1, e 3 con molteplicità al-
gebrica 2. La molteplicità geometrica dell’autovalore 1 è dunque necessariamente
uguale a 1. Abbiamo  
−2 3 −1
A − 3I3 =  0 1 −1  .
0 1 −1
Il rango di A − 3I3 è pertanto uguale a 2 e quindi la molteplicità geometrica
dell’autovalore 3 è uguale a 1.
La forma canonica di Jordan per F presenta dunque un solo blocco di Jordan
relativo all’autovalore 1, necessariamente d’ordine 1, e un solo blocco di Jordan
relativo all’autovalore 3, necessariamente d’ordine 2. Una forma canonica di Jordan
su R per l’operatore F risulta uguale a
 
1 | 0 0
− − − −
M =  0 | 3 1 .

0 | 0 3
Pertanto l’operatore F non risulta diagonalizzabile, quindi il suo polinomio minimo
risulta uguale a p(X) = (X − 1)(X − 3)2 . Dal Teorema di Decomposizione Primaria

30
otteniamo per R3 la decomposizione mediante
 sottospazi F -invarianti R3 = U ⊕ W,
dove U = ker F − I , W = ker (F − 3I)2 . La base cercata si otterrà dunque come
unione di una opportuna base di U e di una opportuna base di W. La base di U
va determinata in modo tale che rispetto ad essa l’operatore (F − I)|U , nilpotente
d’indice 1, sia in forma canonica di Jordan. La base di W va determinata in modo
tale che rispetto ad essa l’operatore (F − 3I)|W , nilpotente d’indice 2, sia in forma
canonica di Jordan.
Abbiamo  
0 3 −1
A − I3 =  0 3 −1  .
0 1 1
pertanto le equazioni cartesiane di U rispetto alla base canonica sono 3Y − Z = 0,
Y + Z = 0, dalle quali segue Y = Z = 0, vale a dire U = {(X, 0, 0) : X ∈ R}. Una
base di U è dunque costituita dall’unico vettore u = (1, 0, 0).
Abbiamo ancora
 2     
−2 3 −1 −2 3 −1 −2 3 −1 4 −4 0
(A−3I3 )2 =  0 1 −1  =  0 1 −1   0 1 −1  =  0 0 0  .
0 1 −1 0 1 −1 0 1 −1 0 0 0
Pertanto W ha un’unica equazione cartesiana rispetto alla base canonica, vale a
dire X − Y = 0, mentre l’autospazio di F relativo all’autovalore 3 ha equazioni
cartesiane −2X + 3Y − Z = 0, Y − Z = 0. Una base della forma richiesta per W
è costituita da due vettori w1 e w2 della forma w1 = (F − 3I)(w), w2 = w con
(F − 3I)(w) 6= 0 (si veda il Teorema 15). Pertanto w deve essere un vettore di
W che non appartiene all’autospazio di F relativo all’autovalore 3. In altre parole,
w deve essere un vettore non nullo della forma (X, X, Z) con X 6= Z. Poniamo
ad esempio X = 1, Z = 0 e otteniamo w2 = w = (1, 1, 0), w1 = (F − 3I)(w) =
F (w) − 3w = (4, 4, 1) − (3, 3, 0) = (1, 1, 1).
Una base di R3 rispetto alla quale la matrice associata è nella forma richiesta è
dunque data da
v1 = u = (1, 0, 0), v2 = w1 = (1, 1, 1), v3 = w2 = (1, 1, 0).
Eseguiamo la verifica esplicita:
F (v1 ) = F (1, 0, 0) = (1, 0, 0) = 1 · v1 + 0 · v2 + 0 · v3 , prima colonna (1, 0, 0)
F (v2 ) = F (1, 1, 1) = (3, 3, 3) = 0 · v1 + 3 · v2 + 0 · v3 , seconda colonna (0, 3, 0)
F (v3 ) = F (1, 1, 0) = (4, 4, 1) = 0 · v1 + 1 · v2 + 3 · v3 , terza colonna (0, 1, 3)

31
Esercizio 4. (Da: PROVA INTERMEDIA DI GEOMETRIA B (CdL Matematica) – 28/01/2015).
Data la famiglia di matrici a coefficienti reali
 
2 h+k 0
Ah,k =  0 2 k
0 0 2

(a) Determinare al variare di h, k ∈ R una eventuale matrice Mh,k in forma canonica


di Jordan che risulti simile ad Ah,k
(b) Detto T l’operatore lineare di R3 avente Ah,k come matrice associata rispetto alla
base canonica di R3 , determinare per h 6= 0 e k = 0 una base B di R3 tale che la
matrice associata a T rispetto a B sia Mh,0 .

Svolgimento. Il polinomio caratteristico della matrice Ah,k è Ph,k (X) = (2 − X)3 =


−(X − 2)3 , dunque l’unico autovalore è 2 con molteplicità algebrica 3.
(a) Calcoliamo il rango della matrice
 
0 h+k 0
Ah,k − 2 I3 =  0 0 k
0 0 0

k = 0, h = 0
In questo caso il rango è 0 e A0,0 è una matrice diagonale, quindi coincide con
la propria forma canonica di Jordan, che ha 3 blocchi di Jordan 1 × 1 tutti relativi
all’unico autovalore 2.
k = 0, h 6= 0
In questo caso il rango è 1 quindi la molteplicità geometrica dell’unico autovalore 2
è uguale a 3−1 = 2, quindi nella forma canonica di Jordan vi sono complessivamente
2 blocchi di Jordan relativi all’autovalore 2, necessariamente un blocco 2 × 2 e un
blocco 1 × 1, quindi  
2 1 0
Mh,0 =  0 2 0  .
0 0 2
k 6= 0, h = −k
In questo caso il rango è 1 quindi la molteplicità geometrica dell’unico autovalore 2 è
uguale a 3 − 1 = 2, quindi nella forma canonica di Jordan vi sono complessivamente
2 blocchi di Jordan relativi all’autovalore 2, necessariamente un blocco 2 × 2 e un

32
blocco 1 × 1. Pertanto per ogni k 6= 0 otteniamo
 
2 1 0
M−k,k =  0 2 0  .
0 0 2
k 6= 0, h 6= −k
In questo caso il rango è 2 quindi la molteplicità geometrica dell’unico autovalore 2
è uguale a 3 − 2 = 1, quindi nella forma canonica di Jordan vi è un unico blocco di
Jordan, necessariamente 3 × 3. Quindi per ogni k 6= 0, h 6= −k otteniamo
 
2 1 0
Mh,k =  0 2 1  .
0 0 2
(b) Per k = 0, h 6= 0 la matrice Ah,0 − 2 I3 diventa
 
0 h 0
0 0 0
0 0 0
che elevata al quadrato diventa
 2      
0 h 0 0 h 0 0 h 0 0 0 0
 0 0 0  = 0 0 0 · 0 0 0 = 0 0 0 
0 0 0 0 0 0 0 0 0 0 0 0
quindi l’operatore T − 2Id è nilpotente con indice di nilpotenza 2. Il nucleo dell’o-
peratore lineare T − 2Id ha Y = 0 come unica equazione cartesiana. Scegliendo v
fuori dal nucleo, per esempio v = (0, 1, 0) otteniamo
     
0 h 0 0 h
 0 0 0 · 1 = 0 
0 0 0 0 0
quindi (T − 2Id)(v) = (h, 0, 0) = w e naturalmente (T − 2Id)(w) = 0.
I primi due vettori della base richiesta sono dunque w e v in questo ordine. Il terzo
vettore della base cercata, diciamo u, dovrà essere scelto in modo tale che w e u
formino una base del nucleo di (T − 2Id), per esempio u = (0, 0, 1). La base cecata
è dunque formata dai vettori w = (h, 0, 0), v = (0, 1, 0), u = (0, 0, 1)
Eseguiamo la verifica esplicita:
       
2 h 0 h 2h h
 0 2 0  ·  0  =  0  = 2 0 
0 0 2 0 0 0

33
         
2 h 0 0 h h 0
0 2 0  ·  1  =  2  =  0  + 2 1 
0 0 2 0 0 0 0
       
2 h 0 0 0 0
0 2 0  ·  0  =  0  = 2 0 
0 0 2 1 2 1
Pertanto la matrice associata a T rispatto alla base (w, v, u) è proprio quella voluta.

Esercizio 5. (Da: Prima prova “in itinere” di Geometria B del 15 febbraio 2016)

Si consideri la matrice a coefficienti nel campo R dei numeri reali


 
1 −1 −1 1
0 1/2 1/2 1/2 
H=  0 −1/2 3/2 1/2  .

0 −1 1 2

(1) Determinare il polinomio minimo di H su R.


(2) Stabilire se H risulta simile a una matrice diagonale a coefficienti nel campo C
dei numeri complessi.
(3) Dimostrare che H ammette una forma canonica di Jordan su R e determinarla.

34

Potrebbero piacerti anche