Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
1
POLINOMI E OPERATORI LINEARI/MATRICI
Sia V uno spazio vettoriale n-dimensionale sul campo K. Sia H : V → V un
operatore lineare, cioè un elemento di End(V). Equivalentemente, fissata una volta
per tutte una base di V, possiamo pensare che H sia una matrice n × n a coefficienti
in K, cioè un elemento di Mn (K).
Sia f (X) = ak X k + ak−1 X k−1 + . . . + a1 X + a0 ∈ K[X] un polinomio a coefficienti
in K. Vogliamo dare significato all’espressione f (H). Poniamo H 0 = IV (operatore
identico), H 1 = H e, induttivamente, per m ≥ 1, H m+1 = H · H m dove · indica
la composizione di operatori (cioè l’ordinaria composizione di funzioni). Possiamo
allora scrivere
f (H) = ak H k + ak−1 H k−1 + . . . + a1 H + a0 IV ∈ End(V)
Detto 0V l’operatore nullo di V, diremo che il polinomio f è annullato da H o che
H è uno zero di f se risulta f (H) = 0V .
Proposizione 1. Esiste un polinomio non nullo f (X) ∈ K[X] tale che risulti
f (H) = 0V .
Dimostrazione. Basta osservare che, poichè End(V) è uno spazio vettoriale di di-
2
mensione n2 sul campo K, gli operatori della lista IV , H, . . . , H n sono linearmente
dipendenti, quindi esistono scalari α0 , α1 , . . . , αn2 in K, non tutti nulli, tali che risulti
2 2
αn2 H n +. . .+α1 H +α0 IV = 0V vale a dire, posto f (X) = αn2 X n +. . .+α1 X +α0 ,
risulta proprio f (H) = 0V .
In altre parole I(H) consiste di tutti quei polinomi che sono annullati da H. Si
verifica immediatamente che valgono per I(H) le seguenti proprietà:
1) Il polinomio nullo appartiene a I(H)
2) Se f (X), g(X) ∈ I(H), allora si ha anche f (X) − g(X) ∈ I(H)
3) Se f (X) ∈ I(H) e h(X) ∈ K[X], allora si ha anche h(X)f (X) ∈ I(H)
Con terminologia algebrica, queste proprietà si riassumono in breve dicendo che
I(H) è un IDEALE nell’anello dei polinomi K[X].
2
Dimostrazione. Se q(X) è un polinomio non nullo di grado minimo tra quelli che
vengono annullati da H e α è il suo coefficiente principale, allora α−1 q(X) è un
polinomio monico dello stesso grado di q(X) (quindi di grado minimo tra i polinomi
che vengono annullati da H) e ovviamente H annulla α−1 q(X).
Se p(X) e p0 (X) sono due polinomi monici di grado minimo tra quelli che vengono
annullati da H, allora p(X) e p0 (X) hanno lo stesso grado e anche il polinomio
p(X) − p0 (X) viene annullato da H.
Dato che p(X) e p0 (X) sono entrambi monici, se la differenza p(X) − p0 (X) non
fosse il polinomio nullo, sarebbe un polinomio non nullo di grado inferiore a quello
di p(X), p0 (X), cioè inferiore al grado minimo dei polinomi non nulli che vengono
annullati da H, contraddizione. Pertanto p(X) − p0 (X) è il polinomio nullo, cioè
p(X) = p0 (X) e l’unicità del polinomio minimo è dimostrata.
Proposizione 3. Sia H : V → V un operatore lineare con polinomio minimo p(X).
Se f (X) è un polinomio che viene annullato da H, allora p(X) è un divisore di f (X),
cioè f (X) è un multiplo di p(X).
Dimostrazione. Mediante l’algoritmo di divisione polinomiale, possiamo determinare
polinomi q(X) e r(X) tali che risulti f (X) = q(X)p(X) + r(X) dove r(X) è il
polinomio nullo oppure il suo grado è minore del grado di p(X). Nel secondo caso,
osservando che r(X) = f (X) − q(X)p(X) avremmo r(H) = f (H) − q(H)p(H) =
0n − q(H)0n = 0n , cioè r(X) sarebbe un polinomio non nullo annullato da H con
grado minore del grado del polinomio minimo, contraddizione. Quindi r(X) è il
polinomio nullo e abbiamo f (X) = q(X)p(X), cioè p(X) è un divisore di f (X).
Teorema 1 (Cayley–Hamilton). Ogni matrice quadrata A d’ordine n (ovvero, ogni
operatore lineare di uno spazio vettoriale n-dimensionale) annulla il proprio polino-
mio caratteristico.
Dimostrazione. Sia PA (X) = det(A−X In ) = (−1)n (X n +an−1 X n−1 +. . .+a1 X +a 0)
il polinomio carattetristico della matrice A. Poniamo B(X) = t cof(A − X In ) e
osserviamo che i minori d’ordine n − 1 della matrice A − X In sono polinomi di grado
al più n − 1 in X, quindi tali sono i coefficienti della matrice B(X). Potremo quindi
scrivere B(X) = Bn−1 X n−1 + Bn−2 X n−2 + . . . + B1 X + B0 , dove Bj è una matrice
n × n per j = 0, 1, . . . , n − 1.
Da una identità matriciale dimostrata a suo tempo come conseguenza della regola
di Laplace, sappiamo che risulta
A − X In · t cof(A − X In ) = det A − X In In
3
ovvero
A − X In · Bn−1 X n−1 + Bn−2 X n−2 + . . . + B1 X + B0 =
(AB0 )X 0 = (−1)n a0 In X 0
dalle quali seguono le seguenti uguaglianze matriciali
−Bn−1 = (−1)n In
(ABn−1 − Bn−2 ) = (−1)n an−1 In
..
.
(AB1 − B0 ) = (−1)n a1 In
(AB0 ) = (−1)n a0 In
Moltiplico la prima equazione per An , la seconda equazione per An−1 , . . . , l’ultima
per A0 , ottenendo le uguaglianze
−An Bn−1 = (−1)n An
(An Bn−1 − An−1 Bn−2 ) = (−1)n an−1 An−1
..
.
(A B1 − AB0 ) = (−1)n a1 A
2
(AB0 ) = (−1)n a0 In
Sommando membro a membro ricaviamo
On = (−1)n (An + an−1 An−1 + . . . + a1 A + a0 In )
vale a dire On = PA (A) come richiesto.
Come prima conseguenza abbiamo che se A è una matrice n × n con polinomio
caratteristico PA (X) e polinomio minimo p(X) allora p(X) divide PA (X). Questa
proprietà si può parzialmente invertire in una forma più debole come mostra il
seguente risultato.
Teorema 2. Se A è una matrice n × n con polinomio
n caratteristico PA (X) e poli-
nomio minimo p(X) allora PA (X) divide p(X) .
4
Dimostrazione. Sia p(X) = X k + pk−1 X k−1 + . . . + p1 X + p0 . Definiamo
B0 = In
B1 = A + pk−1 In
B2 = A2 + pk−1 A + pk−2 In
..
.
Bk−2 = Ak−2 + pk−1 Ak−3 + . . . + p2 In
Bk−1 = Ak−1 + pk−1 Ak−2 + . . . + p2 A + p1 In
Da ciascuna delle precedenti uguaglianze matriciali, partendo dall’ultima e poi a sali-
re fino alla seconda, sottraggo membro a membro l’equazione precedente moltiplicata
per A, ottenendo la seguente nuova lista di uguaglianze.
B0 = In
B1 − AB0 = pk−1 In
B2 − AB1 = pk−2 In
..
.
Bk−1 − ABk−2 = p1 In
Considero ancora l’ultima uguaglianza della penultima lista, cioè
Bk−1 = Ak−1 + pk−1 Ak−2 + . . . + p1 In ,
e moltiplico primo e secondo membro a sinistra per A, ottenendo
ABk−1 = Ak + pk−1 Ak−1 + . . . + p1 AIn .
Al secondo membro di quest’ultima sottraggo e sommo p0 In e ricavo quindi
ABk−1 = −p0 In + (Ak + pk−1 Ak−1 + . . . + p1 AIn + p0 In )
ovvero, cambiando di segno
−ABk−1 = p0 In − (Ak + pk−1 Ak−1 + . . . + p1 AIn + p0 In )
cioè
−ABk−1 = p0 In − p(A),
e quindi, dato che per definizione di polinomio minimo si ha p(A) = 0n×n ,
−ABk−1 = p0 In .
5
Mettendo quest’ultima uguaglianza insieme alle altre, ottengo la seguente lista di
uguaglianze matriciali.
B0 = In
B1 − AB0 = pk−1 In
B2 − AB1 = pk−2 In
..
.
Bk−1 − ABk−2 = p1 In
−ABk−1 = p0 In
Definendo a questo punto
B(X) = X k−1 B0 + X k−2 B1 + . . . + XBk−2 + Bk−1
otterremo
(A − XIn ) · B(X) =
A − XIn · X k−1 B0 + X k−2 B1 + . . . + XBk−2 + Bk−1 =
Abbiamo dunque
(A − XIn ) · B(X) = −p(X)In
e quindi, prendendo il determinante di entrambi i membri,
det(A − XIn ) · det B(X) = det −p(X)In .
quindi
det(A − XIn ) · det B(X) = (−1)n (p(X))n det In .
Dato che i coefficienti di B(X) sono polinomi e dato che det B(X) è la som-
ma di prodotti
di coefficienti di B(X), possiamo certamente affermare che anche
det B(X) è un polinomio. Pertanto moltiplicando l’ultima uguaglianza ottenuta
per (−1)n otteniamo l’uguaglianza polinomiale
n
PA (X) (−1)n det B(X) = p(X)
6
Teorema 3. Se A è una matrice n × n con polinomio caratteristico PA (X) e poli-
nomio minimo p(X) allora il polinomio caratteristico PA (X) e il polinomio minimo
p(X) hanno gli stessi fattori irriducibili. In particolare, gli autovalori di una matrice
quadrata sono le radici del suo polinomio minimo.
Dimostrazione. Sia f (X) un polinomio irriducibile. Se f (X) divide p(X) allora,
poichè per il teorema di Cayley–Hamilton p(X) divide PA (X), risulta che f (X)
divide PA (X) n
Se viceversa f (X) divide PA (X), allora f (X) divide anche p(X) per il teorema
precedente. Se un polinomio irriducibile divide un prodotto di polinomi, allora
n deve
dividere almeno uno dei fattori, quindi, poichè i fattori del prodotto p(X) sono
tutti uguali a p(X), vediamo che f (X) divide p(X).
7
Sia v1 + v2 + . . . + vr = 0V con vj ∈ Wj . Allora poichè risulta anche 0V + 0V +
. . . + 0V = 0V , per l’unicità della rappresentazione segue necessariamente v1 = 0V ,
v 2 = 0V , . . . , v r = 0V .
Dimostriamo ora che l’insieme B è costituito da vettori linearmente indipendenti.
Supponiamo che risulti
λ1,1 w1,1 + λ1,2 w1,2 + . . . + λ1,n1 w1,n1 +
λ2,1 w2,1 + λ2,2 w2,2 + . . . + λ2,n2 w2,n2 +
......
+λr,1 wr,1 + λr,2 wr,2 + . . . + λr,nr wr,nr = 0V
per coefficienti λj,s in K. Per j = 1, 2, . . . , r definiamo
vj = λj,1 wj,1 + λj,2 wj,2 + . . . + λj,nj wj,nj .
Abbiamo dunque vj ∈ Wj e v1 + v2 + . . . + vr = 0V . Pertanto, per quanto appena
visto,
v 1 = 0V , v 2 = 0V , . . . , vr = 0V .
Per j = 1, 2, . . . , r abbiamo dunque λj,1 wj,1 + λj,2 wj,2 + . . . + λj,nj wj,nj = 0V
e di conseguenza, essendo wj,1 , wj,2 , . . . , wj,nj linearmente indipendenti in Wj ,
ricaviamo
λj,1 = λj,2 = . . . = λj,nj = 0 per j = 1, 2, . . . , r
e possiamo concludere che i vettori in B sono linearmente indipendenti.
Sia viceversa B una base di V e sia v un vettore di V. Esprimendo v come
combinazione lineare dei vettori di B e definendo per j = 1, 2, , . . . , r il vettore vj
come il contributo alla combinazione lineare che proviene dai vettori di Bj potremo
scrivere v = v1 + v2 + . . . + vr con vj ∈ Wj per j = 1, 2, . . . , r. Se questa rappresen-
tazione non fosse unica, cioè se risultasse anche v = v10 + v20 + . . . + vr0 con vj0 ∈ Wj
per j = 1, 2, . . . , r potremmo scrivere vj = λj,1 wj,1 + λj,2 wj,2 + . . . + λj,nj wj,nj e
vj0 = λ0j,1 wj,1 + λ0j,2 wj,2 + . . . + λ0j,nj wj,nj per opportuni elementi λj,s , λ0j,s in K.
Otterremmo dunque
v = λ1,1 w1,1 + λ1,2 w1,2 + . . . + λ1,n1 w1,n1 +
λ2,1 w2,1 + λ2,2 w2,2 + . . . + λ2,n2 w2,n2 +
......
+λr,1 wr,1 + λr,2 wr,2 + . . . + λr,nr wr,nr
e anche
v = λ01,1 w1,1 + λ01,2 w1,2 + . . . + λ01,n1 w1,n1 +
8
λ02,1 w2,1 + λ02,2 w2,2 + . . . + λ02,n2 w2,n2 +
......
+λ0r,1 wr,1 + λ0r,2 wr,2 + . . . + λ0r,nr wr,nr .
Dall’unicità della rappresentazione di v come combinazione lineare dei vettori della
base B, otteniamo dunque λj,s = λ0j,s per j = 1, 2, . . . , r e per s = 1, 2, . . . , nj . Da
ciò segue, in particolare, vj = vj0 .
9
F g(F ) (v) = F g(F )(v) = F (0) = 0
10
M = M1 ⊕ M2 ⊕ . . . ⊕ Mr se risulta
M1 | 0 | ... | 0
− | − | − | −
0
| M2 | ... | 0
M = − | − | − | −
.. .. ... ..
| | |
. . .
− | − | − | −
0 | 0 | ... | Mr
dove le matrici nulle hanno le dimensioni che si evincono dal contesto. In tal caso si
dice anche che M è una matrice DIAGONALE A BLOCCHI con blocchi diagonali
M1 , M2 , . . . , Mr
Dimostrazione. 1) Per un teorema risulta p1 (X) | p(X), p2 (X) | p(X), quindi p(X)
è multiplo comune di p1 (X) e p2 (X).
Sia ora a(X) un polinomio che risulti multiplo comune di p1 (X) e p2 (X). Risulta
in particolare a(F1 ) = 0W1 , a(F2 ) = 0W2 . Dato un vettore v di V scriviamolo
nella forma v = w1 + w2 con w1 ∈ W1 , w2 ∈ W2 . Per un Teorema precedente
abbiamo a(F )(w1 ) = a(F1 )(w1 ) = 0, a(F )(w2 ) = a(F2 )(w2 ) = 0. Risulta pertanto
11
a(F )(v) = a(F )(w1 + w2 ) = a(F )(w1 ) + a(F )(w2 ) = 0 + 0 = 0. In altre parole
abbiamo a(F )(v) = 0 per ogni vettore v ∈ V, cioè a(F ) = 0V . Pertanto a(X) è
annullato da F , ne segue p(X)|a(X).
Quindi p(X) divide ogni multiplo comune di p1 (X) e p2 (X). Possiamo concludere
che p(X) è un minimo comune multiplo di p1 (X) e p2 (X). Essendo un polinomio
monico, p(X) è dunque il minimo comune multiplo monico di p1 (X) e p2 (X).
2) Scriviamo la matrice associata a F nella forma
M1 | 0
M = − | −
0 | M2
essendo M1 la matrice associata a F1 rispetto a una data base di W1 e M2 la matrice
associata a F2 rispetto a una data base di W1 . Utilizzando le notazioni precedenti
abbiamo allora, sfruttando una proprietà dei determinanti
M1 − XIn1 | 0
PF (X) = PM (X) = det(M − XIn ) = −−− | −−− =
0 | M2 − XIn2
det(M1 − XIn1 ) det(M2 − XIn2 ) = PF1 (X)PF2 (X)
Teorema 10. Siano h1 (X) e h2 (X) due polinomi relativamente primi e sia g(X) =
h1 (X)·h2 (X). Sia F : V → V un operatore
lineare tale che risulti g(F ) = 0V . Posto
W1 = ker h1 (F ) , W2 = ker h2 (F ) , abbiamo che W1 e W2 sono F -invarianti e
risulta V = W1 ⊕ W2 .
Se inoltre g(X) è proprio il polinomio minimo di F e h1 (X), h2 (X) sono monici,
allora h1 (X) è il polinomio minimo di F1 = F |W1 e h2 (X) è il polinomio minimo di
F2 = F |W2 .
Dimostrazione. Per il Teorema 6 i sottospazi vettoriali W1 e W2 sono F -invarianti.
Dalla teoria degli ideali negli anelli polinomiali sappiamo che esistono polinomi a1 (X)
e a2 (X) nell’anello K[X] con a1 (X)h1 (X) + a2 (X)h2 (X) = 1. Otteniamo quindi
a1 (F )h1 (F ) + a2 (F )h2 (F ) = IV .
Se v ∈ V abbiamo
v = IV (v) = a1 (F )h1 (F )+a2 (F )h2 (F ) (v) = a1 (F )h1 (F )) (v)+ a2 (F )h2 (F ) (v)
quindi
h2 (F ) a1 (F )h1 (F )(v) = h2 (F )a1 (F )h1 (F ) (v) = a1 (F )h2 (F )h1 (F ) (v) =
12
a1 (F )g(F ) (v) = a1 (F )(0) = 0,
h1 (F ) a2 (F )h2 (F )(v) = h1 (F )a2 (F )h2 (F ) (v) = a1 (F )h1 (F )h2 (F ) (v) =
a2 (F )g(F ) (v) = a2 (F )(0) = 0.
Abbiamo dimostrato a1 (F )h1 (F ) (v) ∈ W2 , a2 (F )h2 (F ) (v) ∈ W1 , pertanto
ogni vettore v ∈ V risulta somma di un vettore w1 ∈ W1 e di un vettore w2 ∈ W2 .
In altre parole risulta W1 + W2 = V: verifichiamo che la somma è diretta. Sia
u ∈ W1 ∩ W2 . Abbiamo
u = a1 (F )h1 (F )(u) + a2 (F )h2 (F )(u) = a1 (F )(0) + a2 (F )(0) = 0 + 0 = 0.
Dunque W1 ∩ W2 = {0} e V = W1 ⊕ W2
Per j = 1, 2 sia pj (X) il polinomio minimo di Fj = F |Wj . Per ogni vettore
w1 ∈ W1 abbiamo h1 (F1 )(w1 ) = h1 (F )(w1 ) = 0, dunque h1 (F1 ) = 0W1 . In maniera
del tutto simile si dimostra h2 (F2 ) = 0W2 . Seguono dunque le relazioni p1 (X)|
h1 (X), p2 (X) | h2 (X). Inoltre per il Teorema 9 si ha g(X) = mcm p1 (X), p2 (X) .
D’altro canto, essendo h1 (X) e h2 (X) relativamente primi, tali sono anche p1 (X) e
p2 (X) e quindi g(X) = p1 (X)p2 (X). Essendo anche g(X) = h1 (X)h2 (X) otteniamo
p1 (X)p2 (X) = h1 (X)h2 (X). Da quest’ultima e dalle relazioni p1 (X) | h1 (X), p2 (X)|
h2 (X), seguono
necessariamente
le ulteriori relazioni deg p1 (X) = deg h1 (X) ,
deg p2 (X) = deg h2 (X) . Essendo p1 (X) un divisore di h1 (X) ed essendo p1 (X)
e h1 (X) polinomi monici dello stesso grado, deve essere p1 (X) = h1 (X). Alla stessa
maniera deduciamo p2 (X) = h2 (X).
13
Per l’ipotesi induttiva W è la somma diretta di sottospazi vettoriali G-invarianti
nj
W1 , W2 , . . . , Wr−1 dove Wj = ker pj (G) j = 1, 2, . . . , r − 1 e pj (X)nj è il
polinomio minimo di G|Wj .
nj
Dimostriamo che risulta ker p j (F ) ⊆ W. Sia infatti v ∈ V un vettore tale che
risulti pj (F )nj v = 0. Abbiamo
n n n n n
g(X) = p1 (X) 1 . . . pj−1 (X) j−1 pj+1 (X) j+1 . . . pr−1 (X) r−1 pj (X) j
da cui segue
n n n n n
g(F )(v) = p1 (F ) 1 . . . pj−1 (F ) j−1 pj+1 (F ) j+1 . . . pr−1 (F ) r−1 pj (F ) j (v)
n n n n
= p1 (F ) 1 . . . pj−1 (F ) j−1 pj+1 (F ) j+1 . . . pr−1 (F ) r−1 (0) = 0.
Quindi v ∈ ker g(F ) = W. Ne segue ker pj (F )nj = ker pj (G)nj = Wj . Ab-
biamo inoltre F |Wj = G|Wj , dato che, essendo Wj ⊆ W con W sottospazio
F -invariante, dire che Wj è G-invariante è esattamente come dire che Wj è F -
invariante. Pertanto il polinomio minimo di F |Wj coincide con il polinomio minimo
di G|Wj , cioè con pj (X)nj per j = 1, 2, . . . , r − 1. Otteniamo infine che
V = W ⊕ Wr = W1 ⊕ W2 ⊕ . . . ⊕ Wr−1 ⊕ Wr = W1 ⊕ W2 ⊕ . . . ⊕ Wr−1 ⊕ Wr
è la richiesta decomposizione in somma diretta F -invariante.
14
0 + 0 + ... + 0 = 0
da cui segue q(F ) = 0V . Pertanto il polinomio minimo p(X) di F è un divisore di
q(X). Dato che q(X) è prodotto di polinomi monici di primo grado distinti, anche il
polinomio minimo p(X) di F ha questa proprietà. Inoltre, poichè ciascun autovalore
di F è una radice del suo polinomio minimo, risulta che p(X) è divisibile per ciascun
polinomio X − αj , j = 1, 2, . . . , s, quindi in definitiva p(X) è divisibile anche per
q(X) = (X − α1 )(X − α2 ) . . . (X − αs ) Dunque il polinomio minimo p(X) di F è
proprio q(X).
Supponiamo viceversa che risulti p(X) = (X − α1 )(X − α2 ) . . . (X − αs ) con α1 ,
α2 , . . . , αs elementi a due a due distinti di K. Per il Teorema di Decomposizione
Primaria abbiamo V = W1 ⊕W2 ⊕. . .⊕Ws dove Wj = ker F −αj IV . Ciò significa
che se w ∈ Wj risulta F − αj IV (w) = 0, ovvero F (w) = αj w. Dunque se w è un
vettore non nullo di Wj allora è un autovettore. Detta Bj una base di Wj abbiamo
che B = B1 ∪ B2 ∪ . . . ∪ Bs è una base di autovettori di V = W1 ⊕ W2 ⊕ . . . ⊕ Ws ,
quindi B è una base diagonalizzante per l’operatore lineare F .
Esercizio 1. Sia A 6= In una matrice quadrata n × n a coefficienti reali tale che
risulti A3 = In .
1) Stabilire se A è diagonalizzabile su R.
2) Stabilire se A è diagonalizzabile su C.
15
{u1 , u2 , . . . , uk , w1 , w2 , . . . , ws } una base di W ottenuta dalla precedente per com-
pletamento.
Se {u01 , u02 , . . . , u0k } è un’altra base di U allora anche {u01 , u02 , . . . , u0k , w1 , w2 , . . . , ws }
è una base di W.
Dimostrazione. Poichè i vettori sono in numero giusto, basta far vedere che formano
un sistema di generatori per W. A tale scopo è sufficiente far vedere che generano
tutti i vettori della base vecchia {u1 , u2 , . . . , uk , w1 , w2 , . . . , ws }. Ma ciò è chiaro,
infatti i vettori wj sono in entrambi gli insiemi, mentre ogni vettore uh può essere
espresso come combinazione lineare dei vettori u01 , u02 ,. . . ,u0k , dato che questi ultimi
formano una base di U.
Definizione 6. Sia F : V → V un operatore lineare di uno spazio vettoriale n-
dimensionale V. Si dice che F è NILPOTENTE se esiste un intero positivo k tale
che risulti F k = 0V . Se k è il minimo intero positivo per cui ciò accade si dice che k
è l’INDICE DI NILPOTENZA di F . Analoghe definizioni si danno per una matrice
quadrata d’ordine n.
Teorema 13. Un operatore lineare F : V → V risulta nilpotente d’indice k se e
solo se p(X) = X k è il suo polinomio minimo.
16
Dimostrazione. Abbiamo J1 (0) = (0) quindi J1 (0) è nilpotente d’indice di nilpotenza
1. Abbiamo
0 1 0 1 0 0
J2 (0)2 = · =
0 0 0 0 0 0
quindi J2 (0) è nilpotente d’indice di nilpotenza 2.
Sia ora k ≥ 3. La prima riga di Jk (0) è il secondo vettore canonico (0, 1, 0, . . . , 0);
la seconda riga di Jk (0) è il terzo vettore canonico (0, 0, 1, 0, . . . , 0); . . . ; la (k − 1)-
esima riga di Jk (0) è il k-esimo vettore canonico (0, 0, . . . , 0, 1); la k-esima riga di
Jk (0) è la riga nulla (0, 0, . . . , 0, 0).
Vediamo quindi che moltiplicando la matrice Jk (0) per una qualunqe matrice M
d’ordine k, otteniamo una matrice d’ordine k in cui la prima riga è la seconda riga
di M , la seconda riga è la terza riga di M , la (k − 1)-esima riga è la k-esima riga di
M , l’ultima riga è la riga nulla.
Pertanto moltiplicando la matrice Jk (0) per se stessa, otteniamo una matrice
d’ordine k in cui la prima riga è (0, 0, 1, 0, . . . , 0), la seconda riga è (0, 0, 0, 1, . . . , 0),
. . . , la (k − 2)-esima riga è (0, 0, 0, 0, . . . , 1), la k − 1-esima riga è la riga nulla, la
k-esima riga è la riga nulla.
Iterando il ragionamento, vediamo che Jk (0) · Jk (0)h ha come prima riga l’(h + 2)-
esimo vettore canonico, come seconda riga l’(h + 3)-esimo vettore canonico, . . . ,
come (k − h − 1)-esima riga il k-esimo vettore canonico e poi tutte righe nulle.
Proseguendo abbiamo quindi che Jk (0)k−1 ha 1 in posizione (1, k) e tutti zeri altrove
e infine Jk (0)k è la matrice nulla.
Teorema 15. Sia F : V → V un operatore lineare. Sia v ∈ V un vettore per il
quale esiste un intero positivo k con F k (v) = 0 mentre F k−1 (v) 6= 0.
(i) I vettori v, F (v), . . . , F k−1 (v) sono linearmente indipendenti.
(ii) Posto W = hv, F (v), . . . , F k−1 (v)i abbiamo che W è un sottospazio vettoriale
F -invariante di V.
(iii) Posto G = F |W abbiamo che l’operatorte lineare G : W → W è nilpotente
d’indice k.
(iv) La matrice associata a G rispetto alla base B = F k−1 (v), . . . , F (v), v è il
blocco di Jordan Jk (0).
17
λ0 F k−1 (v) + λ1 F k (v) + . . . + λk−1 F 2k−2 (v) =
λ0 F k−1 (v) + λ1 0 + . . . + λk−1 0 = λ0 F k−1 (v).
Essendo F k−1 (v) 6= 0 otteniamo λ0 = 0.
Tornando indietro abbiamo
0 = λ1 F (v) + . . . + λk−1 F k−1 (v).
Ne segue
0 = F k−2 0 = F k−2 λ1 F (v) + . . . + λk−1 F k−1 (v) =
18
Calcoliamo
G F k−2 (v) = F F k−2 (v) = F k−1 (v) = 1 · F k−1 (v) + 0 · F k−2 (v) + . . . + 0 · v.
19
Pertanto la k-esima (ultima) colonna della matrice associata a G rispetto alla base
B è
0
0
..
.
0
1
0
Lemma 2. Sia F : V → V un operatore lineare. Posto U = ker F i , W =
ker F i+1 , risulta F W ⊆ U ⊆ W.
Dimostrazione. Dimostriamo l’inclusione U ⊆ W. Se u ∈ U abbiamo F i (u) = 0,
quindi F i+1 (u) = F F i (u) = F (0) = 0, vale a dire u ∈ ker F i+1 = W.
Dimostriamo l’inclusione F W ⊆ U. Se w ∈ W abbiamo F i+1 (w) = 0,
equivalentemente F i F (w) = 0, che significa appunto F (w) ∈ ker(F i ) = U
Sia F : V → V un operatore lineare. Posto U = ker F i−2 , W = ker F i−1 ,
Y = ker F i . Per quanto visto risulta U ⊆ W ⊆ Y.
Supponiamo che {u1 , u2 , . . . , ur } sia una base di U.
Supponiamo che {u1 , u2 , . . . , ur , w1 , w2 , . . . , ws } sia una base di W.
Supponiamo che {u1 , u2 , . . . , ur , w1 , w2 , . . . , ws , y1 , y2 , . . . , yt }, sia una base di Y.
Teorema 16. I vettori u1 , u2 ,. . . , ur F (y1 ), F (y2 ), . . . , F (yt ) ∈ W sono linear-
mente indipendenti.
Dimostrazione. I vettori indicati sono in W per il Lemma 2. Siano α1 , . . . , αr , β1 ,
. . . , βt ∈ K tali che risulti
α1 u1 + . . . + αr ur + β1 F (y1 ) + . . . + βt F (yt ) = 0,
vale a dire
β1 F (y1 ) + . . . + βt F (yt ) = −α1 u1 − . . . − αr ur ∈ U = ker F i−2 .
Abbiamo pertanto
0 = F i−2 β1 F (y1 )+. . .+βt F (yt ) = F i−2 F (β1 y1 +. . .+βt yt ) = F i−1 β1 y1 +. . .+βt yt .
Pertanto β1 y1 +. . .+βt yt ∈ ker F i−1 = W ed esistono quindi γ1 ,. . . ,γr ,δ1 ,. . . ,δs ∈ K
tali che risulti
β1 y1 + . . . + βt yt = γ1 u1 + . . . + γr ur + δ1 w1 + . . . + δs ws .
20
Riscrivendo, otteniamo
β1 y1 + . . . + βt yt − γ1 u1 − . . . − γr ur − δ1 w1 − . . . − δs ws = 0
e poichè i vettori u1 ,. . . ,ur , w1 ,. . . ,ws , y1 ,. . . ,yt sono linearmente indipendenti ne
segue
β1 = 0, . . . , βt = 0, γ1 = 0, . . . , γr = 0, δ1 = 0, . . . , δs = 0.
Tornando indietro risulta anche
α1 u1 + . . . + αr ur = 0,
e quindi, essendo u1 , . . . , ur linearmente indipendenti, α1 = . . . = αr = 0. In
definitiva abbiamo dimostrato
α1 = . . . = αr = β1 = . . . = βt = 0
come si voleva.
Teorema 17. Sia V uno spazio vettoriale n-dimensionale, n > 0, e sia F : V → V
un operatore lineare nilpotente di indice di nilpotenza k > 1. Esiste una base di
V rispetto alla quale la matrice associata è diagonale a blocchi, dove tutti i blocchi
diagonali sono del tipo Ji (0) per qualche intero i ≥ 1.
(i) Esiste almeno un blocco Jk (0) e per ogni altro blocco Ji (0) risulta i ≤ k.
(ii) La somma degli ordini di tutti i blocchi è n.
(iii) Il numero di blocchi di ciascun ordine i è univocamente determinato da F
e risulta uguale a 2(n − ri ) − (n − ri+1 ) − (n − ri−1 ) = ri−1 − 2ri + ri+1 essendo
ri = rk(F i ) = dim(Im(F i )
(in particolare:
r0 = rk(F 0 ) = rk(IV ) = n, rk = rk(F k ) = rk(0V ) = 0, rk+1 = rk(F k+1 ) = rk(0V ) = 0).
(iv) Il numero totale dei blocchi di tutti gli ordini è uguale a n−rk(F ) = dim ker(F )
Dimostrazione. Poniamo
{0} ⊂ W1 = ker F ⊂ W2 = ker F 2 ⊂ . . .
21
Wi+1 avremmo 0 = Fi+1 (v) = F i F (v) , da cui F (v) ∈ ker F i = ker F i−1 ,
ovvero 0= F i−1 F (v) = F i (v), cioè v ∈ ker F i = Wi : otterremmo pertanto
ker F i−1 = Wi−1 = W i = ker F
i
= ker F i+1 = Wi+1 e quindi, reiterando il
i−1 k i−1
ragionamento ker F = Wi−1 = . . . = ker F = Wk = V , vale a dire F = 0V
e l’indice di nilpotenzadi F dovrebbe essere minore di k.
Posto mi = dim Wi per i = 1, 2, . . . , k, abbiamo mi = n − ri e risulta 0 < m1 <
m2 < . . . < mk = n, quindi anche m1 > 0, m2 − m1 > 0, . . . , mk − mk−1 > 0.
Possiamo scegliere una base u1 , u2 , . . . , un di V in modo tale che u1 , u2 , . . . , umi
risulti essere una base di Wi .
Definiamo
v(1,k) = umk−1 +1 , v(2,k) = umk−1 +2 , ... , v(mk −mk−1 ,k) = umk .
Quindi i vettori u1 , u2 , . . . , umk−1 , v(1,k) , . . . , v(mk −mk−1 ,k) formano una base di V.
Definiamo
v(1,k−1) = F v(1,k) , v(2,k−1) = F v(2,k) , . . . , v(mk −mk−1 ,k−1) = F v(mk −mk−1 ,k) .
Per il Teorema 16 applicato alla catena di inclusioni Wk−2 ⊂ Wk−1 ⊂ Wk e quindi
alla sequenza di vettori
u1 , u2 , . . . , umk−2 , umk−2 +1 , . . . , umk−1 , v(1,k) , . . . , v(mk −mk−1 ,k)
abbiamo che i vettori
u1 , u2 , . . . , umk−2 , v(1,k−1) , . . . , v(mk −mk−1 ,k−1)
sono linearmente indipendenti in Wk−1 . Possiamo completarli a una base di Wk−1
aggiungendo dei vettori opportuni che indichiamo con
v(mk −mk−1 +1,k−1) , ... , v(mk−1 −mk−2 ,k−1)
il cui numero è (mk−1 − mk−2 ) − (mk − mk−1 ) = 2mk−1 − mk−2 − mk . In definitiva
u1 , u2 , . . . , umk−2 , v(1,k−1) , . . . , v(mk−1 −mk−2 ,k−1)
è base di Wk−1 , mentre
u1 , u2 , . . . , umk−2 , v(1,k−1) , . . . , v(mk−1 −mk−2 ,k−1) , v(1,k) , . . . , v(mk −mk−1 ,k)
è base di V.
Definiamo ora
v(1,k−2) = F v(1,k−1) , ... , v(mk−1 −mk−2 ,k−2) = F v(mk−1 −mk−2 ,k−1) .
22
Per il Teorema 16 applicato alla catena di inclusioni Wk−3 ⊂ Wk−2 ⊂ Wk−1 e
quindi alla sequenza di vettori
u1 , u2 , . . . , umk−3 , umk−3 +1 , . . . , umk−2 , v(1,k−1) , . . . , v(mk−1 −mk−2 ,k−1)
abbiamo che i vettori
u1 , u2 , . . . , umk−3 , v(1,k−2) , . . . , v(mk−1 −mk−2 ,k−2)
sono linearmente indipendenti in Wk−2 . Possiamo completarli a una base di Wk−2
aggiungendo dei vettori opportuni che indichiamo con
v(mk−1 −mk−2 +1,k−2) , ... , v(mk−2 −mk−3 ,k−2)
il cui numero è (mk−2 −mk−3 )−(mk−1 −mk−2 ) = 2mk−2 −mk−3 −mk−1 . In definitiva
i vettori
u1 , u2 , . . . , umk−3 , v(1,k−2) , . . . , v(mk−2 −mk−3 ,k−2)
formano una base di Wk−2 , mentre i vettori
u1 , u2 , . . . , umk−3 , v(1,k−2) , . . . , v(mk−2 −mk−3 ,k−2) , v(1,k−1) , . . . , v(mk−1 −mk−2 ,k−1)
formano una base di Wk−1 e infine i vettori
u1 , u2 , . . . , umk−3 , v(1,k−2) , . . . , v(mk−2 −mk−3 ,k−2) , v(1,k−1) , . . . , v(mk−1 −mk−2 ,k−1) ,
v(1,k) , . . . , v(mk −mk−1 ,k)
formano una base di Wk = V.
Ripetendo il processo arriviamo a una base di V fatta in questo modo
v(1,1) v(2,1) . . . v(m1 ,1) base di W1
base di W2
v(1,2) v(2,2) . . . v(m2 −m1 ,2)
.. .. base di Wk = V
. .
v(1,k) v(2,k) . . . v(mk −mk−1 ,k)
23
le immagini dei vettori di una riga danno luogo ai vettori di ugual posto della riga
successiva (andando verso il basso) , mentre le immagini dei vettori dell’ultima riga
sono tutte uguali al vettore nullo. In altre parole
F v(j,i) = v(j,i−1) , i = k, k − 1, . . . , 2, F v(j,1) = 0.
Partiamo dal primo vettore della prima riga in alto e consideriamo i vettori che
si trovano sotto di lui (quindi i vettori della prima colonna). In sostanza stiamo
considerando i vettori
v(1,k)
v(1,k−1) = F v(1,k)
v(1,k−2) = F v(1,k−1) = F F v(1,k) = F 2 v(1,k)
..
.
v(1,2) = F k−2 v(1,k)
v(1,1) = F k−1 v(1,k)
Per quanto visto nel Teorema 15, il sottospazio vettoriale generato dai vettori
suddetti
v(1,k)
v(1,k−1) = F v(1,k)
..
.
v(1,2) = F k−2 v(1,k)
v(1,1) = F k−1 v(1,k)
è F -invariante e naturalmente i vettori di questa lista ne formano una base. Questo
sarà pertanto il primo sottospazio della nostra decomposizione per somma diretta
F -invariante di V.
Per il medesimo Teorema 15, il sottospazio vettoriale generato dai vettori
v(2,k)
v(2,k−1) = F v(2,k)
..
.
v(2,2) = F k−2 v(2,k)
v(2,1) = F k−1 v(2,k)
è F -invariante e naturalmente i vettori di questa lista ne formano una base. Questo
sarà pertanto il secondo sottospazio della nostra decomposizione per somma diretta
F -invariante di V.
Si procede cosı̀ verso destra finchè non sono stati esauriti tutti i vettori della
prima riga. Si scende quindi di livello e si ripete il tutto per ciascuno degli eventuali
vettori residui della seconda riga: ciascuno di essi, insieme ai vettori che si trovano al
24
disotto nella medesima colonna, genera un sottospazio vettoriale k − 1-dimensionale
F -invariante.
Esauriti i vettori dela seconda riga si scende di nuovo di livello, andando avanti
fino a quando tutti i vettori di tutte le righe sono stati coinvolti.
Riportiamo il tutto in uno schema a scala.
mk −mk−1
k (mk−1 −mk−2 )−(mk −mk−1 )
k−1
..
.
(m2 −m1 )−(m3 −m2 )
2 m1 −(m2 −m1 )
1
k k−1 2 1
A questo punto le affermazioni (i) e (ii) sono chiare.
Per quanto riguarda (iii), il numero indicato in cima a ciascuna colonna della tabel-
la riassuntiva, ci dà il numero di sottospazi vettoriali F -invarianti della dimensione
indicata in fondo alla colonna stessa.
Pertanto i vettori che occupano ciascuna delle prime mk − mk−1 colonne della
tabella danno luogo a un sottospazio vettoriale k-dimensionale F -invariante. Il
numero di tali sottospazi risulta quindi uguale a mk − mk−1 = (n − rk ) − (n − rk−1 ) =
rk−1 − rk = rk−1 − 2rk + rk+1 , essendo rk+1 = rk = 0. Si osservi che mk − mk−1 > 0.
Questo sarà il numero dei blocchi di Jordan Jk (0) che compariranno nella matrice
associata, quando i vettori della base che occupano le prime mk − mk−1 colonne sono
riordinati in modo tale che i vettori di ciascuna colonna compaiano consecutivamente
nella sequenza dal basso verso l’alto.
Analogamente, le successive (mk−1 − mk−2 ) − (mk − mk−1 ) = 2mk−1 − mk −
mk−2 colonne (se presenti) danno luogo ad altrettanti sottospazi vettoriali (k −
1)-dimensionali F -invarianti. Il numero di tali sottospazi risulta quindi uguale a
2mk−1 − mk − mk−2 = 2(n − rk−1 ) − (n − rk ) − (n − rk−2 ) = rk−2 − 2rk−1 + rk .
Anche qui vale il fatto che per avere nella matrice associata i blocchi di Jordan
Jk−1 (0) occorrerà riordinare i vettori in modo tale che i vettori di ciascuna colonna
compaiano consecutivamente nella sequenza dal basso verso l’alto.
Proseguendo cosı̀ arriviamo alle ultime m1 − (m2 − m1 ) = 2m1 − m2 colonne che
danno luogo (ove presenti) a sottospazi vettoriali 1-dimensionali F -invarianti. Il
numero di tali sottospazi risulta quindi uguale a 2m1 − m2 = 2(n − r1 ) − (n − r2 ) =
n − 2r1 + r2 = r0 − 2r1 + r2 , essendo r0 = n.
Di nuovo osserviamo che le dimensioni di questi sottospazi vettoriali F -invarianti
via via costruiti danno anche gli ordini i dei blocchi di Jordan Ji (0) che compa-
iono nella matrice associata, una volta che i vettori della tabella vengano ordinati
25
opportunamente.
Per quanto riguarda (iv), il numero complessivo di sottospazi vettoriali F -invarianti
che compaiono nella decomposizione, cioè il numero complessivo di blocchi di Jordan
di tutti i possibili ordini, risulta uguale a
(mk − mk−1 ) + (2mk−1 − mk − mk−2 ) + (2mk−2 − mk−1 − mk−3 ) + . . .
. . . + (2m2 − m3 − m1 ) + (2m1 − m2 ) =
= m1 = dim(W1 ) = dim ker(F ) = n − rk(F )
Questa conclusione concorda col fatto che il numero di sottospazi F -invarianti nella
decomposizione in somma diretta è dato dal numero dei vettori dell’ultima riga in
basso della tabella. Infatti questi vettori formano una base di W1 = ker(F ). Cia-
scuno di essi appartiene ad esattamente uno dei sottospazi della decomposizione e,
viceversa, ciascun sottospazio della decomposizione contiene esattamente un vettore
dell’ultima riga della tabella.
26
è un operatore nilpotente d’indice di nilpotenza mj . Riscrivendo Fj = Nj + λj IVj
abbiamo una rappresentazione di Fj come somma di un operatore nilpotente e di
un operatore scalare.
Per il Teorema 17 sugli operatori nilpotenti possiamo scegliere una base Bj di Vj
in modo tale che Nj sia in forma canonica. Rispetto a tale base la matrice associata
a Fj è una matrice diagonale a blocchi Mj , i cui blocchi diagonali sono del tipo
Ji (λj ).
La matrice diagonale a blocchi
M1 | 0 | . . . | 0
− | − | − | −
0 | M | ... | 0
2
− | − | − | −
M =
.. . . .
. | .. | . . | ..
− | − | − | −
0 | 0 | . . . | Mr
rappresenta l’operatore lineare F rispetto alla base B = B1 ∪ B2 ∪ . . . ∪ Br di V.
Dobbiamo dimostrare che i blocchi Ji (λj ), i quali compaiono tutti all’interno di Mj ,
hanno le proprietà richieste.
(i) Segue dal fatto che un blocco Ji (λj ) per Fj nasce da un corrispondente blocco
Ji (0) per Nj , il quale è nilpotente d’indice di nilpotenza mj .
(ii) Abbiamo PF (X) = PM (X) = PM1 (X) PM2 (X) . . . PMr (X). Poichè Mj è una
matrice triangolare superiore con tutti gli elementi diagonali uguali a λj , avremo
che PMj (X) a meno del segno sarà uguale a (X − λj )aj . Il confronto fra PF (X) =
(−1)n (X − λ1 )n1 (X − λ2 )n2 . . . (X − λr )nr e i polinomi PMj (X), tenendo conto del
fatto che λ1 , λ2 , . . . , λr sono a due a due distinti, dà luogo all’uguaglianza aj = nj .
Pertanto la somma degli ordini di tutti i blocchi Ji (λj ) che compaiono in Mj è uguale
a nj .
(iii) Per la formula dimostrata per gli operatori lineari nilpotenti, il numero totale
dei blocchi Ji (0) d’ordine i per l’operatore nilpotente Nj risulta uguale a
2(nj − rj, i ) − (nj − rj, i+1 ) − (nj − rj, i−1 ) = rj, i−1 − 2rj, i + rj, i+1
essendo rj,i = rk (Nj )i = rk (Fj − λj IVj )i che pertanto è univocamente determi-
nato da Nj , cioè da Fj e quindi, in definitiva, da F .
(iv)
Il numero totale dei blocchi Ji (λj ) che compaiono in Mj è uguale al numero
totale dei blocchi Ji (0) che compaiono in Nj . Per l’analoga proprietà (iv) della
forma canonica di Jordan per gli operatori lineari nilpotenti, quest’ultimo nume-
ro risulta uguale a nj − rk(Nj ) = nj − rk(Fj − λj IVj ). L’autospazio Vλj (F ) di
27
F relativo all’autovalore
λj risulta contenuto in Vj : abbiamo infatti Vλj (F ) =
ker F − λj IV ⊆ ker (F − λj IV )mj = Vj (questa relazione segue dalla più ge-
s
nerale ker(G) ⊆ ker(G )). Abbiamo
dunque Vλj (F ) = Vλj (Fj ) e quindi anche
dim Vλj (F ) = dim Vλj (Fj ) = nj −rk(Fj −λj IVj ). Pertanto quest’utlimo numero,
che è il numero cercato, è proprio uguale alla molteplicità geometrica dell’autovalore
λj per l’operatore lineare F .
Esercizio 2. (Da S. Lipschutz, Algebra Lineare, Collana Schaum, ETAS Libri, Giugno 1975, Esercizio 10.19, p.237).
Determinare tutte le possibili forme canoniche di Jordan per un operatore lineare
F : R5 → R5 avente polinomio caratteristico PF (X) = (−1)5 (X − 2)3 (X − 5)2
28
canonica di Jordan della matrice che rappresenta F è
2 1 0 0 0
0 2 0 0 0
M = 0 0 2 0 0 .
0 0 0 5 0
0 0 0 0 5
29
Esercizio 3. Si consideri l’operatore lineare
F : R3 → R 3 , (X, Y, Z) 7→ (X + 3Y − Z, 4Y − Z, Y + 2Z).
Dimostrare che F ammette una forma canonica di Jordan su R. Determinare una
base B di R3 rispetto alla quale la matrice associata sia in forma canonica di Jordan.
0 | 0 3
Pertanto l’operatore F non risulta diagonalizzabile, quindi il suo polinomio minimo
risulta uguale a p(X) = (X − 1)(X − 3)2 . Dal Teorema di Decomposizione Primaria
30
otteniamo per R3 la decomposizione mediante
sottospazi F -invarianti R3 = U ⊕ W,
dove U = ker F − I , W = ker (F − 3I)2 . La base cercata si otterrà dunque come
unione di una opportuna base di U e di una opportuna base di W. La base di U
va determinata in modo tale che rispetto ad essa l’operatore (F − I)|U , nilpotente
d’indice 1, sia in forma canonica di Jordan. La base di W va determinata in modo
tale che rispetto ad essa l’operatore (F − 3I)|W , nilpotente d’indice 2, sia in forma
canonica di Jordan.
Abbiamo
0 3 −1
A − I3 = 0 3 −1 .
0 1 1
pertanto le equazioni cartesiane di U rispetto alla base canonica sono 3Y − Z = 0,
Y + Z = 0, dalle quali segue Y = Z = 0, vale a dire U = {(X, 0, 0) : X ∈ R}. Una
base di U è dunque costituita dall’unico vettore u = (1, 0, 0).
Abbiamo ancora
2
−2 3 −1 −2 3 −1 −2 3 −1 4 −4 0
(A−3I3 )2 = 0 1 −1 = 0 1 −1 0 1 −1 = 0 0 0 .
0 1 −1 0 1 −1 0 1 −1 0 0 0
Pertanto W ha un’unica equazione cartesiana rispetto alla base canonica, vale a
dire X − Y = 0, mentre l’autospazio di F relativo all’autovalore 3 ha equazioni
cartesiane −2X + 3Y − Z = 0, Y − Z = 0. Una base della forma richiesta per W
è costituita da due vettori w1 e w2 della forma w1 = (F − 3I)(w), w2 = w con
(F − 3I)(w) 6= 0 (si veda il Teorema 15). Pertanto w deve essere un vettore di
W che non appartiene all’autospazio di F relativo all’autovalore 3. In altre parole,
w deve essere un vettore non nullo della forma (X, X, Z) con X 6= Z. Poniamo
ad esempio X = 1, Z = 0 e otteniamo w2 = w = (1, 1, 0), w1 = (F − 3I)(w) =
F (w) − 3w = (4, 4, 1) − (3, 3, 0) = (1, 1, 1).
Una base di R3 rispetto alla quale la matrice associata è nella forma richiesta è
dunque data da
v1 = u = (1, 0, 0), v2 = w1 = (1, 1, 1), v3 = w2 = (1, 1, 0).
Eseguiamo la verifica esplicita:
F (v1 ) = F (1, 0, 0) = (1, 0, 0) = 1 · v1 + 0 · v2 + 0 · v3 , prima colonna (1, 0, 0)
F (v2 ) = F (1, 1, 1) = (3, 3, 3) = 0 · v1 + 3 · v2 + 0 · v3 , seconda colonna (0, 3, 0)
F (v3 ) = F (1, 1, 0) = (4, 4, 1) = 0 · v1 + 1 · v2 + 3 · v3 , terza colonna (0, 1, 3)
31
Esercizio 4. (Da: PROVA INTERMEDIA DI GEOMETRIA B (CdL Matematica) – 28/01/2015).
Data la famiglia di matrici a coefficienti reali
2 h+k 0
Ah,k = 0 2 k
0 0 2
k = 0, h = 0
In questo caso il rango è 0 e A0,0 è una matrice diagonale, quindi coincide con
la propria forma canonica di Jordan, che ha 3 blocchi di Jordan 1 × 1 tutti relativi
all’unico autovalore 2.
k = 0, h 6= 0
In questo caso il rango è 1 quindi la molteplicità geometrica dell’unico autovalore 2
è uguale a 3−1 = 2, quindi nella forma canonica di Jordan vi sono complessivamente
2 blocchi di Jordan relativi all’autovalore 2, necessariamente un blocco 2 × 2 e un
blocco 1 × 1, quindi
2 1 0
Mh,0 = 0 2 0 .
0 0 2
k 6= 0, h = −k
In questo caso il rango è 1 quindi la molteplicità geometrica dell’unico autovalore 2 è
uguale a 3 − 1 = 2, quindi nella forma canonica di Jordan vi sono complessivamente
2 blocchi di Jordan relativi all’autovalore 2, necessariamente un blocco 2 × 2 e un
32
blocco 1 × 1. Pertanto per ogni k 6= 0 otteniamo
2 1 0
M−k,k = 0 2 0 .
0 0 2
k 6= 0, h 6= −k
In questo caso il rango è 2 quindi la molteplicità geometrica dell’unico autovalore 2
è uguale a 3 − 2 = 1, quindi nella forma canonica di Jordan vi è un unico blocco di
Jordan, necessariamente 3 × 3. Quindi per ogni k 6= 0, h 6= −k otteniamo
2 1 0
Mh,k = 0 2 1 .
0 0 2
(b) Per k = 0, h 6= 0 la matrice Ah,0 − 2 I3 diventa
0 h 0
0 0 0
0 0 0
che elevata al quadrato diventa
2
0 h 0 0 h 0 0 h 0 0 0 0
0 0 0 = 0 0 0 · 0 0 0 = 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0
quindi l’operatore T − 2Id è nilpotente con indice di nilpotenza 2. Il nucleo dell’o-
peratore lineare T − 2Id ha Y = 0 come unica equazione cartesiana. Scegliendo v
fuori dal nucleo, per esempio v = (0, 1, 0) otteniamo
0 h 0 0 h
0 0 0 · 1 = 0
0 0 0 0 0
quindi (T − 2Id)(v) = (h, 0, 0) = w e naturalmente (T − 2Id)(w) = 0.
I primi due vettori della base richiesta sono dunque w e v in questo ordine. Il terzo
vettore della base cercata, diciamo u, dovrà essere scelto in modo tale che w e u
formino una base del nucleo di (T − 2Id), per esempio u = (0, 0, 1). La base cecata
è dunque formata dai vettori w = (h, 0, 0), v = (0, 1, 0), u = (0, 0, 1)
Eseguiamo la verifica esplicita:
2 h 0 h 2h h
0 2 0 · 0 = 0 = 2 0
0 0 2 0 0 0
33
2 h 0 0 h h 0
0 2 0 · 1 = 2 = 0 + 2 1
0 0 2 0 0 0 0
2 h 0 0 0 0
0 2 0 · 0 = 0 = 2 0
0 0 2 1 2 1
Pertanto la matrice associata a T rispatto alla base (w, v, u) è proprio quella voluta.
Esercizio 5. (Da: Prima prova “in itinere” di Geometria B del 15 febbraio 2016)
0 −1 1 2
34