Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
LINEARE
Tommaso Morelli
2
Indice
1 Spazi Vettoriali 1
1.1 Strutture algebriche . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Sottospazi vettoriali e basi . . . . . . . . . . . . . . . . . . . . . . . 4
3 Applicazioni lineari 31
3.1 Immagine e kernel . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2 Applicazioni lineari surgettive, iniettive e isomorfismi . . . . . . . . 36
3.3 Applicazioni lineari e matrici . . . . . . . . . . . . . . . . . . . . . . 37
5 Determinante 53
5.1 Definizione e proprietà . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2 Gruppo simmetrico . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.3 Formula del determinante . . . . . . . . . . . . . . . . . . . . . . . 59
5.3.1 Formula di Laplace . . . . . . . . . . . . . . . . . . . . . . . 63
6 Autovalori e Autovettori 67
6.1 Definizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.2 Calcolo di autovalori e autovettori . . . . . . . . . . . . . . . . . . . 68
6.3 Proprietà di autovalori e autovettori . . . . . . . . . . . . . . . . . . 68
6.4 Criterio di diagonalizzabilità . . . . . . . . . . . . . . . . . . . . . . 73
3
4 INDICE
7 Polinomio minimo 77
7.1 Valutare un polinomio in una matrice . . . . . . . . . . . . . . . . . 77
7.2 Proprietà del polinomio minimo . . . . . . . . . . . . . . . . . . . . 80
8 Prodotti scalari 85
8.1 Ortogonalità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
8.1.1 Teoremi di Sylvester . . . . . . . . . . . . . . . . . . . . . . 95
8.2 Prodotti hermitiani . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
8.3 Operatori simmetrici, ortogonali, hermitiani e unitari . . . . . . . . 103
8.3.1 Matrici ortogonali . . . . . . . . . . . . . . . . . . . . . . . . 106
8.4 Teorema Spettrale . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
1
Per segnalare errori o imprecisioni è possibile inviarmi un messaggio o una mail a
tommasomorelli1@icloud.com
5
6 INDICE
Spazi Vettoriali
1. ∃1 ∈ A : 1 ? a = a ? 1 = a;
2. a ? (b ? c) = (a ? b) ? c;
1. (a + b) + c = a + (b + c);
2. a + b = b + a;
3. ∃0 ∈ A : 0 + a = a + 0 = a;
1
2 STRUTTURE ALGEBRICHE
5. (a · b) · c = a · (b · c);
6. a · (b + c) = (a · b) + (a · c);
7. (a + b) · c = (a · c) + (b · c).
Esempio. Gli insiemi Z, Q e R sono anelli rispetto alle classiche operazioni di somma
e prodotto.
1. (a + b) + c = a + (b + c);
2. (a + b) = (b + a);
3. ∃0 : 0 + a = a + 0 = a;
5. (a · b) · c = a · (b · c);
6. a · b = b · a;
7. 1 · a = a · 1 = a;
9. a · (b + c) = (a · b) + (a · c).
Esempio. Gli insiemi Q e R sono campi rispetto alle classiche operazioni di somma
e prodotto.
Esempio. L’insieme Z non è un campo rispetto alle classiche operazioni di somma
e prodotto.
3. a · 0 = 0 ∀a ∈ K;
4. (−a) = −1 · a ∀a ∈ K;
3
01 = 01 + 02 = 02 (1.2)
2. Supponiamo anche in questo caso che esistano due elementi neutri del pro-
dotto, 11 e 12 . In realtà tali elementi coincidono, in quanto
11 = 11 · 12 = 12 (1.3)
(a · 0) + 0 = a · 0 = a · (0 + 0) = (a · 0) + (a · 0) (1.4)
− (a · 0) + (a · 0) + 0 = − (a · 0) + (a · 0) + (a · 0) (1.5)
Quindi
0=a·0 (1.6)
Quindi
− a = (−1) a (1.9)
1. (u + v) + w = u + (v + w) ∀u, v, w ∈ V
2. ∃O : O + v = v + O = v
3. ∀v ∈ V, ∃w : v + w = w + v = O
4. ∀v, w ∈ V : v + w = w + v
5. ∀α, β ∈ K, ∀v ∈ V : (α + β)v = αv + βv
6. ∀α ∈ K, ∀v, w ∈ V : α(v + w) = αv + αw
8. ∀v ∈ V 1 · v = v 1 ∈ K
• ∀u, v ∈ W ⇒ u + v ∈ W
• ∀α ∈ K, ∀w ∈ W ⇒ αw ∈ W
5
v = α1 v 1 + . . . + αn v n (1.15)
Osservazione 1.2.6. Span (A) è l’insieme dei vettori di V che si ottengono da tutte
le possibili combinazioni lineari dei vettori di A.
Proposizione 1.2.7. Sia V uno spazio vettoriale definito su un campo K, e sia
A ⊂ V . Allora Span (A) è un sottospazio vettoriale di V .
Dimostrazione Posto A = {v 1 , . . . , v k }, si deve dimostrare che Span (A) sod-
disfa le proprietà espresse dalla Proposizione 1.2.2. A tale scopo consideriamo due
qualsiasi vettori v, w ∈ Span (A):
v = α1 v 1 + . . . + αk v k α1 , . . . , α k ∈ K (1.17)
w = β1 v 1 + . . . + βk v k β1 , . . . , β k ∈ K (1.18)
e dimostriamo che v + w ∈ Span (A). Si ha
α1 v 1 + . . . + αn v n = O (1.22)
è α1 = · · · = αn = 0.
α1 v 1 + . . . + αn v n = O (1.23)
v = α 1 v 1 + . . . + α n v n = β1 v 1 + . . . + βn v n (1.24)
• V = Span (A);
• A è costituito da vettori linearmente indipendenti.
Osservazione 1.2.16. Ogni vettore di uno spazio vettoriale può essere espresso in
maniera unica come combinazione lineare degli elementi di una sua base. Infatti,
se A = {v 1 , . . . , v n } è una base di uno spazio vettoriale e v un suo generico vettore,
l’esistenza di una n−upla di numeri {α1 , . . . , αn } tali che
n
X
v= αi v i (1.26)
i=1
si deve al fatto che A sia un insieme generatore, mentre l’unicità degli αi deriva
dall’indipendenza lineare degli elementi della base A.
Lemma 1. Sia V uno spazio vettoriale definito su un campo K. A è un insieme li-
nearmente indipendente massimale di V (cioè se A ( B, allora B non è linearmente
indipendente) se e solo se A è una base di V .
Dimostrazione Sia A = {v 1 , . . . , v n }.
(⇒) Poichè per ipotesi gli elementi di A sono linearmente indipendenti, è suffi-
ciente dimostrare che essi costituiscano un insieme generatore di V . Consideriamo
a tale scopo un generico vettore v ∈ V , e dimostriamo che esso può essere espresso
mediante una combinazione lineare di vettori appartenenti ad A.
Se v ∈ A, allora v ∈ Span (A). Invece, se v ∈ / A, definiamo l’insieme
B = A ∪ {v} (1.27)
v = α1 v 1 + . . . + αn v n (1.28)
v = β1 v 1 + . . . + βk v k (1.32)
Dimostrazione Sia A = {v 1 , . . . , v n }.
(⇒) Supponiamo per assurdo che A non sia una base di V , cioè che i suoi vettori
non siano linearmente indipendenti. Allora esiste un elemento di A, per esempio
v n , tale che
α1 αn−1
vn = v1 + . . . + v (1.35)
αn αn n−1
Poichè v n può essere espresso come combinazione lineare di altri elementi di A,
per il Lemma 2, Span (A) = Span (A \ {v}). Ciò è assurdo, in quanto contraddice
l’ipotesi che A sia un insieme generatore minimale.
(⇐) Supponiamo, sempre per assurdo, che A non sia un insieme generatore
minimale di V . Siano quindi B ( A un insieme generatore di V e v i ∈ A\B. Poichè
B è un insieme generatore, v i può essere espresso come combinazione lineare degli
elementi di B. Se ciò fosse vero, A non sarebbe un insieme linearmente indipendente,
contraddicendo l’ipotesi che A è una base.
Teorema 1.2.17 (Esistenza di una base). Ogni spazio vettoriale ha una base.
9
se e solo se β1 = · · · = βn = 0.
Sostituendo la (1.37) nella (1.39) si ha
v = β1 v 1 + . . . + βn v n (1.44)
Ricavando v n dalla (1.37) e sostituendolo nella (1.44) si ottiene che v ∈ Span (A0 ).
Mostriamo ora
Span (A0 ) ⊂ Span (A) (1.45)
A tale scopo consideriamo un vettore v ∈ Span (A0 ), cioè tale che
v = β1 v 1 + . . . + βw (1.46)
Sostituendo la (1.37) nella (1.46) si ottiene che v può essere espresso come combi-
nazione lineare dei vettori di A, e quindi Span (A0 ) ⊂ Span (A)
Osservazione 1.2.19. I vettori v 1 , . . . , v n−1 sono linearmente indipendenti in quan-
to sono un sottoinsieme di A che, per ipotesi, è costituito da vettori linearmente
indipendenti.
1
La scrittura #A indica la cardinalità dell’insieme A.
11
Definizione 1.2.27 (Somma di spazi vettoriali). Sia V uno spazio vettoriale defi-
nito su un campo K, e siano U, W due suoi sottospazi vettoriali. Allora:
U + W = {v ∈ V : ∃u ∈ U, w ∈ W : v = u + w} (1.54)
BU = {u1 , . . . , un } (1.57)
e
BW = {w1 , . . . , wm } (1.58)
allora i generici vettori u ∈ U e w ∈ W possono essere espressi come:
u = α1 u1 + . . . + αn un (1.59)
w = β1 w1 + . . . + βm wm (1.60)
e quindi, sostituendo nella (1.58) le espressioni riportate nelle (1.59) e (1.60), si
ottiene che
B 0 = {v 1 , . . . , v n } (1.63)
BU = v 1 , . . . , v n , v 0n+1 , . . . , v 0u
(1.64)
13
e
BW = v 1 , . . . , v n , v 00n+1 , . . . , v 00w
(1.65)
Dimostriamo che
è una base di U + W .
L’insieme B genera U + W per la Proposizione 1.2.28. Mostriamo ora che i vettori
di B sono linearmente indipendenti. A tale scopo consideriamo una combinazione
lineare di tali vettori
n
X u
X w
X
αi v i + αi0 v 0i + αi00 v 00i = O (1.67)
i=1 i=n+1 i=n+1
che è vera se e solo se, per ogni i, αi = αi00 = 0, in quanto tali vettori appartengono
a una base di W . In conclusione, la (1.67) è verificata se e solo se, per ogni i, αi =
αi0 = αi00 = 0. Ciò dimostra quindi che B è un insieme linearmente indipendente, e,
poichè è anche generatore di U + W , si può concludere che B è una base di U + W
stesso.
Z =U ⊕W (1.71)
• Z =U +W
• U ∩ W = {O}
Definizione 1.2.31 (Proiezione di una somma diretta). Sia V uno spazio vettoriale
definito su un campo K, e siano U e W due suoi sottospazi vettoriali. Sia inoltre
Z =U ⊕W (1.72)
z =u+w (1.73)
e proiezione di z su W
prW (z) = w (1.75)
z = u1 + w 1 = u2 + w 2 (1.77)
x = u1 − u2 = w2 − w1 (1.78)
z =u+w (1.79)
x∈U ∩W (1.80)
2
L’unicità delle proiezioni viene mostrata con il Teorema seguente.
15
In questo caso
1 0 0
0 1 0
B=
0 , 0
,
1 (1.89)
0 0 0
dim (U ∩ W ) = 0 (1.91)
e
dim (V ) = dim (U + W ) (1.92)
Inserendo tali espressioni nella Formula di Grassmann segue che
U ∩ W = {O} (1.98)
e
V =U +W (1.99)
in quanto ogni sottospazio di V con dimensione uguale a quella di V coincide con
V stesso.
In conclusione V = U ⊕ W .
17
Definizione 1.2.36 (Somma diretta di più sottospazi vettoriali). Sia V uno spazio
vettoriale definito su un campo K, e siano V1 , . . . , Vn alcuni suoi sottospazi vettoriali.
Allora
( n
)
X
V1 ⊕ . . . ⊕ Vn = v ∈ V : ∀i ∈ [1, n] ∃! v i : v = αi v i , αi ∈ K (1.100)
i=1
Tale vettore può essere espresso come combinazione lineare sia di vettori di Vi , che
di V1 , . . . , Vi−1 , Vi+1 , . . . , Vn , cioè rispettivamente nei seguenti due modi:
v = O + O + . . . + O + vi + O + . . . + O (1.103)
|{z} |{z} |{z} |{z} |{z} |{z}
∈V1 ∈V2 ∈Vi−1 ∈Vi ∈Vi+1 ∈Vn
e
v = v 1 + v 2 + . . . + v i−1 + O v i+1 + . . . + v n (1.104)
|{z} |{z} |{z} |{z} |{z} |{z}
∈V1 ∈V2 ∈Vi−1 ∈Vi ∈Vi+1 ∈Vn
e quindi v = O.
(⇐) Supponiamo ora
n
X
Vi ∩ Vm = {O} ∀i ∈ [1; n] (1.106)
m=1
m6=i
18 SOTTOSPAZI VETTORIALI E BASI
2.1 Matrici
Definizione 2.1.1 (Matrice). Una matrice A ∈ Mm,n (K) è una tabella ordinata
di numeri appartenenti a un campo K, costituita da m righe e n colonne:
a1,1 a1,2 · · · a1,n
a2,1 a2,2 · · · a2,n
A = .. (2.1)
.. . . ..
. . . .
am,1 am,2 · · · am,n
21
22 MATRICI
Osservazione 2.1.9. Non tutte le matrici possiedono un’inversa. L’insieme delle ma-
trici a coefficienti in K invertibili di ordine n si indica con GLn (K). Tale insieme è
un gruppo rispetto alle operazioni di somma e prodotto riga-colonna, in quanto sod-
disfano gli assiomi di associatività, di esistenza dell’elemento neutro e di esistenza
dell’inverso di ogni elemento.
5. (AB)−1 = B −1 A−1 A ∈ Mn , B ∈ Mn .
n k
!
X X
= Ai · BC j = Ai · (BC)j = A · (BC)
ai,l bl,p cp,j (2.8)
l=1 p=1
23
Ax = b (2.12)
dove A è una matrice, detta matrice dei coefficienti, il cui elemento di posizione
i, j è ai,j , e b è un vettore i cui coefficienti sono i termini noti delle equazioni del
sistema:
a1,1 a1,2 · · · a1,n
a2,1 a2,2 · · · a2,n x1 b1
. .
A = .. .. , x = .. , b = .. (2.13)
.. . .
. . . .
xn bm
am,1 am,2 · · · am,n
A1 x1 + A2 x2 + . . . + An xn = b (2.14)
A·x=b (2.15)
A·x=b (2.16)
in cui A è la matrice dei coefficienti e b il vettore dei termini noti. Tale sistema è
omogeneo se e solo se b = O, cioè se può essere scritto nella forma
A·x=O (2.17)
A·x=O (2.18)
Teorema 2.2.10 (Mosse di Gauss). Dato un sistema lineare omogeneo con coef-
ficienti appartenenti a un campo K, esistono tre operazioni elementari da eseguire
sulle righe della matrice dei coefficienti che trasformano tale sistema in un altro
avente le stesse soluzioni. Queste operazioni, dette Mosse di Gauss, sono:
Algoritmo di Gauss
L’Algoritmo di Gauss è una procedura che si basa sulle Mosse di Gauss, utile per
la risoluzione di sistemi lineari.
26 SISTEMI LINEARI
ai,1
Ai −→ Ai − A1 (2.26)
a1,1
Può capitare che a1,1 = 0. Se un coefficiente ai,1 6= 0, scambiando la prima riga della
matrice con la i-esima, si può procedere come descritto in precedenza. Se invece
tutti i coefficienti della prima colonna sono nulli, si passa alla seconda. Effettuando
queste operazioni si ottiene una matrice del tipo:
0
a1,1 a01,2 ··· a01,n
0 a02,2 ··· a02,n
A0 = .. (2.27)
.. .. ..
. . . .
0 a0m,2 · · · a0m,n
Supponiamo ora che a02,2 6= 0 (in caso contrario, si effettua nuovamente uno scambio
di riga per portare un coefficiente non nullo della seconda colonna in posizione 2, 2).
Per azzerare tutti i coefficienti al di sotto di a02,2 , si può effettuare nuovamente
l’operazione (2.26) su ogni riga. Procedendo in questo modo ad ogni colonna, si
ottiene una matrice a scala come la seguente:
0 0 p1 ? ? ? ? ··· ?
.. ..
? ···
. . 0 0 p2 ? ?
. .. ..
.
. . . 0 0 p3 ? ··· ?
. .. .. .. .. .. .. . . .
. . ..
S = . . . . . . . (2.28)
0
0 0 0 0 0 0 · · · pj
0
0 0 0 0 0 0 ··· 0
.. .. .. .. .. .. .. . . ..
. . . . . . . . .
0 0 0 0 0 0 0 ··· 0
nel prodotto
0 0 p1 ? ? ? ? ··· ?
.. ..
? ···
. . 0 0 p2 ? ?
. .. ..
.
. . . 0 0 p3 ? ··· ?
. x1
. .. .. .. .. .. .. . . .
S · x = . . . . . . . . .. ·
..
. (2.29)
0
0 0 0 0 0 0 · · · pj xn
0
0 0 0 0 0 0 ··· 0
.. .. .. .. .. .. .. . . ..
. . . . . . . . .
0 0 0 0 0 0 0 ··· 0
Teorema 2.2.11. I vettori ottenuti con il metodo di Gauss costituiscono una base
dello spazio delle soluzioni.
Per dimostrare che tali vettori sono linearmente indipendenti, consideriamo una
loro combinazione lineare, uguagliata al vettore nullo:
α1 0
α2 0
. .
. .
. .
α1 v 1 + . . . + αk v k = αk = 0 (2.32)
? 0
. .
.. ..
? 0
Guardando alle prime k colonne, la (2.32) è verificata se e solo se α1 = . . . = αk = 0,
che dimostra l’indipendenza lineare dei vettori. Dimostriamo ora che i v 1 , . . . , v k
generano lo spazio delle soluzioni del sistema. Effettuando una combinazione lineare
di tali vettori si ottiene:
α1
α2
.
.
.
α1 v 1 + . . . + αk v k = αk (2.33)
?
.
..
?
perciò le variabili libere, al variare di α1 , . . . , αk , possono assumere qualsiasi valore,
in corrispondenza dei quali anche le variabili non libere vengono univocamente
determinate. Quindi, poichè le variabili libere possono assumere qualsiasi valore
mediante una combinazione lineare dei v 1 , . . . , v k , tali vettori generano lo spazio
delle soluzioni del sistema.
Osservazione 2.2.12. La dimensione dello spazio delle soluzioni di un sistema li-
neare omogeneo è pari al numero di variabili libere che si ottengono effettuando la
riduzione a scala della matrice dei coefficienti.
Proposizione 2.2.13. Sia A ∈ Mm,n (K) una matrice ridotta a scala. Allora le
colonne contenenti i pivot sono linearmente indipendenti e generano lo spazio delle
colonne.
Dimostrazione Consideriamo un sistema lineare omogeneo
A·x=O (2.34)
Indichiamo con A0 le colonne di A contenenti pivot e con A00 le altre, e dimostriamo
che le prime sono linearmente indipendenti. A tale scopo consideriamo una loro
combinazione lineare, ed eguagliamola al vettore nullo:
x1 A01 + . . . + xj A0j = O (2.35)
29
A·x=b (2.43)
A·x=O (2.46)
Dimostrazione Mostriamo che le x scritte nella (2.45) sono soluzioni del siste-
ma (2.44).
A · x = A · (αxo + x̃) = A · αxo + A · x̃ = O + b = b (2.47)
Capitolo 3
Applicazioni lineari
• f (v 1 + v 2 ) = f (v 1 ) + f (v 2 ) ∀v 1 , v 2 ∈ V ;
• f (αv) = αf (v) ∀v ∈ V, ∀α ∈ K.
Osservazione 3.1.2.
∀f : V → W, f (O) = O (3.1)
in quanto
f (O) = f (0 · O) = 0 · f (O) = O (3.2)
∃v 1 , v 2 ∈ V : f (v 1 ) = w1 , f (v 2 ) = w2 (3.4)
f (v 1 + v 2 ) = f (v 1 ) + f (v 2 ) = w1 + w2 (3.5)
31
32 IMMAGINE E KERNEL
f (v 1 ) = f (v 2 ) = O (3.9)
f (v 1 + v 2 ) = f (v 1 ) + f (v 2 ) = O + O = O (3.10)
f (v) = O (3.11)
B = {v 1 , . . . , v k } (3.14)
Siano f v k+1 = wk+1 , . . . , f (v n ) = wn . Dimostriamo che essi formano una base di
Im (f ). Verifichiamo innanzitutto che tali vettori costituiscano un insieme genera-
tore di Im (f ). A tale scopo consideriamo un generico vettore v ∈ V e calcoliamo
f (v):
f (v) = f α1 v 1 + . . . + αk v k + αk+1 v k+1 + . . . + αn v n (3.16)
Dalla linerità di f segue che
f (v) = α1 f (v 1 ) + . . . + αk f (v k ) + αk+1 f v k+1 + . . . + αn f (v n ) (3.17)
2. αk+1 v k+1 + . . . + αn v n = O
Il caso 1. è falso, in quanto v k+1 , . . . , v n sono vettori che estendono una base di
ker (f ) a base di V , quindi non possono appartenere al kernel di f . Dunque rimane
soltanto il caso 2., che è vero se e solo se
αk+1 = · · · = αn = 0 (3.21)
Ciò dimostra l’indipendenza lineare dei wk+1 , . . . , wn , che quindi formano una base
di Im (f ). Da ciò segue subito la tesi del teorema.
34 IMMAGINE E KERNEL
Osservazione 3.1.8. La formula vista per i sistemi lineari (2.40) è un altro modo
di scrivere formula delle dimensioni. Consideriamo infatti l’applicazione lineare
f : Kn → Km : f (x) = Ax, dove A ∈ Mm,n (K). Ricercare le soluzioni del sistema
Ax = O (3.23)
B = {v 1 , . . . , v n } (3.27)
f (v) = α1 w1 + . . . αn wn (3.31)
Quindi, dalla sola immagine dei vettori di una base B di V , è possibile risalire
all’immagine di ogni altro vettore.
Dimostriamo ora il punto 2.. A tale scopo costruiamo un operatore f che rispetti la
condizione scritta nella (3.28). Un generico vettore v ∈ V , può essere scritto come:
v = α1 v 1 + . . . + αn v n (3.32)
f (v) = α1 w1 + . . . + αn wn (3.33)
v = α1 v 1 + . . . + αn v n (3.34)
e
v 0 = α10 v 1 + . . . + αn0 v n (3.35)
Im (f ) = W (3.42)
O = w − w = f (v 1 ) − f (v 2 ) = f (v 1 − v 2 ) (3.45)
cioè il vettore v 1 − v 2 ∈ ker(f ). Ciò è assurdo perchè esiste un vettore non nullo
che appartiene al kernel di f , contraddicendo l’ipotesi che ker (f ) = {O}.
Definizione 3.2.5 (Isomorfismo). Siano V e W due spazi vettoriali definiti su un
campo K, e sia f : V → W un’applicazione lineare. f è un isomorfismo se f è
iniettiva e surgettiva cioè ∀w ∈ W ∃!v ∈ V :
f (v) = w (3.46)
f f
V W v f (v)
ϕB ψB 0 ϕB ψB 0
f˜ f˜
Kn Km [v]B [f (v)]B 0
Figura 3.1: Schema che descrive gli operatori f e f˜, in riferimento all’osservazione
3.3.2. In questa figura V è uno spazio vettoriale di dimensione n con base B e W
è uno spazio vettoriale di dimensione m con base B 0 .
è uno spazio vettoriale rispetto alle operazioni di somma e prodotto esterno cosı̀
definite:
(f + g) (v) = f (v) + g (v) (3.62)
(αf ) (v) = αf (v) (3.63)
dove f, g ∈ L (V, W ) e α ∈ K.
e
MBBWV (αf ) = αMBBWV (f ) (3.65)
Dimostrazione Consideriamo
BV = {v 1 , . . . , v n } (3.66)
Tale matrice equivale a MBBWV (f ) + MBBWV (g), e ciò dimostra la prima parte del
Teorema. La dimostrazione della seconda parte è molto simile alla prima:
L (V, W ) ∼
= Mm,n (K) (3.71)
40 APPLICAZIONI LINEARI E MATRICI
f g
V W Z
h
Figura 3.2: Schema che illustra la composizione di due applicazioni lineari, in
riferimento alla Definizione 3.3.10
Dimostrazione Siano v 1 , v 2 ∈ V :
h (v 1 + v 2 ) = g (f (v 1 + v 2 )) = g (f (v 1 ) + f (v 2 )) = g (f (v 1 )) + g (f (v 2 )) = (3.83)
= h (v 1 ) + h (v 2 ) (3.84)
Siano ora v ∈ V e α ∈ K:
h=g◦f (3.86)
C i = [h (v i )]BZ (3.89)
42 APPLICAZIONI LINEARI E MATRICI
cioè
∗
[h (v i )]BZ = B · [f (v i )]BW = B · A [v i ]BV = B · Ai = (A · B)i
(3.90)
f ◦g =g◦f =I (3.91)
v 1 = f −1 (f (v 1 )) = f −1 (f (v 2 )) = v 2 (3.92)
f ◦ f −1 = I (3.95)
M (f ) · M f −1 = M (I) = I ⇐⇒ M f −1 = [M (f )]−1
(3.96)
43
MBBVV (f ) · MBBVV f −1 = I
(3.97)
4.1 SD-Equivalenza
Definizione 4.1.1 (SD equivalenza). Siano A, B ∈ Mm,n (K). A e B sono SD-
equivalenti se esistono due matrici invertibili P ∈ GLn (K) e Q ∈ GLm (K) tali
che:
B =Q·A·P (4.1)
Teorema 4.1.2. La SD equivalenza è una relazione di equivalenza.
Dimostrazione Per dimostrare il Teorema verifichiamo se la SD equivalenza è
una relazione riflessiva, simmetrica e transitiva.
Siano A, B ∈ Mm,n (K). Innanzitutto osserviamo che ogni matrice è SD-equivalente
a se stessa:
A = Im · A · In (4.2)
dove Im e In sono matrici identità di ordine m e n rispettivamente. Quindi la
proprietà riflessiva è verificata. Inoltre, se A è SD-equivalente a B, allora esistono
due matrici invertibili P e Q tali che
B = P −1 · A · Q−1 (4.4)
45
46 SD-EQUIVALENZA
BV
f BW
V W
IV IW
BV0
f 0
BW
V W
Figura 4.1: Schema che illustra la formula di cambiamento di base, con la notazione
relativa all’Osservazione 4.1.3
.
B =S·C ·T (4.6)
dove P, Q, S, T sono matrici invertibili. Dunque, sostituendo la (4.6) nella (4.5)
segue che:
A = (P S) · C · (T Q) (4.7)
dove P S e T Q continuano a essere matrici invertibili (in quanto la composizione
di applicazioni lineari invertibili continua a essere invertibile). Perciò A è SD-
equivalente a C.
Osservazione 4.1.3. Data un’applicazione lineare f : V → W , tutte le matrici di
f , relative a basi diverse di V e W , sono legate fra loro da una relazione di SD-
B0
equivalenza. Se A = MBBWV (f ) e B = MB 0V (f ), con BV , BV0 basi di V e BW , BW0
W
basi di W , allora esistono due matrici P e Q invertibili tali che
B =P ·A·Q (4.8)
B0
Q = MBVV (IV ) (4.10)
In tali termini, la (4.8) può essere scritta nella forma
B0 B0
MB 0V (f ) = MBB0W (IW ) · MBBWV (f ) · MBVV (IV ) (4.11)
W W
1. g iniettiva ⇒ rg (g ◦ f ) = rg (f );
2. f surgettiva ⇒ rg (g ◦ f ) = rg (g).
Poichè
dim W |Im(f ) = dim (Im (f )) = rg (f ) (4.13)
dim Im g|Im(f ) = dim (g ◦ f ) = rg (g ◦ f ) (4.14)
dim ker g|Im(f ) = dim (Im (f ) ∩ ker (g)) = 0 (4.15)
In particolare, poichè g è iniettiva, cioè ker (g) = {O}, allora dim (Im (f ) ∩ ker (g)) =
0. La (4.12) può essere quindi scritta come
rg (f ) = rg (g ◦ f ) (4.16)
Dimostriamo ora il punto 2.. A tale scopo scriviamo di nuovo la formula delle
dimensioni per g|Im(f ) , dove in questo caso però
dim W |Im(f ) = dim (W ) (4.17)
in quanto f è surgettiva,
dim Im g|Im(f ) = dim(g ◦ f ) = rg(g ◦ f ) (4.18)
dim ker g|Im(f ) = dim (Im (f ) ∩ ker (g)) = dim (ker(g)) (4.19)
Corollario 4.1.4. Siano A, B ∈ Mm,n (K)e P ∈ GLm (K) e Q ∈ GLn (K), tali che
B =P ·A·Q (4.21)
Allora
rg (B) = rg (A) (4.22)
48 SD-EQUIVALENZA
f (v i ) = wi (4.26)
α1 w1 + . . . + αr wr = O (4.27)
α1 f (v 1 ) + . . . + αr f (v r ) = f (α1 v 1 + . . . + αr v r ) = O (4.28)
Affinchè la (4.28) sia vera, si hanno due possibilità:
1. (α1 v 1 + . . . + αr v r ) ∈ ker (f )
2. α1 v 1 + . . . + αr v r = O
Il caso 1. è falso, in quanto v 1 , . . . , v r sono vettori che estendono una base di ker (f )
a base di V , quindi non possono appartenere al kernel di f . Dunque rimane soltanto
il caso 2., che è vero se e solo se
α1 = · · · = αr = 0 (4.29)
α1 w1 + . . . + αr wr = O ⇐⇒ α1 = · · · = αr = 0 (4.30)
49
4.2 Similitudine
Definizione 4.2.1 (Similitudine). Siano A, B ∈ Mn (K). A e B sono simili se e
solo se esiste una matrice invertibile P ∈ GLn (K) tale che:
B = P −1 · A · P (4.33)
B = P −1 · A · P (4.35)
50 SIMILITUDINE
A = P · B · P −1 (4.36)
A = P −1 · B · P (4.37)
B = Q−1 · C · Q (4.38)
Sostituendo la (4.38) nella (4.37) si ottiene:
A = P −1 · B · P (4.40)
A = P −1 · I · P = P −1 · P = I (4.44)
51
Osservazione 4.2.6. Se due matrici hanno lo stesso rango, non è detto che siano
simili. Per esempio, consideriamo le matrici:
1 1 1 0
A= I= (4.45)
0 1 0 1
Per quanto descritto nell’Osservazione 4.2.5, poichè la matrice identità è simile solo
a se stessa, le matrici A e I non sono simili. Tuttavia:
tr (A · B) = tr (B · A) (4.47)
Dimostrazione
n
X n X
X n X n
n X n
X
i
tr (A · B) = Ai B = ai,l bl,i = bl,i ai,l = Bl Al = tr (B · A)
i=1 i=1 l=1 l=1 i=1 l=1
(4.48)
Osservazione 4.2.8. Invertire l’ordine delle sommatorie, come effettuato nella dimo-
strazione del Teorema 4.2.7, equivale ad applicare la proprietà commutativa della
somma.
tr (A) = tr P −1 · (B · P ) = tr B · P · P −1 = tr (B)
(4.52)
Osservazione 4.2.10. Non è vero che se tr(A) = tr(B), allora A e B sono matrici
simili. Come controesempio possiamo utilizzare lo stesso dell’Osservazione 4.2.6.
52 SIMILITUDINE
Capitolo 5
Determinante
ϕ : Mn (K) → K (5.1)
• Multilinearità
• Alternanza
• Normalizzazione
ϕ (e1 , . . . , en ) = 1 (5.5)
dove ei è il vettore di Kn le cui componenti sono tutte nulle tranne la i-esima,
che è pari a uno. In altre parole, il determinante della matrice identità è
unitario.
1
Si tratta di un abuso di notazione, perchè, scritto in questo modo, ϕ prende come input n
vettori di Kn , e non una matrice A ∈ Mn (K).
53
54 DEFINIZIONE E PROPRIETÀ
2. Supponiamo, per semplicità di notazione, che la prima riga di una matrice sia
nulla. Allora:
ϕ (O, A2 , . . . , An ) = ϕ (O + O, A2 , . . . , An ) (5.7)
Dalla multilinearità del determinante segue che
ϕ (O, A2 , . . . , An ) = 2ϕ (O, A2 , . . . , An ) (5.8)
e quindi
ϕ (O, A2 , . . . , An ) = 0 (5.9)
4. La mossa di Gauss che consiste nel sommare a una riga il multiplo di un’altra
lascia invariato il determinante (per il punto 3. di questa Proposizione), e lo
scambio di righe, per la proprietà dell’alternanza, ne può alterare soltanto
il segno. Dunque, utilizzando queste due sole operazioni per ridurre a scala
una matrice, tale ridotta a scala ha, in modulo, lo stesso determinante della
matrice di partenza. Se sono stati effettuati un numero pari di scambi di riga,
anche il segno coincide, altrimenti è opposto.
n
Y n
Y
ϕ (a11 e1 , . . . , ann en ) = aii ϕ (e1 , . . . , en ) = aii (5.14)
i=1
| {z } i=1
1
6. Se una matrice non è invertibile, la sua ridotta a scala ha almeno una riga
nulla, perciò il suo determinante è pari a zero, cosı̀ come quello della matrice
di partenza.
L’unicità del determinante deriva dal fatto che, sebbene esistano più modi per
diagonalizzare una matrice con le mosse di Gauss, il prodotto degli elementi sulla
diagonale è unico.
56 GRUPPO SIMMETRICO
Σn = {σ : S → S bigettivi} (5.17)
τ = (i, j) (5.23)
segue che
−1 −1 −1 −1
σ = τ (n−1) · · · τ (2) τ (1) = τ (1) τ (2) · · · τ (n−1) (5.31)
τ = (r, s) (5.34)
58 GRUPPO SIMMETRICO
con r < s che agisce sugli indici del polinomio. Sempre nel caso di n = 3, se
τ = (1, 2) il polinomio diventa:
p0 (x1 , x2 , x3 ) = (x2 − x1 ) (x2 − x3 ) (x1 − x3 ) (5.35)
Una trasposizione (o in generale anche una permutazione) degli indici del polinomio
può soltanto cambiarne il segno, in quanto, in seguito a tale trasposizione, il poli-
nomio continua ad esser costituito dal prodotto di tutte le possibili combinazioni di
(xi − xj ), che al più sono cambiate di segno.
Contiamo quindi il numero di coppie che cambiano segno a causa della trasposizione.
Tali coppie sono:
(xr − xs ) (5.36)
(xr − xi ) r≤i≤s (5.37)
(xi − xs ) r≤i≤s (5.38)
Il numero di coppie che cambiano segno è
N = 2 · (s − r − 1) + 1 (5.39)
cioè un numero dispari. Quindi, una singola trasposizione, o in generale le permu-
tazioni generate da un numero dispari di trasposizioni, agendo sugli indici di un
polinomio, ne cambiano il segno.
Se una permutazione fosse generata sia da un numero pari che da un numero di-
spari di trasposizioni, agendo sugli indici di un polinomio, tale permutazione in un
caso provocherebbe un cambio di segno, nell’altro lascerebbe invariato il polinomio.
Ciò è assurdo, e quindi una permutazione è necessariamente generata sempre da un
numero pari o da un numero dispari di trasposizioni.
Definizione 5.2.11 (Permutazioni pari e dispari). Una permutazione è pari se
generata da un numero pari di trasposizioni, dispari se generata da un numero
dispari di trasposizioni.
Definizione 5.2.12 (Segno). Il segno di una permutazione è un operatore
sgn (σ) : Σn → {1, −1} (5.40)
che attribuisce a ogni permutazione pari il segno positivo e a ogni permutazione
dispari il segno negativo.
Osservazione 5.2.13. Nella composizione di trasposizioni il segno rispetta le regole
del prodotto fra numeri. Se σ e τ sono permutazioni entrambe pari o dispari, allora
sgn (στ ) = sgn (τ σ) = 1 (5.41)
se invece una è pari e l’altra dispari
sgn (στ ) = sgn (τ σ) = −1 (5.42)
59
Poichè {σ (1) , . . . , σ (n)} corrisponde all’insieme non ordinato di tutti i numeri na-
turali da 1 a n, applicando nell’espressione (5.62) la proprietà commutativa del
prodotto a ogni termine della somma, essa può essere riscritta come
X
sgn σ −1 a1σ−1 (1) · · · anσ−1 (n) = det (A)
det (B) = (5.63)
(σ)−1
• Alternanza:
Poichè
(AB)i = Ai B (5.73)
scambiando due righe di A, si scambiano anche le corrispondenti righe di AB.
Sia A0 la matrice ottenuta da A scambiando due righe. Allora:
• Normalizzazione:
Sia A = I. Allora
det (IB) det (B)
ϕ (A) = ϕ (I) = = =1 (5.75)
det (B) det (B)
1
det P −1 =
(5.76)
det (P )
P · P −1 = I (5.77)
Dunque
det P · P −1 = det (P ) det P −1 = det (I) = 1
(5.78)
da cui si ricava
1
det P −1 =
(5.79)
det (P )
det (A · B) = det (A) det (B) = det (B) det (A) = det (B · A) (5.81)
63
··· ···
a1,1 a1,j−1 a1,j a1,j+1 a1,n
.. ... .. .. .. ... ..
. . . . .
ai−1,1 · · · ai−1,j−1 ai−1,j ai−1,j+1 · · · ai−1,n
Bj = 0 ··· 0 1 0 ··· 0 (5.90)
ai+1,1 · · · ai+1,j−1 ai+1,j ai+1,j+1 · · · ai+1,n
. ... .. .. .. ... ..
.. . . . .
an,1 · · · an,j−1 an,j an,j+1 · · · an,n
Effettuando i−1 scambi di riga e j−1 scambi di colonna, si può portare il coefficiente
di posizione i, j in posizione 1, 1, in modo da ottenere una matrice come
1 0 0 ··· 0
a1,j a1,1 a1;2 · · · a1,n
0 a2,j a2,1 a2,2 · · · a2,n
Bj = (5.91)
.. .. .. . . ..
. . . . .
an,j an,1 an,2 · · · an,n
Si osserva che (−1)i+j−2 det Bj0 = (−1)i+j det Bj0 = det (Bj ), quindi
X
det Bj0 = sgn (σ) b01σ(1) · · · b0nσ(n) (5.93)
σ
dove b0i,j è il coefficiente della matrice Bj0 di posizione i, j. Poichè la prima riga di
Bj0 ha tutti i coefficienti nulli eccetto il primo, la (5.93) coincide con:
X
det Bj0 = 1 · sgn (σ 0 ) b02σ0 (2) · · · b0nσ0 (n)
(5.94)
σ0
dove le σ 0 sono le permutazioni dei numeri da 2 a n, in cui sgn (σ) e sgn (σ 0 ) coinci-
dono. La (5.94) è il minore di A ottenuto eliminando la i-esima riga e la j−esima
colonna della matrice. Quindi
Teorema 5.3.10 (Calcolo della matrice inversa con Laplace). Sia A ∈ Mn (K)
una matrice invertibile. Allora:
1
A−1
i,j
= cof (Aj,i ) (5.97)
det (A)
A−1 i Aj = δi,j
(5.98)
A·x=b (5.102)
det (Bi )
xi = (5.103)
det (A)
x = A−1 · b (5.104)
e quindi
n
X
−1
A−1
xi = A i
b= b
i,j j
(5.105)
j=1
Dalla regola di Laplace per il calcolo della matrice inversa segue che
n n
X 1 X det (Bi )
A−1
xi = b =
i,j j
cof (Aj,i ) bj = (5.106)
j=1
det (A) j=1 det (A)
Capitolo 6
Autovalori e Autovettori
6.1 Definizioni
Definizione 6.1.1 (Diagonalizzabile). Una matrice A ∈ Mn (K) è diagonalizzabile
se e solo se è simile a una matrice diagonale, cioè se esiste P ∈ GLn (K) tale che
P −1 · A · P = D diagonale (6.1)
∃v 6= O : f (v) = λv (6.3)
67
68 PROPRIETÀ DI AUTOVALORI E AUTOVETTORI
A = MB (f ) (6.4)
f˜ = Ax (6.5)
A · x = λx (6.6)
abbia almeno una soluzione x non nulla. A tale scopo riscriviamo la (6.6) nel
seguente modo:
(A − λI) x = O (6.7)
Tale sistema ha soluzioni non nulle se e solo se
(6.14)
La (6.13) e (6.14) dimostrano che i polinomi caratteristici di A e B hanno le stesse
radici, cioè che ∀α ∈ K
pA (α) = pB (α) (6.15)
Dimostriamo ora che pA (λ) e pB (λ) sono uguali come polinomi. Consideriamo a
tale scopo il polinomio
h (λ) = pA (λ) − pB (λ) (6.16)
Poichè pA (λ) e pB (λ) hanno le stesse radici, supponendo che il campo K contenga
infiniti elementi, il polinomio h (λ) ha infinite radici. Ma per Teorema Fondamentale
dell’Algebra l’unico polinomio che ha più radici del suo grado è il polinomio nullo,
quindi h (λ) ≡ 0. Inserendo tale risultato nella (6.16) segue che
P · MB 0 (f ) · P −1 = D diagonale (6.18)
P −1 · A · P = D (6.19)
A·P =P ·D (6.20)
70 PROPRIETÀ DI AUTOVALORI E AUTOVETTORI
A · P j = P · Dj = λj P ej = λj P j (6.21)
Le colonne di P sono costituite dalle coordinate rispetto a B di una base di auto-
vettori di f , che quindi risulta essere diagonalizzabile.
Dimostrazione Siano v 1 , v 2 ∈ Vλ
f (v 1 + v 2 ) = f (v 1 ) + f (v 2 ) = λv 1 + λv 2 = λ (v 1 + v 2 ) ∈ Vλ (6.23)
Sia v ∈ V e sia α ∈ K
α10 v 01 + . . . + αk−1
0 0
v 0k−1 = O ⇐⇒ α10 = · · · = αk−1 =0 (6.27)
α1 v 1 + . . . + αk v k = O (6.28)
71
f (α1 v 1 + . . . + αk v k ) = α1 f (v 1 ) + . . . + αk f (v k ) = α1 λ1 v 1 + . . . + αk λk v k = O
(6.29)
Calcoliamo ora
V = V λ1 ⊕ . . . ⊕ V λk (6.33)
Mostriamo che, ∀i
n
X
Vi ∩ Vj = {O} (6.35)
j=1
α1 v 1 + . . . + αi v i + . . . + αn v n = O ⇐⇒ α1 = . . . = αn = 0 (6.36)
La (6.36) è equivalente a
n
X
αi v i = − α1 v 1 + . . . + αi−1 v i−1 + αi+1 v i+1 + . . . + αn v n = v ∈ Vi ∩ Vj (6.37)
j=1
det (A − λI) = (α − λ)µg (α) det (C − λI) = (α − λ)µg (α) pc (λ) (6.41)
poichè α potrebbe essere radice anche di pc (λ), si ha che
Proposizione 6.3.9. Siano A, B ∈ Mn (K) due matrici simili. Allora gli autova-
lori di A e B hanno le stesse molteplicità geometriche.
B = P · A · P −1 (6.43)
e, come descritto nel Teorema 6.3.1, i polinomi caratteristici di tali matrici coinci-
dono. Pertanto A e B hanno stessi autovalori con medesima molteplicità algebrica.
Consideriamo ora un autovettore v di A relativo a un autovalore λ. Mostriamo che
P · v è anche autovettore di B relativo allo stesso autovalore λ.
B · P v = P AP −1 · P v = P Av = λP v (6.44)
Poichè P è una matrice invertibile, l’applicazione lineare f : VA,λ → VB,λ , dove VA,λ
e VB,λ sono rispettivamente gli autospazi relativi all’autovalore λ delle matrici A e
B, tale che
f (v) = P v (6.45)
è un isomorfismo, e dunque
• µa (λ1 ) + . . . + µa (λk ) = n;
• ∀i µg (λi ) = µa (λi ).
V =W (6.49)
(⇐) Per ottenere una base di autovettori di V è sufficiente unire una basi di ogni
V λi .
Riprendendo con la catena di uguaglianze si ha che:
• µa (λ1 ) + . . . + µa (λk ) = n;
• ∀i µg (λ) = µa (λ).
f (W ) ⊂ W (6.54)
Allora:
W = (W ∩ Vλ1 ) ⊕ . . . ⊕ (W ∩ Vλk ) (6.55)
w = v1 + . . . + vl (6.57)
w0 = v 01 + . . . + v 0l−1 (6.59)
w = v1 + . . . + vl (6.60)
75
Calcoliamo f (w):
f (w) = λ1 v 1 + . . . + λl v l (6.61)
e consideriamo il vettore
A = P · D · P −1 (6.72)
B = P · D0 · P −1 (6.73)
Mostriamo ora che A e B commutano:
A · B = P · D · P −1 · P · D0 · P −1 = P · D · D0 · P −1 (6.74)
B · A = P · D0 · P −1 · P · D · P −1 = P · D0 · D · P −1 (6.75)
Poichè il prodotto fra matrici diagonali è commutativo (cioè D · D0 = D0 · D) segue
che la (6.74) e la (6.75) coincidono. Quindi, se A e B sono simultaneamente diago-
nalizzabili, allora A · B = B · A.
(⇐) Supponiamo ora che A · B = B · A e dimostriamo che A e B sono simulta-
neamente diagonalizzabili. Sia Vλ l’autospazio relativo all’autovalore λ di A, e sia
v ∈ Vλ . Allora
A · (Bv) = B · Av = B · λv = λ · Bv (6.76)
Il vettore Bv continua a essere un autovettore relativo a λ per la matrice A. Dunque
l’autospazio Vλ è B−invariante, e, per il Corollario 6.4.5, Vλ ha una base costituita
da autovettori di B. Ripetendo tale ragionamento per tutti gli autospazi di A,
è possibile trovare una base di V costituita da autovettori sia di A che di B, e
dunque tali matrici sono simultaneamente diagonalizzabili mediante una matrice P
che contiene tali vettori come colonne.
Capitolo 7
Polinomio minimo
Dimostrazione Sia
h (x) = αp (x) + βq (x) (7.2)
Dalla definizione di somma fra polinomi e fra matrici segue che
Sia ora
h (x) = p (x) · q (x) (7.4)
allora, dalla proprietà distributiva del prodotto fra polinomi e fra matrici segue che
P −1 · p (A) · P = p P −1 · A · P
(7.6)
77
78 VALUTARE UN POLINOMIO IN UNA MATRICE
e calcoliamo P −1 p (A) P :
Applicando la proprietà distributiva del prodotto fra matrici si ottiene che la (7.10)
equivale a
c0 P −1 An P + c1 P −1 An−1 P + . . . + cn−1 P −1 AP + cn I
(7.11)
P −1 · A · P = D (7.13)
P −1 · p (A) · P = p P −1 · A · P = p (D) = D0
(7.14)
e sostituendovi
dim (Km [x]) = m + 1 (7.22)
e h i
dim Im σA |Km [x] ≤ n2 (7.23)
segue che h i
dim ker σA |Km [x] > 0 (7.24)
Dunque, anche non considerando la restrizione di σA ai polinomi
digrando minore
o uguale a m, si ha che dim (ker (σA )) > 0 (in quanto ker σA |Km [x] ⊂ ker (σA )).
1
Quando si studiano i polinomi, generalmente, fissato p (x) ∈ K [x], si cercano quei numeri x0
per cui p (x0 ) = 0. Qui la prospettiva è opposta: si fissa una matrice A e si cercano i polinomi
p (x) per cui p (A) = O.
80 PROPRIETÀ DEL POLINOMIO MINIMO
Osservazione 7.1.7. Il ker (σA ) è un ideale in quanto, se p (x) ∈ ker (σA ) allora, per
ogni q (x) ∈ K [x], si ha che
in quanto
σA (h (x)) = σA (p (x)) σA (q (x)) = 0 (7.26)
Osservazione 7.2.2. In altre parole, ogni polinomio che appartiene al ker (σA ) è un
multiplo polinomiale di ϕ (x). Il polinomio ϕ (x) si chiamerà polinomio minimo.
Dimostrazione Sia ϕ (x) un polinomio monico di grado minimo appartenente
al kernel di σA . Consideriamo un altro polinomio p (x) ∈ ker (σA ) ed effettuiamo la
divisione polinomiale fra p (x) e ϕ (x):
con gr (r (x)) < gr (ϕ (x)). Valutando p (x) nella matrice A, e applicando le pro-
prietà descritte nella Proposizione 7.1.1, si ottiene
e quindi
r (A) = O (7.30)
Dunque r (x) ∈ ker σA , ma poichè ϕ (x) è un polinomio di grado minimo appartenen-
te al kernel di σA e gr (r (x)) < gr (ϕ (x)), allora r (x) ≡ 0, cioè r (x) è il polinomio
nullo. Quindi esiste un polinomio ϕ (x) tale che ogni polinomio p (x) ∈ ker (σA ) è
un multiplo di ϕ (x).
Dimostriamo ora l’unicità di tale polinomio. A tale scopo consideriamo un altro
polinomio monico di grado minimo ψ (x). Sia
Poichè ϕ (x) e ψ (x) sono entrambi polinomi monici, allora gr (h (x)) < gr (ψ (x) , ϕ (x)).
Valutiamo il polinomio h (x) nella matrice A:
Quindi h (x) ∈ ker (σA ). Ma poichè gr (h (x)) < gr (ψ (x) , ϕ (x)) e ψ (x) , ϕ (x) sono
polinomi di grado minimo appartenenti al kernel di σA , allora h (x) ≡ 0 e quindi la
(7.31) può essere riscritta come
B = I, A, A2 , . . . , An−1
(7.35)
B = {v 1 , . . . , v n } (7.37)
con
P1 = v 1 | . . . | v n (7.39)
Per ipotesi induttiva esiste una matrice P2 che triangolarizza A0 , cioè
P2−1 · A0 · P2 = T 0 (7.40)
e quindi, scegliendo
1 O
P3 = (7.41)
O P2
segue che
λ1 b0
−1
P3−1 P1−1 AP1 P3 = (P1 P3 ) · A · (P1 P3 ) = (7.42)
O T0
Osservazione 7.2.5. Ogni matrice A ∈ Mn (C) simile a una matrice triangolare, in
quanto tutti i suoi autovalori appartengono al campo C.
p (A) = O (7.43)
Inoltre
pA (A) = pT (A) = pT P −1 T P = P −1 pT (T ) P
(7.45)
Dunque pA (A) = O ⇐⇒ pT (T ) = O. Ci possiamo quindi limitare a dimostrare
il Teorema per le sole matrici triangolari. A tale scopo consideriamo lo spazio
vettoriale
Wi = {x ∈ Kn : xj = 0 ∀j > i} (7.46)
Sia x ∈ Wi . Allora
T · x ∈ Wi (7.47)
ma, se tii è l’elemento di posto i, i della matrice T , allora
..
.
..
.
pT (T ) · x = (t11 · I − T ) x1 (7.53)
| {z }
∈W0
n
Poichè ogni vettore di K è annullato dalla matrice pT (T ), allora pT (T ) = O.
Osservazione 7.2.7. Se A ∈ Mn (K) e ϕ (x) è il suo polinomio minimo, allora
gr (ϕ (x)) ≤ n (7.54)
B = A, A2 , . . . , An
(7.55)
ϕ (x) = (x − λ1 ) · · · (x − λk ) (7.56)
ϕ (A) = (A − λ1 I) · · · (A − λk I) (7.57)
84 PROPRIETÀ DEL POLINOMIO MINIMO
ϕ (A) · v i = (A − λ1 I) · · · (A − λk I) · v i = (7.58)
Si osserva che
(A − λi I) · v i = O (7.60)
per definizione di autovettore. Ripetendo tali operazioni per ogni autovettore che
costituisce una base di Kn , segue che ogni vettore di tale insieme viene annullato
dalla matrice p (A). Quindi p (A) = O.
Mostriamo adesso che ϕ (x) è di grado minimo, cioè che se togliamo un termine
(x − λi ), tale polinomio non annulla più la matrice A.
ϕA (x) = (x − λ1 ) · · · (x − λk ) (7.64)
Capitolo 8
Prodotti scalari
ϕ:V ×V →K (8.1)
è una forma bilineare simmetrica, che prende come input due vettori di V e resti-
tuisce come output un numero del campo K. I prodotti scalari hanno le seguenti
proprietà:
ϕ (αv 1 + βv 2 , w) = αϕ (v 1 , w) + βϕ (v 2 , w) (8.2)
• Simmetria: ∀v, w ∈ V
ϕ (v, w) = ϕ (w, v) (8.4)
Proposizione 8.0.2 (Matrice del prodotto scalare). Sia V uno spazio vettoriale
di dimensione n, definito su un campo K. Sia inoltre ϕ : V × V → K un prodotto
scalare. Allora esiste una matrice A ∈ Mn (K) tale che ∀v, w ∈ V
Dimostrazione Sia
B = {v 1 , . . . , v n } (8.6)
85
86 CAPITOLO 8. PRODOTTI SCALARI
v = α1 v 1 + . . . + αn v n (8.7)
e
w = β1 v 1 + . . . + βn v n (8.8)
Le coordinate di v e w rispetto alla base B sono quindi:
α1 β1
[v]B = ... [w]B = ... (8.9)
αn βn
Mostriamo che l’elemento di posizione i, j della matrice C corrisponde a ϕ wi , wj :
T
(C)ij = P T (AP )j = P i A (P )j = [wi ]TB A wj B = ϕ wi , wj
i
(8.17)
Quindi C = MB 0 (ϕ)
Osservazione 8.0.5. La relazione scritta nella (8.12) è detta congruenza, ed è una re-
lazione di equivalenza fra matrici quadrate dello stesso ordine. Infatti tale relazione
soddisfa le seguenti proprietà:
• Proprietà riflessiva:
A = IT · A · I (8.18)
• Proprietà simmetrica:
Mostriamo innanzitutto che se P ∈ GLn (K), allora
−1 T
PT = P −1 (8.19)
Infatti T T
P T · P −1 = P −1 · P = IT = I (8.20)
e dunque la (8.19) è vera.
Verifichiamo ora che la congruenza è una relazione simmetrica. Se
A = PT · B · P (8.21)
allora −1 T
B = PT · A · P −1 = P −1 · A · P −1 (8.22)
Quindi, se A è congruente a B, allora B è congruente ad A.
• Proprietà transitiva:
Se
A = PT · B · P (8.23)
e
B = QT · C · Q (8.24)
allora
A = P T QT · C · QP = (QP )T · C · (QP ) (8.25)
dove QP ∈ GLn (K). Quidni, se A è congruente a B, e B è congruente a C,
allora A è congruente a C.
1. rg (A) = rg (B);
88 ORTOGONALITÀ
A = PT · B · P (8.26)
allora:
det (A) = det P T BP = det P T · det (AP ) = [det (P )]2 · det (B)
(8.27)
8.1 Ortogonalità
Definizione 8.1.1 (Vettori ortogonali). Siano V uno spazio vettoriale definito su
un campo K e ϕ : V × V → K un prodotto scalare. Due vettori v, w ∈ V sono
ortogonali rispetto a ϕ se
ϕ (v, w) = 0 (8.29)
Definizione 8.1.2 (Radicale). Siano V uno spazio vettoriale definito si un campo
K e ϕ : V × V → K un prodotto scalare. Il radicale di V è l’insieme
V ⊥ = {v ∈ V : ϕ (v, w) = 0 ∀w ∈ V } (8.30)
Osservazione 8.1.3. In altre parole, l’insieme V ⊥ è costituito dai vettori che sono
ortogonali a ogni vettore di V (anche a se stessi).
Teorema 8.1.4. Siano V spazio vettoriale definito su un campo K e ϕ : V ×V → K
un prodotto scalare. Allora l’insieme V ⊥ è un sottospazio vettoriale.
Dimostrazione Siano v 1 , v 2 ∈ V ⊥ e sia w ∈ V :
ϕ (v 1 + v 2 , w) = ϕ (v 1 , w) + ϕ (v 2 , w) = 0 + 0 = 0 (8.31)
Quindi anche v 1 + v 2 ∈ V ⊥ .
Siano ora α ∈ K, v ∈ V ⊥ e w ∈ V :
Quindi anche αv ∈ V ⊥ .
89
BW = {w1 , . . . , wk } (8.53)
Sia
A = MB (ϕ) (8.54)
la matrice associata prodotto scalare ϕ rispetto alla base B. Per quanto affermato
nell’Osservazione 8.1.12,
v ∈ W ⊥ ⇐⇒ v ∈ BW ⊥
(8.55)
cioè
v ∈ W ⊥ ⇐⇒ [wi ]TB · A · [v]B = 0 ∀wi ∈ BW (8.56)
Consideriamo ora la matrice
C = [w1 ]B | · · · | [wk ]B (8.57)
La (8.56) equivale a
v ∈ W ⊥ ⇐⇒ C T · A · [v]B = 0 (8.58)
Quindi
v ∈ W ⊥ ⇐⇒ v ∈ ker C T · A
(8.59)
Applicando la formula delle dimensioni e ricordando che la matrice A, poichè
associata a un prodotto scalare, è simmetrica, dalla (8.59) segue che
T
dim W ⊥ = dim ker C T · A = n − rg C T · A = n − rg C T · A = (8.60)
= n − rg AT · C = n − rg (A · C) = dim (V ) − rg (A · C)
(8.61)
Come descritto nella Proposizione 3.3.12, il prodotto A · C geometricamente rap-
presenta la composizione di due applicazioni lineari. Scriviamo quindi la formula
delle dimensioni per A |Im(C) :
dim (Im (C)) = dim Im (A) |Im(C) + dim (ker (A) ∩ Im (C)) (8.62)
Inoltre, poichè A è la matrice del prodotto scalare ϕ, dal Teorema 8.1.5 segue che
Infine
dim Im (A) |Im(C) = dim (Im (A · C)) = rg (A · C) (8.65)
92 ORTOGONALITÀ
Sostituendo le (8.63), (8.64) e (8.65) nella (8.62), tale equazione può essere scritta
come
dim (W ) = rg (A · C) + dim V ⊥ ∩ W
(8.66)
e sostituendo la (8.66) nella (8.61) segue che
Corollario 8.1.14 (Somma diretta ortogonale). Siano V uno spazio vettoriale de-
finito su un campo K e ϕ : V × V → K un prodotto scalare. Sia inoltre W un
sottospazio vettoriale di V . Allora
⊥
V = W ⊕ W ⊥ ⇐⇒ ϕ |W non è degenere (8.69)
W ∩ W ⊥ = {O} (8.73)
q : V −→ K (8.74)
tale che
q (v) = ϕ (v, v) (8.75)
93
100
75
50
25 z
0
25
50
75
100
100
75
10075 50
50 25
25 0 0
25 y
x 25 50 50
75 100 10075
/ V ⊥ ∀v ∈ V
ϕ (v, v) > 0 ∀v ∈ V =⇒ ϕ (v, v) 6= 0 ∀v ∈ V =⇒ v ∈ (8.78)
Lo spazio vettoriale
[Span (v)]⊥ (8.82)
ha dimensione n − 1, e quindi, per ipotesi induttiva, ha una base ortogonale
B 0 . L’insieme
B = {v} ∪ B 0 (8.83)
è una base ortogonale di V , in quanto B 0 è già un insieme di vettori a due a
due ortogonali e, inoltre, ∀w ∈ B 0 , ϕ (v, w) = 0
95
1
ϕ (v, w) = [ϕ (v + w, v + w) − ϕ (v, v) − ϕ (w, w)] (8.84)
2
cioè
1
ϕ (v, w) = [q (v + w) − q (v) − q (w)] (8.85)
2
Quindi, poichè q (v) = 0 ∀v ∈ V , allora dalla (8.85) segue che ϕ (v, w) =
0 ∀v, w ∈ V
Osservazione 8.1.23. Dalla sola forma quadratica è possibile risalire al valore del
prodotto scalare fra una qualsiasi coppia di elementi. Infatti
1
ϕ (v, w) = [q (v + w) − q (v) − q (w)] (8.86)
2
Corollario 8.1.24. Sia A ∈ Mn (K) simmetrica. Allora esiste P ∈ GLn (K) tale
che
PT · A · P = D (8.87)
dove D è una matrice diagonale.
MB (ϕ) = D (8.88)
ϕ v 0i , v 0j
ϕ vi, vj = q =0 (8.92)
ϕ (v 0i , v 0i ) · ϕ v 0j , v 0j
ϕ (v 0i , v 0i )
ϕ (v i , v i ) = p =1 (8.93)
ϕ (v 0i , v 0i ) · ϕ (v 0i , v 0i )
Teorema 8.1.29 (Teorema di Sylvester: caso reale). Siano V uno spazio vettoriale
definito sul campo R e ϕ : V × V → R un prodotto scalare. Allora, per ogni base
ortogonale di V
B = {v 1 , . . . , v n } (8.99)
si ha che
ι+ = # {v i ∈ B : ϕ (v i , v i ) > 0} (8.100)
ι− = # {v i ∈ B : ϕ (v i , v i ) < 0} (8.101)
ι0 = # {v i ∈ B : ϕ (v i , v i ) = 0} (8.102)
V = W+ ⊕ W− ⊕ W0 (8.109)
W0 ⊂ V ⊥ (8.110)
Consideriamo w ∈ W0 :
w = αq+1 v q+1 + . . . + αn v n (8.111)
e un generico vettore v ∈ V :
Per la bilinearità del prodotto scalare, la (8.113) può essere scritta come
n X
X n
ϕ (v, w) = αi ϕ v i , v j βj = 0 (8.114)
i=q+1 j=1
in quanto, per j 6= i, ϕ v i , v j = 0 perchè v i , v j appartengono a una base orto-
gonale. Invece, per j = i, ϕ v i , v j = 0 perchè i v i sono isotropi. Quindi, se
w ∈ W0 =⇒ w ∈ V ⊥ , e ciò dimostra la (8.110). Scriviamo ora la matrice del
prodotto scalare rispetto alla base ortogonale B :
si osserva che
V ⊥ = W0 (8.117)
v = α1 v 1 + . . . + αp v p (8.121)
e calcoliamo ϕ (v, v)
n
X
ϕ (v, v) = αi ϕ v i , v j αj (8.122)
i,j=1
99
e tenendo conto che ϕ v i , v j = 0 ∀i 6= j, allora
ϕ:V ×V →C (8.144)
• Hermitianità: ∀v, w ∈ V
ϕ (v, w) = ϕ (w, v) (8.146)
• La norma è reale: ∀v ∈ V
Proposizione 8.2.3 (Matrice del prodotto hermitiano). Sia V uno spazio vettoriale
definito sul campo C con una base B. Sia inoltre ϕ : V × V → C un prodotto
hermitiano. Allora esiste una matrice A ∈ Mn (C) tale che
dove
T
[v]∗B = [v]B (8.151)
102 PRODOTTI HERMITIANI
Dimostrazione Sia
B = {v 1 , . . . , v n } (8.152)
una base di V . Consideriamo due vettori v, w ∈ V
v = α1 v 1 + . . . + αn v n (8.153)
w = β1 v 1 + . . . + βn v n (8.154)
le cui coordinate rispetto alla base B sono:
α1 β1
[v]B = ... [w]B = .. (8.155)
.
αn βn
A∗ = A (8.158)
C = P∗ · A · P (8.159)
Dimostrazione Siano
B = {v 1 , . . . , v n } (8.161)
e
B 0 = {w1 , . . . , wn } (8.162)
Sia P la matrice che ha come colonne le coordinate dei vettori della base B 0 rispetto
alla base B, cioè:
P = [w1 ]B | · · · | [wn ]B (8.163)
Mostriamo che l’elemento i, j della matrice C corrisponde a ϕ wi , wj :
∗
(C)i,j = (P ∗ )i (AP )j = P i A (P )j = [wi ]∗B A wj B = ϕ wi , wj
(8.164)
Quindi C = MB 0 (ϕ)
A simmetrica ⇐⇒ AT = A (8.165)
A ortogonale ⇐⇒ AT · A = A · AT = I (8.166)
A hermitiana ⇐⇒ A∗ = A (8.167)
A unitaria ⇐⇒ A∗ · A = A · A∗ = I (8.168)
Teorema 8.3.8. Sia V uno spazio vettoriale euclideo definito sul campo R. Siano
inoltre B una base ortonormale di V e f : V → V un’applicazione lineare. Allora
Teorema 8.3.9. Sia V uno spazio vettoriale euclideo definito sul campo R. Siano
inoltre B una base ortonormale di V e f : V → V un’applicazione lineare. Allora
Teorema 8.3.12. Siano V uno spazio vettoriale euclideo definito sul campo C, e
ϕ : V × V → C prodotto hermitiano. Siano inoltre B una base ortonormale di V e
f : V → V un’applicazione lineare. Allora
Teorema 8.3.13. Siano V uno spazio vettoriale euclideo definito sul campo C, e
ϕ : V × V → C prodotto hermitiano euclideo. Siano inoltre B una base ortonormale
di V e f : V → V un’applicazione lineare. Allora
AT · A = I (8.197)
e
BT · B = I (8.198)
Mostriamo che A · B ∈ On :
Quindi anche A−1 è una matrice ortogonale. Ciò dimostra che le matrici ortogonali
formano un gruppo rispetto al prodotto riga-colonna.
Proposizione 8.3.15. Se A è una matrice ortogonale, allora
e quindi
det (A) = ±1 (8.203)
107
Poichè una matrice ortogonale conserva il prodotto scalare canonico, ne segue che
ϕ Av i , Av j = δij (8.214)
cioè
B 0 = {Av 1 , . . . , Av n } (8.215)
continua a essere una base ortonormale di Rn (l’indipendenza lineare dei vettori di
B 0 deriva dal fatto che A ha rango massimo).
(⇐) Supponiamo ora che A sia una matrice che trasforma basi ortonormali di Rn
in altre basi ortonormali rispetto al prodotto scalare canonico. Sia
B = {v 1 , . . . , v n } (8.216)
B 0 = {Av 1 , . . . , Av n } (8.217)
e
C 0 = Av 1 | · · ·
| Av n (8.219)
Per la Proposizione 8.3.17 le matrici C, C 0 sono ortogonali, in quanto le loro colonne
costituiscono basi ortonormali di Rn per ipotesi. Invertendo la relazione
A · C = C0 (8.220)
si ha che
A = C 0 · C −1 = C 0 · C T (8.221)
Quindi, poichè le matrici ortogonali formano un gruppo rispetto al prodotto, allora
A è una matrice ortogonale.
Proposizione 8.3.20. A ortogonale se e solo se conserva la norma euclidea.
109
ϕ (v, w) = v T · w (8.222)
(⇐) Siano v, w ∈ Rn .
e
1 0 0
0 cos ϑ sin ϑ (8.239)
0 sin ϑ − cos ϑ
La (8.238) può essere riscritta come
−1 0 0 −1 0 0 1 0 0
0 cos ϑ − sin ϑ = 0 1 0 · 0 cos ϑ − sin ϑ (8.240)
0 sin ϑ cos ϑ 0 0 1 0 sin ϑ cos ϑ
| {z } | {z }
Riflessione Rotazione
e quindi è una matrice relativa alla composizione di una rotazione e una riflessione
rispetto a un piano. La (8.239) invece è una matrice relativa a una riflessione
rispetto a un piano, in quanto è simile a
−1 0 0
0 1 0 (8.241)
0 0 1
111
ϕ (f (w0 ) , w) = 0 (8.252)
allora f (w0 ) ∈ W ⊥ .
Osservazione 8.4.5. Il Lemma 3 vale anche nel caso in cui f sia operatore simmetrico
e ϕ sia un prodotto scalare definito positivo.
Teorema 8.4.6 (Teorema spettrale). Sia V uno spazio vettoriale definito sul campo
C e ϕ : V × V → C un prodotto hermitiano definito positivo. Sia inoltre f : V → V
un operatore hermitiano. Allora esiste una base ortonormale di V costituita da
autovettori di f .
Osservazione 8.4.7. In altre parole, l’operatore hermitiano f è diagonalizzabile e,
se λ1 , . . . , λk sono autovalori distinti di f , allora
⊥ ⊥
V = Vλ1 ⊕ · · · ⊕ Vλk (8.253)
Ogni vettore che appartiene a W può essere scritto in maniera unica come
w = α1 v 1 + . . . + αk v k (8.255)
f : W⊥ → W⊥ (8.258)
f (v) = A · v (8.259)
O−1 · A · O = OT · A · O = D (8.260)
A = O · D · OT (8.261)
La trasposta di A equivale a
T
AT = ODOT = O (OD)T = ODT OT = ODOT = A (8.262)
114 TEOREMA SPETTRALE
O−1 · A · O = OT · A · O = D (8.263)
La matrice D ha sulla diagonale gli autovalori di A, ma, allo stesso tempo, D è anche
la matrice relativa al prodotto scalare ϕ rispetto a una base ortogonale. Quindi,
per il Teorema 8.1.29 di Sylvester, il numero di autovalori positivi, negativi e nulli
di A corrispondono rispettivamente a ι+ , ι− e ι0 di ϕ (e della matrice A).
Teorema 8.4.12 (Criterio di Positività). Sia V uno spazio vettoriale con un pro-
dotto scalare o hermitiano ϕ. Sia inoltre A la matrice associata a ϕ rispetto a una
base B di V . Allora ϕ > 0 se e solo se tutti i determinanti principali di A sono
positivi.
Dimostrazione Sia
B = {v 1 , . . . , v n } (8.264)
una base di V .
(⇒) La sottomatrice Aii di A, ottenuta selezionando le prime i righe e i, corrisponde
alla matrice relativa alla restrizione di ϕ a
W = Span (v 1 , . . . , v i ) (8.265)
Se ϕ > 0, allora anche ogni restrizione di ϕ è definita positiva, e quindi, per quanto
affermato nell’Osservazione 8.4.10, gli autovalori della sottomatrice Aii sono tutti
positivi, cosı̀ come il suo determinante.
(⇐) Consideriamo lo spazio vettoriale
Wi = Span (v 1 , . . . , v i } (8.266)
A11 = a11
(8.267)
definito positivo. Ipotiziamo che ϕ |Wi non sia definito positivo. Allora la sua
segnatura è
σ (ϕ) = (i − 1, 1, 0) (8.268)
oppure
σ (ϕ) = (i − 1, 0, 1) (8.269)
In entrambi i casi det (Aii ) non è positivo. Ciò è assurdo, perchè per ipotesi
det (Aii ) > 0 ∀i. Quindi ϕ |Wi è definito positivo per ogni i.
Osservazione 8.4.13. Siano V spazio vettoriale con un prodotto scalare ϕ, e A una
matrice associata a ϕ rispetto a una base B. Allora ϕ < 0 se e solo se tutti i
determinanti principali di A di ordine dispari sono negativi e quelli di ordine pari
sono positivi.