Sei sulla pagina 1di 121

GEOMETRIA E ALGEBRA

LINEARE
Tommaso Morelli
2
Indice

1 Spazi Vettoriali 1
1.1 Strutture algebriche . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Sottospazi vettoriali e basi . . . . . . . . . . . . . . . . . . . . . . . 4

2 Matrici e sistemi lineari 21


2.1 Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2.1 Sistemi lineari omogenei . . . . . . . . . . . . . . . . . . . . 24
2.2.2 Sistemi lineari non omogenei . . . . . . . . . . . . . . . . . . 30

3 Applicazioni lineari 31
3.1 Immagine e kernel . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2 Applicazioni lineari surgettive, iniettive e isomorfismi . . . . . . . . 36
3.3 Applicazioni lineari e matrici . . . . . . . . . . . . . . . . . . . . . . 37

4 Alcune relazioni di equivalenza fra matrici 45


4.1 SD-Equivalenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2 Similitudine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

5 Determinante 53
5.1 Definizione e proprietà . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2 Gruppo simmetrico . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.3 Formula del determinante . . . . . . . . . . . . . . . . . . . . . . . 59
5.3.1 Formula di Laplace . . . . . . . . . . . . . . . . . . . . . . . 63

6 Autovalori e Autovettori 67
6.1 Definizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.2 Calcolo di autovalori e autovettori . . . . . . . . . . . . . . . . . . . 68
6.3 Proprietà di autovalori e autovettori . . . . . . . . . . . . . . . . . . 68
6.4 Criterio di diagonalizzabilità . . . . . . . . . . . . . . . . . . . . . . 73

3
4 INDICE

7 Polinomio minimo 77
7.1 Valutare un polinomio in una matrice . . . . . . . . . . . . . . . . . 77
7.2 Proprietà del polinomio minimo . . . . . . . . . . . . . . . . . . . . 80

8 Prodotti scalari 85
8.1 Ortogonalità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
8.1.1 Teoremi di Sylvester . . . . . . . . . . . . . . . . . . . . . . 95
8.2 Prodotti hermitiani . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
8.3 Operatori simmetrici, ortogonali, hermitiani e unitari . . . . . . . . 103
8.3.1 Matrici ortogonali . . . . . . . . . . . . . . . . . . . . . . . . 106
8.4 Teorema Spettrale . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

Versione del 13 settembre 2021


Introduzione

Sebbene la Geometria e l’Algebra abbiano avuto origini diverse da ricercare nella


storia antica, l’inizio della loro progressiva fusione fu sancito da Cartesio nel XVII
secolo, con la costruzione del primo piano cartesiano. Queste due discipline della
Matematica oggi sono cosı̀ intimamente legate fra loro che si fatica persino a stabilire
quale argomento sia di “algebra” e quale di “geometria”. Tale similarità scaturisce
dal concetto di vettore, al quale si può attribuire sia una valenza geometrica, tipica
dei vettori della Fisica, sia algebrica, predominante negli ambiti informatici. Tale
differenza è analoga a quella che intercorre fra le parole inglesi vector e array, che si
traducono in italiano con la medesima parola vettore, ma nel cui significato si cela
una sottile sfumatura: i vector sono frecce o punti nel piano, mentre gli array sono
colonne di numeri.
Questo testo è frutto di una rielaborazione di note di studio personali preparate
sulla base delle lezioni tenute nell’ambito del corso di Geometria e Algebra Lineare
dai Professori Salvetti e Disanto dell’Università di Pisa.
La lettura è particolarmente consigliata agli studenti del primo anno del Corso di
Laurea in Fisica dell’Università di Pisa, ma ciò non esclude che questa raccolta
di appunti possa essere di aiuto anche a studenti dei corsi di Ingegneria, Chi-
mica e Informatica, mentre risulta essere troppo semplificata per gli studenti di
Matematica.
Il resto del lavoro è organizzato nel modo seguente: nei primi tre capitoli sono
introdotti i concetti di spazio vettoriale, matrice e applicazione lineare, che sono la
base della disciplina trattata. Una descrizione più dettagliata di tali argomenti è
presentata nei capitoli 4, 5, 6 e 7, che ruotano tutti attorno al concetto di similitu-
dine. Nell’ultimo capitolo si discute infine di prodotti scalari, che sono intimamente
connessi ai concetti di matrice e applicazione lineare.
Vorrei ringraziare il mio amico e compagno di studi Raffaele Tiede, senza il
cui indispensabile supporto e il reciproco confronto questo testo non avrebbe mai
visto la luce e, in alcune parti, la trattazione sarebbe stata molto più oscura e
meno dettagliata. Ringrazio infine Davide Chiego e Joe Angelo Battista per avermi
segnalato errori e imprecisioni che la versione precedente conteneva1 . Un grazie da

1
Per segnalare errori o imprecisioni è possibile inviarmi un messaggio o una mail a
tommasomorelli1@icloud.com

5
6 INDICE

parte mia più che sincero!


Capitolo 1

Spazi Vettoriali

1.1 Strutture algebriche


Definizione 1.1.1 (Gruppo). Si definisce “gruppo” un qualsiasi insieme A dotato
di un’operazione binaria ? con le seguenti proprietà:

1. ∃1 ∈ A : 1 ? a = a ? 1 = a;

2. a ? (b ? c) = (a ? b) ? c;

3. ∃a−1 : a ? a−1 = a−1 ? a = 1.

Tutte le precedenti relazioni devono valere per ogni a, b, c ∈ A.

Osservazione 1.1.2. Un gruppo A si dice “commutativo” se vale anche proprietà


commutativa:
a?b=b?a (1.1)
∀a, b ∈ A.
Esempio. L’insieme Z con la classica operazione di somma è un gruppo (commuta-
tivo);
Esempio. L’insieme N con la classica operazione di somma non è un gruppo.

Definizione 1.1.3 (Anello). Si definisce “anello” un qualsiasi insieme A dotato di


due operazioni binarie + e · con le seguenti proprietà:

1. (a + b) + c = a + (b + c);

2. a + b = b + a;

3. ∃0 ∈ A : 0 + a = a + 0 = a;

4. ∀a ∈ A ∃(−a) ∈ A : a + (−a) = (−a) + a = 0;

1
2 STRUTTURE ALGEBRICHE

5. (a · b) · c = a · (b · c);

6. a · (b + c) = (a · b) + (a · c);

7. (a + b) · c = (a · c) + (b · c).

Tutte le precedenti relazioni devono valere per ogni a, b, c ∈ A.

Esempio. Gli insiemi Z, Q e R sono anelli rispetto alle classiche operazioni di somma
e prodotto.

Definizione 1.1.4 (Campo). Si definisce “campo” un qualsiasi insieme K dotato


di due operazioni binarie + e · con le seguenti proprietà:

1. (a + b) + c = a + (b + c);

2. (a + b) = (b + a);

3. ∃0 : 0 + a = a + 0 = a;

4. ∀a ∃(−a) : a + (−a) = (−a) + a = 0;

5. (a · b) · c = a · (b · c);

6. a · b = b · a;

7. 1 · a = a · 1 = a;

8. ∀a 6= 0 ∃a−1 : a · a−1 = a−1 · a = 1;

9. a · (b + c) = (a · b) + (a · c).

Tutte le precedenti relazioni devono valere per ogni a, b, c ∈ K.

Esempio. Gli insiemi Q e R sono campi rispetto alle classiche operazioni di somma
e prodotto.
Esempio. L’insieme Z non è un campo rispetto alle classiche operazioni di somma
e prodotto.

Corollario 1.1.5. Dalla definizione di campo discendono alcune proprietà:

1. unicità dell’elemento neutro della somma;

2. unicità dell’elemento neutro del prodotto;

3. a · 0 = 0 ∀a ∈ K;

4. (−a) = −1 · a ∀a ∈ K;
3

5. Legge di annullamento del prodotto.


Dimostrazione
1. Supponiamo che esistano due elementi neutri della somma, 01 e 02 . In realtà
tali elementi coincidono, in quanto

01 = 01 + 02 = 02 (1.2)

2. Supponiamo anche in questo caso che esistano due elementi neutri del pro-
dotto, 11 e 12 . In realtà tali elementi coincidono, in quanto

11 = 11 · 12 = 12 (1.3)

3. Consideriamo un generico numero a ∈ K:

(a · 0) + 0 = a · 0 = a · (0 + 0) = (a · 0) + (a · 0) (1.4)

Sommando al primo e all’ultimo membro della precedente uguaglianza il


numero − (a · 0) segue che:

− (a · 0) + (a · 0) + 0 = − (a · 0) + (a · 0) + (a · 0) (1.5)

Quindi
0=a·0 (1.6)

4. Consideriamo un generico numero a ∈ K:

a + (−a) = 0 = 0 · a = [1 + (−1)] a = a + (−1) a (1.7)

Sommando il numero −a al primo e all’ultimo membro della precedente ugua-


glianza segue che:

(−a) + a + (−a) = (−a) + a + (−1) a (1.8)

Quindi
− a = (−1) a (1.9)

5. Consideriamo due numeri a, b ∈ K, con b 6= 0, tali che a · b = 0. Allora:


   
1 1
a = a · 1 = (a · b) · =0· =0 (1.10)
b b

Definizione 1.1.6 (Spazio Vettoriale). Un insieme V definito su un campo K,


dotato di due operazioni binarie + : V × V → V e · : K · V → V con le seguenti
proprietà, è uno spazio vettoriale:
4 SOTTOSPAZI VETTORIALI E BASI

1. (u + v) + w = u + (v + w) ∀u, v, w ∈ V

2. ∃O : O + v = v + O = v

3. ∀v ∈ V, ∃w : v + w = w + v = O

4. ∀v, w ∈ V : v + w = w + v

5. ∀α, β ∈ K, ∀v ∈ V : (α + β)v = αv + βv

6. ∀α ∈ K, ∀v, w ∈ V : α(v + w) = αv + αw

7. (αβ)v = α(βv) ∀α, β ∈ K, ∀v ∈ V

8. ∀v ∈ V 1 · v = v 1 ∈ K

Esempio. Gli insiemi Rn e Cn sono spazi vettoriali.


Esempio. L’insieme Kn [x], costituito dai polinomi di grado minore o uguale a n, è
uno spazio vettoriale rispetto alle seguenti operazioni:

(p + q) (x) = p (x) + q (x) (1.11)

(αp) (x) = α [p (x)] (1.12)


L’insieme dei polinomi di grado pari a n non è invece uno spazio vettoriale.
Esempio. L’insieme Mn,m (K), costituito dalle matrici di dimensione n × m, è uno
spazio vettoriale rispetto alle seguenti operazioni:

(A + B)i,j = (A)i,j + (B)i,j (1.13)

(αA)i,j = α (A)i,j (1.14)


dove (A)i,j indica il coefficiente di posizione i, j della matrice A.

1.2 Sottospazi vettoriali e basi


Definizione 1.2.1 (Sottospazio vettoriale). Sia V uno spazio vettoriale definito su
un campo K. Un insieme W ⊂ V si dice “sottospazio vettoriale” di V se e solo se
W è uno spazio vettoriale rispetto alle stesse operazioni + e · definite in V .

Proposizione 1.2.2. Un sottinsieme W ⊂ V, (W 6= ∅) è un sottospazio vettoriale


di V se e solo se sono verificate le seguenti due condizioni:

• ∀u, v ∈ W ⇒ u + v ∈ W

• ∀α ∈ K, ∀w ∈ W ⇒ αw ∈ W
5

Dimostrazione (⇒) Se W è un sottospazio vettoriale, secondo la Definizione


1.1.6 di spazio vettoriale, è chiuso rispetto all’operazione di somma fra vettori e di
prodotto esterno con un numero del campo.
(⇐) Viceversa, se W è un insieme chiuso rispetto all’operazione di somma fra vettori
e prodotto esterno con numero del campo, allora W é un sottospazio vettoriale, in
quanto le operazioni + e ·, essendo definite anche su V , soddisfano già per ipotesi
le proprietà descritte nella Definizione 1.1.6 di spazio vettoriale.
Osservazione 1.2.3. Se W ⊂ V è sottospazio vettoriale di V , allora O ∈ W .
Definizione 1.2.4 (Combinazione lineare). Sia V uno spazio vettoriale definito su
un campo K, e siano {v 1 , . . . , v n } un insieme di vettori di V e {α1 , . . . , αn } una
n−upla di numeri del campo K. Allora il vettore

v = α1 v 1 + . . . + αn v n (1.15)

si dice “combinazione lineare” dei vettori v 1 , . . . , v n .


Definizione 1.2.5 (Span). Sia V uno spazio vettoriale definito su un campo K. Sia
inoltre A = {v 1 , . . . , v k } un insieme di vettori di V . Si definisce Span (A) l’insieme:

Span (A) = {v ∈ V : ∃ {α1 , . . . , αk } ∈ K : v = α1 v 1 + . . . + αk v k } (1.16)

Osservazione 1.2.6. Span (A) è l’insieme dei vettori di V che si ottengono da tutte
le possibili combinazioni lineari dei vettori di A.
Proposizione 1.2.7. Sia V uno spazio vettoriale definito su un campo K, e sia
A ⊂ V . Allora Span (A) è un sottospazio vettoriale di V .
Dimostrazione Posto A = {v 1 , . . . , v k }, si deve dimostrare che Span (A) sod-
disfa le proprietà espresse dalla Proposizione 1.2.2. A tale scopo consideriamo due
qualsiasi vettori v, w ∈ Span (A):

v = α1 v 1 + . . . + αk v k α1 , . . . , α k ∈ K (1.17)

w = β1 v 1 + . . . + βk v k β1 , . . . , β k ∈ K (1.18)
e dimostriamo che v + w ∈ Span (A). Si ha

v + w = (α1 + β1 )v 1 + . . . + (αk + βk )v k = γ1 v 1 + . . . + γk v k (1.19)

con γi = αi + βi ∈ K, per i = {1, . . . , k}. Quindi v + w è ancora combinazione


lineare di v 1 , . . . , v k , e perciò v + w ∈ Span (A).
Dimostriamo ora che γv ∈ Span (A) per qualsiasi γ ∈ K. Si ha

γv = γ (α1 v 1 + . . . + αk v k ) = γα1 v 1 + . . . + γαk v k (1.20)

che continua ad essere combinazione lineare di v 1 , . . . , v k , per cui γv ∈ Span (A).


6 SOTTOSPAZI VETTORIALI E BASI

Definizione 1.2.8 (Insieme generatore). Sia V uno spazio vettoriale definito su un


campo K. Un insieme di vettori A ⊂ V è detto “insieme generatore” di V se e solo
se
Span (A) = V (1.21)

Osservazione 1.2.9. A è un insieme generatore di V se ogni vettore di V si può


esprimere mediante una opportuna combinazione lineare dei vettori di A.

Definizione 1.2.10 (Indipendenza lineare). Si dice che i vettori v 1 , . . . , v n appar-


tenenti a V sono “linearmente indipendenti” se l’unica soluzione dell’equazione:

α1 v 1 + . . . + αn v n = O (1.22)

è α1 = · · · = αn = 0.

Definizione 1.2.11 (Dipendenza lineare). Si dice che i vettori v 1 , . . . , v n appar-


tenenti a V sono “linearmente dipendenti” se esiste una n−upla {α1 , . . . , αn } di
elementi di K non tutti nulli che soddisfano la (1.22).

Osservazione 1.2.12. Se {v 1 , . . . , v n } è un insieme di vettori linearmente dipendenti,


allora almeno uno di essi può essere espresso come combinazione lineare degli altri,
in quanto esistono α1 , . . . , αk non tutti nulli tali che

α1 v 1 + . . . + αn v n = O (1.23)

Proposizione 1.2.13. Sia V uno spazio vettoriale definito su un campo K. Siano


inoltre {v 1 , . . . , v n } un insieme di vettori linearmente indipendenti, e {α1 , . . . , αn }
e {β1 , . . . , βn } due n−uple di elementi di K. Se

v = α 1 v 1 + . . . + α n v n = β1 v 1 + . . . + βn v n (1.24)

allora, ∀i ∈ {1, . . . , n}, αi = βi .

Dimostrazione La (1.24) può essere scritta nella seguente forma:

(α1 − β1 ) v 1 + . . . + (αn − βn ) v n = O (1.25)

Poichè {v 1 , . . . , v n } è un insieme di vettori linearmente indipendenti, l’equazione


(1.25) è vera soltanto se, ∀i ∈ {1, . . . , n}, αi − βi = 0, cioè se αi = βi .
Osservazione 1.2.14. Un vettore può essere espresso in modo unico come combina-
zione lineare di un insieme di vettori linearmente indipendenti.

Definizione 1.2.15 (Base). Sia V uno spazio vettoriale definito su un campo K.


Un generico insieme di vettori A ⊂ V si dice “base” se verifica contemporaneamente
le seguenti due condizioni:
7

• V = Span (A);
• A è costituito da vettori linearmente indipendenti.
Osservazione 1.2.16. Ogni vettore di uno spazio vettoriale può essere espresso in
maniera unica come combinazione lineare degli elementi di una sua base. Infatti,
se A = {v 1 , . . . , v n } è una base di uno spazio vettoriale e v un suo generico vettore,
l’esistenza di una n−upla di numeri {α1 , . . . , αn } tali che
n
X
v= αi v i (1.26)
i=1

si deve al fatto che A sia un insieme generatore, mentre l’unicità degli αi deriva
dall’indipendenza lineare degli elementi della base A.
Lemma 1. Sia V uno spazio vettoriale definito su un campo K. A è un insieme li-
nearmente indipendente massimale di V (cioè se A ( B, allora B non è linearmente
indipendente) se e solo se A è una base di V .
Dimostrazione Sia A = {v 1 , . . . , v n }.
(⇒) Poichè per ipotesi gli elementi di A sono linearmente indipendenti, è suffi-
ciente dimostrare che essi costituiscano un insieme generatore di V . Consideriamo
a tale scopo un generico vettore v ∈ V , e dimostriamo che esso può essere espresso
mediante una combinazione lineare di vettori appartenenti ad A.
Se v ∈ A, allora v ∈ Span (A). Invece, se v ∈ / A, definiamo l’insieme

B = A ∪ {v} (1.27)

Poichè B ⊃ A, l’insieme B è costituito da elementi linearmente dipendenti, in


quanto A è un insieme linearmente indipendente massimale. Quindi esiste una
n−upla {α1 , . . . , αn } di elementi del campo K tali che

v = α1 v 1 + . . . + αn v n (1.28)

Dunque, anche in questo caso, v ∈ Span (A)


(⇐) Consideriamo un insieme B ⊃ A e un vettore v ∈ B \ A. Poichè A è per
ipotesi una base di V , esiste una n−upla {α1 , . . . , αn } di elementi del campo K tale
che
v = α1 v 1 + . . . + αn v n (1.29)
Quindi l’insieme B è costituito da vettori linearmente dipendenti, perciò A è un
insieme linearmente indipendente massimale.
Lemma 2. Consideriamo un insieme A = {v 1 , . . . , v k } e un vettore v i ∈ A tale che
v i ∈ Span (A \ {v i }). Allora

Span (A) = Span (A \ {v i }) (1.30)


8 SOTTOSPAZI VETTORIALI E BASI

Dimostrazione Senza perdita di generalità, definiamo v i = v k . Il vettore v k può


essere quindi espresso come combinazione lineare degli altri elementi dell’insieme
A, perciò esiste una (k − 1) −upla {α1 , . . . , αk−1 } di elementi del campo K tale che

v k = α1 v 1 + . . . + αk−1 v k−1 (1.31)

Poichè A \ {v k } ⊂ A, allora Span (A \ {v k }) ⊂ Span (A).


Dimostriamo ora che Span (A) ⊂ Span (A \ {v k }). A tale scopo consideriamo un
vettore v ∈ Span (A) tale che

v = β1 v 1 + . . . + βk v k (1.32)

Sostituendo la (1.31) nella (1.32) si ha



v = β1 v 1 + . . . + βk−1 v k−1 + βk α1 v 1 + . . . + αk−1 v k−1 (1.33)

Tale equazione equivale a

v = (β1 + βk α1 )v 1 + . . . + (βk−1 + βk αk−1 )v k−1 ∈ Span(A \ {v k }) (1.34)

che dimostra il Lemma.

Lemma 3. Sia V uno spazio vettoriale definito su un campo K. A ⊂ V è un


insieme generatore minimale di V (cioè se B ( A, allora B non genera V) se e
solo se A è una base di V .

Dimostrazione Sia A = {v 1 , . . . , v n }.
(⇒) Supponiamo per assurdo che A non sia una base di V , cioè che i suoi vettori
non siano linearmente indipendenti. Allora esiste un elemento di A, per esempio
v n , tale che
α1 αn−1
vn = v1 + . . . + v (1.35)
αn αn n−1
Poichè v n può essere espresso come combinazione lineare di altri elementi di A,
per il Lemma 2, Span (A) = Span (A \ {v}). Ciò è assurdo, in quanto contraddice
l’ipotesi che A sia un insieme generatore minimale.
(⇐) Supponiamo, sempre per assurdo, che A non sia un insieme generatore
minimale di V . Siano quindi B ( A un insieme generatore di V e v i ∈ A\B. Poichè
B è un insieme generatore, v i può essere espresso come combinazione lineare degli
elementi di B. Se ciò fosse vero, A non sarebbe un insieme linearmente indipendente,
contraddicendo l’ipotesi che A è una base.

Teorema 1.2.17 (Esistenza di una base). Ogni spazio vettoriale ha una base.
9

Dimostrazione Dimostriamo il Teorema soltanto per spazi vettoriali generati


da un numero finito di vettori. A tale scopo consideriamo uno spazio vettoriale V e
un suo insieme generatore A, da cui estraiamo un insieme linearmente indipendente
massimale B. Dimostriamo innanzitutto che A ⊂ Span (B). Se ciò non fosse vero
esisterebbe un insieme linearmente indipendente contenuto in A che a sua volta
contiene B, contraddicendo l’ipotesi che B sia un insieme linearmente indipendente
massimale. Quindi A ⊂ Span (B), e poichè Span (A) = V , allora anche Span (B) =
V . Quindi B è una base di V .
Teorema 1.2.18 (Algoritmo di sostituzione). Sia V uno spazio vettoriale definito
su un campo K. Consideriamo un insieme A = {v 1 , . . . , v n } e un vettore w ∈
Span (A). È possibile sostituire un vettore v i ∈ A che genera w con w stesso, e
l’insieme
A0 = (A ∪ w) \ {v i } (1.36)
contiene elementi linearmente indipendenti e tali che Span (A) = Span (A0 ).
Dimostrazione Sia
w = α1 v 1 + . . . + αn v n (1.37)
Senza perdita di generalità, applichiamo l’algoritmo sostituendo w con v n , in modo
tale che
A0 = v 1 , . . . , v n−1 , w

(1.38)
Dimostriamo che gli elementi di A0 sono linearmente indipendenti, cioè che

β1 v 1 + . . . + βn−1 v n−1 + βn w = O (1.39)

se e solo se β1 = · · · = βn = 0.
Sostituendo la (1.37) nella (1.39) si ha

(β1 + α1 βn ) v 1 + . . . + (βn−1 + αn−1 βn )v n−1 + βn αn v n = O (1.40)

Poichè l’insieme {v 1 , . . . , v n } è costituito da elementi linearmente indipendenti , la


(1.40) è vera solo se tutti coefficienti dei vettori v 1 , . . . , v n sono nulli. In particolare
βn αn = 0, e, poichè αn 6= 0 si ha βn = 0. Quindi la (1.40) può essere riscritta nel
seguente modo:
β1 v 1 + . . . + βn−1 v n−1 = O (1.41)
che è vera solo se β1 = . . . = βn−1 = 0 in quanto i vettori v 1 , . . . , v n−1 sono
linearmente indipendenti.
Dimostriamo ora che
Span (A) = Span (A0 ) (1.42)
Mostriamo innanzitutto l’inclusione

Span (A) ⊂ Span (A0 ) (1.43)


10 SOTTOSPAZI VETTORIALI E BASI

A tale scopo consideriamo un vettore v ∈ Span (A), cioè tale che

v = β1 v 1 + . . . + βn v n (1.44)

Ricavando v n dalla (1.37) e sostituendolo nella (1.44) si ottiene che v ∈ Span (A0 ).
Mostriamo ora
Span (A0 ) ⊂ Span (A) (1.45)
A tale scopo consideriamo un vettore v ∈ Span (A0 ), cioè tale che

v = β1 v 1 + . . . + βw (1.46)

Sostituendo la (1.37) nella (1.46) si ottiene che v può essere espresso come combi-
nazione lineare dei vettori di A, e quindi Span (A0 ) ⊂ Span (A)
Osservazione 1.2.19. I vettori v 1 , . . . , v n−1 sono linearmente indipendenti in quan-
to sono un sottoinsieme di A che, per ipotesi, è costituito da vettori linearmente
indipendenti.

Teorema 1.2.20 (Algoritmo di completamento a base). Sia V uno spazio vettoriale


definito su un campo K. Siano A = {v 1 , . . . , v n } e B = {w1 , . . . , wk } , k < n tale
che B ⊂ Span(A) e gli elementi di B sono tutti linearmente indipendenti. Allora
esiste un sottoinsieme di A0 ⊂ A con lo stesso numero di elementi di B tale che

Span((A ∪ B) \ A0 ) = Span(A) (1.47)

e gli elementi di (A ∪ B) \ A0 continuano a essere linearmente indipendenti.

Dimostrazione Per dimostrare il Teorema è sufficiente applicare l’algoritmo


descritto nel Teorema 1.2.18 in maniera iterativa, sostituendo ogni volta un elemento
di A con un elemento di B.

Corollario 1.2.21 (Teorema 1.2.20). In riferimento alla notazione utilizzata nel-


l’enunciato del Teorema 1.2.20, #B ≤ #A.1

Teorema 1.2.22 (Cardinalità di una base). Sia V spazio vettoriale definito su un


campo K. Allora ogni base di V ha lo stesso numero di elementi.

Dimostrazione Consideriamo due basi di V , C e C 0 . Sempre facendo riferi-


mento alla notazione del Teorema 1.2.20, possiamo supporre A = C e B = C 0 .
Dal Corollario 1.2.21 segue che #C 0 ≤ #C. Possiamo ora supporre di applicare il
Teorema 1.2.20 al contrario, cioè ponendo A = C 0 e B = C, e sempre dal Corollario
1.2.21 segue che #C ≤ #C 0 . Quindi #C 0 = #C

1
La scrittura #A indica la cardinalità dell’insieme A.
11

Definizione 1.2.23 (Dimensione). Sia V uno spazio vettoriale definito su un campo


K. La dimensione di V (che si indicherà dim(V )) è il numero di elementi di una
base di V .
Proposizione 1.2.24. Siano V e U due spazi vettoriali definiti su un campo K.
Allora l’insieme V ∩ U è uno spazio vettoriale.
Dimostrazione Procediamo seguendo il criterio esposto nella Proposizione
1.2.2. Consideriamo quindi due vettori v 1 , v 2 ∈ V ∩ U , e verifichiamo che v 1 + v 2 ∈
V ∩ U . Dall’ipotesi che V e U sono spazi vettoriali segue che, poichè v 1 , v 2 ∈ V ,
allora
v1 + v2 ∈ V (1.48)
Analogamente, poichè v 1 , v 2 ∈ U , allora
v1 + v2 ∈ U (1.49)
Dalla (1.48) e (1.49) si può concludere che v 1 + v 2 ∈ V ∩ U . Dimostriamo ora che
se α ∈ K e v ∈ V ∩ U , allora αv ∈ V ∩ U . Sfruttando nuovamente l’ipotesi che V e
U sono spazi vettoriali segue che, poichè α ∈ K e v ∈ V , allora
αv ∈ V (1.50)
Analogamente, poichè α ∈ K e v ∈ U , allora
αv ∈ U (1.51)
Anche in questo caso, dalla (1.50) e della (1.51) si può concludere che αv ∈ V ∩ U .
Proposizione 1.2.25. Siano V e U due spazi vettoriali definiti su un campo K.
Se U ⊂ V , allora V ∪ U è un sottospazio vettoriale.
Dimostrazione V ∪ U = V , che è, per ipotesi, uno spazio vettoriale.
Osservazione 1.2.26. In generale, se V è uno spazio vettoriale definito su un campo
K, e U, W ⊂ V sono due suoi sottospazi vettoriali, allora non è vero che W ∪U è uno
spazio vettoriale. Infatti, consideriamo il caso in cui U e W non siano contenuti l’uno
nell’altro, e dimostriamo che in questo caso l’unione non è uno spazio vettoriale.
Sia per esempio w ∈ W e u ∈ U . Se, per assurdo, W ∪ U fosse uno spazio vettoriale,
si avrebbe che v = w + u ∈ W ∪ U , cioè v ∈ W oppure v ∈ U . Supponiamo che sia
v ∈ W . Se ciò fosse vero si avrebbe che u ∈ W , in quanto u si può scrivere come
somma di due vettori che appartengono a W ,
u=w−v ∈W (1.52)
e ciò è assurdo, perchè per ipotesi u ∈ U . Analogamente, se v ∈ U si avrebbe che
w ∈ U , in quanto w si può scrivere come somma di due vettori che appartengono a
U,
w =v−u∈U (1.53)
e ciò è assurdo, perchè per ipotesi w ∈ W .
12 SOTTOSPAZI VETTORIALI E BASI

Definizione 1.2.27 (Somma di spazi vettoriali). Sia V uno spazio vettoriale defi-
nito su un campo K, e siano U, W due suoi sottospazi vettoriali. Allora:

U + W = {v ∈ V : ∃u ∈ U, w ∈ W : v = u + w} (1.54)

Proposizione 1.2.28. Sia V uno spazio vettoriale definito su un campo K, e


siano U, W due suoi sottospazi vettoriali. Siano inoltre BU , BW basi di U e W
rispettivamente. Allora:

U + W = Span (BU ∪ BW ) (1.55)

Dimostrazione Dalla Definizione 1.2.27, U + W è l’insieme formato dai vettori


v tali che
v =u+w (1.56)
con u ∈ U, w ∈ W . Quindi, definendo

BU = {u1 , . . . , un } (1.57)

e
BW = {w1 , . . . , wm } (1.58)
allora i generici vettori u ∈ U e w ∈ W possono essere espressi come:

u = α1 u1 + . . . + αn un (1.59)

w = β1 w1 + . . . + βm wm (1.60)
e quindi, sostituendo nella (1.58) le espressioni riportate nelle (1.59) e (1.60), si
ottiene che

v = α1 u1 + . . . + αn un + β1 w1 + . . . + βm wm ∈ Span (BU ∪ BW ) (1.61)

Teorema 1.2.29 (Formula di Grassmann). Sia V uno spazio vettoriale definito su


un campo K, con due sottospazi U e W . Allora:

dim (U + W ) = dim (U ) + dim (W ) − dim (U ∩ W ) (1.62)

Dimostrazione Consideriamo una base B 0 di (U ∩ W )

B 0 = {v 1 , . . . , v n } (1.63)

ed estendiamola prima a base di U , e poi a base di W , mediante l’algoritmo di


completamento a base, descritto nel Teorema 1.2.20, in modo da ottenere:

BU = v 1 , . . . , v n , v 0n+1 , . . . , v 0u

(1.64)
13

e
BW = v 1 , . . . , v n , v 00n+1 , . . . , v 00w

(1.65)
Dimostriamo che

B = BU ∪ BW = v 1 , . . . , v n , v 0n+1 , . . . , v 0u , v 00n+1 , . . . , v 00w



(1.66)

è una base di U + W .
L’insieme B genera U + W per la Proposizione 1.2.28. Mostriamo ora che i vettori
di B sono linearmente indipendenti. A tale scopo consideriamo una combinazione
lineare di tali vettori
n
X u
X w
X
αi v i + αi0 v 0i + αi00 v 00i = O (1.67)
i=1 i=n+1 i=n+1

che può essere riscritta come


n
X u
X w
X
αi v i + αi0 v 0i =− αi00 v 00i = x ∈ U ∩ W (1.68)
i=1 i=n+1 i=n+1

Poichè x ∈ U ∩ W , affinchè la (1.68) sia vera, deve valere che,


u
X
αi0 v 0i = O (1.69)
i=n+1

in quanto tali vettori non appartengono a W . Poichè tale combinazione lineare è


costituita da vettori linearmente indipendenti per ipotesi, la (1.69) è verificata se e
solo se, per ogni i, αi0 = 0. Inserendo tale risultato nella (1.68), tale equazione può
essere riscritta come: n w
X X
αi v i + αi00 v 00i = O (1.70)
i=1 i=n+1

che è vera se e solo se, per ogni i, αi = αi00 = 0, in quanto tali vettori appartengono
a una base di W . In conclusione, la (1.67) è verificata se e solo se, per ogni i, αi =
αi0 = αi00 = 0. Ciò dimostra quindi che B è un insieme linearmente indipendente, e,
poichè è anche generatore di U + W , si può concludere che B è una base di U + W
stesso.

Definizione 1.2.30 (Somma diretta). Sia V uno spazio vettoriale definito su un


campo K, e siano U e W due suoi sottospazi vettoriali. Allora:

Z =U ⊕W (1.71)

se e solo se sono verificate contemporaneamente le seguenti due condizioni:


14 SOTTOSPAZI VETTORIALI E BASI

• Z =U +W

• U ∩ W = {O}

Definizione 1.2.31 (Proiezione di una somma diretta). Sia V uno spazio vettoriale
definito su un campo K, e siano U e W due suoi sottospazi vettoriali. Sia inoltre

Z =U ⊕W (1.72)

Allora ogni vettore z ∈ Z si può scrivere in maniera unica2 come

z =u+w (1.73)

con u ∈ U e w ∈ W . Si definisce proiezione di z su U

prU (z) = u (1.74)

e proiezione di z su W
prW (z) = w (1.75)

Teorema 1.2.32. Sia V uno spazio vettoriale su un campo K, e siano U e W due


suoi sottospazi vettoriali. Allora Z = U ⊕ W se e solo se esistono unici u ∈ U e
w ∈ W tali che:
z =u+w (1.76)
con z ∈ Z.

Dimostrazione (⇒) Supponiamo per assurdo che le proiezioni di z su U e W


non siano uniche, cioè ∃u1 , u2 ∈ U e ∃w1 , w2 ∈ W , con u1 =
6 u2 e w1 6= w2 , tali che

z = u1 + w 1 = u2 + w 2 (1.77)

Allora esiste un vettore x 6= O

x = u1 − u2 = w2 − w1 (1.78)

tale che x ∈ U ∩ W . Ciò è assurdo, perchè per ipotesi U ∩ W = {O}.


(⇐) Supponiamo ora che esistano unici w ∈ W e u ∈ U tali che

z =u+w (1.79)

con z ∈ Z, e dimostriamo che Z = U ⊕ W .


Se per assurdo esistesse un vettore x 6= O tale che

x∈U ∩W (1.80)
2
L’unicità delle proiezioni viene mostrata con il Teorema seguente.
15

allora x ∈ U e x ∈ W . Quindi ∃u1 , u2 ∈ U , con u1 6= u2 e ∃w1 , w2 ∈ W , con


w1 6= w2 tali che:
x = u1 + u2 = w1 + w2 (1.81)
Dunque ∃z ∈ Z tale che
z = u1 − w1 = w2 − u2 (1.82)
Ciò è assurdo perchè per ipotesi le proiezioni di z su U e W sono uniche.
Teorema 1.2.33. Sia V uno spazio vettoriale definito su un campo K, e siano U
e W due
 suoi sottospazi
tali che Z = U ⊕ W . Siano inoltre BU = {u1 , . . . , um } e
BW = w1 , . . . , wp , basi rispettivamente di U e W . Allora;

B = BU ∪ BW = u1 , . . . , um , w1 , . . . , wp (1.83)
è una base di Z.
Dimostrazione L’insieme BU ∪BW genera Z per la Proposizione 1.2.28. Dimo-
striamo quindi l’indipendenza lineare dei vettori di B. A tale scopo consideriamo
una loro combinazione lineare
m p
X X
αi ui + βi w i = O (1.84)
i=1 i=1

che può essere riscritta come


m p
X X
αi ui = − βi wi = x ∈ U ∩ W (1.85)
i=1 i=1

Dall’ipotesi che U ∩ W = O, segue che anche x = O. Inserendo tale risultato nella


(1.85) si ottiene:
Xm
αi ui = O (1.86)
i=1
e p
X
βi w i = O (1.87)
i=1
e quindi α1 = . . . = αm = β1 = . . . = βm = 0 in quanto i vettori u1 , . . . , um e
w1 , . . . , wp sono linearmente indipendenti per ipotesi, poichè costituiscono rispetti-
vamente basi di U e W .
Osservazione 1.2.34. Non è detto che valga l’implicazione inversa. Consideriamo
per esempio in R4 i due sottospazi:
         

 1 0   0 0 
     
    
0   1   1 , 0 
 
U = Span  ,
 0   0  W = Span  0   1  (1.88)

  
 
0 0 0 0
   
16 SOTTOSPAZI VETTORIALI E BASI

In questo caso      

 1 0 0 
0   1   0 
  
B= 
 0 , 0
, 
  1  (1.89)

 
0 0 0
 

è base di un sottospazio Z ∈ R4 , ma è evidente che U e W non siano in somma


diretta.
Teorema 1.2.35. Sia V uno spazio vettoriale definito su un campo K, e siano U
e W due suoi sottospazi vettoriali. Allora:

V = U ⊕ W ⇐⇒ dim (V ) = dim (U + W ) = dim (U ) + dim (W ) (1.90)

Dimostrazione (⇒) Se V = U ⊕ W , poichè U ∩ W = {O} e V = U + W , allora

dim (U ∩ W ) = 0 (1.91)

e
dim (V ) = dim (U + W ) (1.92)
Inserendo tali espressioni nella Formula di Grassmann segue che

dim (V ) = dim (U + W ) = dim (U ) + dim (W ) (1.93)

(⇐) Applichiamo nuovamente la formula di Grassmann, tenendo conto che per


ipotesi
dim(V ) = dim(U + W ) = dim(U ) + dim(W ) (1.94)
Perciò:

dim(U + W ) = dim(U ) + dim(W ) − dim (U ∩ W ) = dim(U ) + dim(W ) (1.95)

da cui segue che


dim (U ∩ W ) = 0 (1.96)
e
dim(V ) = dim (U + W ) = dim(U ) + dim(W ) (1.97)
Le (1.96) e (1.97) implicano rispettivamente che

U ∩ W = {O} (1.98)

e
V =U +W (1.99)
in quanto ogni sottospazio di V con dimensione uguale a quella di V coincide con
V stesso.
In conclusione V = U ⊕ W .
17

Definizione 1.2.36 (Somma diretta di più sottospazi vettoriali). Sia V uno spazio
vettoriale definito su un campo K, e siano V1 , . . . , Vn alcuni suoi sottospazi vettoriali.
Allora
( n
)
X
V1 ⊕ . . . ⊕ Vn = v ∈ V : ∀i ∈ [1, n] ∃! v i : v = αi v i , αi ∈ K (1.100)
i=1

Proposizione 1.2.37. Sia V uno spazio vettoriale definito su un campo K, con n


sottospazi vettoriali V1 , . . . , Vn . Allora:
 
n
X 
V1 ⊕ . . . ⊕ Vn ⇐⇒ Vi ∩  Vm  = {O} ∀i ∈ [1; n] (1.101)
m=1
m6=i

Dimostrazione (⇒) Consideriamo un vettore v :


 
n
X 
v ∈ Vi ∩  Vm  (1.102)
m=1
m6=i

Tale vettore può essere espresso come combinazione lineare sia di vettori di Vi , che
di V1 , . . . , Vi−1 , Vi+1 , . . . , Vn , cioè rispettivamente nei seguenti due modi:
v = O + O + . . . + O + vi + O + . . . + O (1.103)
|{z} |{z} |{z} |{z} |{z} |{z}
∈V1 ∈V2 ∈Vi−1 ∈Vi ∈Vi+1 ∈Vn

e
v = v 1 + v 2 + . . . + v i−1 + O v i+1 + . . . + v n (1.104)
|{z} |{z} |{z} |{z} |{z} |{z}
∈V1 ∈V2 ∈Vi−1 ∈Vi ∈Vi+1 ∈Vn

Poichè i sottospazi V1 , . . . , Vn sono in somma diretta, allora le proiezioni di v su ogni


sottospazio devono esistere uniche. Dunque, eguagliando una a una le proiezioni di
v riportate nelle (1.103) e la (1.104), segue che


 v1 = O

v 2 = O



..
. (1.105)




 vi = O

vn = O

e quindi v = O.
(⇐) Supponiamo ora
 
n
X
Vi ∩  Vm  = {O} ∀i ∈ [1; n] (1.106)
 
m=1
m6=i
18 SOTTOSPAZI VETTORIALI E BASI

Sia v ∈ V1 + . . . + Vn un vettore tale che:


v = v 1 + . . . + v i + . . . + v n = u1 + . . . + ui + . . . + un (1.107)
con, al variare di j fra 1 e n, v j , uj ∈ Vj . Tale espressione equivale a
v i − ui = u1 − v 1 + . . . + ui−1 − v i−1 + ui+1 − v i+1 + . . . + un − v n (1.108)
Dalla (1.108) segue che
 
n
X
v i − ui ∈ Vi ∩  Vm  =⇒ v i − ui = O (1.109)
 
m=1
m6=i

e quindi v i = ui . Ripetendo tale ragionamento per ogni coppia v j − uj , si ottiene


che le proiezioni del generico vettore v ∈ V1 , . . . , Vn su ogni spazio vettoriale sono
uniche. Quindi
V1 ⊕ . . . ⊕ Vn (1.110)
Lemma. Sia V uno spazio vettoriale definito su un campo K, e siano V1 , . . . , Vn
alcuni suoi sottospazi. Allora
dim (V1 + . . . + Vn ) ≤ dim (V1 ) + . . . + dim (Vn ) (1.111)
Dimostrazione Effettuiamo una dimostrazione per induzione sul numero n dei
sottospazi V1 , . . . , Vn .
Nel caso in cui n = 1 si ha la banale disuguaglianza
dim (V1 ) ≤ dim (V1 ) (1.112)
Supponiamo ora vera la (1.111) e dimostriamo la veridicità di
dim (V1 + . . . + Vn + Vn+1 ) ≤ dim (V1 ) + . . . + dim (Vn ) + dim (Vn+1 ) (1.113)
Si può scrivere la somma degli n + 1 sottospazi vettoriali nel seguente modo:
V1 + . . . + Vn + Vn+1 = (V1 + . . . + Vn ) + Vn+1 (1.114)
e quindi, applicando la formula di Grassmann, segue che
dim (V1 + . . . + Vn + Vn+1 ) = dim [(V1 + . . . + Vn ) + Vn+1 ] = (1.115)
= dim (V1 + . . . + Vn ) + dim (Vn+1 ) − dim [(V1 + . . . + Vn ) ∩ Vn+1 ] (1.116)
e applicando l’ipotesi induttiva si ottiene
dim (V1 + . . . + Vn + Vn+1 ) ≤ dim (V1 ) + . . . + dim (Vn ) + dim (Vn+1 ) (1.117)
che corrisponde alla tesi del Lemma.
19

Proposizione 1.2.38. Sia V uno spazio vettoriale definito su un campo K, e siano


V1 , . . . , Vn alcuni suoi sottospazi vettoriali. Allora:
V1 ⊕ . . . ⊕ Vn ⇐⇒ dim (V1 ⊕ . . . ⊕ Vn ) = dim (V1 ) + . . . + dim (Vn ) (1.118)
Dimostrazione (⇒) Siano B1 , . . . , Bn basi rispettivamente di V1 , . . . , Vn . Di-
mostriamo che
B = B1 ∪ B2 ∪ . . . ∪ Bn (1.119)
è base di V1 ⊕ . . . ⊕ Vn .
B è un insieme generatore di V1 ⊕ . . . ⊕ Vn in quanto, effettuando una combinazione
lineare dei vettori di B, si può ottenere una qualsiasi combinazione lineare dei
vettori di V1 , . . . , Vn , dal momento che B è costituito dall’unione dalle basi di tali
spazi vettoriali. Dimostriamo ora che i vettori contenuti in B sono tutti linearmente
indipendenti. Consideriamo a tale scopo una combinazione lineare di tali vettori
α11 v 11 + . . . + α1k1 v 1k1 + . . .+αi1 v ik1 + . . . + αiki v iki + . . .+αn1 v n1 + . . . + αnkn v nkn
| {z } | {z } | {z }
∈V1 ∈Vi ∈Vn
(1.120)
ed uguagliamola al vettore nullo O. Poichè, per ipotesi, i V1 , . . . , Vn sono in somma
diretta, allora, per definizione, le proiezioni di O su ogni spazio vettoriale sono
uniche e uguali al vettore nullo. Perciò la (1.120) è vera se e solo se, ∀i ∈ [1; n]
αi1 v ik1 + . . . + αiki v iki = O (1.121)
Dal momento che tali vettori costituiscono una base di Vi , la (1.121) è verificata se
e solo se αi1 = . . . = αiki = 0. Quindi, in conclusione, B è una base di V1 ⊕ . . . ⊕ Vn
e ciò è sufficiente a dimostrare la tesi.
(⇐) Supponiamo adesso che
dim (V1 + . . . + Vn ) = dim(V1 ) + . . . + dim(Vn ) (1.122)
e dimostriamo che V1 ⊕ . . . ⊕ Vn . Dalla formula di Grassmann si ha che il primo
membro della (1.122) è pari a
dim [(V1 + . . . + Vn ) \ Vi ] + dim(Vi ) − dim {[(V1 + . . . + Vn ) \ Vi ] ∩ Vi } ≤ (1.123)

≤ dim(V1 ) + . . . + dim(Vn ) − dim {[(V1 + . . . + Vn ) \ Vi ] ∩ Vi } (1.124)


Nel passaggio dalla (1.123) alla (1.124) si è utilizzato il Lemma dimostrato in pre-
cedenza.
Combinando le (1.122), (1.123) e (1.124) si ottiene che
dim {[(V1 + . . . + Vn ) \ Vi ] ∩ Vi } ≤ 0 (1.125)
e quindi
dim {[(V1 + . . . + Vn ) \ Vi ] ∩ Vi } = 0 (1.126)
Si può ripetere tale dimostrazione variando l’indice i fra 1 e n, e dalla Proposizione
1.2.37, segue la tesi.
20 SOTTOSPAZI VETTORIALI E BASI
Capitolo 2

Matrici e sistemi lineari

2.1 Matrici
Definizione 2.1.1 (Matrice). Una matrice A ∈ Mm,n (K) è una tabella ordinata
di numeri appartenenti a un campo K, costituita da m righe e n colonne:
 
a1,1 a1,2 · · · a1,n
 a2,1 a2,2 · · · a2,n 
A =  .. (2.1)
 
.. . . .. 
 . . . . 
am,1 am,2 · · · am,n

Osservazione 2.1.2. Indicando con Ai la i−esima riga di una matrice A e con Ai la


i−esima colonna, tale matrice può esser scritta come collezione di righe o di colonne:
 
A1
 A2   
A =  ..  A = A1 , A2 · · · , An (2.2)
 
 . 
Am
Definizione 2.1.3 (Somma fra matrici). Siano A ∈ Mm,n e B ∈ Mm,n . Allora la
matrice C = A + B ∈ Mm,n ha come coefficiente di posizione i, j il numero
ci,j = ai,j + bi,j (2.3)
Definizione 2.1.4 (Prodotto riga-colonna). Siano A ∈ Mm,n e B ∈ Mn,k . Allora
la matrice C = A · B ∈ Mm,k ha come coefficiente di posizione i, j il numero
n
X
ci,j = Ai · B j = ai,l bl,j (2.4)
l=1

Osservazione 2.1.5. Affinchè il prodotto riga-colonna A · B sia ben definito, è


necessario che il numero di colonne di A sia uguale al numero di righe di B.

21
22 MATRICI

Osservazione 2.1.6. Siano A ∈ Mm,n (K) una matrice e x ∈ Kn un vettore colonna.


Il prodotto A · x corrisponde a una combinazione lineare delle colonne di A.
Osservazione 2.1.7. L’insieme delle matrici Mn,m (K) è un anello con unità rispetto
alle operazioni di somma fra matrici e prodotto riga-colonna. Infatti tali operazioni,
oltre ad avere le proprietà tipiche di un anello, elencate nella Definizione 1.1.3, hanno
anche un elemento neutro rispetto al prodotto.

Definizione 2.1.8 (Matrice inversa). Sia A ∈ Mn (K) una matrice quadrata


invertibile. Allora
A · A−1 = A−1 · A = I (2.5)

Osservazione 2.1.9. Non tutte le matrici possiedono un’inversa. L’insieme delle ma-
trici a coefficienti in K invertibili di ordine n si indica con GLn (K). Tale insieme è
un gruppo rispetto alle operazioni di somma e prodotto riga-colonna, in quanto sod-
disfano gli assiomi di associatività, di esistenza dell’elemento neutro e di esistenza
dell’inverso di ogni elemento.

Proposizione 2.1.10 (Proprietà prodotto riga-colonna). Il prodotto riga-colonna


fra matrici ha le seguenti proprietà:

1. A · (B + C) = AB + AC ∀A ∈ Mm,n , ∀B, C ∈ Mn,k ;

2. (A + B) · C = AB + BC ∀A, B ∈ Mm,n , ∀C ∈ Mn,k ;

3. (AB) · C = A · (BC) ∀A ∈ Mm,n , ∀B ∈ Mn,k ∀C ∈ Mk,l ;

4. (AB)T = B T AT ∀A ∈ Mm,n , ∀B ∈ Mn,k ;

5. (AB)−1 = B −1 A−1 A ∈ Mn , B ∈ Mn .

Dimostrazione Per dimostrare la proprietà 1., verifichiamo che i coefficienti di


una generica posizione i, j delle matrici A · (B + C) e AB + BC coincidano.
n
X n
X
[A · (B + C)]i,j = ai,l (b + c)l,j = (ai,l bl,j + ai,l cl,j ) = (AB + BC)i,j (2.6)
l=1 l=1

Le proprietà 2. si dimostra in modo analogo alla precedente. Verifichiamo ora la


veridicità della proprietà 3.
k n
!
X X
[(AB) · C]i,j = (AB)i C j = (Ai B) · C j = ai,l bl,p cp,j = (2.7)
p=1 l=1

n k
!
X X
= Ai · BC j = Ai · (BC)j = A · (BC)

ai,l bl,p cp,j (2.8)
l=1 p=1
23

Dimostriamo pra la proprietà 4.:


h i   T   j 
(AB)T = (AB)j,i = Aj B i = B i (Aj )T = B T i AT = B T AT i,j
 
i,j
(2.9)
Dimostriamo infine la proprietà 5.:

B −1 A−1 (AB) = B −1 A−1 A B = B −1 B = I


 
(2.10)
| {z }
I

dove I è la matrice identità. Dunque (AB)−1 = B −1 A−1 .


Definizione 2.1.11 (Rango). Sia A ∈ Mm,n (K). Si definisce rango di A, che si
indicherà con rg(A), la dimensione dello spazio delle colonne di A.

2.2 Sistemi lineari


Consideriamo un sistema lineare:


 a1,1 x1 + a1,2 x2 + . . . + a1,n xn = b1

a2,1 x1 + a2,2 x2 + . . . + a2,n xn = b2

.. (2.11)


 .

a x + a x + . . . + a x = b
m,1 1 m,2 2 m,n n m

Tale sistema può essere scritto in modo più compatto come:

Ax = b (2.12)

dove A è una matrice, detta matrice dei coefficienti, il cui elemento di posizione
i, j è ai,j , e b è un vettore i cui coefficienti sono i termini noti delle equazioni del
sistema:
 
a1,1 a1,2 · · · a1,n    
 a2,1 a2,2 · · · a2,n  x1 b1
 .   . 
A =  .. ..  , x =  ..  , b =  ..  (2.13)
 
.. . .
 . . . . 
xn bm
am,1 am,2 · · · am,n

Osservazione 2.2.1. Si può riscrivere Ax = b nel seguente modo:

A1 x1 + A2 x2 + . . . + An xn = b (2.14)

Tale osservazione dimostra la seguente proposizione.


Proposizione 2.2.2. Un sistema lineare Ax = b è risolubile se e solo se b ∈
Span (A1 , . . . , An )
24 SISTEMI LINEARI

Osservazione 2.2.3. In altre parole, un sistema lineare è risolubile se e solo se il


vettore dei termini noti può essere espresso come combinazione lineare delle colonne
della matrice dei coefficienti.
Teorema 2.2.4 (Teorema di Rouche-Capelli). Consideriamo un sistema lineare

A·x=b (2.15)

in cui A è la matrice dei coefficienti e b il vettore dei termini noti. Consideriamo


inoltre la matrice à = [A|b]. Allora il sistema è risolubile se e solo se rg (A) =
rg(Ã).
Dimostrazione (⇒) Se il sistema è risolubile, allora b ∈ Span (A1 , . . . , An ),
dove A1 , . . . , An sono le colonne della matrice A. Dunque, aggiungendo il vettore b
alle colonne di A, la dimensione dello spazio delle colonne di tale matrice non può
aumentare, e quindi rg(A) = rg(Ã).
(⇐) Se rg(A) = rg(Ã), allora b ∈ Span (A1 , . . . , An ), dunque esistono dei coefficienti
xi tali che Ax = b, dunque il sistema è risolubile
Osservazione 2.2.5. La matrice à è chiamata matrice completa.

2.2.1 Sistemi lineari omogenei


Definizione 2.2.6 (Sistema lineare omogeneo). Consideriamo un sistema lineare

A·x=b (2.16)

in cui A è la matrice dei coefficienti e b il vettore dei termini noti. Tale sistema è
omogeneo se e solo se b = O, cioè se può essere scritto nella forma

A·x=O (2.17)

Proposizione 2.2.7. Lo spazio delle soluzioni di un sistema lineare omogeneo è


uno spazio vettoriale.
Dimostrazione Consideriamo un sistema omogeneo

A·x=O (2.18)

di cui x1 e x2 sono due soluzioni. Mostriamo che anche x1 + x2 è una soluzione di


tale sistema.
A (x1 + x2 ) = Ax1 + Ax2 = O + O = O (2.19)
Consideriamo ora un numero α ∈ K, e mostriamo che anche αx1 è soluzione del
sistema omogeneo (2.18):

A (αx) = α (Ax) = αO = O (2.20)


25

Osservazione 2.2.8. Lo spazio delle soluzioni di un sistema lineare omogeneo a


coefficienti in K è un sottospazio vettoriale di Kn .
Osservazione 2.2.9. Il vettore nullo (x = O) è sempre soluzione di un sistema lineare
omogeneo.

Teorema 2.2.10 (Mosse di Gauss). Dato un sistema lineare omogeneo con coef-
ficienti appartenenti a un campo K, esistono tre operazioni elementari da eseguire
sulle righe della matrice dei coefficienti che trasformano tale sistema in un altro
avente le stesse soluzioni. Queste operazioni, dette Mosse di Gauss, sono:

1. Scambiare due righe;

2. Moltiplicare una riga per un numero non nullo;

3. Sostituire una riga Ai con Ai + λAj , ∀i 6= j e ∀λ ∈ K.

Dimostrazione Dimostriamo che le tre mosse di Gauss lasciano invariato lo


spazio delle soluzioni di un sistema lineare omogeneo. L’operazione 1. consiste nello
scambiare l’ordine delle equazioni del sistema, e ovviamente tale operazione non
può modificare lo spazio delle soluzioni. L’operazione 2. consiste nel moltiplicare
un’equazione per un numero λ. Se x è una soluzione dell’i−esima equazione

ai1 x1 + . . . + ain xn = 0 (2.21)

allora continua a essere soluzione di

λ (ai1 x1 + . . . + ain xn ) = 0 (2.22)


| {z }
0

Per quanto riguarda l’operazione 3., se x é soluzione della (2.21) e di

aj1 x1 + . . . + ajn xn = 0 (2.23)

allora continua a essere soluzione anche di

ai1 x1 + . . . + ain xn +λ (aj1 x1 + . . . + ajn xn ) = 0 (2.24)


| {z } | {z }
0 0

Algoritmo di Gauss
L’Algoritmo di Gauss è una procedura che si basa sulle Mosse di Gauss, utile per
la risoluzione di sistemi lineari.
26 SISTEMI LINEARI

Consideriamo la matrice dei coefficienti di un generico sistema lineare di m equazioni


in n incognite:
 
a1,1 a1,2 · · · a1,n
 a2,1 a2,2 · · · a2,n 
A =  .. (2.25)
 
.. . . .. 
 . . . . 
am,1 am,2 · · · am,n

Se a1,1 6= 0, allora è possibile azzerare i coefficienti a2,1 , . . . , am,1 effettuando la


seguente operazione su ogni riga:

ai,1
Ai −→ Ai − A1 (2.26)
a1,1

Può capitare che a1,1 = 0. Se un coefficiente ai,1 6= 0, scambiando la prima riga della
matrice con la i-esima, si può procedere come descritto in precedenza. Se invece
tutti i coefficienti della prima colonna sono nulli, si passa alla seconda. Effettuando
queste operazioni si ottiene una matrice del tipo:
 0 
a1,1 a01,2 ··· a01,n
 0 a02,2 ··· a02,n 
A0 =  .. (2.27)
 
.. .. .. 
 . . . . 
0 a0m,2 · · · a0m,n

Supponiamo ora che a02,2 6= 0 (in caso contrario, si effettua nuovamente uno scambio
di riga per portare un coefficiente non nullo della seconda colonna in posizione 2, 2).
Per azzerare tutti i coefficienti al di sotto di a02,2 , si può effettuare nuovamente
l’operazione (2.26) su ogni riga. Procedendo in questo modo ad ogni colonna, si
ottiene una matrice a scala come la seguente:
 
0 0 p1 ? ? ? ? ··· ?
 .. ..
? ···

. . 0 0 p2 ? ?
. .. .. 
.
. . . 0 0 p3 ? ··· ?

. .. .. .. .. .. .. . . .
. . .. 
S = . . . . . . .  (2.28)
0
 0 0 0 0 0 0 · · · pj  
0
 0 0 0 0 0 0 ··· 0 
 .. .. .. .. .. .. .. . . .. 
. . . . . . . . .
0 0 0 0 0 0 0 ··· 0

in cui il simbolo ? indica un generico coefficiente, mentre i numeri p1 , . . . , pj sono


detti pivot. A questo punto, definiamo variabili libere i coefficienti del vettore x che
27

nel prodotto
 
0 0 p1 ? ? ? ? ··· ?
 .. ..
? ···

. . 0 0 p2 ? ?
. .. .. 
.
. . . 0 0 p3 ? ··· ? 
 
. x1
. .. .. .. .. .. .. . . . 
S · x = . . . . . . . . .. ·
.. 
.  (2.29)
0
 0 0 0 0 0 0 · · · pj   xn
0
 0 0 0 0 0 0 ··· 0 
 .. .. .. .. .. .. .. . . .. 
. . . . . . . . .
0 0 0 0 0 0 0 ··· 0

moltiplicano le colonne di S che non contengono un pivot. Assegnato un valore


arbitrario a ogni variabile libera, risolvendo il sistema S · x = O in corrispondenza
di tali valori, le altre variabili vengono determinate univocamente. Supponendo per
semplicità di notazione che le variabili libere siano x1 , . . . , xk , con k ≤ n, per trovare
una base dello spazio delle soluzioni è sufficiente assegnare il valore 1 alla variabile
libera xi , e 0 alle altre. Ripetendo tale procedimento per ogni variabile libera, si
ottiene un insieme di k vettori, che, come dimostreremo con il prossimo Teorema,
costituiscono una base dello spazio delle soluzioni del sistema.

Teorema 2.2.11. I vettori ottenuti con il metodo di Gauss costituiscono una base
dello spazio delle soluzioni.

Dimostrazione Sia A ∈ Mm,n (K) e x ∈ Kn . Consideriamo il sistema lineare


omogeneo
Ax = O (2.30)

e, per semplicità di notazione, effettuando una riduzione a scala di Gauss, suppo-


niamo di trovare che le variabili libere sono x1 , . . . , xk , con k ≤ n. Procedendo con
il metodo descritto in precedenza, una base dello spazio delle soluzioni è:
 

 
      


 1 0 0  

 
 0.   1. 


     0 
  . 
 ..   .. 
  . 
 . 

    

B =  0 ,  0 , · · · , 1  (2.31)
     
 ?   ?   ? 

     
 
 .   .   . 
 ..   ..   .. 

 

 


 



 ? ? ?  


| {z } | {z } | {z }

v1 v2 vk
28 SISTEMI LINEARI

Per dimostrare che tali vettori sono linearmente indipendenti, consideriamo una
loro combinazione lineare, uguagliata al vettore nullo:
   
α1 0
 α2   0 
 .   . 
 .   . 
 .   . 
α1 v 1 + . . . + αk v k =  αk  =  0  (2.32)
   
 ?   0 
   
 .   . 
 ..   .. 
? 0
Guardando alle prime k colonne, la (2.32) è verificata se e solo se α1 = . . . = αk = 0,
che dimostra l’indipendenza lineare dei vettori. Dimostriamo ora che i v 1 , . . . , v k
generano lo spazio delle soluzioni del sistema. Effettuando una combinazione lineare
di tali vettori si ottiene:
 
α1
 α2 
 . 
 . 
 . 
α1 v 1 + . . . + αk v k =  αk  (2.33)
 
 ? 
 
 . 
 .. 
?
perciò le variabili libere, al variare di α1 , . . . , αk , possono assumere qualsiasi valore,
in corrispondenza dei quali anche le variabili non libere vengono univocamente
determinate. Quindi, poichè le variabili libere possono assumere qualsiasi valore
mediante una combinazione lineare dei v 1 , . . . , v k , tali vettori generano lo spazio
delle soluzioni del sistema.
Osservazione 2.2.12. La dimensione dello spazio delle soluzioni di un sistema li-
neare omogeneo è pari al numero di variabili libere che si ottengono effettuando la
riduzione a scala della matrice dei coefficienti.
Proposizione 2.2.13. Sia A ∈ Mm,n (K) una matrice ridotta a scala. Allora le
colonne contenenti i pivot sono linearmente indipendenti e generano lo spazio delle
colonne.
Dimostrazione Consideriamo un sistema lineare omogeneo
A·x=O (2.34)
Indichiamo con A0 le colonne di A contenenti pivot e con A00 le altre, e dimostriamo
che le prime sono linearmente indipendenti. A tale scopo consideriamo una loro
combinazione lineare, ed eguagliamola al vettore nullo:
x1 A01 + . . . + xj A0j = O (2.35)
29

in cui j è il numero di pivot di A. L’equazione (2.35) equivale a:


x1 A01 + . . . + xj A0j + 0 · A00j+1 + . . . + 0 · A00n = O (2.36)
Poichè in un sistema lineare, assegnando il valore 0 a ogni variabile libera, si ottiene
la soluzione banale
x=O (2.37)
allora i coefficienti x1 , . . . , xj sono tutti nulli. Dunque, le colonne A01 , . . . , A0j sono li-
nearmente indipendenti. Dimostriamo ora che tali colonne generano le altre colonne
della matrice A. In particolare dobbiamo verificare che esistano alcuni coefficienti
x1 , . . . , xj tali che, al variare di un indice k fra j + 1 e n,
1 · A00k = x1 A01 + . . . + xj A0j (2.38)
Assegnando xk = 1 e 0 a tutte le altre variabili libere del sistema, per il Teorema
2.2.11, le variabili x1 , . . . , xj sono univocamente determinate k, in modo da verificare
la (2.38).
Teorema 2.2.14 (Altra caratterizzazione di rango). Sia A ∈ Mn,m (K) una matrice
ridotta a scala. Allora
1 2 3 4
rg (A) = dim (C) = #pivot = #righe 6= O = dim (R) (2.39)
dove C e R sono rispettivamente lo spazio delle colonne e delle righe di A.
Dimostrazione L’uguaglianza 1 è la definizione di rango, mentre la 2 coincide
con la Proposizione 2.2.13. L’uguaglianza 3 è vera per costruzione, in quanto, in
una matrice ridotta a scala, il numero di pivot coincide con il numero di righe non
nulle. La 4 è vera perchè le righe non nulle in una matrice ridotta a scala sono
vettori a scala, e quindi linearmente indipendenti.
Osservazione 2.2.15. La dimensione dello spazio delle soluzioni di un sistema omo-
geneo di m equazioni in n incognite è:
dim (SO ) = n − rg (A) (2.40)
dove A ∈ Mm,n (K) è la matrice dei coefficienti del sistema.
Proposizione 2.2.16. Le mosse di Gauss non variano il rango di una matrice.
Dimostrazione Sia A ∈ Mm,n (K). Come dimostrato con il Teorema 2.2.10,
effettuando alcune le mosse di Gauss sulla matrice A, lo spazio delle soluzioni del
sistema lineare omogeneo
A·x=O (2.41)
non subisce variazioni. Riscriviamo ora la (2.40) come
rg (A) = n − dim (SO ) (2.42)
Poichè le mosse di Gauss non fanno variare nè SO (e quindi neanche dim (SO )), nè
n, dalla (2.42) segue che anche rg (A) rimane costante.
30 SISTEMI LINEARI

2.2.2 Sistemi lineari non omogenei


Un sistema lineare non omogeneo ha la forma:

A·x=b (2.43)

dove A ∈ Mm,n è la matrice dei coefficienti, x ∈ Kn è il vettore incognito e b è


un vettore di Km non nullo. Come già affermato nell’Osservazione 2.2.3, il sistema
(2.43) è risolubile se e solo se b ∈ Span (A1 , A2 , . . . , An ) e, per il Teorema 2.2.4 di
Rouche-Capelli, se e soltanto se rg (A) = rg(Ã). Cerchiamo di capire ora come
determinare le soluzioni di un sistema lineare non omogeneo.

Teorema 2.2.17. Sia


A·x=b (2.44)
un sistema lineare non omogeneo. Allora le sue soluzioni sono:

x = αxo + x̃ α∈K (2.45)

dove xo è una soluzione del sistema omogeneo associato

A·x=O (2.46)

e x̃ è una soluzione particolare del sistema non omogeneo.

Dimostrazione Mostriamo che le x scritte nella (2.45) sono soluzioni del siste-
ma (2.44).
A · x = A · (αxo + x̃) = A · αxo + A · x̃ = O + b = b (2.47)
Capitolo 3

Applicazioni lineari

3.1 Immagine e kernel


Definizione 3.1.1 (Applicazione lineare). Siano V e W due spazi vettoriali definiti
su un campo K. f : V → W è un’applicazione lineare se sono verificate le seguenti
due proprietà:

• f (v 1 + v 2 ) = f (v 1 ) + f (v 2 ) ∀v 1 , v 2 ∈ V ;

• f (αv) = αf (v) ∀v ∈ V, ∀α ∈ K.

Osservazione 3.1.2.
∀f : V → W, f (O) = O (3.1)
in quanto
f (O) = f (0 · O) = 0 · f (O) = O (3.2)

Definizione 3.1.3 (Immagine). Siano V e W due spazi vettoriali definiti su un


campo K, e sia f : V → W un’applicazione lineare. Si definisce immagine di f
l’insieme:
Im (f ) = {w ∈ W : ∃v : f (v) = w} (3.3)

Proposizione 3.1.4. Siano V e W due spazi vettoriali definiti su un campo K,


e sia f : V → W un’applicazione lineare. Allora l’immagine di f è uno spazio
vettoriale.

Dimostrazione Siano w1 , w2 ∈ Im (f ), cioè

∃v 1 , v 2 ∈ V : f (v 1 ) = w1 , f (v 2 ) = w2 (3.4)

. Dimostriamo che anche w1 + w2 ∈ Im (f ).

f (v 1 + v 2 ) = f (v 1 ) + f (v 2 ) = w1 + w2 (3.5)

31
32 IMMAGINE E KERNEL

Quindi w1 + w2 ∈ Im(f ) in quanto f (v 1 + v 2 ) = w1 + w2 .


Sia ora w ∈ Im(f ), cioè
∃v ∈ V : f (v) = w (3.6)
e α ∈ K. Dimostriamo che anche αw ∈ Im (f ).

f (αv) = αf (v) = αw (3.7)

Quindi αw ∈ Im (f ) in quanto f (αv) = αw.


Definizione 3.1.5 (Kernel). Siano V e W due spazi vettoriali definiti su un campo
K, e sia f : V → W un’applicazione lineare. Si definisce kernel o nucleo di f
l’insieme:
ker (f ) = {v ∈ V : f (v) = O} (3.8)
Proposizione 3.1.6. Siano V e W due spazi vettoriali definiti su un campo K, e
sia f : V → W un’applicazione lineare. Allora il kernel di f è uno spazio vettoriale.
Dimostrazione Siano v 1 , v 2 ∈ ker(f ), cioè

f (v 1 ) = f (v 2 ) = O (3.9)

Dimostriamo che v 1 + v 2 ∈ ker (f ).

f (v 1 + v 2 ) = f (v 1 ) + f (v 2 ) = O + O = O (3.10)

Quindi v 1 + v 2 ∈ ker (f ) in quanto f (v 1 + v 2 ) = O.


Siano ora v ∈ ker (f ) e α ∈ K, cioè

f (v) = O (3.11)

Dimostriamo che f (αv) ∈ ker(f ).

f (αv) = αf (v) = α · O = O (3.12)

Quindi αv ∈ ker (f ) in quanto f (αv) = O.


Teorema 3.1.7 (Formula delle dimensioni). Siano V e W due spazi vettoriali
definiti su un campo K, e sia f : V → W un’applicazione lineare. Allora:

dim (V ) = dim (Im(f )) + dim (ker(f )) (3.13)

Dimostrazione Consideriamo una base del kernel di f :

B = {v 1 , . . . , v k } (3.14)

ed estendiamola, mediante l’algoritmo 1.2.20, a base di V :



BV = v 1 , . . . v k , v k+1 , . . . , v n (3.15)
33


Siano f v k+1 = wk+1 , . . . , f (v n ) = wn . Dimostriamo che essi formano una base di
Im (f ). Verifichiamo innanzitutto che tali vettori costituiscano un insieme genera-
tore di Im (f ). A tale scopo consideriamo un generico vettore v ∈ V e calcoliamo
f (v):

f (v) = f α1 v 1 + . . . + αk v k + αk+1 v k+1 + . . . + αn v n (3.16)
Dalla linerità di f segue che

f (v) = α1 f (v 1 ) + . . . + αk f (v k ) + αk+1 f v k+1 + . . . + αn f (v n ) (3.17)

e, poichè v 1 , . . . , v k ∈ ker (f ), la precedente espressione può essere riscritta nel


seguente modo:

f (v) = αk+1 f v k+1 + . . . + αn f (v n ) = αk+1 wk+1 + . . . + αn wn (3.18)

Quindi ogni vettore w ∈ Im (f ) può essere scritto come combinazione lineare di


wk+1 , . . . , wn .
Dimostriamo ora che tali vettori siano linearmente indipendenti.

αk+1 wk+1 + . . . + αn wn = αk+1 f v k+1 + . . . + αn f (v n ) = O (3.19)

che, per la linearità di f , equivale a:



f αk+1 v k+1 + . . . + αn v n = O (3.20)

Affinchè la (3.20) sia vera si hanno due opzioni:



1. αk+1 v k+1 + . . . + αn v n ∈ ker(f )

2. αk+1 v k+1 + . . . + αn v n = O

Il caso 1. è falso, in quanto v k+1 , . . . , v n sono vettori che estendono una base di
ker (f ) a base di V , quindi non possono appartenere al kernel di f . Dunque rimane
soltanto il caso 2., che è vero se e solo se

αk+1 = · · · = αn = 0 (3.21)

in quanto i v k+1 , . . . , v n sono linearmente indipendenti per ipotesi. Perciò, tenendo


conto di tale risultato, dalla (3.19) segue che

αk+1 wk+1 + . . . + αn wn = O ⇐⇒ αk+1 = · · · = αn = 0 (3.22)

Ciò dimostra l’indipendenza lineare dei wk+1 , . . . , wn , che quindi formano una base
di Im (f ). Da ciò segue subito la tesi del teorema.
34 IMMAGINE E KERNEL

Osservazione 3.1.8. La formula vista per i sistemi lineari (2.40) è un altro modo
di scrivere formula delle dimensioni. Consideriamo infatti l’applicazione lineare
f : Kn → Km : f (x) = Ax, dove A ∈ Mm,n (K). Ricercare le soluzioni del sistema

Ax = O (3.23)

equivale a determinare i vettori x ∈ ker (f ). Perciò la dimensione dello spazio delle


soluzioni del sistema (3.23) è

dim (S) = dim (ker (f )) (3.24)

Inoltre, l’immagine di f è costituita da vettori ottenuti mediante una combinazione


lineare delle colonne di A, la cui dimensione equivale quindi a quella dello spazio
delle colonne di A, cioè al rg (A):

rg (A) = dim (Im (f )) (3.25)

Infine la dimensione di Kn e il numero di colonne di A coincidono, cioè

dim (Kn ) = n (3.26)

Quindi effettivamente la (2.40) e la (3.13) sono equivalenti.

Teorema 3.1.9. Siano V e W due spazi vettoriali definiti su un campo K, e sia


f : V → W un’applicazione lineare. Sia inoltre

B = {v 1 , . . . , v n } (3.27)

una base di di V . Allora:

1. L’immagine di f è determinata dalla conoscenza delle immagini dei vettori


della base B;

2. assegnata una lista ordinata di n vettori w1 , . . . , wn ∈ W (anche con possibili


ripetizioni), esiste un’unica applicazione lineare f : V → W tale che, ∀i ∈
[1, n]
f (v i ) = wi (3.28)

Dimostrazione Dimostriamo il punto 1.


Ogni vettore v ∈ V si può scrivere come combinazione lineare degli elementi della
base B:
v = α1 v 1 + . . . + αn v n (3.29)
Calcoliamo f (v) :

f (v) = f (α1 v 1 + . . . + αn v n ) = α1 f (v 1 ) + . . . + αn f (v n ) (3.30)


35

Supponendo di conoscere f (v i ) = wi , ∀i ∈ [1; n], tale espressione equivale a

f (v) = α1 w1 + . . . αn wn (3.31)

Quindi, dalla sola immagine dei vettori di una base B di V , è possibile risalire
all’immagine di ogni altro vettore.
Dimostriamo ora il punto 2.. A tale scopo costruiamo un operatore f che rispetti la
condizione scritta nella (3.28). Un generico vettore v ∈ V , può essere scritto come:

v = α1 v 1 + . . . + αn v n (3.32)

e f può esser definita in modo tale che l’immagine di v sia

f (v) = α1 w1 + . . . + αn wn (3.33)

Chiaramente questa definizione di f rispetta la condizione (3.28). Dimostriamo che


f è lineare. A tale scopo consideriamo due vettori v, v 0 ∈ V tali che

v = α1 v 1 + . . . + αn v n (3.34)

e
v 0 = α10 v 1 + . . . + αn0 v n (3.35)

e verifichiamo che f (v + v 0 ) = f (v) + f (v 0 ):

v + v 0 = (α1 + α10 ) v 1 + . . . + (αn + αn0 ) v n (3.36)

Applicando la definizione di f scritta nella (3.33) segue che

f (v + v 0 ) = (α1 + α10 ) w1 + . . . + (αn + αn0 ) wn = (3.37)

= α1 w1 + . . . + αn wn + α10 w1 + . . . + αn0 wn = f (v) + f (v 0 ) (3.38)

Consideriamo ora α ∈ K e v ∈ V , come definito nella (3.34):

αv = αα1 v 1 + . . . + ααn v n (3.39)

e calcoliamo f (αv) seguendo la definizione di f scritta nella (3.33):

f (αv) = αα1 w1 + . . . + ααn wn = α (α1 w1 + . . . + αn wn ) = αf (v) (3.40)


36 APPLICAZIONI LINEARI SURGETTIVE, INIETTIVE E ISOMORFISMI

3.2 Applicazioni lineari surgettive, iniettive e iso-


morfismi
Definizione 3.2.1 (Applicazione surgettiva). Siano V e W due spazi vettoriali
definiti su un campo K, e sia f : V → W un’applicazione lineare. f è surgettiva se
∀w ∈ W ∃v ∈ V :
f (v) = w (3.41)
Osservazione 3.2.2. Tale definizione equivale a dire che:

Im (f ) = W (3.42)

Definizione 3.2.3 (Applicazione iniettiva). Siano V e W due spazi vettoriali de-


finiti su un campo K, e sia f : V → W un’applicazione lineare. f è iniettiva se
∀v 1 , v 2 ∈ V, v 1 6= v 2 :
f (v 1 ) 6= f (v 2 ) (3.43)
Teorema 3.2.4. Siano V e W due spazi vettoriali definiti su un campo K, e sia
f : V → W un’applicazione lineare. f è iniettiva se e solo se ker (f ) = {O}
Dimostrazione (⇒) Se per assurdo esistesse un vettore v ∈ V tale che f (v) =
O, l’applicazione non sarebbe iniettiva, in quanto

f (v) = f (O) = O (3.44)

Ciò contraddice l’ipotesi che f sia iniettiva.


(⇐) Supponiamo, ancora per assurdo, che esistano due vettori v 1 , v 2 ∈ V , con
v 1 6= v 2 tali che f (v 1 ) = f (v 2 ) = w. Allora:

O = w − w = f (v 1 ) − f (v 2 ) = f (v 1 − v 2 ) (3.45)

cioè il vettore v 1 − v 2 ∈ ker(f ). Ciò è assurdo perchè esiste un vettore non nullo
che appartiene al kernel di f , contraddicendo l’ipotesi che ker (f ) = {O}.
Definizione 3.2.5 (Isomorfismo). Siano V e W due spazi vettoriali definiti su un
campo K, e sia f : V → W un’applicazione lineare. f è un isomorfismo se f è
iniettiva e surgettiva cioè ∀w ∈ W ∃!v ∈ V :

f (v) = w (3.46)

Definizione 3.2.6 (Spazi isomorfi). Siano V e W due spazi vettoriali definiti su


un campo K, e sia f : V → W un’applicazione lineare biunivoca. Allora V e W si
dicono isomorfi.
Osservazione 3.2.7. Siano V e W due spazi vettoriali definiti su un campo K, e sia
f : V → W un’applicazione lineare. Allora:
37

• f surgettiva =⇒ dim (V ) ≥ dim (W );


• f iniettiva =⇒ dim (V ) ≤ dim (W );
• f biunivoca =⇒ dim (V ) = dim (W ).

3.3 Applicazioni lineari e matrici


Teorema 3.3.1. Siano V e W spazi vettoriali definiti su un campo K, rispettiva-
mente di dimensione n e m, e sia f : V → W un’applicazione lineare. Siano inoltre
BV e BW basi di V e W . Allora esiste una matrice A ∈ Mm,n (K) tale che:
[f (v)]BW = A [v]BV (3.47)
Dimostrazione Sia
BV = {v 1 , . . . , v n } (3.48)
Consideriamo un generico vettore v ∈ V tale che
v = α1 v 1 + . . . + αn v n (3.49)
e calcoliamo [f (v)]BW :
[f (v)]BW = [f (α1 v 1 + . . . + αn v n )]BW (3.50)
Dalla linearità di f e dell’operatore che effettua il passaggio alle coordinate di un
vettore segue che:
[f (v)]BW = α1 [f (v 1 )]BW + . . . + αn [f (v n )]BW (3.51)
dove α1 , . . . , αn sono le coordinate di v rispetto alla base BV . Consideriamo ora la
matrice A ∈ Mm,n (K)
 
A = [f (v 1 )]BW | · · · | [f (v n )]BW (3.52)
dunque, ricordando anche quanto affermato nell’Osservazione 2.1.6, la (3.51) può
essere scritta come:
[f (v)]BW = A · [v]BV (3.53)
Osservazione 3.3.2. Siano V e W due spazi vettoriali definiti su un campo K, e
siano dim(V ) = n e dim(W ) = m. Allora a ogni applicazione lineare f : V → W è
possibile associare un’altra applicazione lineare f˜ : Kn → Km tale che:
f˜(v) = [f (v)]BW = A [v]BV (3.54)
dove A è una matrice definita come nella (3.52).
38 APPLICAZIONI LINEARI E MATRICI

f f
V W v f (v)

ϕB ψB 0 ϕB ψB 0
f˜ f˜
Kn Km [v]B [f (v)]B 0

Figura 3.1: Schema che descrive gli operatori f e f˜, in riferimento all’osservazione
3.3.2. In questa figura V è uno spazio vettoriale di dimensione n con base B e W
è uno spazio vettoriale di dimensione m con base B 0 .

Osservazione 3.3.3. In riferimento alla notazione utilizzata nell’Osservazione 3.3.2,


si ha che
ker(f˜) = {x : A · x = O} (3.55)
e poichè
x = [v]BV (3.56)
allora
x ∈ ker(f˜) ⇐⇒ v ∈ ker(f ) (3.57)
Dunque ker(f ) e ker(f˜) sono isomorfi, e quindi hanno la stessa dimensione. Analo-
gamente
x ∈ Im(f˜) ⇐⇒ v ∈ Im(f ) (3.58)
Dunque Im(f ) e Im(f˜) sono isomorfi, e quindi hanno la stessa dimensione. Osser-
vando la definizione di f˜ scritta nella (3.54) si può notare che i vettori che appar-
tengono alla sua immagine sono ottenuti attraverso una combinazione lineare delle
colonne della matrice A. Da ciò discende l’importante relazione
 
˜
dim Im(f ) = dim (Im (f )) = rg (A) (3.59)

Teorema 3.3.4 (Spazio vettoriale delle applicazioni lineari). Siano V e W due


spazi vettoriali definiti su un campo K. Si definisce

L (V, W ) = {f : V → W lineari} (3.60)

Osservazione 3.3.5. In altre parole, L (V, W ) è l’insieme delle applicazioni lineari


f : V → W.
Teorema 3.3.6. Siano V e W due spazi vettoriali definiti su un campo K. L’in-
sieme
L (V, W ) (3.61)
39

è uno spazio vettoriale rispetto alle operazioni di somma e prodotto esterno cosı̀
definite:
(f + g) (v) = f (v) + g (v) (3.62)
(αf ) (v) = αf (v) (3.63)
dove f, g ∈ L (V, W ) e α ∈ K.

Dimostrazione La dimostrazione avviene verificando che le operazioni di som-


ma e prodotto esterno definite nella (3.62) e (3.63) verificano le proprietà elencate
nella Definizione 1.1.6 di spazio vettoriale.

Proposizione 3.3.7. Siano V e W due spazi vettoriali definiti si un campo K con


basi BV e BW rispettivamente. Siano inoltre f, g ∈ L (V, W ). Allora

MBBWV (f + g) = MBBWV (f ) + MBBWV (g) (3.64)

e
MBBWV (αf ) = αMBBWV (f ) (3.65)

Dimostrazione Consideriamo

BV = {v 1 , . . . , v n } (3.66)

e calcoliamo MBBWV (f + g) secondo quanto descritto nella (3.52):

MBBWV (f + g) = [(f + g) (v 1 )]BW | . . . | [(f + g) (v n )]BW


 
(3.67)

Dalla definizione dell’operazione + fra applicazioni lineari, segue che

MBBWV (f + g) = [f (v 1 )]BW + [g(v 1 )]BW | . . . | [f (v n )]BW + [g(v n )]BW


 
(3.68)

Tale matrice equivale a MBBWV (f ) + MBBWV (g), e ciò dimostra la prima parte del
Teorema. La dimostrazione della seconda parte è molto simile alla prima:

MBBWV (αf ) = [(αf ) (v 1 )]BW | . . . | [(αf ) (v n )]BW


 
(3.69)

Dalla definizione dell’operazione · segue che

MBBWV (αf ) = α [f (v 1 )]BW | . . . |α [f (v n )]BW = αMBBWV (f )


 
(3.70)

Teorema 3.3.8. Siano V e W due spazi vettoriali definiti su un campo K, rispet-


tivamente di dimensione n e m. Siano inoltre BV e BW basi di V e W . Allora gli
spazi vettoriali L (V, W ) e Mm,n (K) sono isomorfi, cioè:

L (V, W ) ∼
= Mm,n (K) (3.71)
40 APPLICAZIONI LINEARI E MATRICI

Dimostrazione Consideriamo l’applicazione lineare ϕ : L (V, W ) → Mm,n (K)


che associa a ogni elemento f ∈ L (V, W ) una matrice come quella definita nella
(3.52):
ϕ
f −→ MBBWV (f ) (3.72)
Dimostriamo che tale applicazione è un isomorfismo.
Per dimostrare l’iniettività di ϕ, consideriamo un’applicazione f ∈ ker (ϕ), cioè tale
che
MBBWV (f ) = A = O (3.73)
Calcoliamo l’immagine di un generico vettore v ∈ V :
[f (v)]BW = A [v]BV = O [v]BV = O (3.74)
Dunque, se f ∈ ker (ϕ), allora f può essere soltanto l’applicazione nulla, in quanto
∀v ∈ V, f (v) = O. Quindi, per la Proposizione 3.2.4, ϕ è iniettiva.
Siano
BV = {v 1 , . . . , v n } (3.75)
una base di V e BW una base di W . Dimostriamo che ϕ è surgettiva. A tale scopo
consideriamo una matrice A ∈ Mm,n (K). A ogni colonna di A corrisponde un
vettore w ∈ W tale che
[wi ]BW = Ai (3.76)
Perciò a ogni matrice A ∈ Mm,n (K) corrisponde una lista di n vettori di W le cui
coordinate rispetto a BW sono proprio le colonne di tale matrice. Quindi, per il
secondo punto del Teorema 3.1.9, esiste un’applicazione f ∈ L (V, W ) tale che, per
ogni vettore v i ∈ BV ,
f (v i ) = wi (3.77)
e perciò
[f (v i )]BW = [wi ]BW = Ai (3.78)
Quindi per ogni matrice A ∈ Mm,n (K) esiste un’applicazione lineare f ∈ L (V, W )
tale che
A = MBBWV (f ) (3.79)
Ciò dimostra la suriettività di ϕ e quindi il Teorema.
Corollario 3.3.9. Siano V e W due spazi vettoriali definiti su un campo K,
rispettivamente di dimensione n e m. Allora
dim (L (V, W )) = m · n (3.80)
Definizione 3.3.10 (Composizione di applicazioni lineari). Siano V , W e Z spazi
vettoriali definiti su un campo K. Siano inoltre f : V → W e g : W → Z due
applicazioni lineari. Allora l’operatore h : V → Z tale che
h=g◦f (3.81)
è una composizione di g e f .
41

f g
V W Z

h
Figura 3.2: Schema che illustra la composizione di due applicazioni lineari, in
riferimento alla Definizione 3.3.10

Teorema 3.3.11. Siano V , W e Z spazi vettoriali definiti su un campo K. Siano


inoltre f : V → W e g : W → Z due applicazioni lineari. Allora l’operatore
h:V →Z
h=g◦f (3.82)
è lineare.

Dimostrazione Siano v 1 , v 2 ∈ V :

h (v 1 + v 2 ) = g (f (v 1 + v 2 )) = g (f (v 1 ) + f (v 2 )) = g (f (v 1 )) + g (f (v 2 )) = (3.83)

= h (v 1 ) + h (v 2 ) (3.84)
Siano ora v ∈ V e α ∈ K:

h (αv) = g (f (αv)) = g (αf (v)) = αg (f (v)) = αh(v) (3.85)

Teorema 3.3.12. Siano V , W e Z spazi vettoriali definiti su un campo K, rispet-


tivamente di dimensione n, m e k. Siano inoltre f : V → W e g : W → Z due
applicazioni lineari che hanno associate, rispetto a basi BV , BW , BZ , le matrici A e
B rispettivamente. Allora l’applicazione lineare

h=g◦f (3.86)

ha come matrice associata

MBBZV (h) = C = B · A (3.87)

Dimostrazione Costruiamo la matrice C secondo la definizione riportata nella


(3.52). Sia
BV = {v 1 , . . . , v n } (3.88)
allora la i-esima colonna C è costituita dal vettore

C i = [h (v i )]BZ (3.89)
42 APPLICAZIONI LINEARI E MATRICI

cioè
 ∗
[h (v i )]BZ = B · [f (v i )]BW = B · A [v i ]BV = B · Ai = (A · B)i

(3.90)

La veridicità dell’uguaglianza contrassegnata con ∗ deriva dal fatto che le coordinate


di un vettore v i ∈ BV , rispetto alla base BV stessa, sono tutte nulle eccetto la
i-esima, che è pari a uno.
Definizione 3.3.13 (Applicazione inversa). Siano V e W due spazi vettoriali de-
finiti su un campo K di eguale dimensione, e siano f : V → W e g : W → V due
applicazioni lineari. Allora g è l’applicazione inversa di f se e solo se

f ◦g =g◦f =I (3.91)

e in tal caso si scriverà g = f −1 .


Osservazione 3.3.14. Se g = f −1 allora è vero che f = g −1 .
Proposizione 3.3.15. Sia V uno spazio vettoriale definito su un campo K. f è
invertibile se e solo se è un isomorfismo.
Dimostrazione (⇒) Dimostriamo innanzitutto che f è iniettivà. A tale scopo
consideriamo due vettori v 1 , v 2 ∈ V tali che f (v 1 ) = f (v 2 ). Allora

v 1 = f −1 (f (v 1 )) = f −1 (f (v 2 )) = v 2 (3.92)

dunque f è iniettivà. Per dimostrare la surgettività consideriamo un vettore w ∈ W .


Allora
w = f f −1 (w)

(3.93)
Dunque ogni vettore w ∈ W ha una controimmagine. (⇐) Se f è un isomorfismo,
allora possiamo definire un’inversa f −1 . Tale applicazione è ben definita, in quanto,
per l’iniettività di f , l’immagine di ogni vettore w ∈ W è unica, e, per la surgettività
di f , ogni vettore di w ha almeno un’immagine in V .
Proposizione 3.3.16. Sia V uno spazio vettoriale definito su un campo K e siano
f : V → V e g : V → V due applicazioni lineari. Allora

f ◦f −1 = f −1 ◦f = I ⇐⇒ MBBVV (f )·MBBVV f −1 = MBBVV f −1 ·MBBVV (f ) = I (3.94)


 

per ogni base BV di V .


Dimostrazione Un’applicazione lineare f è invertibile se e solo se

f ◦ f −1 = I (3.95)

e, passando alla matrice associata a f , se e solo se

M (f ) · M f −1 = M (I) = I ⇐⇒ M f −1 = [M (f )]−1
 
(3.96)
43

Osservazione 3.3.17. Sia V uno spazio vettoriale definito su un campo K, e sia


f : V → V un’applicazione lineare. Se f è invertibile, allora, come affermato nella
Proposizione 3.3.16, per ogni base BV di V , si ha che

MBBVV (f ) · MBBVV f −1 = I

(3.97)

Dunque, fissata una base BV , la matrice associata a f −1 corrisponde all’inversa


della matrice associata a f :
−1
MBBVV f −1 = MBBVV (f )
 
(3.98)

Proposizione 3.3.18. Una matrice quadrata è invertibile se e solo se ha rango


massimo.

Dimostrazione Siano M ∈ Mn (K) e f : Kn → Kn un’applicazione lineare tale


che
f (x) = M x (3.99)
dove M è la matrice associata a f rispetto alla base canonica. Per quanto descritto
dalla Proposizione 3.3.16

f invertibile ⇐⇒ M invertibile (3.100)

e quindi, proseguendo con la catena di equivalenze:

f invertibile ⇔ f isomorfismo ⇔ dim (Kn ) = n = dim (Im (f )) = rg (M ) (3.101)

perciò M è invertibile se e solo se ha rango massimo.


44 APPLICAZIONI LINEARI E MATRICI
Capitolo 4

Alcune relazioni di equivalenza fra


matrici

4.1 SD-Equivalenza
Definizione 4.1.1 (SD equivalenza). Siano A, B ∈ Mm,n (K). A e B sono SD-
equivalenti se esistono due matrici invertibili P ∈ GLn (K) e Q ∈ GLm (K) tali
che:
B =Q·A·P (4.1)
Teorema 4.1.2. La SD equivalenza è una relazione di equivalenza.
Dimostrazione Per dimostrare il Teorema verifichiamo se la SD equivalenza è
una relazione riflessiva, simmetrica e transitiva.
Siano A, B ∈ Mm,n (K). Innanzitutto osserviamo che ogni matrice è SD-equivalente
a se stessa:
A = Im · A · In (4.2)
dove Im e In sono matrici identità di ordine m e n rispettivamente. Quindi la
proprietà riflessiva è verificata. Inoltre, se A è SD-equivalente a B, allora esistono
due matrici invertibili P e Q tali che

A=P ·B·Q (4.3)

Invertendo tale espressione segue che

B = P −1 · A · Q−1 (4.4)

Dunque B è SD-equivalente ad A, e ciò dimostra che la SD-equivalenza è una


relazione simmetrica. Infine dimostriamo che se A è SD-equivalente a B, e B è
SD-equivalente a C, allora A è SD-equivalente a C.

A=P ·B·Q (4.5)

45
46 SD-EQUIVALENZA

BV
f BW
V W

IV IW

BV0
f 0
BW
V W

Figura 4.1: Schema che illustra la formula di cambiamento di base, con la notazione
relativa all’Osservazione 4.1.3
.

B =S·C ·T (4.6)
dove P, Q, S, T sono matrici invertibili. Dunque, sostituendo la (4.6) nella (4.5)
segue che:
A = (P S) · C · (T Q) (4.7)
dove P S e T Q continuano a essere matrici invertibili (in quanto la composizione
di applicazioni lineari invertibili continua a essere invertibile). Perciò A è SD-
equivalente a C.
Osservazione 4.1.3. Data un’applicazione lineare f : V → W , tutte le matrici di
f , relative a basi diverse di V e W , sono legate fra loro da una relazione di SD-
B0
equivalenza. Se A = MBBWV (f ) e B = MB 0V (f ), con BV , BV0 basi di V e BW , BW0
W
basi di W , allora esistono due matrici P e Q invertibili tali che

B =P ·A·Q (4.8)

Le matrici P e Q sono relative all’applicazione identità I di W e V , cioè

P = MBB0W (IW ) (4.9)


W

B0
Q = MBVV (IV ) (4.10)
In tali termini, la (4.8) può essere scritta nella forma
B0 B0
MB 0V (f ) = MBB0W (IW ) · MBBWV (f ) · MBVV (IV ) (4.11)
W W

Lemma. Siano V , W e Z spazi vettoriali definiti su un campo K, e siano f : V →


W , g : W → Z due applicazioni lineari. Allora:
47

1. g iniettiva ⇒ rg (g ◦ f ) = rg (f );

2. f surgettiva ⇒ rg (g ◦ f ) = rg (g).

Dimostrazione Dimostriamo il punto 1.. A tale scopo scriviamo la formula


delle dimensioni per g|Im(f ) :
       
dim W |Im(f ) = dim Im g|Im(f ) + dim ker g|Im(f ) (4.12)

Poichè  
dim W |Im(f ) = dim (Im (f )) = rg (f ) (4.13)
  
dim Im g|Im(f ) = dim (g ◦ f ) = rg (g ◦ f ) (4.14)
  
dim ker g|Im(f ) = dim (Im (f ) ∩ ker (g)) = 0 (4.15)

In particolare, poichè g è iniettiva, cioè ker (g) = {O}, allora dim (Im (f ) ∩ ker (g)) =
0. La (4.12) può essere quindi scritta come

rg (f ) = rg (g ◦ f ) (4.16)

Dimostriamo ora il punto 2.. A tale scopo scriviamo di nuovo la formula delle
dimensioni per g|Im(f ) , dove in questo caso però
 
dim W |Im(f ) = dim (W ) (4.17)

in quanto f è surgettiva,
  
dim Im g|Im(f ) = dim(g ◦ f ) = rg(g ◦ f ) (4.18)
  
dim ker g|Im(f ) = dim (Im (f ) ∩ ker (g)) = dim (ker(g)) (4.19)

e quindi la (3.54) può essere scritta come

rg (g ◦ f ) = dim (W ) − dim (ker (g)) = dim (Im (g)) = rg (g) (4.20)

Corollario 4.1.4. Siano A, B ∈ Mm,n (K)e P ∈ GLm (K) e Q ∈ GLn (K), tali che

B =P ·A·Q (4.21)
Allora
rg (B) = rg (A) (4.22)
48 SD-EQUIVALENZA

Dimostrazione Le matrici P e Q, come descritto nell’Osservazione 4.1.3, sono


associate all’operatore identità, che è invertibile. In tali termini, il prodotto fra
matrici equivale a una composizione fra le applicazioni lineari ad esse associate.
Perciò, per il Lemma precedente, moltiplicare a sinistra e a destra la matrice A per
matrici invertibili lascia inalterato il suo rango.
Proposizione 4.1.5. Siano V e W due spazi vettoriali definiti su un campo K, e
sia f : V → W un’applicazione lineare tale che rg (f ) = r. Allora esistono due basi
BV e BW di V e W tali che:
 
BV Ir×r 0
MBW (f ) = (4.23)
0 0

Dimostrazione Consideriamo una base di ker (f ):



Bk = v r+1 , . . . , v n (4.24)

che estendiamo a base di V :



BV = v 1 , . . . , v r , v r+1 , . . . , v n (4.25)

Dimostriamo che i vettori wi tali che

f (v i ) = wi (4.26)

con i ∈ {1, 2, . . . , r} sono linearmente indipendenti:

α1 w1 + . . . + αr wr = O (4.27)

α1 f (v 1 ) + . . . + αr f (v r ) = f (α1 v 1 + . . . + αr v r ) = O (4.28)
Affinchè la (4.28) sia vera, si hanno due possibilità:
1. (α1 v 1 + . . . + αr v r ) ∈ ker (f )

2. α1 v 1 + . . . + αr v r = O
Il caso 1. è falso, in quanto v 1 , . . . , v r sono vettori che estendono una base di ker (f )
a base di V , quindi non possono appartenere al kernel di f . Dunque rimane soltanto
il caso 2., che è vero se e solo se

α1 = · · · = αr = 0 (4.29)

in quanto i v 1 , . . . , v r sono linearmente indipendenti per ipotesi. Perciò, dalle (4.27)


e (4.29) egue che

α1 w1 + . . . + αr wr = O ⇐⇒ α1 = · · · = αr = 0 (4.30)
49

e ciò dimostra l’indipendenza lineare di w1 , . . . , wr . Estendiamo adesso tale insieme


di vettori a base di W :

BW = w1 , . . . , wr , wr+1 , . . . , wm (4.31)

La matrice associata a f , calcolata rispetto alle basi BV e BW , assume la forma


della (4.23).
Osservazione 4.1.6. In altre parole, la Proposiziore 4.1.5 afferma che ogni matrice
A con rg (A) = r è SD-equivalente a una matrice come quella descritta nella (4.23).

Teorema 4.1.7 (Caratterizzazioni classi di equivalenza). Siano A, B ∈ Mm,n (K).


A e B sono SD-equivalenti se e solo se rg (A) = rg (B)

Dimostrazione (⇒) Questa implicazione è già stata dimostrata con il Corol-


lario 4.1.4.
(⇐) Se rg (A) = rg (B), per quanto scritto nell’Osservazione 4.1.6, A e B sono
entrambe SD-equivalenti a  
Ir×r 0
D= (4.32)
0 0
Dalla proprietà simmetrica delle relazioni di equivalenza segue che la matrice D è
SD equivalente a B. Dunque, poichè A è SD equivalente a D, e D è SD equivalente
a B, allora, per la proprietà transitiva, A è SD equivalente a B (e viceversa).

4.2 Similitudine
Definizione 4.2.1 (Similitudine). Siano A, B ∈ Mn (K). A e B sono simili se e
solo se esiste una matrice invertibile P ∈ GLn (K) tale che:

B = P −1 · A · P (4.33)

Teorema 4.2.2. La similitudine è una relazione di equivalenza.

Dimostrazione Per dimostrare il Teorema, verifichiamo che la similitudine è


una relazione riflessiva, simmetrica e transitiva.
Innanzitutto osserviamo che ogni matrice A ∈ Mn (K) è simile a se stessa:

A=I ·A·I (4.34)

Quindi la similitudine è una relazione riflessiva. Consideriamo ora un’altra matrice


B ∈ Mn (K). Se A è simile a B, allora anche B è simile ad A:

B = P −1 · A · P (4.35)
50 SIMILITUDINE

e poichè P è una matrice invertibile:

A = P · B · P −1 (4.36)

Quindi la similitudine è anche una relazione simmetrica. Infine dimostriamo che se


A è simile a B e B è simile a C, allora A è simile a C:

A = P −1 · B · P (4.37)

B = Q−1 · C · Q (4.38)
Sostituendo la (4.38) nella (4.37) si ottiene:

A = P −1 · Q−1 · C · Q · P = (Q · P )−1 · C · QP (4.39)

dove QP continua a essere una matrice invertibile. In conclusione, la similitudine


è anche una relazione transitiva.
Osservazione 4.2.3. Dato un endomorfismo f : V → V , tutte le matrici associate a f
rispetto alla stessa base in partenza e in arrivo sono simili fra loro. Se A = MBV (f )
e B = MBV0 (f ) con BV , BV0 basi di V , allora ∃P ∈ GLn :

A = P −1 · B · P (4.40)

dove P è la matrice relativa all’operatore identità di V :


B0
P = MBVV (I) (4.41)

dove I è l’operatore identità. Si può quindi scrivere:


B0
MBV0 (f ) = MBB0V (I) · MBV (f ) · MBVV (I) (4.42)
V

Ricerchiamo adesso alcune quantità invarianti per similitudine, in modo da


poterne caratterizzare e distinguere le classi di equivalenza.

Teorema 4.2.4. Siano A, B ∈ Mn (K) due matrici simili. Allora

rg (A) = rg (B) (4.43)

Dimostrazione Questo Teorema è dimostrato dal Corollario 4.1.4: moltiplicare


a sinistra e a destra una matrice per matrici invertibili, lascia inalterato il rango.
Osservazione 4.2.5. La matrice identità è simile solo a se stessa. Infatti:

A = P −1 · I · P = P −1 · P = I (4.44)
51

Osservazione 4.2.6. Se due matrici hanno lo stesso rango, non è detto che siano
simili. Per esempio, consideriamo le matrici:
   
1 1 1 0
A= I= (4.45)
0 1 0 1

Per quanto descritto nell’Osservazione 4.2.5, poichè la matrice identità è simile solo
a se stessa, le matrici A e I non sono simili. Tuttavia:

rg(A) = rg(B) = 2 (4.46)

Teorema 4.2.7. Siano A, B ∈ Mn (K). Allora

tr (A · B) = tr (B · A) (4.47)

Dimostrazione
n
X n X
X n X n
n X n
X
i
tr (A · B) = Ai B = ai,l bl,i = bl,i ai,l = Bl Al = tr (B · A)
i=1 i=1 l=1 l=1 i=1 l=1
(4.48)
Osservazione 4.2.8. Invertire l’ordine delle sommatorie, come effettuato nella dimo-
strazione del Teorema 4.2.7, equivale ad applicare la proprietà commutativa della
somma.

Teorema 4.2.9. Siano A, B ∈ Mn (K). Se A e B sono simili, allora

tr (A) = tr (B) (4.49)

Dimostrazione Se A e B sono matrici simili, allora esiste una matrice P ∈


GLn (K) tale che:
A = P −1 · B · P (4.50)
Quindi
tr (A) = tr P −1 · B · P

(4.51)
Dal Teorema 4.2.7 segue che

tr (A) = tr P −1 · (B · P ) = tr B · P · P −1 = tr (B)
 
(4.52)

Osservazione 4.2.10. Non è vero che se tr(A) = tr(B), allora A e B sono matrici
simili. Come controesempio possiamo utilizzare lo stesso dell’Osservazione 4.2.6.
52 SIMILITUDINE
Capitolo 5

Determinante

5.1 Definizione e proprietà


Definizione 5.1.1 (Determinante). Il determinante è un operatore

ϕ : Mn (K) → K (5.1)

che associa ad ogni matrice quadrata a coefficienti in un campo K un elemento del


campo stesso.
Nelle prossime pagine faremo riferimento al determinante di una matrice A attra-
verso la notazione1 :
ϕ (A1 , . . . , An ) (5.2)
dove A1 , . . . , An sono le righe di A. Il determinante verifica i seguenti assiomi:

• Multilinearità

ϕ (A1 , . . . , Ai + λA0i , . . . , An ) = ϕ (A1 , . . . , Ai , . . . , An )+λϕ (A1 , . . . , A0i , . . . , An )


(5.3)

• Alternanza

ϕ (A1 , . . . , Ai , . . . , Aj , . . . , An ) = −ϕ (A1 , . . . , Aj , . . . , Ai , . . . , An ) (5.4)

• Normalizzazione
ϕ (e1 , . . . , en ) = 1 (5.5)
dove ei è il vettore di Kn le cui componenti sono tutte nulle tranne la i-esima,
che è pari a uno. In altre parole, il determinante della matrice identità è
unitario.
1
Si tratta di un abuso di notazione, perchè, scritto in questo modo, ϕ prende come input n
vettori di Kn , e non una matrice A ∈ Mn (K).

53
54 DEFINIZIONE E PROPRIETÀ

Proposizione 5.1.2 (Altre proprietà del determinante). Dagli assiomi elencati


nella Definizione 5.1.1 seguono alcune proprietà:
1. Se una matrice ha due righe uguali, allora il suo determinante è nullo;
2. Se una matrice ha almeno una riga nulla, allora il suo determinante è nullo;
3. Sommare a una riga di una matrice il multiplo di un’altra non ne altera il
determinante;
4. Effettuare una riduzione a scala con le mosse di Gauss (senza moltiplicare
una riga per un numero) può cambiare soltanto il segno del determinante;
5. Il determinante di una matrice diagonale è pari al prodotto degli elementi sulla
diagonale;
6. Se una matrice non è invertibile, allora il suo determinante è nullo.
Dimostrazione
1. Supponiamo, per semplicità di notazione, che la prima e la seconda riga di
una matrice coincidano. Allora, dallo scambio di tali righe segue che:
ϕ (A1 , A1 , A3 , . . . , An ) = −ϕ (A1 , A1 , A3 , . . . , An ) = 0 (5.6)

2. Supponiamo, per semplicità di notazione, che la prima riga di una matrice sia
nulla. Allora:
ϕ (O, A2 , . . . , An ) = ϕ (O + O, A2 , . . . , An ) (5.7)
Dalla multilinearità del determinante segue che
ϕ (O, A2 , . . . , An ) = 2ϕ (O, A2 , . . . , An ) (5.8)
e quindi
ϕ (O, A2 , . . . , An ) = 0 (5.9)

3. Per semplicità di notazione, sommiamo alla prima riga di una matrice un


multiplo della seconda riga:
ϕ (A1 + λA2 , A2 , . . . , An ) (5.10)
Dalla multilinearità del determinante segue che:
ϕ(A1 , A2 , . . . , An ) + λϕ(A2 , A2 , A3 , . . . , An ) (5.11)
dove il secondo termine della (5.11) è nullo per la proprietà 1.. Dunque si ha
che
ϕ (A1 + λA2 , A2 , . . . , An ) = ϕ(A1 , A2 , . . . , An ) (5.12)
55

4. La mossa di Gauss che consiste nel sommare a una riga il multiplo di un’altra
lascia invariato il determinante (per il punto 3. di questa Proposizione), e lo
scambio di righe, per la proprietà dell’alternanza, ne può alterare soltanto
il segno. Dunque, utilizzando queste due sole operazioni per ridurre a scala
una matrice, tale ridotta a scala ha, in modulo, lo stesso determinante della
matrice di partenza. Se sono stati effettuati un numero pari di scambi di riga,
anche il segno coincide, altrimenti è opposto.

5. Il determinante di una matrice diagonale può essere scritto come:

ϕ (a11 e1 , . . . , ann en ) (5.13)

Dalla multilinearità segue che

n
Y n
Y
ϕ (a11 e1 , . . . , ann en ) = aii ϕ (e1 , . . . , en ) = aii (5.14)
i=1
| {z } i=1
1

6. Se una matrice non è invertibile, la sua ridotta a scala ha almeno una riga
nulla, perciò il suo determinante è pari a zero, cosı̀ come quello della matrice
di partenza.

Teorema 5.1.3. Se l’operatore determinante esiste, allora è unico.

Dimostrazione Ipotizziamo l’esistenza dell’operatore determinante, e dimostria-


mone l’unicità.
Se una matrice non è invertibile, per quanto detto nella Proposizione 5.1.2, il suo
determinante è unico e pari a zero. Invece, se una matrice è invertibile, è possibile
effettuare una doppia riduzione a scala con le mosse di Gauss di tale matrice, in
modo da renderla diagonale. Il determinante di tale matrice diagonale è quindi pari
al prodotto dei coefficienti sulla diagonale, e, in modulo, coincide con quello della
matrice di partenza.
Quindi, se A è la matrice di partenza e D è la matrice diagonale ottenuta da A
attraverso una doppia riduzione a scala con m scambi di riga, si ha che
Y
ϕ (A1 , . . . , An ) = (−1)m dii (5.15)
i

L’unicità del determinante deriva dal fatto che, sebbene esistano più modi per
diagonalizzare una matrice con le mosse di Gauss, il prodotto degli elementi sulla
diagonale è unico.
56 GRUPPO SIMMETRICO

5.2 Gruppo simmetrico


Definizione 5.2.1 (Gruppo simmetrico). Consideriamo un insieme costituito da
n elementi:
S = {1, 2, 3, . . . , n} (5.16)
Il Gruppo simmetrico è l’insieme degli operatori:

Σn = {σ : S → S bigettivi} (5.17)

Osservazione 5.2.2. In altre parole, il Gruppo simmetrico è l’insieme di tutte le


possibili permutazioni di n elementi, la cui cardinalità è quindi n!
Osservazione 5.2.3. Il Gruppo simmetrico è un gruppo rispetto alla composizione,
in quanto soddisfa le proprietà di associatività, esistenza dell’elemento neutro e
dell’inverso.  
1 2 3 ... n
σ= (5.18)
σ(1) σ(2) σ(3) . . . σ(n)
 
1 2 3 ... n
τ= (5.19)
τ (1) τ (2) τ (3) . . . τ (n)
 
1 2 3 ... n
σ◦τ = (5.20)
σ (τ (1)) σ (τ (2)) σ (τ (3)) . . . σ (τ (n))
 
1 2 3 ... n
Id = (5.21)
1 2 3 ... n
 
−1 σ(1) σ(2) σ(3) . . . σ(n)
σ = (5.22)
1 2 3 ... n
Definizione 5.2.4 (Trasposizione). Una trasposizione è una permutazione di due
soli elementi.
Osservazione 5.2.5. La trasposizione degli elementi i, j si indica

τ = (i, j) (5.23)

Osservazione 5.2.6. L’inversa di una trasposizione coincide con la trasposizione


stessa:
τ · τ −1 = Id (5.24)
Osservazione 5.2.7. Le possibili trasposizioni in un insieme di n elementi sono
 
n
N= (5.25)
2
Teorema 5.2.8. Ogni permutazione è generata da una composizione di trasposi-
zioni.
57

Dimostrazione Consideriamo una permutazione


 
1 2 3 ... n
σ= (5.26)
σ (1) σ (2) σ (3) . . . σ (n)

Se σ (1) 6= 1, sia τ (1) = (1, σ (1)).


 
(1) 1 2 3 ... n
τ σ=σ= (5.27)
1 σ 0 (2) σ 0 (3) . . . σ 0 (n)

Se σ 0 (2) 6= 2, sia τ (2) = (2, σ 0 (2)).


 
(2) (1) 1 2 3 ... n
τ τ σ=σ= 00 00 (5.28)
1 2 σ (3) . . . σ (n)

procedendo in questo modo, dopo al più n − 1 passaggi, si ottiene:


 
(n−1) (2) (1) 1 2 3 ... n
τ ···τ τ σ = = Id (5.29)
1 2 3 ... n

Moltiplicando la (5.29) a sinistra e a destra per


−1
τ (n−1) · · · τ (2) τ (1) (5.30)

segue che
−1 −1 −1 −1
σ = τ (n−1) · · · τ (2) τ (1) = τ (1) τ (2) · · · τ (n−1) (5.31)

che dimostra il Teorema.


Osservazione 5.2.9. Una permutazione può essere generata da diverse combinazioni
di trasposizioni.
Teorema 5.2.10. Una permutazione è generata sempre da un numero pari o sempre
da un numero dispari di trasposizioni.
Dimostrazione Consideriamo il polinomio di n variabili
Y
p (x1 , . . . , xn ) = (xi − xj ) (5.32)
1≤i≤j≤n

Per fissare le idee, nel caso in cui n = 3, tale polinomio è

p (x1 , x2 , x3 ) = (x1 − x2 ) (x1 − x3 ) (x2 − x3 ) (5.33)

Consideriamo ora la trasposizione

τ = (r, s) (5.34)
58 GRUPPO SIMMETRICO

con r < s che agisce sugli indici del polinomio. Sempre nel caso di n = 3, se
τ = (1, 2) il polinomio diventa:
p0 (x1 , x2 , x3 ) = (x2 − x1 ) (x2 − x3 ) (x1 − x3 ) (5.35)
Una trasposizione (o in generale anche una permutazione) degli indici del polinomio
può soltanto cambiarne il segno, in quanto, in seguito a tale trasposizione, il poli-
nomio continua ad esser costituito dal prodotto di tutte le possibili combinazioni di
(xi − xj ), che al più sono cambiate di segno.
Contiamo quindi il numero di coppie che cambiano segno a causa della trasposizione.
Tali coppie sono:
(xr − xs ) (5.36)
(xr − xi ) r≤i≤s (5.37)
(xi − xs ) r≤i≤s (5.38)
Il numero di coppie che cambiano segno è
N = 2 · (s − r − 1) + 1 (5.39)
cioè un numero dispari. Quindi, una singola trasposizione, o in generale le permu-
tazioni generate da un numero dispari di trasposizioni, agendo sugli indici di un
polinomio, ne cambiano il segno.
Se una permutazione fosse generata sia da un numero pari che da un numero di-
spari di trasposizioni, agendo sugli indici di un polinomio, tale permutazione in un
caso provocherebbe un cambio di segno, nell’altro lascerebbe invariato il polinomio.
Ciò è assurdo, e quindi una permutazione è necessariamente generata sempre da un
numero pari o da un numero dispari di trasposizioni.
Definizione 5.2.11 (Permutazioni pari e dispari). Una permutazione è pari se
generata da un numero pari di trasposizioni, dispari se generata da un numero
dispari di trasposizioni.
Definizione 5.2.12 (Segno). Il segno di una permutazione è un operatore
sgn (σ) : Σn → {1, −1} (5.40)
che attribuisce a ogni permutazione pari il segno positivo e a ogni permutazione
dispari il segno negativo.
Osservazione 5.2.13. Nella composizione di trasposizioni il segno rispetta le regole
del prodotto fra numeri. Se σ e τ sono permutazioni entrambe pari o dispari, allora
sgn (στ ) = sgn (τ σ) = 1 (5.41)
se invece una è pari e l’altra dispari
sgn (στ ) = sgn (τ σ) = −1 (5.42)
59

5.3 Formula del determinante


Teorema 5.3.1 (Formula Determinante). Sia A ∈ Mn (K). Allora
X
det (A) = sgn (σ) a1σ(1) a2σ(2) · · · anσ(n) (5.43)
σ

Dimostrazione Dimostriamo che la formula (5.43) verifica gli assiomi elencati


nella Definizione 5.1.1 di determinante.
1. Per semplicità di notazione, dimostriamo che la (5.43) è multilineare nella
prima righa. A tale scopo consideriamo

A1 = λA01 + µA001 (5.44)

La (5.43) può essere quindi scritta come


X
sgn (σ) λa01σ(1) + µa001σ(1) a2σ(2) · · · anσ(n) =

det (A) = (5.45)
σ
X X
=λ sgn (σ) a01σ(1) a2σ(2) · · · anσ(n) + µ sgn (σ) a001σ(1) a2σ(2) · · · anσ(n) =
σ σ
(5.46)
0 00
= λ det (A ) + µ det (A ) (5.47)
dove    
A01 A001
0
 A2 
00
 A2 
A = A = (5.48)
   
..  .. 
 .   . 
An An
Ciò dimostra la multilinearità nelle righe della (5.43).

2. Sia B la matrice ottenuta dallo scambio della i-esima e j-esima riga di A.


Allora:
bik = ajk bjk = aik (5.49)
Calcoliamo il determinante di B:
X
det (B) = sgn (σ) b1σ(1) · · · biσ(i) · · · bjσ(j) · · · bnσ(n) = (5.50)
σ
X
= sgn (σ) a1σ(1) · · · ajσ(i) · · · aiσ(j) · · · anσ(n) (5.51)
σ

Consideriamo ora la trasposizione τ = (i, j) e la permutazione λ = σ (τ ). In


tal modo si ha che σ (i) = λ (j) e σ (j) = λ (i), e, al variare di σ in tutto il
60 FORMULA DEL DETERMINANTE

gruppo simmetrico, anche λ varia in tutto il gruppo simmetrico. Infine, poichè


λ è generata da una trasposizione in più di σ, si ha che sgn (σ) = − sgn (λ).
Quindi la (5.51) può essere riscritta come:
X
det (B) = − sgn (λ) a1λ(1) · · · ajλ(j) · · · aiλ(i) · · · anλ(n) = (5.52)
λ
X
=− sgn(λ)a1λ(1) · · · aiλ(i) · · · ajλ(j) · · · anλ(n) = − det (A) (5.53)
λ

Ciò dimostra che la (5.43) ha la proprietà dell’alternanza.


3. Se A = I, allora tutti i termini della somma
X
det (A) = sgn (σ) a1σ(1) · · · anσ(n) (5.54)
σ

sono nulli, eccetto quello in cui σ = Id. Quindi


det (A) = a1,1 · · · an,n = 1 · · · 1 = 1 (5.55)
e ciò dimostra la normalizzazione della (5.43).
Teorema 5.3.2. Sia A ∈ Mn (K). Allora
det (A) = det AT

(5.56)
Dimostrazione Sia B = AT . Quindi
bij = aji (5.57)
Calcoliamo il determinante di B:
X X
det (B) = sgn (σ) b1σ(1) · · · bnσ(n) = sgn (σ) aσ(1)1 · · · aσ(n)n = (5.58)
σ σ
X
= sgn (σ) aσ(1)σ−1 (σ(1)) · · · aσ(n)σ−1 (σ(n)) (5.59)
σ
Poichè
σ · σ −1 = Id (5.60)
allora
sgn σ · σ −1 = sgn (σ) · sgn σ −1 = sgn (Id) = 1
 
(5.61)
−1 −1
In particolare, sgn (σ)·sgn (σ ) = 1, da cui segue che i segni si σ e di σ coincidono.
Inoltre, al variare di σ in tutto il gruppo simmetrico, anche σ −1 varia in tutto il
gruppo simmetrico, e quindi la (5.59) equivale a:
X
sgn σ −1 aσ(1)σ−1 (σ(1)) · · · aσ(n)σ−1 (σ(n))

det (B) = (5.62)
(σ)−1
61

Poichè {σ (1) , . . . , σ (n)} corrisponde all’insieme non ordinato di tutti i numeri na-
turali da 1 a n, applicando nell’espressione (5.62) la proprietà commutativa del
prodotto a ogni termine della somma, essa può essere riscritta come
X
sgn σ −1 a1σ−1 (1) · · · anσ−1 (n) = det (A)

det (B) = (5.63)
(σ)−1

Teorema 5.3.3 (Teorema di Binet). Siano A, B ∈ Mn (K). Allora


det (AB) = det (A) · det (B) (5.64)
Dimostrazione Supponiamo che almeno una matrice fra A e B non abbia rango
massimo, il cui determinante è quindi nullo. In particolare
det (A) · det (B) = 0 (5.65)
Inoltre, poichè
rg (AB) = min {rg (A) , rg (B)} (5.66)
allora anche AB non ha rango massimo, quindi
det (AB) = 0 (5.67)
Dunque, se A o B non hanno rango massimo, la formula (5.64) è vera.
Supponiamo ora che A e B abbiano rango massimo, cioè che det (A) e det (B) non
siano nulli. Dimostriamo allora che
det (AB)
ϕ (A) = (5.68)
det (B)
coincide con il determinante di A. A tale scopo verifichiamo che la funzione ϕ,
definita nella (5.68), ha tutte le proprietà del determinante di A.
• Multilinearità:
Sia
Ai = λA0i + µA00i (5.69)
La i−esima riga di AB è data da
(AB)i = Ai B = λA0i B + µA00i B (5.70)
Dalla multilinearità del det (AB) segue che
λ det (A0 B) + µ det (A00 B)
ϕ (A) = = λϕ (A0 ) + ϕ (A00 ) (5.71)
det (B)
dove    
A1 A1
 ..   .. 
 .   . 
A0 =  A0i  A00 =  A00i  (5.72)
   
 .   . 
 ..   .. 
An An
62 FORMULA DEL DETERMINANTE

• Alternanza:
Poichè
(AB)i = Ai B (5.73)
scambiando due righe di A, si scambiano anche le corrispondenti righe di AB.
Sia A0 la matrice ottenuta da A scambiando due righe. Allora:

det (A0 B) det (AB)


ϕ (A0 ) = =− = −ϕ (A) (5.74)
det (B) det (B)

• Normalizzazione:
Sia A = I. Allora
det (IB) det (B)
ϕ (A) = ϕ (I) = = =1 (5.75)
det (B) det (B)

La funzione ϕ (A) ha tutte le proprietà del determinante di A. Poichè il determinan-


te di ogni matrice è unico, allora ϕ (A) = det (A). Dunque, moltiplicando entrambi
i membri della (5.68) per det (B) e sostituendovi ϕ (A) con det (A), si ottiene la tesi
del Teorema di Binet.

Corollario 5.3.4. Sia P ∈ GLn (K). Allora:

1
det P −1 =

(5.76)
det (P )

Dimostrazione Poichè P −1 è la matrice inversa di P , allora

P · P −1 = I (5.77)

Dunque
det P · P −1 = det (P ) det P −1 = det (I) = 1
 
(5.78)
da cui si ricava
1
det P −1 =

(5.79)
det (P )

Corollario 5.3.5. Siano A, B ∈ Mn (K). Allora

det (A · B) = det (B · A) (5.80)

Dimostrazione Dal Teorema di Binet segue che

det (A · B) = det (A) det (B) = det (B) det (A) = det (B · A) (5.81)
63

Corollario 5.3.6 (Il determinante è invariante per similitudine). Siano A, B ∈


Mn (K), e sia
A = P −1 · B · P (5.82)
con P ∈ GLn (K). Allora
det (A) = det (B) (5.83)

Dimostrazione Dal Corollario 5.3.5 segue che

det (A) = det P −1 · B · P = det B · P · P −1 = det (B)


 
(5.84)

Osservazione 5.3.7. Siano A, B ∈ Mn (K). Se A e B hanno lo stesso determinan-


te, non è detto che siano simili. Come esempio possiamo utilizzare ancora quello
dell’Osservazione 4.2.6.

5.3.1 Formula di Laplace


Definizione 5.3.8 (Complemento algebrico). Sia A ∈ Mn (K). Si definisce com-
plemento algebrico o cofattore di A di posto i, j:

cof i,j = (−1)i+j det (Ai,j ) (5.85)

dove det (Ai,j ) è il minore di A ottenuto eliminando la i−esima riga e la j−esima


colonna.

Teorema 5.3.9 (Teorema di Laplace). Sia A ∈ Mn (K). Allora


n
X
det (A) = ai,j cof (Ai,j ) (5.86)
j=1

Dimostrazione Sia ej un vettore di Kn la cui j-esima componente è pari a uno


e tutte le altre sono nulle:  
0
 .. 
 . 
 0 
 
ej =  1  (5.87)
 
 0 
 
 . 
 .. 
0
La i−esima riga della matrice A può essere scritta come

Ai = ai1 e1 + . . . + ain en (5.88)


64 FORMULA DEL DETERMINANTE

Dalla multilinearità del determinante segue che


n
X
det(A) = ai,j det (Bj ) (5.89)
j=1

dove Bj è la matrice ottenuta da A sostituendo la i-esima riga con il vettore eTj .

··· ···
 
a1,1 a1,j−1 a1,j a1,j+1 a1,n
 .. ... .. .. .. ... .. 
 . . . . . 
ai−1,1 · · · ai−1,j−1 ai−1,j ai−1,j+1 · · · ai−1,n 
 
Bj =  0 ··· 0 1 0 ··· 0  (5.90)
 
ai+1,1 · · · ai+1,j−1 ai+1,j ai+1,j+1 · · · ai+1,n 
 
 . ... .. .. .. ... .. 
 .. . . . . 
an,1 · · · an,j−1 an,j an,j+1 · · · an,n

Effettuando i−1 scambi di riga e j−1 scambi di colonna, si può portare il coefficiente
di posizione i, j in posizione 1, 1, in modo da ottenere una matrice come
 
1 0 0 ··· 0
 a1,j a1,1 a1;2 · · · a1,n 
 
0  a2,j a2,1 a2,2 · · · a2,n 
Bj =   (5.91)
 .. .. .. . . .. 
 . . . . . 
an,j an,1 an,2 · · · an,n

Si osserva che (−1)i+j−2 det Bj0 = (−1)i+j det Bj0 = det (Bj ), quindi
 

det (Bj ) = (−1)i+j det Bj0



(5.92)

Calcoliamo det Bj0 :




 X
det Bj0 = sgn (σ) b01σ(1) · · · b0nσ(n) (5.93)
σ

dove b0i,j è il coefficiente della matrice Bj0 di posizione i, j. Poichè la prima riga di
Bj0 ha tutti i coefficienti nulli eccetto il primo, la (5.93) coincide con:
X
det Bj0 = 1 · sgn (σ 0 ) b02σ0 (2) · · · b0nσ0 (n)

(5.94)
σ0

dove le σ 0 sono le permutazioni dei numeri da 2 a n, in cui sgn (σ) e sgn (σ 0 ) coinci-
dono. La (5.94) è il minore di A ottenuto eliminando la i-esima riga e la j−esima
colonna della matrice. Quindi

det (Bj ) = cof (Ai,j ) (5.95)


65

e, inserendo tale risultato nella (5.89), si ottiene la tesi del Teorema:


n
X
det (A) = ai,j cof (Ai;j ) (5.96)
j=1

Teorema 5.3.10 (Calcolo della matrice inversa con Laplace). Sia A ∈ Mn (K)
una matrice invertibile. Allora:
1
A−1

i,j
= cof (Aj,i ) (5.97)
det (A)

Dimostrazione Mostriamo che A−1 · A = I, cioè:

A−1 i Aj = δi,j

(5.98)

dove δi,j è il delta di Kronecker.


n n
−1
 j
X
−1
 1 X
A i
A = A i,l
al,j = cof (Al,i ) al,j (5.99)
l=1
det (A) l=1

Se i = j, per il Teorema 5.3.9,


n
X
cof (Al,i ) al,i = det (A) (5.100)
l=1

e dunque la (5.99) è pari a uno. Se i 6= j,


n
X
cof (Al,i ) al,j = det (B) = 0 (5.101)
l=1

dove B è una matrice ottenuta da A, sostituendo la i−esima colonna con la j−esima,


e dunque det (B) = 0 in quanto B ha due colonne coincidenti.

Teorema 5.3.11 (Regola di Craamer). Sia A ∈ Mn (K) una matrice di rango


massimo. Allora il sistema lineare

A·x=b (5.102)

ha soltanto una soluzione x la cui i−esima componente è:

det (Bi )
xi = (5.103)
det (A)

dove Bi è la matrice ottenuta da A sostituendo la i−esima colonna con il vettore b.


66 FORMULA DEL DETERMINANTE

Dimostrazione Invertendo la (5.102) si ottiene

x = A−1 · b (5.104)

e quindi
n
X
−1
A−1
 
xi = A i
b= b
i,j j
(5.105)
j=1

Dalla regola di Laplace per il calcolo della matrice inversa segue che
n n
X 1 X det (Bi )
A−1

xi = b =
i,j j
cof (Aj,i ) bj = (5.106)
j=1
det (A) j=1 det (A)
Capitolo 6

Autovalori e Autovettori

6.1 Definizioni
Definizione 6.1.1 (Diagonalizzabile). Una matrice A ∈ Mn (K) è diagonalizzabile
se e solo se è simile a una matrice diagonale, cioè se esiste P ∈ GLn (K) tale che

P −1 · A · P = D diagonale (6.1)

Analogamente, se V è uno spazio vettoriale definito su un campo K, un endo-


morfismo f : V → V è diagonalizzabile se e solo se esiste una base B di V tale
che
MB (f ) = D diagonale (6.2)

Definizione 6.1.2 (Autovalore e autovettore). Sia V uno spazio vettoriale definito


su un campo K, e sia f : V → V un endomorfismo. Un numero λ ∈ K è un
autovalore di f se e solo se

∃v 6= O : f (v) = λv (6.3)

In tal caso v è un autovettore di f relativo all’autovalore λ.

Osservazione 6.1.3. Siano V uno spazio vettoriale di dimensione n definito su un


campo K e f : V → V un endomorfismo. Sia inoltre f˜ : Kn → Kn un’applicazione
lineare definita come nella (3.54), rispetto alla stessa base B di V in partenza e in
arrivo. Allora:

• λ è un autovalore di f se e solo se λ è autovalore anche di f˜;

• v è un autovettore di f relativo all’autovalore λ se e solo se [v]B è un auto-


vettore di f˜ relativo all’autovalore λ.

67
68 PROPRIETÀ DI AUTOVALORI E AUTOVETTORI

6.2 Calcolo di autovalori e autovettori


Cerchiamo di capire come poter calcolare gli autovalori e gli autovettori di un endo-
morfismo f : V → V definito su uno spazio vettoriale V . A tale scopo consideriamo
una base B di V e una matrice A ∈ Mn (K) tale che

A = MB (f ) (6.4)

Calcolare gli autovalori e gli autovettori di

f˜ = Ax (6.5)

con x ∈ Kn equivale a calcolare gli autovalori di f e le coordinate rispetto alla base


B dei rispettivi autovettori. Ricerchiamo innanzitutto dei λ ∈ K per cui il sistema

A · x = λx (6.6)

abbia almeno una soluzione x non nulla. A tale scopo riscriviamo la (6.6) nel
seguente modo:
(A − λI) x = O (6.7)
Tale sistema ha soluzioni non nulle se e solo se

rg (A − λI) < n (6.8)

condizione che equivale a


det (A − λI) = 0 (6.9)
La (6.9) è un’equazione di grado n rispetto alla variabile λ, le cui soluzioni sono
proprio gli autovalori di f . Per determinare gli autovettori relativi a un certo
autovalore λ è sufficiente ricercare le soluzioni del sistema (6.7) fissando il parametro
λ = λ.
Osservazione 6.2.1. Sia A ∈ Mn (K). Il polinomio di grado n

p (λ) = det (A − λI) (6.10)

è detto polinomio caratteristico di A.

6.3 Proprietà di autovalori e autovettori


Teorema 6.3.1 (Polinomio caratteristico invariante per similitudine). Siano A, B ∈
Mn (K) due matrici simili, i cui polinomi caratteristici sono rispettivamente pA (λ)
e pB (λ). Allora
pA (λ) = pB (λ) (6.11)
69

Dimostrazione Poichè A e B sono matrici simili, allora esiste P ∈ GLn (K)


tale che
A = P −1 · B · P (6.12)
Calcoliamo il polinomio caratteristico di A, valutato in un numero α ∈ K :

pA (α) = det (A − αI) = det P −1 BP − αI = det P −1 (B − αI) P


  
(6.13)

Applicando nella (6.13) il Teorema 5.64 di Binet segue che

det P −1 (B − αI) P = det P −1 det (B − αI) det (P ) = det (B − αI) = pB (α)


  

(6.14)
La (6.13) e (6.14) dimostrano che i polinomi caratteristici di A e B hanno le stesse
radici, cioè che ∀α ∈ K
pA (α) = pB (α) (6.15)
Dimostriamo ora che pA (λ) e pB (λ) sono uguali come polinomi. Consideriamo a
tale scopo il polinomio
h (λ) = pA (λ) − pB (λ) (6.16)
Poichè pA (λ) e pB (λ) hanno le stesse radici, supponendo che il campo K contenga
infiniti elementi, il polinomio h (λ) ha infinite radici. Ma per Teorema Fondamentale
dell’Algebra l’unico polinomio che ha più radici del suo grado è il polinomio nullo,
quindi h (λ) ≡ 0. Inserendo tale risultato nella (6.16) segue che

pA (λ) = pB (λ) (6.17)

Osservazione 6.3.2. Per applicare il Teorema di Binet all’equazione (6.13) sosti-


tuendo al posto del numero α un parametro λ, si dovrebbe dimostrare la veridicità
di tale Teorema anche su un Anello.
Proposizione 6.3.3. Sia V uno spazio vettoriale definito su un campo K e f :
V → V un’applicazione lineare. Allora f è diagonalizzabile se e solo se ∀B base di
V , MB (f ) è diagonalizzabile.
Dimostrazione (⇒) Se f è diagonalizzabile, allora esiste una base B di V tale
che MB (f ) = D diagonale. Sia B 0 un’altra base di V . Allora, applicando la formula
di cambiamento di base, ∃P ∈ GLn (K) :

P · MB 0 (f ) · P −1 = D diagonale (6.18)

(⇐) Sia A = MB (f ). Se A è diagonalizzabile, allora esiste P ∈ GLn (K) tale che

P −1 · A · P = D (6.19)

pre-moltiplicando entrambi i membri della (6.19) per P si ottiene

A·P =P ·D (6.20)
70 PROPRIETÀ DI AUTOVALORI E AUTOVETTORI

A · P j = P · Dj = λj P ej = λj P j (6.21)
Le colonne di P sono costituite dalle coordinate rispetto a B di una base di auto-
vettori di f , che quindi risulta essere diagonalizzabile.

Teorema 6.3.4. Siano V uno spazio vettoriale definito su un campo K e f : V → V


un’applicazione lineare con un autovalore λ. Allora:

Vλ = {v ∈ V : f (v) = λv} (6.22)

è uno spazio vettoriale.

Dimostrazione Siano v 1 , v 2 ∈ Vλ

f (v 1 + v 2 ) = f (v 1 ) + f (v 2 ) = λv 1 + λv 2 = λ (v 1 + v 2 ) ∈ Vλ (6.23)

Sia v ∈ V e sia α ∈ K

f (αv) = αf (v) = αλv = λ (αv) ∈ Vλ (6.24)

Teorema 6.3.5 (Autovettori relativi ad autovalori distinti sono linearmente in-


dipendenti). Sia V uno spazio vettoriale definito su un campo K. Sia inoltre
f : V → V un endomorfismo con λ1 , . . . , λk autovalori distinti. Allora qualsia-
si k−upla di autovettori relativi ad autovalori distinti è linearmente indipendente,
cioè:
α1 v 1 + . . . + αk v k = O ⇐⇒ α1 = · · · = αk = 0 (6.25)
con v 1 , . . . , v k autovettori relativi rispettivamente agli autovalori λ1 , . . . , λk .

Dimostrazione Dimostriamo il Teorema per induzione sul numero k di auto-


vettori relativi ad autovalori distinti linearmente indipendenti.
Sia k = 1 :
α1 v 1 = O (6.26)
Poichè, per definizione di autovettore, v 1 6= O, la (6.26) è vera se e solo se α1 = 0.
Supponiamo ora che ogni insieme di k − 1 autovettori relativi ad autovalori distinti
sia linearmente indipendente

α10 v 01 + . . . + αk−1
0 0
v 0k−1 = O ⇐⇒ α10 = · · · = αk−1 =0 (6.27)

e dimostriamo che anche ogni insieme k autovettori relativi ad autovalori distinti è


linearmente indipendente. A tale scopo consideriamo una combinazione lineare di
tali vettori eguagliata al vettore nullo:

α1 v 1 + . . . + αk v k = O (6.28)
71

Affichè sia vera la (6.28), è necessario che

f (α1 v 1 + . . . + αk v k ) = α1 f (v 1 ) + . . . + αk f (v k ) = α1 λ1 v 1 + . . . + αk λk v k = O
(6.29)
Calcoliamo ora

f (α1 v 1 + . . . + αk v k ) − λk (α1 v 1 + . . . + αk v k ) = (6.30)

α1 (λ1 − λk ) v 1 + . . . + αk−1 (λk−1 − λk ) v k−1 = O ⇐⇒ α1 = · · · = αk−1 = 0 (6.31)


Nella (6.31) si è utilizzata l’ ipotesi induttiva. Affinchè siano verificate le (6.28) e
(6.29), è necessario che sia vera anche la condizione espressa dalle (6.30) e (6.31).
Sostituendo quindi α1 = · · · = αk−1 = 0 nella (6.28), segue che tale equivalenza è
vera se e solo se anche αk = 0. Ciò dimostra che k autovettori relativi ad autovalori
distinti sono linearmente indipendenti.
Definizione 6.3.6 (Molteplicità geometrica). Siano V uno spazio vettoriale defini-
to su un campo K e f : V → V un endomorfismo con un autovalore λ. Si definisce
molteplicità geometrica di λ:

µg (λ) = dim (Vλ ) (6.32)

Corollario 6.3.7. Siano V uno spazio vettoriale e f : V → V un endomorfismo


diagonalizzabile con autovalori λ1 , . . . , λk . Allora

V = V λ1 ⊕ . . . ⊕ V λk (6.33)

Dimostrazione Se f è diagonalizzabile, allora esiste una base di V costituita


da autovettori di f , e quindi

V = Vλ1 + . . . + Vλk (6.34)

Mostriamo che, ∀i
n
X
Vi ∩ Vj = {O} (6.35)
j=1

A tale scopo consideriamo una combinazione lineare di autovettori relativi ad au-


tovalori distinti. Dal Teorema 6.3.5 segue che

α1 v 1 + . . . + αi v i + . . . + αn v n = O ⇐⇒ α1 = . . . = αn = 0 (6.36)

La (6.36) è equivalente a
n
X

αi v i = − α1 v 1 + . . . + αi−1 v i−1 + αi+1 v i+1 + . . . + αn v n = v ∈ Vi ∩ Vj (6.37)
j=1

ma v = O, in quanto anche la (6.37) è vera se e solo se α1 = . . . = αn = 0.


72 PROPRIETÀ DI AUTOVALORI E AUTOVETTORI

Teorema 6.3.8. Siano V uno spazio vettoriale e f : V → V un endomorfismo con


un autovalore α. Allora:
1 ≤ µg (α) ≤ µa (α) (6.38)

Dimostrazione Estendiamo una base B 0 di Vα a base B di V . Rispetto a tale


base, la matrice associata a f è:
 
αIµg (α) B
A= (6.39)
0 C

Calcoliamo gli autovalori di A:


 
(α − λ) Iµg (α) B
A − λI = (6.40)
0 C − λI

det (A − λI) = (α − λ)µg (α) det (C − λI) = (α − λ)µg (α) pc (λ) (6.41)
poichè α potrebbe essere radice anche di pc (λ), si ha che

µa (α) ≥ µg (α) (6.42)

Proposizione 6.3.9. Siano A, B ∈ Mn (K) due matrici simili. Allora gli autova-
lori di A e B hanno le stesse molteplicità geometriche.

Dimostrazione Se A e B sono simili, allora esiste P ∈ GLn (K) tale che

B = P · A · P −1 (6.43)

e, come descritto nel Teorema 6.3.1, i polinomi caratteristici di tali matrici coinci-
dono. Pertanto A e B hanno stessi autovalori con medesima molteplicità algebrica.
Consideriamo ora un autovettore v di A relativo a un autovalore λ. Mostriamo che
P · v è anche autovettore di B relativo allo stesso autovalore λ.

B · P v = P AP −1 · P v = P Av = λP v (6.44)

Poichè P è una matrice invertibile, l’applicazione lineare f : VA,λ → VB,λ , dove VA,λ
e VB,λ sono rispettivamente gli autospazi relativi all’autovalore λ delle matrici A e
B, tale che
f (v) = P v (6.45)
è un isomorfismo, e dunque

µgA (λ) = dim (VA,λ ) = dim (VB,λ ) = µgB (λ) (6.46)


73

6.4 Criterio di diagonalizzabilità


Teorema 6.4.1 (Criterio di diagonalizzabilità). Una matrice A ∈ Mn (K), con
λ1 , . . . , λk autovalori distinti, è diagonalizzabile se e solo se

• µa (λ1 ) + . . . + µa (λk ) = n;

• ∀i µg (λi ) = µa (λi ).

Dimostrazione Per quanto visto ed enunciato in precedenza, si ha che

A diagonalizzabile ⇔ f (x) = Ax diagonalizzabile ⇔ (6.47)

⇔ V ha una base di autovettori ⇔ V = W = Vλ1 ⊕ · · · ⊕ Vλk (6.48)


Analizziamo meglio l’equivalenza scritta nella (6.48). La somma diretta Vλ1 ⊕ · · · ⊕
Vλk è stata dimostrata con il Corollario 6.3.7. (⇒) Se V ha una base di autovettori,
allora V e W hanno una base comune. Dunque

V =W (6.49)

(⇐) Per ottenere una base di autovettori di V è sufficiente unire una basi di ogni
V λi .
Riprendendo con la catena di uguaglianze si ha che:

V = Vλ1 ⊕ · · · ⊕ Vλk ⇔ dim(V ) = dim (Vλ1 ⊕ · · · ⊕ Vλk ) = (6.50)

= dim (Vλ1 ) + . . . + dim (Vλk ) ⇔ µg (λ1 ) + . . . + µg (λk ) = n (6.51)


Per il Teorema 6.3.8, l’ultima uguaglianza della (6.51) è vera se e solo se sono
verificate contemporaneamente le seguenti due condizioni:

• µa (λ1 ) + . . . + µa (λk ) = n;

• ∀i µg (λ) = µa (λ).

Osservazione 6.4.2. La condizione

µa (λ1 ) + . . . + µa (λk ) = n (6.52)

equivale a dire che tutti gli autovalori di A appartengono al campo K. Dunque, se


K = C, tale condizione è superflua.

Corollario 6.4.3. Siano A, B ∈ Mn (K) due matrici diagonalizzabili. Esse sono


simili se e solo se hanno gli stessi autovalori con la stessa molteplicità algebrica.
74 CRITERIO DI DIAGONALIZZABILITÀ

Dimostrazione (⇒) Poichè il polinomio caratteristico è invariante per similitudine,


se A e B sono matrici simili, allora

pA (λ) = pB (λ) (6.53)

dove pA (λ) e pB (λ) sono rispettivamente i polinomi caratteristici di A e B. Es-


sendo identici, tali polinomi hanno le stesse radici, e quindi A e B hanno gli stessi
autovalori con le stesse molteplicità algebriche.
(⇐) Se A e B hanno gli stessi autovalori con le stesse molteplicità algebriche, al-
lora sono entrambe simili alla stessa matrice diagonale. Dunque, dalla proprietà
transitiva e simmetrica della similitudine segue che A e B sono fra loro simili.

Teorema 6.4.4. Siano V uno spazio vettoriale definito su un campo K e f : V → V


un endomorfismo diagonalizzabile, con λ1 , . . . , λk autovalori distinti. Sia inoltre
W ⊂ V un sottospazio vettoriale f −invariante, cioè tale che

f (W ) ⊂ W (6.54)

Allora:
W = (W ∩ Vλ1 ) ⊕ . . . ⊕ (W ∩ Vλk ) (6.55)

Dimostrazione Se f è diagonalizzabile, allora

V = Vλ1 ⊕ . . . ⊕ Vλk (6.56)

e quindi ogni vettore w ∈ W si può scrivere in modo unico come

w = v1 + . . . + vl (6.57)

con v 1 , . . . , v l autovettori relativi ad autovalori distinti, e l ≤ k. Dimostrare che


{v 1 , . . . , v l } ∈ W equivale alla tesi del Teorema. Procediamo per induzione sul
numero l di autovettori che generano un vettore w ∈ W .
Se l = 1 allora:
w = v1 (6.58)
e quindi v 1 ∈ W .
Supponiamo ora vero che per ogni w0 ∈ W generato dalla somma di l−1 autovettori,
tali autovettori appartengono anche a W . In altre parole se

w0 = v 01 + . . . + v 0l−1 (6.59)

allora v 01 , . . . , v 0l−1 ∈ W . Mostriamo che ciò è vero anche se w ∈ W è generato




dalla somma di l autovettori. A tale scopo consideriamo

w = v1 + . . . + vl (6.60)
75

Calcoliamo f (w):
f (w) = λ1 v 1 + . . . + λl v l (6.61)
e consideriamo il vettore

w00 = f (w) − λl w = (λ1 − λl ) v 1 + . . . + (λl−1 − λl ) v l−1 (6.62)

Il vettore w00 ∈ W perchè w ∈ W per ipotesi e f (w) ∈ W , in quanto tale sottospazio


è f −invariante. Per ipotesi induttiva quindi

(λ1 − λl ) v 1 , . . . , (λl−1 − λl ) v l−1 ∈ W (6.63)

e dunque anche v 1 , . . . , v l−1 ∈ W . Sostituendo tale risultato nella (6.60) segue
che
v l = w − α1 v 1 − . . . − αl−1 v l−1 (6.64)
v l ∈ W in quanto generato dalla somma di vettori che appartengono a W .

Corollario 6.4.5. Siano V uno spazio vettoriale definito su un campo K e f : V →


V un endomorfismo diagonalizzabile. Sia inoltre W ⊂ V un sottospazio vettoriale
f −invariante. Allora:
f |W : W → W (6.65)
è diagonalizzabile.

Dimostrazione Per il Teorema 6.4.4,

W = (W ∩ Vλ1 ) ⊕ . . . ⊕ (W ∩ Vλk ) (6.66)

Pertanto W ha una base di autovettori di f , ottenuta dall’unione di ogni base di


W ∩ Vλi .

Teorema 6.4.6 (Teorema simultanea diagonalizzabilità). Siano A, B ∈ Mn (K)


due matrici diagonalizzabili. Allora A e B sono simultaneamente diagonalizzabili
se e solo se
A·B =B·A (6.67)

Osservazione 6.4.7. Due matrici sono simultaneamente diagonalizzabili se esiste


P ∈ GLn (K) tale che
P −1 · A · P = D (6.68)
e
P −1 · B · P = D0 (6.69)
76 CRITERIO DI DIAGONALIZZABILITÀ

Dimostrazione (⇒) Se A e B sono simultaneamente diagonalizzabili, allora ∃P ∈


GLn (K) :
P −1 · A · P = D (6.70)
P −1 · B · P = D0 (6.71)
Invertendo tali uguaglianze si ottiene

A = P · D · P −1 (6.72)

B = P · D0 · P −1 (6.73)
Mostriamo ora che A e B commutano:

A · B = P · D · P −1 · P · D0 · P −1 = P · D · D0 · P −1 (6.74)

B · A = P · D0 · P −1 · P · D · P −1 = P · D0 · D · P −1 (6.75)
Poichè il prodotto fra matrici diagonali è commutativo (cioè D · D0 = D0 · D) segue
che la (6.74) e la (6.75) coincidono. Quindi, se A e B sono simultaneamente diago-
nalizzabili, allora A · B = B · A.
(⇐) Supponiamo ora che A · B = B · A e dimostriamo che A e B sono simulta-
neamente diagonalizzabili. Sia Vλ l’autospazio relativo all’autovalore λ di A, e sia
v ∈ Vλ . Allora
A · (Bv) = B · Av = B · λv = λ · Bv (6.76)
Il vettore Bv continua a essere un autovettore relativo a λ per la matrice A. Dunque
l’autospazio Vλ è B−invariante, e, per il Corollario 6.4.5, Vλ ha una base costituita
da autovettori di B. Ripetendo tale ragionamento per tutti gli autospazi di A,
è possibile trovare una base di V costituita da autovettori sia di A che di B, e
dunque tali matrici sono simultaneamente diagonalizzabili mediante una matrice P
che contiene tali vettori come colonne.
Capitolo 7

Polinomio minimo

7.1 Valutare un polinomio in una matrice


Consideriamo un polinomio p (x) ∈ K [x] e una matrice A ∈ Mn (K). Valutare il
polinomio p (x) nella matrice A significa sostituire la variabile x con A ed effettuare
le consuete operazioni di somma fra matrici e di prodotto riga-colonna.
Fissata una matrice A ∈ Mn (K), studiamo le proprietà dell’applicazione σA :
K [x] → Mn (K) tale che
σA
p (x) −→ p (A) (7.1)
In altre parole σA è l’applicazione che valuta un polinomio nella matrice A.

Proposizione 7.1.1. L’applicazione σA è lineare e conserva il prodotto.

Dimostrazione Sia
h (x) = αp (x) + βq (x) (7.2)
Dalla definizione di somma fra polinomi e fra matrici segue che

σA (h (x)) = ασA (p (x)) + βσA (q (x)) (7.3)

Sia ora
h (x) = p (x) · q (x) (7.4)
allora, dalla proprietà distributiva del prodotto fra polinomi e fra matrici segue che

σA (h (x)) = σA (p (x)) · σA (q (x)) (7.5)

Teorema 7.1.2. Siano A ∈ Mn (K) e P ∈ GLn (K). Sia inoltre σA : K [x] →


Mn (K) l’applicazione lineare che valuta un polinomio in una matrice. Allora

P −1 · p (A) · P = p P −1 · A · P

(7.6)

77
78 VALUTARE UN POLINOMIO IN UNA MATRICE

Dimostrazione Mostriamo innanzitutto che


m
P −1 · Am · P = P −1 · A · P (7.7)

Sviluppando il secondo membro della (7.7) si ottiene che


m
P −1 AP = P −1 AP · P −1 AP · . . . · P −1 AP · = P −1 · Am · P (7.8)

Nella (7.8) tutti i prodotti P · P −1 si elidono, quindi effettivamente la (7.7) è vera.


Dimostriamo ora la veridicità della (7.6). A tale scopo consideriamo il polinomio

p (x) = c0 xn + c1 xn−1 + . . . + cn−1 x + cn (7.9)

e calcoliamo P −1 p (A) P :

P −1 p (A) P = P −1 c0 An + c1 An−1 + . . . + cn−1 A + cn I P



(7.10)

Applicando la proprietà distributiva del prodotto fra matrici si ottiene che la (7.10)
equivale a

c0 P −1 An P + c1 P −1 An−1 P + . . . + cn−1 P −1 AP + cn I
  
(7.11)

Utilizzando la propreità scritta nella (7.7), la (7.10) e la (7.11) sono uguali a


n n−1
c0 P −1 AP + c1 P −1 AP + . . . + cn−1 P −1 AP + cn I = p P −1 AP (7.12)
 

e ciò dimostra la tesi del Teorema.

Corollario 7.1.3. Sia A ∈ Mn (K) una matrice diagonalizzabile. Allora, ∀p ∈


K [x], p (A) è diagonalizzabile.

Dimostrazione Se A è diagonalizzabile, allora ∃P ∈ GLn (K) tale che

P −1 · A · P = D (7.13)

Un polinomio valutato in una matrice diagonale è ancora una matrice diagonale, in


quanto le operazioni di elevamento a potenza e di somma non alterano la struttura
della matrice di partenza. Dunque, dal Teorema 7.1.2 segue che

P −1 · p (A) · P = p P −1 · A · P = p (D) = D0

(7.14)

Dunque p (A) è simile a una matrice diagonale, e dunque è diagonalizzabile.


Osservazione 7.1.4. Se A ∈ Mn (K) è una matrice diagonalizzabile, allora, per ogni
p (x) ∈ K [x], le matrici p (A) costituiscono un’algebra di matrici simultaneamente
diagonalizzabili.
79

Corollario 7.1.5. Sia A ∈ Mn (K) e σA : K [x] → Mn (K) l’applicazione lineare


che valuta un polinomio nella matrice A. Sia inoltre B ∈ Mn (K) una matrice
simile ad A, cioè tale che
P −1 · A · P = B (7.15)
Allora
ker (σA ) = ker (σB ) (7.16)
Dimostrazione Mostriamo che
p (x) ∈ ker (σA ) ⇐⇒ p (x) ∈ ker (σB ) (7.17)
(⇒) Se p (x) ∈ ker (σA ), allora p(A) = O. Dal Teorema 7.1.5 segue che
p (B) = p P −1 · A · P = P −1 · p (A) · P = O

(7.18)
Quindi p (x) ∈ ker (σB ).
(⇐) Se p (x) ∈ ker (σB ), allora, invertendo la (7.18), si ottiene che
p (A) = P · p (B) · P −1 = O (7.19)
Quindi p (x) ∈ ker (σA )

Proposizione 7.1.6. Sia A ∈ Mn (K) e sia σA : K [x] → Mn (K) l’applicazione


lineare che valuta un polinomio in una matrice. Allora1
dim (ker (σA )) > 0 (7.20)
Dimostrazione Restringiamo lo spazio vettoriale K [x] a Km [x], cioè a quello
dei polinomi di grado minore o uguale a m, con m ≥ n2 . Applichiamo la formula
delle dimensioni a σA |Km [x] :
h  i h  i
dim (Km [x]) = dim Im σA |Km [x] + dim ker σA |Km [x] (7.21)

e sostituendovi
dim (Km [x]) = m + 1 (7.22)
e h  i
dim Im σA |Km [x] ≤ n2 (7.23)
segue che h  i
dim ker σA |Km [x] > 0 (7.24)
Dunque, anche non considerando la restrizione di σA ai polinomi
 digrando minore
o uguale a m, si ha che dim (ker (σA )) > 0 (in quanto ker σA |Km [x] ⊂ ker (σA )).
1
Quando si studiano i polinomi, generalmente, fissato p (x) ∈ K [x], si cercano quei numeri x0
per cui p (x0 ) = 0. Qui la prospettiva è opposta: si fissa una matrice A e si cercano i polinomi
p (x) per cui p (A) = O.
80 PROPRIETÀ DEL POLINOMIO MINIMO

Osservazione 7.1.7. Il ker (σA ) è un ideale in quanto, se p (x) ∈ ker (σA ) allora, per
ogni q (x) ∈ K [x], si ha che

h (x) = p (x) q (x) ∈ ker (σA ) (7.25)

in quanto
σA (h (x)) = σA (p (x)) σA (q (x)) = 0 (7.26)

7.2 Proprietà del polinomio minimo


Teorema 7.2.1 (Esistenza e unicità del polinomio minimo). Sia A ∈ Mn (K) e sia
σA : K [x] → Mn (K) l’applicazione lineare che valuta un polinomio nella matrice A.
Allora esiste un unico polinomio monico ϕ (x) ∈ K [x] tale che, ∀p (x) ∈ ker (σA ),
∃q (x) ∈ K [x] :
p (x) = ϕ (x) q (x) (7.27)

Osservazione 7.2.2. In altre parole, ogni polinomio che appartiene al ker (σA ) è un
multiplo polinomiale di ϕ (x). Il polinomio ϕ (x) si chiamerà polinomio minimo.
Dimostrazione Sia ϕ (x) un polinomio monico di grado minimo appartenente
al kernel di σA . Consideriamo un altro polinomio p (x) ∈ ker (σA ) ed effettuiamo la
divisione polinomiale fra p (x) e ϕ (x):

p (x) = q (x) · ϕ (x) + r (x) (7.28)

con gr (r (x)) < gr (ϕ (x)). Valutando p (x) nella matrice A, e applicando le pro-
prietà descritte nella Proposizione 7.1.1, si ottiene

p (A) = q (A) · ϕ (A) +r (A) (7.29)


| {z } | {z }
O O

e quindi
r (A) = O (7.30)
Dunque r (x) ∈ ker σA , ma poichè ϕ (x) è un polinomio di grado minimo appartenen-
te al kernel di σA e gr (r (x)) < gr (ϕ (x)), allora r (x) ≡ 0, cioè r (x) è il polinomio
nullo. Quindi esiste un polinomio ϕ (x) tale che ogni polinomio p (x) ∈ ker (σA ) è
un multiplo di ϕ (x).
Dimostriamo ora l’unicità di tale polinomio. A tale scopo consideriamo un altro
polinomio monico di grado minimo ψ (x). Sia

h (x) = ϕ (x) − ψ (x) (7.31)


81

Poichè ϕ (x) e ψ (x) sono entrambi polinomi monici, allora gr (h (x)) < gr (ψ (x) , ϕ (x)).
Valutiamo il polinomio h (x) nella matrice A:

h (A) = ϕ (A) − ψ (A) = O (7.32)


| {z } | {z }
O O

Quindi h (x) ∈ ker (σA ). Ma poichè gr (h (x)) < gr (ψ (x) , ϕ (x)) e ψ (x) , ϕ (x) sono
polinomi di grado minimo appartenenti al kernel di σA , allora h (x) ≡ 0 e quindi la
(7.31) può essere riscritta come

ϕ (x) = ψ (x) (7.33)

Ciò dimostra l’unicità del polinomio minimo ϕ (x).


Osservazione 7.2.3. Il polinomio minimo è invariante per similitudine. Infatti se
A e B sono simili, allora, come enunciato nel Corollario 7.1.5, ker σA = ker σB , e
quindi entrambi i kernel hanno lo stesso polinomio monico di grado minimo che
divide tutti quelli che vi appartengono.
Osservazione 7.2.4. Se il polinomio minimo di una matrice A ha grado n, allora
ogni insieme contenente le prime n − 1 potenze di A è linearmente indipendente.
Gli altri sono tutti linearmente dipendenti. Quindi, se ϕ (x) è il polinomio minimo
di A di grado n, allora
dim (Im (σA )) = n (7.34)
Una base di Im (σA ) è infatti

B = I, A, A2 , . . . , An−1

(7.35)

Lemma (Teorema di Triangolarizzazione). Sia A ∈ Mn (K) una matrice con tutti


gli autovalori sul campo K. Allora ∃P ∈ GLn (K) tale che

P −1 · A · P = T triangolare superiore (7.36)

Dimostrazione Dimostriamo questo Lemma per induzione sull’ordine n della


matrice A.
Se n = 1 allora P = [1] in quanto una matrice quadrata di ordine uno è già
triangolare. Supponiamo ora il Lemma vero per matrici di ordine n − 1 (cioè
per ogni A0 ∈ Mn−1 (K), allora esiste P 0 ∈ GLn−1 (K) che triangolarizza A0 ), e
dimostriamo che il Lemma è vero anche per ogni matrice di ordine n. Consideriamo
a tale scopo una matrice A ∈ Mn (K) e una base B di Kn

B = {v 1 , . . . , v n } (7.37)

dove v 1 è un autovettore di A. Dalla formula di cambiamento di base segue che


 
−1 λ1 b
P1 · A · P 1 = (7.38)
O A0
82 PROPRIETÀ DEL POLINOMIO MINIMO

con  
P1 = v 1 | . . . | v n (7.39)
Per ipotesi induttiva esiste una matrice P2 che triangolarizza A0 , cioè

P2−1 · A0 · P2 = T 0 (7.40)

e quindi, scegliendo  
1 O
P3 = (7.41)
O P2
segue che
λ1 b0
 
−1
P3−1 P1−1 AP1 P3 = (P1 P3 ) · A · (P1 P3 ) = (7.42)
O T0
Osservazione 7.2.5. Ogni matrice A ∈ Mn (C) simile a una matrice triangolare, in
quanto tutti i suoi autovalori appartengono al campo C.

Teorema 7.2.6 (Teorema di Hamilton-Cayley). Siano A ∈ Mn (K) e pA (x) il


polinomio caratteristico di A. Allora

p (A) = O (7.43)

Dimostrazione Dimostriamo questo Teorema per matrici triangolarizzabili,


cioè simili a una matrice triangolare T . Poichè A e T sono simili, se pA (x) e
pT (x) sono i polinomi caratteristici delle matrici A e T , allora

pA (x) = pT (x) (7.44)

Inoltre
pA (A) = pT (A) = pT P −1 T P = P −1 pT (T ) P

(7.45)
Dunque pA (A) = O ⇐⇒ pT (T ) = O. Ci possiamo quindi limitare a dimostrare
il Teorema per le sole matrici triangolari. A tale scopo consideriamo lo spazio
vettoriale
Wi = {x ∈ Kn : xj = 0 ∀j > i} (7.46)
Sia x ∈ Wi . Allora
T · x ∈ Wi (7.47)
ma, se tii è l’elemento di posto i, i della matrice T , allora

(T − ti,i I) x ∈ Wi−1 (7.48)

Il polinomio caratteristico della matrice T è

pT (x) = (t1,1 − x) · (t2,2 − x) · · · (tn,n − x) (7.49)


83

Valutando pT (x) nella matrice T segue che

pT (T ) = (t11 · I − T ) · (t22 · I − T ) · · · (tnn · I − T ) (7.50)

Consideriamo adesso xn ∈ Kn , che equivale a xn ∈ Wn , e moltiplichiamo tale vettore


per pT (T )

pT (T ) · x = (t1,1 · I − T ) · (t2,2 · I − T ) · · · (tn,n · I − T ) x (7.51)


| {z }
∈Wn−1

pT (T ) · x = (t11 · I − T ) · (t22 · I − T ) · · · (tn−1,n−1 · I − T ) xn−1 (7.52)


| {z }
∈Wn−2

..
.
..
.
pT (T ) · x = (t11 · I − T ) x1 (7.53)
| {z }
∈W0
n
Poichè ogni vettore di K è annullato dalla matrice pT (T ), allora pT (T ) = O.
Osservazione 7.2.7. Se A ∈ Mn (K) e ϕ (x) è il suo polinomio minimo, allora

gr (ϕ (x)) ≤ n (7.54)

Osservazione 7.2.8. Se A ∈ Mn (K), allora le prime n − 1 potenze di A sono


sicuramente linearmente dipendenti. Cioè

B = A, A2 , . . . , An

(7.55)

è un insieme linearmente dipendente.


Teorema 7.2.9 (Criterio diagonalizzabilità con polinomio minimo). Siano A ∈
Mn (K) e ϕ (x) ∈ K [x] il polinomio minimo di A. Allora A è diagonalizzabile sul
campo K se e solo se ϕ(x) si fattorizza in K [x] in polinomi irriducibili di primo
grado tutti distinti.
Dimostrazione Limitiamoci a dimostrare soltanto l’implicazione (⇒). Siano
λ1 , . . . , λk gli autovalori di A. Allora il polinomio minimo di A è:

ϕ (x) = (x − λ1 ) · · · (x − λk ) (7.56)

con λi 6= λj ∀i =6 j. Mostriamo intanto che ϕ (A) = O. A tale scopo conside-


riamo una base di Kn formata dagli autovettori di A (che esiste, in quanto A è
diagonalizzabile per ipotesi). Sia inoltre

ϕ (A) = (A − λ1 I) · · · (A − λk I) (7.57)
84 PROPRIETÀ DEL POLINOMIO MINIMO

Se v i è un autovettore relativo a λi , allora

ϕ (A) · v i = (A − λ1 I) · · · (A − λk I) · v i = (7.58)

= (λi − λk ) · (λi − λk−1 ) · · · (λi − λi+1 ) · (A − λ1 I) · · · (A − λi I) · v i = O (7.59)


| {z }
O

Si osserva che
(A − λi I) · v i = O (7.60)
per definizione di autovettore. Ripetendo tali operazioni per ogni autovettore che
costituisce una base di Kn , segue che ogni vettore di tale insieme viene annullato
dalla matrice p (A). Quindi p (A) = O.
Mostriamo adesso che ϕ (x) è di grado minimo, cioè che se togliamo un termine
(x − λi ), tale polinomio non annulla più la matrice A.

ϕ0 (x) = (x − λ1 ) · · · (x − λi−1 ) (x − λi+1 ) · · · (x − λk ) (7.61)

Valutiamo ϕ0 (x) nella matrice A e moltiplichiamolo per v i , autovettore di λi :

ϕ0 (A) · v i = (A − λ1 I) · · · (A − λi−1 I) (A − λi+1 I) · · · (A − λk I) · v i = (7.62)

= (λi − λ1 ) · · · (λi − λi−1 ) · (λi − λi+1 ) · · · (λi − λ1 ) · v i 6= O (7.63)


Pertanto ϕ0 (A) 6= O in quanto, moltiplicando tale matrice per un vettore, non si
ottiene il vettore nullo.
Osservazione 7.2.10. Sia A ∈ Mn (K), con autovalori λ1 , . . . , λk . Allora, se A non
è diagonalizzabile, il suo polinomio minimo è un multiplo di

ϕA (x) = (x − λ1 ) · · · (x − λk ) (7.64)
Capitolo 8

Prodotti scalari

Definizione 8.0.1 (Prodotto scalare). Sia V uno spazio vettoriale definito su un


campo K. Un prodotto scalare

ϕ:V ×V →K (8.1)

è una forma bilineare simmetrica, che prende come input due vettori di V e resti-
tuisce come output un numero del campo K. I prodotti scalari hanno le seguenti
proprietà:

• Linearità nella componente di sinistra: ∀v 1 , v 2 , w ∈ V e ∀α, β ∈ K

ϕ (αv 1 + βv 2 , w) = αϕ (v 1 , w) + βϕ (v 2 , w) (8.2)

• Linearità nella componente di destra: ∀v, w1 , w2 ∈ V e ∀α, β ∈ V

ϕ (v, αw1 + βw2 ) = αϕ (v, w1 ) + βϕ (v, w2 ) (8.3)

• Simmetria: ∀v, w ∈ V
ϕ (v, w) = ϕ (w, v) (8.4)

Proposizione 8.0.2 (Matrice del prodotto scalare). Sia V uno spazio vettoriale
di dimensione n, definito su un campo K. Sia inoltre ϕ : V × V → K un prodotto
scalare. Allora esiste una matrice A ∈ Mn (K) tale che ∀v, w ∈ V

ϕ (v, w) = [v]TB · A · [w]B (8.5)

dove B è una base di V .

Dimostrazione Sia
B = {v 1 , . . . , v n } (8.6)

85
86 CAPITOLO 8. PRODOTTI SCALARI

una base di V . Consideriamo due vettori v, w ∈ V tali che

v = α1 v 1 + . . . + αn v n (8.7)

e
w = β1 v 1 + . . . + βn v n (8.8)
Le coordinate di v e w rispetto alla base B sono quindi:
   
α1 β1
[v]B =  ...  [w]B =  ...  (8.9)
   
αn βn

Calcoliamo il prodotto scalare ϕ (v, w) :

ϕ (v, w) = ϕ (α1 v 1 + . . . + αn v n , β1 v 1 + . . . + βn v n ) = (8.10)


n
X n
X
αi ϕ v i , v j βj = [v]TB · A · [w]B

= αi ϕ (v i , β1 v 1 + . . . + βn v n ) = (8.11)
i=1 i,j=1

dove A è una matrice


 il cui coefficiente di posizione i, j corrisponde al prodotto
scalare ϕ v i , v j .
Osservazione 8.0.3. Per la simmetria del prodotto scalare, i coefficienti di posizione
i, j e j, i di A coincidono. Dunque tale matrice è simmetrica1 .
Teorema 8.0.4 (Congruenza). Siano V uno spazio vettoriale definito su un campo
K e ϕ : V × V → K un prodotto scalare. Siano inoltre B e B 0 due diverse basi di
V , e A = MB (ϕ), C = MB 0 (ϕ) matrici associate al prodotto scalare ϕ rispetto a
tali basi. Allora
C = PT · A · P (8.12)
dove P è la matrice associata all’operatore identità di V rispetto alla base B 0 in
partenza e B in arrivo
0
P = MBB (IdV ) (8.13)
Dimostrazione Siano
B = {v 1 , . . . , v n } (8.14)
e
B 0 = {w1 , . . . , wn } (8.15)
Sia P la matrice che ha come colonne le coordinate dei vettori della base B 0 rispetto
alla base B, cioè:  
P = [w1 ]B | · · · | [wn ]B (8.16)
1
Una matrice è simmetrica se coincide con la sua trasposta. Cioè A è simmetrica se e solo se
AT = A
87


Mostriamo che l’elemento di posizione i, j della matrice C corrisponde a ϕ wi , wj :
T
(C)ij = P T (AP )j = P i A (P )j = [wi ]TB A wj B = ϕ wi , wj
   
i
(8.17)

Quindi C = MB 0 (ϕ)
Osservazione 8.0.5. La relazione scritta nella (8.12) è detta congruenza, ed è una re-
lazione di equivalenza fra matrici quadrate dello stesso ordine. Infatti tale relazione
soddisfa le seguenti proprietà:

• Proprietà riflessiva:
A = IT · A · I (8.18)

• Proprietà simmetrica:
Mostriamo innanzitutto che se P ∈ GLn (K), allora
−1 T
PT = P −1 (8.19)

Infatti T T
P T · P −1 = P −1 · P = IT = I (8.20)
e dunque la (8.19) è vera.
Verifichiamo ora che la congruenza è una relazione simmetrica. Se

A = PT · B · P (8.21)

allora −1 T
B = PT · A · P −1 = P −1 · A · P −1 (8.22)
Quindi, se A è congruente a B, allora B è congruente ad A.

• Proprietà transitiva:
Se
A = PT · B · P (8.23)
e
B = QT · C · Q (8.24)
allora
A = P T QT · C · QP = (QP )T · C · (QP ) (8.25)
dove QP ∈ GLn (K). Quidni, se A è congruente a B, e B è congruente a C,
allora A è congruente a C.

Proposizione 8.0.6 (Invarianti per congruenza). Siano A, B ∈ Mn (K) due ma-


trici congruenti. Allora

1. rg (A) = rg (B);
88 ORTOGONALITÀ

2. det (A) e det (B) hanno lo stesso segno.


Dimostrazione Il punto 1. è ancora una conseguenza del Corollario 4.1.4: mol-
tiplicare una matrice a sinistra e a destra per matrici invertibili lascia invariato il
rango. Il punto 2. è una conseguenza del Teorema di Binet. Poichè

A = PT · B · P (8.26)

allora:

det (A) = det P T BP = det P T · det (AP ) = [det (P )]2 · det (B)
 
(8.27)

Dunque, i segni di det (A) e di det (B) coincidono.


Definizione 8.0.7 (Rango di un prodotto scalare). Sia V uno spazio vettoriale
definito su un campo K e ϕ : V × V → K un prodotto scalare. Per ogni base B di
V si definisce
rg (ϕ) = rg (MB (ϕ)) (8.28)

8.1 Ortogonalità
Definizione 8.1.1 (Vettori ortogonali). Siano V uno spazio vettoriale definito su
un campo K e ϕ : V × V → K un prodotto scalare. Due vettori v, w ∈ V sono
ortogonali rispetto a ϕ se
ϕ (v, w) = 0 (8.29)
Definizione 8.1.2 (Radicale). Siano V uno spazio vettoriale definito si un campo
K e ϕ : V × V → K un prodotto scalare. Il radicale di V è l’insieme

V ⊥ = {v ∈ V : ϕ (v, w) = 0 ∀w ∈ V } (8.30)

Osservazione 8.1.3. In altre parole, l’insieme V ⊥ è costituito dai vettori che sono
ortogonali a ogni vettore di V (anche a se stessi).
Teorema 8.1.4. Siano V spazio vettoriale definito su un campo K e ϕ : V ×V → K
un prodotto scalare. Allora l’insieme V ⊥ è un sottospazio vettoriale.
Dimostrazione Siano v 1 , v 2 ∈ V ⊥ e sia w ∈ V :

ϕ (v 1 + v 2 , w) = ϕ (v 1 , w) + ϕ (v 2 , w) = 0 + 0 = 0 (8.31)

Quindi anche v 1 + v 2 ∈ V ⊥ .
Siano ora α ∈ K, v ∈ V ⊥ e w ∈ V :

ϕ (αv, w) = αϕ (v, w) = α · 0 = 0 (8.32)

Quindi anche αv ∈ V ⊥ .
89

Teorema 8.1.5. Siano V uno spazio vettoriale definito su un campo K e ϕ : V ×


V → K un prodotto scalare. Siano inoltre B una qualsiasi base di V , e A = MB (ϕ)
la matice associata a ϕ rispetto a tale base. Allora
V⊥ ∼
= ker (A) (8.33)
cioè V ⊥ e ker (A) sono isomorfi.
Dimostrazione
v ∈ V ⊥ ⇔ ϕ (v, w) = 0 ∀w ∈ V ⇔ [v]TB · A · [w]B = 0 ∀w ∈ V ⇔ (8.34)
 T
T T
⇔ [v]B · A = 0 ⇔ [v]B · A = AT · [v]B = A · [v]B = 0 ⇔ [v]B ∈ ker (A) (8.35)
Osservazione 8.1.6. Per il Teorema 8.1.5 e per la Formula delle dimensioni (Teorema
3.1.7)
dim V ⊥ = dim [ker (MB (ϕ))] = n − rg (MB (ϕ)) = n − rg (ϕ)

(8.36)
dove n = dim (V ).
Il rango indica quindi il grado di degenerazione del prodotto scalare.
Definizione 8.1.7 (Prodotto scalare degenere). Siano V uno spazio vettoriale de-
finito su un campo K e ϕ : V × V → K un prodotto scalare. Allora ϕ è degenere
se
dim V ⊥ > 0

(8.37)
e non degenere se
V ⊥ = {O} (8.38)
Definizione 8.1.8 (Insieme ortogonale). Siano V uno spazio vettoriale definito su
un campo K e ϕ : V × V → K un prodotto scalare. Sia inoltre S ⊂ V un insieme
di vettori. Si definisce
S ⊥ = {v ∈ V : ϕ (v, s) = 0 ∀s ∈ S} (8.39)
Teorema 8.1.9. Siano V uno spazio vettoriale definito su un campo K e ϕ : V ×
V → K un prodotto scalare. Sia inoltre S ⊂ V un insieme di vettori. Allora S ⊥ è
un sottospazio vettoriale di V .
Dimostrazione Siano v 1 , v 2 ∈ S ⊥ e sia s ∈ S:
ϕ (v 1 + v 2 , s) = ϕ (v 1 , s) + ϕ (v 2 , s) = 0 + 0 = 0 (8.40)
Quindi anche v 1 + v 2 ∈ S ⊥ .
Siano ora α ∈ K, v ∈ S ⊥ e s ∈ S:
ϕ (αv, s) = αϕ (v, s) = α · 0 = 0 (8.41)
Quindi anche αv ∈ S ⊥ .
90 ORTOGONALITÀ

Proposizione 8.1.10. Siano V uno spazio vettoriale definito su un campo K e


ϕ : V × V → K un prodotto scalare. Siano inoltre S e T due insiemi di vettori tali
che
S⊂T (8.42)
Allora
T ⊥ ⊂ S⊥ (8.43)
Dimostrazione Per definizione T ⊥ contiene quei vettori di V ortogonali a tutti
quelli di T , e quindi anche a quelli di S, in quanto S ⊂ T . Dunque, se v ∈ T ⊥ =⇒
v ∈ S ⊥ , e perciò
T ⊥ ⊂ S⊥ (8.44)
Proposizione 8.1.11. Siano V uno spazio vettoriale definito su un campo K e
ϕ : V × V → K un prodotto scalare. Sia inoltre S ⊂ V un insieme di vettori. Allora
S ⊥ = [Span (S)]⊥ (8.45)
Dimostrazione Poichè S ⊂ Span (S), allora, per la Proposizione 8.1.10,
S ⊥ ⊃ [Span (S)]⊥ (8.46)
Dimostriamo ora l’inclusione opposta, cioè che se v ∈ S ⊥ =⇒ v ∈ [Span (S)]⊥ . Sia
S = {s1 , . . . , sk } (8.47)
Consideriamo v ∈ S ⊥ e s ∈ Span (S), cioè tale che
s = α1 s1 + . . . + αk sk (8.48)
Dimostriamo che ϕ (v, s) = 0:
ϕ (v, s) = ϕ (v, α1 s1 + . . . + αk sk ) = α1 ϕ (v, s1 ) + . . . + αk ϕ (v, sk ) = 0 (8.49)
in quanto, poichè v ∈ S ⊥ , tutti i prodotti scalari ϕ (v, si ) sono nulli. Ciò dimostra
che
S ⊥ ⊂ [Span (S)]⊥ (8.50)
Osservazione 8.1.12. Sia V uno spazio vettoriale definito su un campo K con ϕ :
V × V → K un prodotto scalare. Sia inoltre W un sottospazio vettoriale di V e
BW una sua base. Allora, per la Proposizione 8.1.11,
v ∈ W ⊥ ⇐⇒ v ∈ [BW ]⊥ (8.51)
Teorema 8.1.13 (Formula delle dimensioni dell’ortogonale). Siano V uno spazio
vettoriale di dimensione n definito su un campo K, e ϕ : V × V → K un prodotto
scalare. Sia inoltre W un sottospazio vettoriale di V . Allora
dim (V ) = dim (W ) + dim W ⊥ − dim V ⊥ ∩ W
 
(8.52)
91

Dimostrazione Consideriamo una base B di V e una base BW di W :

BW = {w1 , . . . , wk } (8.53)

Sia
A = MB (ϕ) (8.54)
la matrice associata prodotto scalare ϕ rispetto alla base B. Per quanto affermato
nell’Osservazione 8.1.12,
v ∈ W ⊥ ⇐⇒ v ∈ BW ⊥
(8.55)
cioè
v ∈ W ⊥ ⇐⇒ [wi ]TB · A · [v]B = 0 ∀wi ∈ BW (8.56)
Consideriamo ora la matrice
 
C = [w1 ]B | · · · | [wk ]B (8.57)

La (8.56) equivale a
v ∈ W ⊥ ⇐⇒ C T · A · [v]B = 0 (8.58)
Quindi
v ∈ W ⊥ ⇐⇒ v ∈ ker C T · A

(8.59)
Applicando la formula delle dimensioni e ricordando che la matrice A, poichè
associata a un prodotto scalare, è simmetrica, dalla (8.59) segue che
T
dim W ⊥ = dim ker C T · A = n − rg C T · A = n − rg C T · A = (8.60)
  

= n − rg AT · C = n − rg (A · C) = dim (V ) − rg (A · C)

(8.61)
Come descritto nella Proposizione 3.3.12, il prodotto A · C geometricamente rap-
presenta la composizione di due applicazioni lineari. Scriviamo quindi la formula
delle dimensioni per A |Im(C) :
 
dim (Im (C)) = dim Im (A) |Im(C) + dim (ker (A) ∩ Im (C)) (8.62)

Poichè C ha come colonne i vettori della base di W , allora

(Im (C)) = W (8.63)

Inoltre, poichè A è la matrice del prodotto scalare ϕ, dal Teorema 8.1.5 segue che

ker (A) = V ⊥ (8.64)

Infine  
dim Im (A) |Im(C) = dim (Im (A · C)) = rg (A · C) (8.65)
92 ORTOGONALITÀ

Sostituendo le (8.63), (8.64) e (8.65) nella (8.62), tale equazione può essere scritta
come
dim (W ) = rg (A · C) + dim V ⊥ ∩ W

(8.66)
e sostituendo la (8.66) nella (8.61) segue che

dim W ⊥ = dim (V ) − dim (W ) + dim V ⊥ ∩ W


 
(8.67)

che equivale alla tesi del Teorema, cioè

dim (V ) = dim (W ) + dim W ⊥ − dim V ⊥ ∩ W


 
(8.68)

Corollario 8.1.14 (Somma diretta ortogonale). Siano V uno spazio vettoriale de-
finito su un campo K e ϕ : V × V → K un prodotto scalare. Sia inoltre W un
sottospazio vettoriale di V . Allora

V = W ⊕ W ⊥ ⇐⇒ ϕ |W non è degenere (8.69)

Dimostrazione ϕ |W non è degenere se e solo se W non contiene vettori che


appartengono al suo ortogonale. Cioè

ϕ |W non degenere ⇐⇒ W ∩ W ⊥ = {O} ⇐⇒ V = W ⊕ W ⊥ (8.70)

Dimostriamo l’equivalenza W ∩ W ⊥ = {O} ⇐⇒ V = W ⊕ W ⊥ .
(⇒) Se W ∩ W ⊥ = {O}, allora, dalla formula delle dimensioni dell’ortogonale segue
che
dim (V ) = dim (W ) + dim W ⊥

(8.71)
Ciò è sufficiente per concludere che

V = W ⊕ W⊥ (8.72)

(⇐) Se V = W ⊕ W ⊥ , allora, dalla Definizione 1.2.30 di somma diretta segue che

W ∩ W ⊥ = {O} (8.73)

Definizione 8.1.15 (Forma quadratica). Siano V uno spazio vettoriale di dimen-


sione n definito su un campo K, e ϕ : V × V → K un prodotto scalare. La forma
quadratica associata a ϕ è l’operatore

q : V −→ K (8.74)

tale che
q (v) = ϕ (v, v) (8.75)
93

100
75
50
25 z
0
25
50
75
100
100
75
10075 50
50 25
25 0 0
25 y
x 25 50 50
75 100 10075

Figura 8.1: Superficie costituita da vettori isotropi relativi al prodotto scalare la


cui forma quadratica è q (v) = x2 + y 2 − z 2 .

Osservazione 8.1.16. La forma quadratica non è un’applicazione lineare.


Definizione 8.1.17 (Vettore isotropo). Siano V uno spazio vettoriale di dimen-
sione n definito su un campo K, e ϕ : V × V → K un prodotto scalare. Un vettore
v ∈ V si dice isotropo se
q (v) = 0 (8.76)
Osservazione 8.1.18. Il luogo dei punti dei vettori isotropi di un prodotto scalare in
R3 può essere una superficie o una retta. Per esempio, i vettori isotropi del prodotto
scalare la cui forma quadratica è
q (v) = x2 + y 2 − z 2 (8.77)
si dispongono sulla superficie di un cono nello spazio, come quello di Figura 8.1.
Definizione 8.1.19. Siano V uno spazio vettoriale di dimensione n definito sul
campo R, e ϕ : V × V → R un prodotto scalare.
94 ORTOGONALITÀ

• ϕ è definito positivo se q (v) > 0 ∀v 6= O;

• ϕ è definito negativo se q (v) < 0 ∀v 6= O;

• ϕ è indefinito se non è degenere e, al variare di v ∈ V , q (v) assume sia valori


positivi che negativi.
Osservazione 8.1.20. Un prodotto scalare definito positivo o negativo è anche non
degenere. Infatti, se per esempio il prodotto scalare fosse definito positivo, allora

/ V ⊥ ∀v ∈ V
ϕ (v, v) > 0 ∀v ∈ V =⇒ ϕ (v, v) 6= 0 ∀v ∈ V =⇒ v ∈ (8.78)

Definizione 8.1.21 (Base ortogonale). Siano V uno spazio vettoriale di dimensione


n definito su un campo K, e ϕ : V × V → K un prodotto scalare. Una base B di V
è ortogonale se, ∀v i , v j ∈ B, con i 6= j,

ϕ vi, vj = 0 (8.79)

Teorema 8.1.22 (Teorema di Lagrange). Ogni spazio vettoriale V con un prodotto


scalare ϕ : V × V → K ha una base ortogonale.
Dimostrazione Dimostriamo il Teorema per induzione sulla dimensione n di
V.
Se n = 1 il Teorema è vero, in quanto ogni base è costituita da un solo elemento, e
quindi è già ortogonale.
Supponiamo ora che ogni spazio vettoriale di dimensione n − 1 abbia una base
ortogonale, e verifichiamo che ciò è vero anche per gli spazi vettoriali di dimensione
n. A tale scopo, distinguiamo due casi:
1. In V esiste almeno un vettore non isotropo.
Sia v ∈ V un vettore non isotropo. Consideriamo il sottospazio vettoriale

Span (v) ⊂ V (8.80)

Poichè v non è isotropo, allora ϕ |Span(v) non è degenere, e quindi



V = Span (v) ⊕ [Span (v)]⊥ (8.81)

Lo spazio vettoriale
[Span (v)]⊥ (8.82)
ha dimensione n − 1, e quindi, per ipotesi induttiva, ha una base ortogonale
B 0 . L’insieme
B = {v} ∪ B 0 (8.83)
è una base ortogonale di V , in quanto B 0 è già un insieme di vettori a due a
due ortogonali e, inoltre, ∀w ∈ B 0 , ϕ (v, w) = 0
95

2. V contiene solo vettori isotropi.


Se V contiene solo vettori isotropi, allora ϕ è il prodotto scalare nullo. Infatti

1
ϕ (v, w) = [ϕ (v + w, v + w) − ϕ (v, v) − ϕ (w, w)] (8.84)
2
cioè
1
ϕ (v, w) = [q (v + w) − q (v) − q (w)] (8.85)
2
Quindi, poichè q (v) = 0 ∀v ∈ V , allora dalla (8.85) segue che ϕ (v, w) =
0 ∀v, w ∈ V

Osservazione 8.1.23. Dalla sola forma quadratica è possibile risalire al valore del
prodotto scalare fra una qualsiasi coppia di elementi. Infatti

1
ϕ (v, w) = [q (v + w) − q (v) − q (w)] (8.86)
2

Corollario 8.1.24. Sia A ∈ Mn (K) simmetrica. Allora esiste P ∈ GLn (K) tale
che
PT · A · P = D (8.87)
dove D è una matrice diagonale.

Dimostrazione La matrice A, in quanto simmetrica, è associata a un prodotto


scalare ϕ di Kn rispetto alla base canonica. Per il Teorema 8.1.22 di Lagrange
esiste quindi una base ortogonale B di Kn , rispetto alla quale

MB (ϕ) = D (8.88)

con D matrice diagonale. Per la formula di cambiamento di base (8.12) dunque


esiste P ∈ GLn (K) tale che
PT · A · P = D (8.89)
Quindi A è congruente a una matrice diagonale.

8.1.1 Teoremi di Sylvester


Teorema 8.1.25 (Teorema di Sylvester: caso complesso). Siano V uno spazio
vettoriale definito sul campo C e ϕ : V ×V → C un prodotto scalare, con rg (ϕ) = r.
Allora esiste una base B di V tale che la matrice associata a ϕ rispetto a tale base
è:  
Ir×r 0
MB (ϕ) = (8.90)
0 0
96 ORTOGONALITÀ

Dimostrazione Per il Teorema 8.1.22 di Lagrange esiste una base B 0 di V


ortogonale. Scambiamo i vettori isotropi v i della base B 0 con altri non isotropi v j ,
con j > i (in altre parole spostiamo in fondo alla base tutti i vettori isotropi di B 0 )
e sostituiamoli con
v0
v 0i −→ v i = p i 0 0 (8.91)
ϕ (v i , v i )
In tal modo, se i 6= j

ϕ v 0i , v 0j


ϕ vi, vj = q  =0 (8.92)
ϕ (v 0i , v 0i ) · ϕ v 0j , v 0j

in quanto v 0i e v 0j sono ortogonali. Se i = j, allora

ϕ (v 0i , v 0i )
ϕ (v i , v i ) = p =1 (8.93)
ϕ (v 0i , v 0i ) · ϕ (v 0i , v 0i )

Corollario 8.1.26. Siano A, B ∈ Mn (C) due matrici simmetriche. Allora A e B


sono congruenti se e solo se hanno lo stesso rango.
Dimostrazione (⇒) Come dimostrato nella Proposizione 8.0.6, se A e B sono
congruenti, allora il loro rango coincide.
(⇐) Le matrici A e B, in quanto simmetriche, possono essere associate a prodotto
scalari ϕA e ϕB . Per il Teorema 8.1.1 di Sylvester, poichè rg (A) = rg (B), ∃P, Q ∈
GLn (C) :
PT · A · P = D (8.94)
QT · B · Q = D (8.95)
dove D è una matrice come la (8.90). Dunque, per la proprietà transitiva e
simmetrica della congruenza, anche A e B sono fra loro congruenti.
Osservazione 8.1.27. Sia V = Mn (C). Allora in V esistono n + 1 classi di con-
gruenza, distinte dal rango delle matrici che vi appartengono.
Definizione 8.1.28 (Indice di positività, negatività e nullità). Siano V uno spazio
vettoriale definito su un campo K e ϕ : V × V → K un prodotto scalare. Sia inoltre
W ⊂ V un sottospazio vettoriale. Allora

ι+ = max {dim (W ) : ϕ |W > 0} (8.96)

ι− = max {dim (W ) : ϕ |W < 0} (8.97)


ι0 = dim V ⊥

(8.98)
dove ι+ , ι− e ι0 sono rispettivamente gli indici di positività, negatività e nullità del
prodotto scalare ϕ.
97

Teorema 8.1.29 (Teorema di Sylvester: caso reale). Siano V uno spazio vettoriale
definito sul campo R e ϕ : V × V → R un prodotto scalare. Allora, per ogni base
ortogonale di V
B = {v 1 , . . . , v n } (8.99)
si ha che
ι+ = # {v i ∈ B : ϕ (v i , v i ) > 0} (8.100)
ι− = # {v i ∈ B : ϕ (v i , v i ) < 0} (8.101)
ι0 = # {v i ∈ B : ϕ (v i , v i ) = 0} (8.102)

Dimostrazione Sia B una base ortogonale di V , e siano



v 1 , . . . , v p ∈ B : ϕ (v i , v i ) > 0 (8.103)

v p+1 , . . . , v q ∈ B : ϕ (v i , v i ) < 0 (8.104)

v q+1 , . . . , v n ∈ B : ϕ (v i , v i ) = 0 (8.105)
Consideriamo i sottospazi vettoriali

W+ = Span v 1 , . . . , v p (8.106)

W− = Span v p+1 , . . . , v q (8.107)

W0 = Span v q+1 , . . . , v n (8.108)
Poichè l’unione delle basi di W+ , W− e W0 costituisce una base di V , e l’intersezione
di uno di questi sottospazi con la somma degli altri due è banale, allora

V = W+ ⊕ W− ⊕ W0 (8.109)

Dimostriamo che W0 = V ⊥ . A tale scopo mostriamo innanzitutto che

W0 ⊂ V ⊥ (8.110)

Consideriamo w ∈ W0 :
w = αq+1 v q+1 + . . . + αn v n (8.111)
e un generico vettore v ∈ V :

v = β1 v 1 + . . . + βp+1 v p+1 + . . . + βq+1 v q+1 + . . . + βn v n (8.112)

Calcoliamo il prodotto scalare fra v e w:



ϕ (v, w) = ϕ αq+1 v q+1 + . . . + αn v n , β1 v 1 + . . . + βn v n (8.113)
98 ORTOGONALITÀ

Per la bilinearità del prodotto scalare, la (8.113) può essere scritta come
n X
X n

ϕ (v, w) = αi ϕ v i , v j βj = 0 (8.114)
i=q+1 j=1


in quanto, per j 6= i, ϕ v i , v j = 0 perchè v i , v j appartengono a una base orto-
gonale. Invece, per j = i, ϕ v i , v j = 0 perchè i v i sono isotropi. Quindi, se
w ∈ W0 =⇒ w ∈ V ⊥ , e ciò dimostra la (8.110). Scriviamo ora la matrice del
prodotto scalare rispetto alla base ortogonale B :

··· ··· ··· 0


 
a1,1 0
 0 a2,2
 . ··· ··· · · · · · · 0
 . .. .. .. .. .. .. 
 . . . . . . .

MB (ϕ) =  0 0 ··· aq,q ··· 0 (8.115)
 

 0 0 ··· 0 0 · · · 0
 
 . .. .. .. .. . . .. 
 .. . . . . . .
0 0 ··· ··· ··· ··· 0

si osserva che

dim (ker (MB (ϕ))) = dim V ⊥ = n − q = dim (W0 )



(8.116)

e quindi, poichè W0 ⊂ V ⊥ e dim V ⊥ = dim (W0 ), allora




V ⊥ = W0 (8.117)

Ciò dimostra che

ι0 = dim V ⊥ = dim (W0 ) = # {v i ∈ B : ϕ (v i , v i ) = 0}



(8.118)

Mostriamo ora che


ϕ |W+ > 0 (8.119)
e
ϕ |W− < 0 (8.120)
A tale scopo consideriamo v ∈ W+ :

v = α1 v 1 + . . . + αp v p (8.121)

e calcoliamo ϕ (v, v)
n
X 
ϕ (v, v) = αi ϕ v i , v j αj (8.122)
i,j=1
99


e tenendo conto che ϕ v i , v j = 0 ∀i 6= j, allora

ϕ (v, v) = α12 ϕ (v 1 , v 1 ) + . . . + αp2 ϕ v p , v p



(8.123)
Dall’ipotesi che ϕ (v i , v i ) > 0 ∀i, segue che anche ϕ (v, v) > 0. Questo dimostra
che ϕ |W+ > 0, e, in maniera del tutto analoga, si dimostra che ϕ |W− < 0. Quindi
abbiamo individuato due sottospazi di V su cui la restrizione di ϕ è definita positiva
su uno e negativa sull’altro. Perciò
ι+ ≥ dim (W+ ) (8.124)
e
ι− ≥ dim (W− ) (8.125)
Supponiamo ora ι+ > dim (W+ ), cioè l’esistenza di un sottospazio W tale che
dim (W ) > dim (W+ ) (8.126)
e
ϕ |W > 0 (8.127)
Ricordando che dim (V ) = dim [W + (W− ⊕ W0 )], dalla formula delle dimensioni
segue che
dim [W + (W− ⊕ W0 )] = dim (W ) + dim (W− ⊕ W0 ) − dim [W ∩ (W− ⊕ W0 )]
| {z }
> dim(V )
(8.128)
e quindi
dim [W ∩ (W− ⊕ W0 )] > 0 (8.129)
Esiste allora un vettore v 0 non nullo tale che
v 0 ∈ W ∩ (W− ⊕ W0 ) (8.130)
Ciò è assurdo, perchè ϕ (v 0 , v 0 ) non può essere un numero contemporaneamente
positivo e minore o uguale a zero. Dunque l’ipotesi ι+ > dim (W+ ) è da scartare, e
quindi
ι+ = dim (W+ ) (8.131)
Analogamente si dimostra che
ι− = dim (W− ) (8.132)
da cui segue la tesi del Teorema:
ι+ = # {v i ∈ B : ϕ (v i , v i ) > 0} (8.133)
e
ι− = # {v i ∈ B : ϕ (v i , v i ) < 0} (8.134)
100 ORTOGONALITÀ

Corollario 8.1.30. Siano V uno spazio vettoriale definito sul campo R, e ϕ :


V × V → R un prodotto scalare. Allora esiste una base B di V tale che
 
I 0 0
MB (ϕ) =  0 −I 0  (8.135)
0 0 0
Dimostrazione Consideriamo una base ortogonale B di V

B = v 1 , . . . , v p , v p+1 , . . . , v q , v q+1 , . . . , v n (8.136)
ordinata in modo tale che

v 1 , . . . , v p ∈ B : ϕ (v i , v i ) > 0 (8.137)

v p+1 , . . . , v q ∈ B : ϕ (v i , v i ) < 0 (8.138)

v q+1 , . . . , v n ∈ B : ϕ (v i , v i ) = 0 (8.139)
Sostituiamo ogni vettore v i ∈ B non isotropo con
vi
v i −→ v 0i = p (8.140)
|ϕ (v i , v i )|
in modo da ottenere una nuova base B 0 . La matrice associata a ϕ rispetto a tale
base coincide con la (8.135).
Definizione 8.1.31 (Segnatura). Sia ϕ un prodotto scalare. La segnatura di ϕ è
la terna di numeri:
σ (ϕ) = (ι+ , ι− , ι0 ) (8.141)
Definizione 8.1.32 (Segnatura di una matrice). Sia A ∈ Mn (K) una matrice
simmetrica associata a un prodotto scalare ϕ. Allora
σ (A) = σ (ϕ) (8.142)
Teorema 8.1.33 (Criterio di congruenza). Siano A, B ∈ Mn (R) due matrici
simmetriche. Allora A e B sono congruenti se e solo se la loro segnatura coincide.
Dimostrazione (⇒) Le matrici A e B, in quanto congruenti e simmetriche,
sono associate a uno stesso prodotto scalare ϕ : V × V → K rispetto a basi diverse
di V . Dalla la Definizione 8.1.32 segue
σ (A) = σ (ϕ) = σ (B) (8.143)
(⇐) Siano ancora A e B matrici associate a prodotti scalari (che stavolta a priori
possono essere differenti). Poichè A e B hanno la stessa segnatura, per il Teorema
8.1.29 di Sylvester sono entrambe congruenti a una matrice come la 8.135. Quindi,
per la proprietà simmetrica e transitiva della congruenza, A e B sono fra loro
congruenti.
101

8.2 Prodotti hermitiani


Definizione 8.2.1 (Prodotto hermitiano). Sia V uno spazio vettoriale definito sul
campo C. Un prodotto hermitiano è un operatore

ϕ:V ×V →C (8.144)

con le seguenti due proprietà:

• Linearità nella componente di destra: ∀v, w1 , w2 ∈ V e ∀α, β ∈ C

ϕ (v, αw1 + βw2 ) = αϕ (v, w1 ) + βϕ (v, w2 ) (8.145)

• Hermitianità: ∀v, w ∈ V
ϕ (v, w) = ϕ (w, v) (8.146)

Osservazione 8.2.2. Dalle due proprietà del prodotto hermitiano ne discendono


altre:

• Linearità rispetto alla somma nella componente di sinistra: ∀v 1 , v 2 , w ∈ V

ϕ (v 1 + v 2 , w) = ϕ (w, v 1 + v 2 ) = ϕ (w, v 1 ) + ϕ (w, v 2 ) = ϕ (v 1 , w) + ϕ (v 2 , w)


(8.147)

• Non linearità nel prodotto con un numero nella componente di sinistra:


∀v, w ∈ V e ∀α ∈ C

ϕ (αv, w) = ϕ (w, αv) = αϕ (w, v) = αϕ (v, w) (8.148)

• La norma è reale: ∀v ∈ V

ϕ (v, v) = ϕ (v, v) ∈ R (8.149)

Proposizione 8.2.3 (Matrice del prodotto hermitiano). Sia V uno spazio vettoriale
definito sul campo C con una base B. Sia inoltre ϕ : V × V → C un prodotto
hermitiano. Allora esiste una matrice A ∈ Mn (C) tale che

ϕ (v, w) = [v]∗B · A · [w]B (8.150)

dove
T
[v]∗B = [v]B (8.151)
102 PRODOTTI HERMITIANI

Dimostrazione Sia
B = {v 1 , . . . , v n } (8.152)
una base di V . Consideriamo due vettori v, w ∈ V

v = α1 v 1 + . . . + αn v n (8.153)

w = β1 v 1 + . . . + βn v n (8.154)
le cui coordinate rispetto alla base B sono:
   
α1 β1
[v]B =  ...  [w]B =  ..  (8.155)
  
. 
αn βn

Calcoliamo il prodotto hermitiano ϕ (v, w):

ϕ (v, w) = ϕ (α1 v 1 + . . . + αn v n , β1 v 1 + . . . + βn v n ) = (8.156)


n
X n
X
αi ϕ v i , v j βj = [v]∗B · A · [w]B

= αi ϕ (v i , β1 v 1 + . . . + βn v n ) = (8.157)
i=1 i,j=1

Nelle (8.156) e (8.157) si sono utilizzate la linearità nella componente di destra e


l’antilinearità nella componente sinistra del prodotto hermimtiano.

Osservazione 8.2.4. Il coefficiente di posizione i, j della matrice A è ϕ v i , v j . Tale
 
matrice è quindi hermitiana, in quanto ϕ v i , v j = ϕ v j , v i . Dunque

A∗ = A (8.158)

Osservazione 8.2.5. Per il prodotto hermitiano continuano a valere i Teoremi di


Lagrange e di Sylvester. Si ha la stessa definizione di segnatura di un prodotto
scalare (in quanto la norma hermitiana di ogni vettore è un numero reale).

Teorema 8.2.6 (Formula di cambiamento di base). Siano V uno spazio vettoriale


definito sul campo C, e ϕ : V × V → C un prodotto hermitiano. Siano inoltre B
e B 0 due diverse basi di V , e A = MB (ϕ) , C = MB 0 (ϕ) le matrici associate al
prodotto hermitiano ϕ rispetto a tali basi. Allora

C = P∗ · A · P (8.159)

dove P è la matrice associata all’operatore identità di V rispetto alla base B 0 in


partenza e B in arrivo
0
P = MBB (IdV ) (8.160)
103

Dimostrazione Siano
B = {v 1 , . . . , v n } (8.161)
e
B 0 = {w1 , . . . , wn } (8.162)
Sia P la matrice che ha come colonne le coordinate dei vettori della base B 0 rispetto
alla base B, cioè:  
P = [w1 ]B | · · · | [wn ]B (8.163)

Mostriamo che l’elemento i, j della matrice C corrisponde a ϕ wi , wj :
∗
(C)i,j = (P ∗ )i (AP )j = P i A (P )j = [wi ]∗B A wj B = ϕ wi , wj
  
(8.164)

Quindi C = MB 0 (ϕ)

8.3 Operatori simmetrici, ortogonali, hermitiani


e unitari
Definizione 8.3.1 (Matrice simmetrica). Sia A ∈ Mn (K).

A simmetrica ⇐⇒ AT = A (8.165)

Definizione 8.3.2 (Matrice ortogonale). Sia A ∈ Mn (K).

A ortogonale ⇐⇒ AT · A = A · AT = I (8.166)

Definizione 8.3.3 (Matrice hermitiana). Sia A ∈ Mn (K).

A hermitiana ⇐⇒ A∗ = A (8.167)

Definizione 8.3.4 (Matrice unitaria). Sia A ∈ Mn (K).

A unitaria ⇐⇒ A∗ · A = A · A∗ = I (8.168)

Definizione 8.3.5 (Spazio euclideo). Siano V uno spazio vettoriale definito su un


campo K, con ϕ : V × V → K un prodotto scalare definito positivo. Allora V è uno
spazio euclideo.

Definizione 8.3.6 (Operatore simmetrico). Sia V uno spazio vettoriale euclideo


definito sul campo R. Un’applicazione lineare f : V → V si dice simmetrica se

ϕ (f (v) , w) = ϕ (v, f (w)) ∀v, w ∈ V (8.169)


104 OPERATORI SIMMETRICI, ORTOGONALI, HERMITIANI E UNITARI

Definizione 8.3.7 (Operatore ortogonale). Sia V uno spazio vettoriale euclideo


definito sul campo R. Un’applicazione lineare f : V → V si dice ortogonale se

ϕ (f (v) , f (w)) = ϕ (v, w) ∀v, w ∈ V (8.170)

Teorema 8.3.8. Sia V uno spazio vettoriale euclideo definito sul campo R. Siano
inoltre B una base ortonormale di V e f : V → V un’applicazione lineare. Allora

f simmetrico ⇐⇒ MB (f ) simmetrica (8.171)

Dimostrazione Poichè B è una base ortonormale, la matrice associata a ϕ


rispetto a tale base è
MB (ϕ) = I (8.172)
Sia
A = MB (f ) (8.173)
la matrice associata all’applicazione lineare f rispetto alla base B. Consideriamo
due vettori v, w ∈ V . Calcoliamo ϕ (f (v) , w) e ϕ (v, f (w)):

ϕ (f (v), w) = [f (v)]TB · I · [w]B = [A [v]B ]T [w]B = [v]TB · AT · [w]B (8.174)

ϕ (v, f (w)) = [v]TB · I · [f (w)]B = [v]TB · A · [w]B (8.175)


Dalla definizione (8.3.6) di operatore simmetrico segue che:

f simmetrico ⇔ [v]TB · AT · [w]B = [v]TB · A · [w]B ∀v, w ∈ V ⇔ AT = A (8.176)

Teorema 8.3.9. Sia V uno spazio vettoriale euclideo definito sul campo R. Siano
inoltre B una base ortonormale di V e f : V → V un’applicazione lineare. Allora

f ortogonale ⇐⇒ MB (f ) ortogonale (8.177)

Dimostrazione Poichè B è una base ortonormale, la matrice associata a ϕ


rispetto a tale base è
MB (ϕ) = I (8.178)
Sia
A = MB (f ) (8.179)
la matrice associata all’applicazione lineare f rispetto alla base B. Consideriamo
due vettori v, w ∈ V . Calcoliamo ϕ (v, w) e ϕ (f (v), f (w)):

ϕ (v, w) = [v]B · I · [w]B = [v]B · [w]B (8.180)

ϕ (f (v), f (w)) = [f (v)]TB · I · [f (w)]B = [A [v]B ]T · A [w]B = [v]TB AT · A [w]B (8.181)


Dalla definizione (8.3.7) di operatore ortogonale segue che:

f ortogonale ⇔ [v]B · [w]B = [v]TB AT · A [w]B ∀v, w ∈ V ⇔ AT · A = I (8.182)


105

Definizione 8.3.10 (Operatore hermitiano). Siano V uno spazio vettoriale euclideo


definito sul campo C, e ϕ : V × V → C un prodotto hermitiano. Un’applicazione
lineare f : V → V si dice hermitiana se

ϕ (f (v) , w) = ϕ (v, f (w)) ∀v, w ∈ V (8.183)

Definizione 8.3.11 (Operatore unitario). Siano V uno spazio vettoriale euclideo


definito sul campo C, e ϕ : V ×V → C prodotto hermitiano. Un’applicazione lineare
f : V → V si dice unitaria se

ϕ (f (v) , f (w)) = ϕ (v, w) ∀v, w ∈ V (8.184)

Teorema 8.3.12. Siano V uno spazio vettoriale euclideo definito sul campo C, e
ϕ : V × V → C prodotto hermitiano. Siano inoltre B una base ortonormale di V e
f : V → V un’applicazione lineare. Allora

f hermitiano ⇐⇒ MB (f ) hermitiana (8.185)

Dimostrazione Poichè B è una base ortonormale, la matrice associata a ϕ


rispetto a tale base è
MB (ϕ) = I (8.186)
Sia
A = MB (f ) (8.187)
la matrice associata all’applicazione lineare f rispetto alla base B. Siano v, w ∈ V .
Calcoliamo ϕ (f (v), w) e ϕ (v, f (w)):

ϕ (f (v), w) = [f (v)]∗B · I · [w]B = [A [v]B ]∗ [w]B = [v]∗B · A∗ · [w]B (8.188)

ϕ (v, f (w)) = [v]∗B · I · [f (w)]B = [v]∗B · A · [w]B (8.189)


Dalla definizione (8.3.12) di operatore hermitiano segue che:

f hermitiano ⇔ [v]∗B · A∗ · [w]B = [v]∗B · A · [w]B ∀v, w ∈ V ⇔ A∗ = A (8.190)

Teorema 8.3.13. Siano V uno spazio vettoriale euclideo definito sul campo C, e
ϕ : V × V → C prodotto hermitiano euclideo. Siano inoltre B una base ortonormale
di V e f : V → V un’applicazione lineare. Allora

f unitario ⇐⇒ MB (f ) unitaria (8.191)

Dimostrazione Poichè B è una base ortonormale, la matrice associata a ϕ


rispetto a tale base è
MB (ϕ) = I (8.192)
Sia
A = MB (f ) (8.193)
106 OPERATORI SIMMETRICI, ORTOGONALI, HERMITIANI E UNITARI

la matrice associata all’applicazione lineare f rispetto alla base B. Siano v, w ∈ V .


Calcoliamo ϕ (v, w) e ϕ (f (v), f (w)):

ϕ (v, w) = [v]B · I · [w]B = [v]B · [w]B (8.194)

ϕ (f (v), f (w)) = [f (v)]∗B · I · [f (w)]B = [A [v]B ]∗ · A [w]B = [v]∗B A∗ · A [w]B (8.195)


Dalla definizione (8.3.13) di operatore unitario segue che:

f unitario ⇔ [v]B · [w]B = [v]∗B A∗ · A [w]B ∀v, w ∈ V ⇔ A∗ · A = I (8.196)

8.3.1 Matrici ortogonali


Proposizione 8.3.14 (Gruppo matrici ortogonali). Le matrici ortogonali formano
un gruppo On rispetto al prodotto riga-colonna.
Dimostrazione Consideriamo due matrici A, B ∈ On tali che

AT · A = I (8.197)

e
BT · B = I (8.198)
Mostriamo che A · B ∈ On :

(AB)T · (AB) = B T AT · AB = B T · B = I (8.199)

Quindi anche A · B è una matrice ortogonale.


Sia ora A ∈ On . Mostriamo che anche A−1 ∈ On .
T −1 −1 −1
A−1 · A−1 = AT · A = A · AT = I −1 = I (8.200)

Quindi anche A−1 è una matrice ortogonale. Ciò dimostra che le matrici ortogonali
formano un gruppo rispetto al prodotto riga-colonna.
Proposizione 8.3.15. Se A è una matrice ortogonale, allora

det (A) = ±1 (8.201)

Dimostrazione Applicando il Teorema di Binet alla Definizione 8.3.2 di matrice


ortogonale segue che

det AT · A = det AT · det (A) = [det (A)]2 = det (I) = 1


 
(8.202)

e quindi
det (A) = ±1 (8.203)
107

Proposizione 8.3.16 (Matrici ortogonali speciali). Le matrici ortogonali con de-


terminante pari a uno formano un sottogruppo SOn di On , detto matrici ortogonali
speciali.
Dimostrazione Siano A, B ∈ SOn , cioè A e B sono matrici ortogonali con
determinante pari a uno. Per la Proposizione 8.3.14, A · B ∈ On e, poichè, per il
Teorema di Binet,
det (A · B) = det (A) · det (B) = 1 (8.204)
segue che A · B ∈ SOn .
Supponiamo ora A ∈ On e dimostriamo che A−1 ∈ SOn . Per la Proposizione 8.3.14
A−1 è una matrice ortogonale. Inoltre, per il Corollario 5.3.4
1
det A−1 =

=1 (8.205)
det (A)
e quindi A−1 ∈ SOn
Proposizione 8.3.17. Sia A ∈ Mn (R). A è una matrice ortogonale se e solo se
le sue righe e le sue colonne sono una base ortonormale di Rn rispetto al prodotto
scalare canonico.
Dimostrazione Dalla Definizione 8.3.2 di matrice ortogonale segue che
T
AT · A = I ⇔ AT · A i,j = δij ⇔ AT i · (A)j = Ai · Aj = δi,j
 
(8.206)
T
dove (Ai ) · Aj corrisponde al prodotto scalare canonico fra la i−esima e la j−esima
colonna di A. Perciò A è ortogonale se e solo se le sue colonne sono una base
ortogonale di Rn rispetto al prodotto scalare canonico. Analogamente, scrivendo
che
A ortogonale ⇔ AT · A = I ⇔ A · AT = I T = I (8.207)
si può dimostrare che A è ortogonale se e solo se le sue righe sono una base ortogonale
di Rn rispetto al prodotto scalare canonico.
Proposizione 8.3.18. Sia A ∈ Mn (R). A è una matrice ortogonale se e solo se
conserva il prodotto scalare canonico.
Dimostrazione Consideriamo due vettori v, w ∈ Rn . Sia ϕ il prodotto scalare
canonico di Rn .
ϕ (Av, Aw) = (Av)T · Aw = v T AT · Aw (8.208)
ϕ (v, w) = v · w (8.209)
Dalla definizione di matrice ortogonale segue che
A ortogonale ⇔ AT · A = I ⇔ (8.210)
⇔ vAT · Aw = v · w ∀v, w ∈ Rn ⇔ ϕ (Av, Aw) = ϕ (v, w) (8.211)
108 OPERATORI SIMMETRICI, ORTOGONALI, HERMITIANI E UNITARI

Proposizione 8.3.19. Sia A ∈ Mn (R). A è una matrice ortogonale se e solo se


trasforma basi ortonormali in basi ortonormali rispetto al prodotto scalare canonico.
Dimostrazione (⇒) Questa implicazione è dimostrata dalla Proposizione (8.3.18).
Infatti, sia
B = {v 1 , . . . , v n } (8.212)
una base ortonormale di Rn rispetto al prodotto scalare canonico, cioè

ϕ v i , v j = δij (8.213)

Poichè una matrice ortogonale conserva il prodotto scalare canonico, ne segue che

ϕ Av i , Av j = δij (8.214)

cioè
B 0 = {Av 1 , . . . , Av n } (8.215)
continua a essere una base ortonormale di Rn (l’indipendenza lineare dei vettori di
B 0 deriva dal fatto che A ha rango massimo).
(⇐) Supponiamo ora che A sia una matrice che trasforma basi ortonormali di Rn
in altre basi ortonormali rispetto al prodotto scalare canonico. Sia

B = {v 1 , . . . , v n } (8.216)

base ortonormale, e quindi anche

B 0 = {Av 1 , . . . , Av n } (8.217)

è una base ortonormale per ipotesi. Consideriamo ora le matrici


 
C = v1 | · · · | vn (8.218)

e
C 0 = Av 1 | · · ·
 
| Av n (8.219)
Per la Proposizione 8.3.17 le matrici C, C 0 sono ortogonali, in quanto le loro colonne
costituiscono basi ortonormali di Rn per ipotesi. Invertendo la relazione

A · C = C0 (8.220)

si ha che
A = C 0 · C −1 = C 0 · C T (8.221)
Quindi, poichè le matrici ortogonali formano un gruppo rispetto al prodotto, allora
A è una matrice ortogonale.
Proposizione 8.3.20. A ortogonale se e solo se conserva la norma euclidea.
109

Dimostrazione Dimostriamo innanzitutto che A ortogonale se e solo se f è


ortogonale rispetto al prodotto scalare canonico:

ϕ (v, w) = v T · w (8.222)

ϕ (Av, Aw) = v T AT · Aw (8.223)


Quindi
A ortogonale ⇔ v T · w = v T AT · Aw ∀v, w ∈ Rn ⇔ (8.224)
⇔ ϕ (v, w) = ϕ (Av, Aw) ∀v, w ∈ Rn ⇔ f ortogonale (8.225)
Dimostrare quindi che f è ortogonale se e solo se conserva la norma euclidea, equi-
vale a dimostrare la Proposizione.
(⇒) Sia v ∈ Rn :

kvk2 = ϕ (v, v) = ϕ (f (v), f (v)) = kf (v)k2 (8.226)

(⇐) Siano v, w ∈ Rn .

kv + wk2 = ϕ (v + w, v + w) = ϕ (v, v) + ϕ (w, w) − 2ϕ (v, w) (8.227)

kf (v + w)k2 = ϕ (f (v + w), f (v + w)) = (8.228)


= ϕ (f (v), f (v)) + ϕ (f (w), f (w)) − 2ϕ (f (v), f (w)) (8.229)
Imponendo kv + wk2 = kf (v + w)k2 e, poichè f conserva la norma euclidea, tenendo
conto che
ϕ (v, v) = ϕ (f (v), f (v)) (8.230)
e
ϕ (w, w) = ϕ (f (w), f (w)) (8.231)
si ricava che
ϕ (v, w) = ϕ (f (v), f (w)) (8.232)
Osservazione 8.3.21. Le matrici ortogonali di ordine due sono
 
cos ϑ − sin ϑ
(8.233)
sin ϑ cos ϑ
e  
cos ϑ sin ϑ
(8.234)
sin ϑ − cos ϑ
La (8.233) è una matrice relativa a una rotazione in senso antiorario di un angolo
ϑ, e la (8.234) è una matrice relativa a una riflessione rispetto a una retta con
coefficiente angolare tan ϑ2 .
110 OPERATORI SIMMETRICI, ORTOGONALI, HERMITIANI E UNITARI

Le matrici ortogonali di dimensione ordine tre, con determinante pari a uno,


sono:  
1 0 0
0 cos ϑ − sin ϑ (8.235)
0 sin ϑ cos ϑ
e  
−1 0 0
 0 cos ϑ sin ϑ  (8.236)
0 sin ϑ − cos ϑ
La (8.235) rappresenta una rotazione di un angolo ϑ in senso antiorario. La (8.236)
è diagonalizzabile e simile a  
1 0 0
0 −1 0  (8.237)
0 0 −1
e quindi rappresenta una rotazione di ϑ = π in senso antiorario, cioè una simmetria
rispetto a una retta.
Le matrici ortogonali di ordine tre con determinante −1 sono:
 
−1 0 0
 0 cos ϑ − sin ϑ (8.238)
0 sin ϑ cos ϑ

e  
1 0 0
0 cos ϑ sin ϑ  (8.239)
0 sin ϑ − cos ϑ
La (8.238) può essere riscritta come
     
−1 0 0 −1 0 0 1 0 0
 0 cos ϑ − sin ϑ =  0 1 0 · 0 cos ϑ − sin ϑ (8.240)
0 sin ϑ cos ϑ 0 0 1 0 sin ϑ cos ϑ
| {z } | {z }
Riflessione Rotazione

e quindi è una matrice relativa alla composizione di una rotazione e una riflessione
rispetto a un piano. La (8.239) invece è una matrice relativa a una riflessione
rispetto a un piano, in quanto è simile a
 
−1 0 0
 0 1 0 (8.241)
0 0 1
111

8.4 Teorema Spettrale


Lemma 1. Sia V uno spazio vettoriale definito sul campo C e ϕ : V × V → C
un prodotto hermitiano definito positivo. Sia inoltre f : V → V un operatore
hermitiano. Allora tutti gli autovalori di f sono reali.
Dimostrazione Sia v un autovettore di f relativo a un autovalore λ.
ϕ (v, f (v)) = ϕ (v, λv) = λϕ (v, v) (8.242)
ϕ (f (v) , v) = ϕ (λv, v) = λϕ (v, v) (8.243)
Poichè f è un operatore hermitiano, la (8.242) e la (8.243) coincidono. Eguagliando
tali espressioni si ottiene
λϕ (v, v) = λϕ (v, v) (8.244)
Poichè ϕ > 0, la (8.244) è vera se e solo se λ = λ, e cioè se e solo se λ ∈ R.
Corollario 8.4.1. Sia A ∈ Mn (C) una matrice hermitiana. Allora tutti gli
autovalori di A sono reali.
Dimostrazione Consideriamo l’applicazione lineare
f (v) = A · v (8.245)
la cui matrice associata alla base canonica di Cn è A.
Dimostriamo che f è un operatore hermitiano:
ϕ (f (v), w) = (Av)∗ · w = v ∗ A∗ w = v ∗ Aw = ϕ (v, f (w)) (8.246)
Allora, per il Lemma 1, f ha tutti autovalori reali, e quindi anche A.
Corollario 8.4.2. Sia V uno spazio vettoriale definito sul campo R e ϕ : V ×V → R
un prodotto scalare definito positivo. Sia inoltre f : V → V operatore simmetrico.
Allora f ha autovalori tutti reali.
Dimostrazione Un operatore simmetrico è anche hermitiano. Quindi il Lemma
1 vale anche per gli operatori simmetrici.
Corollario 8.4.3. Sia A ∈ Mn (C) una matrice simmetrica. Allora tutti gli
autovalori di A sono reali.
Dimostrazione Una matrice simmetrica è anche hermitiana, e quindi, per il
Corollario 8.4.1, A ha tutti autovalori reali.
Lemma 2. Sia V uno spazio vettoriale sul campo C e ϕ : V × V → C un prodotto
hermitiano definito positivo. Sia inoltre f : V → V un operatore hermitiano. Siano
λi e λk due autovalori distinti di f , e Vλi , Vλk i relativi autospazi. Allora
Vλi ⊥Vλk (8.247)
112 TEOREMA SPETTRALE

Dimostrazione Siano v, w autovettori relativi rispettivamente agli autovalori


λi e λk . Allora
λk ϕ (v, w) = ϕ (v, λk w) = ϕ (v, f (w)) = (8.248)
ϕ (f (v), w) = ϕ (λi v, w) = λi ϕ (v, w) = λi ϕ (v, w) (8.249)
e in particolare
λk ϕ (v, w) = λi ϕ (v, w) (8.250)
Poichè per ipotesi λi 6= λk , la (8.250) è vera se e solo se ϕ (v, w) = 0.
Osservazione 8.4.4. Il Lemma 2 vale anche nel caso in cui f sia un operatore
simmetrico e ϕ sia un prodotto scalare definito positivo.
Lemma 3. Sia V uno spazio vettoriale definito sul campo C e ϕ : V × V → C
un prodotto hermitiano definito positivo. Sia inoltre f : V → V un operato-
re hermitiano. Sia W ⊂ V un sottospazio f −invariante. Allora anche W ⊥ è
f −invariante.
Dimostrazione Siano w ∈ W e w0 ∈ W ⊥ .

ϕ (f (w0 ) , w) = ϕ (w0 , f (w)) = 0 (8.251)

In particolare ϕ (w0 , f (w)) = 0 perchè f (w) ∈ W . Poichè

ϕ (f (w0 ) , w) = 0 (8.252)

allora f (w0 ) ∈ W ⊥ .
Osservazione 8.4.5. Il Lemma 3 vale anche nel caso in cui f sia operatore simmetrico
e ϕ sia un prodotto scalare definito positivo.
Teorema 8.4.6 (Teorema spettrale). Sia V uno spazio vettoriale definito sul campo
C e ϕ : V × V → C un prodotto hermitiano definito positivo. Sia inoltre f : V → V
un operatore hermitiano. Allora esiste una base ortonormale di V costituita da
autovettori di f .
Osservazione 8.4.7. In altre parole, l’operatore hermitiano f è diagonalizzabile e,
se λ1 , . . . , λk sono autovalori distinti di f , allora
⊥ ⊥
V = Vλ1 ⊕ · · · ⊕ Vλk (8.253)

Dimostrazione La somma diretta ortogonale che intercorre fra gli autospazi


di f è già stata dimostrato con il Lemma 2. Rimane da dimostrare solo che f è
diagonalizzabile. Effettuiamo questa dimostrazione per assurdo, supponendo che f
non sia diagonalizzabile, cioè che
⊥ ⊥
W = Vλ1 ⊕ · · · ⊕ Vλk ( V (8.254)
113

Ogni vettore che appartiene a W può essere scritto in maniera unica come

w = α1 v 1 + . . . + αk v k (8.255)

dove v 1 , . . . , v k sono autovettori relativi ad autovalori distinti. Allora

f (w) = f (α1 v 1 + . . . + αn v n ) = α1 λ1 v 1 + . . . + αk λk v k ⊂ W (8.256)

perciò W è un sottospazio f −invariante. Poichè il prodotto hermitiano ϕ è definito


positivo, allora ϕ |W è non degenere, e quindi

V = W ⊕ W⊥ (8.257)

Per il Lemma 3, W ⊥ è f −invariante, e quindi

f : W⊥ → W⊥ (8.258)

continua a essere un operatore hermitiano, che ha almeno un autovalore reale per


il Lemma 1 e quindi anche un autovettore. Ciò è assurdo, in quanto contraddice
l’ipotesi che tutti gli autovettori siano contenuti in W . Quindi f è diagonalizzabile.
Osservazione 8.4.8. Il Teorema Spettrale vale anche se f è un operatore simmetrico
e ϕ un prodotto scalare.

Corollario 8.4.9. A ∈ Mn (R) è una matrice simmetrica se e solo se A è diago-


nalizzabile mediante matrici ortogonali.

Dimostrazione (⇒) Consideriamo l’applicazione lineare f : Rn → Rn data da

f (v) = A · v (8.259)

Poichè A è una matrice simmetrica, allora f è un operatore simmetrico rispetto


al prodotto scalare canonico. Quindi, per il Teorema Spettrale, f ha una base
ortonormale di autovettori rispetto a tale prodotto scalare. Una matrice O che
ha come colonne tali autovettori è ortogonale per la Proposizione 8.3.17. Dunque,
applicando la formula di cambiamento di base, segue che

O−1 · A · O = OT · A · O = D (8.260)

(⇐) Se A è una matrice diagonalizzabile mediante matrici ortogonali, allora

A = O · D · OT (8.261)

La trasposta di A equivale a
T
AT = ODOT = O (OD)T = ODT OT = ODOT = A (8.262)
114 TEOREMA SPETTRALE

Osservazione 8.4.10. Siano V uno spazio vettoriale definito sul campo R, e ϕ :


V ×V → R un prodotto scalare. La matrice associata al prodotto scalare ϕ rispetto
a una base B di V è una matrice simmetrica, e quindi, per il Corollario 8.4.9 si può
diagonalizzare con matrici ortogonali:

O−1 · A · O = OT · A · O = D (8.263)

La matrice D ha sulla diagonale gli autovalori di A, ma, allo stesso tempo, D è anche
la matrice relativa al prodotto scalare ϕ rispetto a una base ortogonale. Quindi,
per il Teorema 8.1.29 di Sylvester, il numero di autovalori positivi, negativi e nulli
di A corrispondono rispettivamente a ι+ , ι− e ι0 di ϕ (e della matrice A).

Definizione 8.4.11 (Determinante principale). Sia A una matrice simmetrica. Il


determinante principale di A di ordine i è il minore di A costituito dalle sue prime
i righe e i colonne.

Teorema 8.4.12 (Criterio di Positività). Sia V uno spazio vettoriale con un pro-
dotto scalare o hermitiano ϕ. Sia inoltre A la matrice associata a ϕ rispetto a una
base B di V . Allora ϕ > 0 se e solo se tutti i determinanti principali di A sono
positivi.

Dimostrazione Sia
B = {v 1 , . . . , v n } (8.264)
una base di V .
(⇒) La sottomatrice Aii di A, ottenuta selezionando le prime i righe e i, corrisponde
alla matrice relativa alla restrizione di ϕ a

W = Span (v 1 , . . . , v i ) (8.265)

Se ϕ > 0, allora anche ogni restrizione di ϕ è definita positiva, e quindi, per quanto
affermato nell’Osservazione 8.4.10, gli autovalori della sottomatrice Aii sono tutti
positivi, cosı̀ come il suo determinante.
(⇐) Consideriamo lo spazio vettoriale

Wi = Span (v 1 , . . . , v i } (8.266)

sui cui effettuiamo la restrizione ϕ |Wi .


Eseguiamo ora una dimostrazione per induzione sulla dimensione i di Wi . Se i = 1
allora ϕ |W1 è chiaramente definito positivo, in quanto

A11 = a11
 
(8.267)

con a11 > 0, poichè per ipotesi det (A11 ) > 0.


Supponendo ora che ϕ |Wi−1 sia definito positivo, dimostriamo che anche ϕ |Wi è
115

definito positivo. Ipotiziamo che ϕ |Wi non sia definito positivo. Allora la sua
segnatura è
σ (ϕ) = (i − 1, 1, 0) (8.268)
oppure
σ (ϕ) = (i − 1, 0, 1) (8.269)
In entrambi i casi det (Aii ) non è positivo. Ciò è assurdo, perchè per ipotesi
det (Aii ) > 0 ∀i. Quindi ϕ |Wi è definito positivo per ogni i.
Osservazione 8.4.13. Siano V spazio vettoriale con un prodotto scalare ϕ, e A una
matrice associata a ϕ rispetto a una base B. Allora ϕ < 0 se e solo se tutti i
determinanti principali di A di ordine dispari sono negativi e quelli di ordine pari
sono positivi.

Potrebbero piacerti anche