Sei sulla pagina 1di 99

Appunti di Geometria 1

11 giugno 2018
Indice

1 Algebra necessaria 4
1.1 Gruppi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Prodotto cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Operazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3 Gruppi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.4 Relazioni di equivalenza . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Campi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1 4 proprietà generali dei campi . . . . . . . . . . . . . . . . . . . . 9
1.2.2 Campi finiti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2 Spazi vettoriali, vettori, combinazioni lineari 13


2.1 Spazio vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.1 Esempio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.2 Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.3 Definizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3 Polinomi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4 Propietà di famiglie di spazi vettoriali . . . . . . . . . . . . . . . . . . . 17
2.4.1 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.2 Unione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4.3 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5 Combinazione lineare di vettori . . . . . . . . . . . . . . . . . . . . . . . 18
2.5.1 Sottospazi generati . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5.2 Sottospazio generato da un sistema di vettori. . . . . . . . . . . . 19
2.6 Indipendenza lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.6.1 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.6.2 Combinazione di vettori linearmente indipendenti . . . . . . . . 21
2.7 Basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.7.1 Definizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.7.2 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.7.3 Coordinate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.7.4 Riassunto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

3 Indipendenza lineare, basi, sottospazi 23


3.1 Lemma dello scambio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.2 Teorema di prolungamento o completamento a una base . . . . . . . . . 24
3.2.1 Conseguenze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

1
3.3 Dimensione di spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3.1 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3.2 Dimensione dei sottospazi . . . . . . . . . . . . . . . . . . . . . . 27
3.4 Somma di sottospazi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.5 Relazione di Grassmann . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.5.1 Somma diretta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.6 Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.6.1 spazio delle righe, spazio delle colonne . . . . . . . . . . . . . . . 30
3.7 Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.7.1 Esempio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

4 Algoritmo di Gauss 32
4.1 Algoritmo di Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.1.1 L’algoritmo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.2 Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.3 Rouché-Capelli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.4 Riassunto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

5 Applicazioni lineari e matrici 38


5.1 Prodotto fra matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.2 Applicazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.3 Proposizioni sulle applicazioni lineari . . . . . . . . . . . . . . . . . . . 42
5.3.1 Un po’ di terminologia . . . . . . . . . . . . . . . . . . . . . . . . 42
5.4 Nucleo di un’applicazione lineare . . . . . . . . . . . . . . . . . . . . . . 43
5.5 Teorema della dimensione . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.5.1 Rango per righe e rango per colonne . . . . . . . . . . . . . . . . 45
5.6 Teorema di determinazione di un’applicazione lineare . . . . . . . . . . 46
5.6.1 Esercizi dal teorema di determinazione . . . . . . . . . . . . . . . 47
5.7 Spazio vettoriale duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.8 Applicazioni lineari e matrici . . . . . . . . . . . . . . . . . . . . . . . . 49
5.9 Matrice di un’applicazione lineare rispetto a basi fissate . . . . . . . . . 50
5.10 Esempio di applicazione lineare e matrici . . . . . . . . . . . . . . . . . 53
5.11 Matrici invertibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.12 Cambiamento di base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.12.1 Esprimere un vettore rispetto ad un’altra base . . . . . . . . . . . 55
5.12.2 Applicazioni fra spazi vettoriali diversi . . . . . . . . . . . . . . . 56
5.12.3 Cambio di base ed endomorfismi . . . . . . . . . . . . . . . . . . 58
5.12.4 Matrice inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

6 Determinanti 61
6.1 Introduzione ed esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
6.2 Gruppi di permutazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
6.2.1 Trasposizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
6.2.2 Permutazioni pari e dispari . . . . . . . . . . . . . . . . . . . . . 67
6.3 Applicazioni multilineari . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
6.3.1 Antisimmetria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.3.2 Leibniz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
6.3.3 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

2
6.4 Metodi per calcolare il determinante . . . . . . . . . . . . . . . . . . . . 73
6.4.1 Teorema di Binet . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.5 Formula di Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
6.5.1 La formula . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.6 Regola di Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

7 Autovalori, autovettori, diagonalizzazione 80


7.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
7.1.1 Motivazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
7.1.2 Definizione ed esempi . . . . . . . . . . . . . . . . . . . . . . . . 81
7.2 Autospazio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
7.2.1 Molteplicità geometrica . . . . . . . . . . . . . . . . . . . . . . . 82
7.3 Polinomio caratteristico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
7.3.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
7.3.2 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
7.4 Diagonalizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
7.5 Potenze di un endomorfismo . . . . . . . . . . . . . . . . . . . . . . . . . 90
7.6 Triangolarizzazione e forma normale di Jordan . . . . . . . . . . . . . . 91
7.6.1 Triangolarizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . 91
7.6.2 Forma normale di Jordan . . . . . . . . . . . . . . . . . . . . . . . 92
7.6.3 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94

3
Capitolo 1

Algebra necessaria

4
1.1 Gruppi
1.1.1 Prodotto cartesiano
Definizione 1. A, B insiemi. A × B è l’insieme delle coppie ordinate (a, b) con a ∈ A e
b ∈ B.
Ciò è detto prodotto cartesiano di A e B.
Esempio: A = {1, 2, 3} e B = {a, b}

A × B = {(1, a), (2, a), (3, a), (1, b), (2, b), (3, b)}

Un prodotto cartesiano molto utilizzato è il prodotto R × R:

R × R = {(x, y)|x, y ∈ R} = R2

1.1.2 Operazione
Sia S insieme S , ∅. Operazione su S è una funzione:

∗ : S ×S → S

(a, b) → c = a ∗ b
dove c ∈ S. Esempi:

1. Z × Z → Z (a, b) → a + b

2. Q × Q → Q (x, y) → x · y

3. X insieme e F(X) insieme delle funzioni su X. F(X) = {f : X → X}. Definiamo


un’operazione F(X) × F(X) → F(X). (f , g, ) → f ◦ g (composizione di funzioni).

1.1.3 Gruppi
Definizione
Definizione 2. Una struttura algebrica è un insieme con una o più operazioni. Pren-
diamo quindi un insieme G, ∗ operazione su G. La coppia (G, ∗) si definisce un gruppo
se valgono le seguenti proprietà:
1. ∀a, b, c (a ∗ b) ∗ c = a ∗ (b ∗ c) (proprietà associativa)

2. ∃e ∈ G tale che ∀a ∈ Ga ∗ e = e ∗ a = a (esistenza dell’elemento neutro)

3. ∀a ∈ G∃b ∈ G tale che a ∗ b = b ∗ a = e (esistenza dell’elemento inverso). La


notazione standard è b = a−1 .
Un gruppo si dice abeliano se ∀a, b ∈ G a ∗ b = b ∗ a (ossia se vale la proprietà
commutativa).
Pertanto (Z, +) è un gruppo (abeliano), ma (Q, ·) non è un gruppo, poiché 0 non
ha inverso. (Q − {0}) è un gruppo abeliano.
Vediamo ora che la composizione di funzioni è un gruppo non-abeliano.

5
Osservazione. f , g biettive =⇒ f ◦ g biettiva. Dimostrazione per esercizio.

Dimostrazione. Supponiamo qui che sia g : X → Y e f : Y → Z.


f g(x) = f g(y) allora f (g(x)) = f (g(x0 )) ma f è biiettiva quindi in particolare inietti-
va e quindi g(x) = g(x0 ) ma anche g è biettiva quindi iniettiva e dunque x = x0 . Inoltre
∀z ∈ Z∃(!)y ∈ Y tale che f (y) = z poiché f è biiettiva, inoltre ∀yinY ∃(!)x ∈ X tale che
g(x) = y poiché g è biezione. Dunque ∀zinZ∃!x ∈ X tale che f (g(x)) = f ◦ g(x) = z.

Prendiamo l’insieme F(X):

F(X) = {f : X → X}.

Verifichiamo che (F(X), ◦) sia un gruppo:

1. è associativa? f ◦g(x) = f (g(x)), e f ◦g◦h(x) = f ◦g(h(x)) = f (g(h(x))) f ◦(g◦h(x)) =


f (g ◦ (h(x))).

2. La funzione Idx (identità di x) è l’elemento neutro.

Idx ◦ f (x) = Idx (f (x)) = f ◦ Idx

3. non tutte le funzioni hanno un’inversa (devono essere biettive): non si tratta
pertanto di un gruppo.

Prendiamo allora l’insieme I(x) di funzioni biettive. I(x) = {f : X → X |biettive}.


L’operazione ◦ sull’insieme I(x):

1. è associativa

2. ha un elemento neutro (f ◦ Idx = Idx ◦ f )

3. l’elemento inverso esiste ed è la funzione inversa (biettiva ⇐⇒ invertibile).


Quindi (I(x), ◦) è un gruppo.

Proprietà generali dei gruppi


1. L’elemento neutro è unico

Dimostrazione. Supponiamo che esistano due elementi neutri e, e0 . Allora e ∗ e0


dovrebbe essere uguale a e, poiché e0 è elemento neutro. Ma deve essere uguale
anche a e0 , poiché e è elemento neutro. Pertanto esiste un solo elemento neutro:

e = e ∗ e0 = e0

2. Esiste un unico elemento inverso

6
Dimostrazione. Siano a−1 , a elementi inversi di a. Allora:

a−1 ∗ (a ∗ a) = (a−1 ∗ a) ∗ a

poiché a e a−1 sono entrambi elementi inversi, le parentesi sono equivalenti


all’elemento neutro e (che abbiamo già dimostrato essere unico).
Pertanto la precedente è equivalente a

a−1 ∗ e = e ∗ a ⇐⇒ a−1 = a

1.1.4 Relazioni di equivalenza


Definizione 3. X insieme.
Una relazione R su X è un sottoinsieme di X × X:

R ⊆ X × X.

Una relazione è una relazione d’equivalenza quando è:

1. riflessiva

2. simmetrica

3. transitiva

Un esempio è la relazione uguaglianza (=).

Congruenza modulo n
Definiamo un’altra relazione. Fissiamo un n1inZ. Definiamo in Z la seguente rela-
zione:
x è congruo a y modulo n (x ≡ n y) ⇐⇒ ∃h ∈ Z tale che x − y = hn, ossia x − y è un
multiplo di n.
Dimostriamo ora che ≡ n è una relazione d’equivalenza.

Dimostrazione. 1. ∀n ∈ Zx − x = 0 = 0 · n (riflessività)

2. n ≡ n y =⇒ ∃h ∈ Z tale che x − y = hn =⇒ ∃ − h ∈ Z tale che y − x = (−h)n =⇒


y ≡ n x (simmetria)

3. x ≡ n y e y ≡ n z =⇒ ∃h, k ∈ Z tali che x − y = hn e y − z = kn.


=⇒ ∃h, k ∈ Z tali che (x − y) + (y − z) = hn + kn
=⇒ ∃h, k ∈ Z tali che (x − z) = (h + k)n, =⇒ ∃a ∈ Z tale che (x − z) = an,
=⇒ x ≡ n z (transitività)

Se x ≡ n y si dice anche che hanno la stessa classe resto modulo n. Perché? a, b ∈


Z∃q, r tali che a = qb + r e 0 ≤ r < b.

7
Lemma 1. Divido x per n e ottengo r come resto (0 ≤ r < n). Divido y per n e ottengo
r 0 come resto. x ≡ n y ⇐⇒ r = r 0 .

Dimostrazione. x = nq + r, y = nq0 + r 0 .

• Se r = r 0 : x − y = (q − q0 )n + r − r 0 (con r − r 0 = 0). =⇒ x ≡ n y.

• Se x ≡ n x = nq + r e n − y = hn, =⇒ n = nq + r y = x − hn =⇒ y = x − hn =
nq + r − hn = (q − h)n + r, ossia r resto di y diviso per n.

1.2 Campi
Definizione 4. K insieme. Consideriamo due operazioni: + "somma" e operazione ·
"prodotto".

(K, +, ·)
viene chiamata CAMPO se valgono le seguenti proprietà:

1. ∀a, b, c(a + b) + c = a + (b + c) (associatività rispetto alla somma)

2. ∃0 ∈ K tale che a + 0 = 0 + a = a, ∀a ∈ K. Esistenza dell’elemento neutro per la


somma detto 0.

3. ∀a ∈ K∃ − a ∈ K tale che a + (−a) = (−a) + a = 0. Esistenza inversi di + detti


opposti.

4. ∀a, b ∈ Ka + b = b + a (Commutatività della somma) (Le proprietà 1,2,3,4 =⇒


(K, +) gruppo abeliano.)

5. ∀a, b, c(a · b) · c = a · (b · c) (associatività del prodotto).

6. ∃1 ∈ K − {0} tale che ∀a ∈ k 1 · a = a · 1 = a

7. ∀a ∈ K − {0}∃a−1 ∈ K tale che a · a−1 = a−1 · a = a (esistenza degli inversi rispetto


al prodotto).

8. ∀a, b ∈ K a · b = b · a (Commutatività del prodotto)

9. ∀ a,b,c ∈ K $ si ha che (a + b) · c = ac + bc (Distributività del prodotto rispetto


alla somma).

Esempi
(Q, +, ·) campo dei razionali
(R, +, ·) campo dei reali
(C, +, ·) campo dei complessi
(Z, +, ·) non è un campo (non esistono gli inversi della moltiplicazione)
Dalle proprietà dei campi si deduce che ad esempio (a + b)2 si svolge nello stesso
modo su un qualunque campo.

8
1.2.1 4 proprietà generali dei campi
Prendiamo (K, +, ·) campo.

1. ∀a ∈ K, 0 · a = 0. È una cosa valida in un campo.

Dimostrazione.
0+0 = 0
(0 + 0 = a)0a
0·a+0·a = 0·a
Sostituendo x a 0 + a:
(x + x) + (−x))x + (−x) = 0
x + (x + (−x)) = 0
x+0 = 0
0·a = x = 0

2. a · b = 0 =⇒ a = 0 ∨ b = 0.

Dimostrazione. se a = 0 la dimostrazione è completata. se a , 0 allora ∃a−1 .

b = (a−1 · a) · b = a−1 · (a · b) = a−1 · 0 = 0

(per ipotesi a · b = 0).

3. (−1) opposto di 1. ∀a ∈ A, (−1) ∗ a = −a.

Dimostrazione. si dimostra con l’unicità: (−1) · a + a deve dare 0. Scriviamo a


come 1 · a, e utilizziamo la proprietà distributiva:

(−1) · a + 1 · a = ((−1) + 1) · a = 0

4. Le risoluzioni delle equazioni di primo grado si svolgono come siamo abituati:


a, b ∈ K, l’equazione:
x+a = b
ha un’unica soluzione x = b − a, mentre

ax = b

ha un’unica soluzione, se a , 0: x = aa .

9
1.2.2 Campi finiti
Abbiamo già definito le classi di equivalenza di Zn .

Zn = {0, 1, ..., n − 1}
Ad esempio in Z4 si ha che

2·2 = 2·2 = 4 = 0
Da ciò verrebbe naturale assumere che:

6 · (−2) = −12 = 0.
In precedenza abbiamo definito (Zn , +). Possiamo fare la stessa cosa per il prodot-
to?
Definiamo x · y = x · y. Il risultato che si deve verificare è il seguente:

x = x0 ∧ y = y 0 =⇒ x · y = x0 · y 0
x = x0 =⇒ x ≡n x0 =⇒ ∃h ∈ Z|x − x0 = hn.
Allo stesso modo,
y = y 0 =⇒ y ≡n y 0 =⇒ ∃k ∈ Z|y − y 0 = kn.
Ricordiamo infatti che
[a]∼ = [b]∼ ⇐⇒ a∼b,
dunque:

x · y = (x0 + hn) · (y 0 + kn) = x0 y 0 + hny 0 + knx0 + hkn2 = x0 y 0 + (hy 0 + kx0 + hkn)n,

il che porta a:

xy − x0 y 0 multiplo din.
Quindi:
xy − x0 y 0 = jn =⇒ xy ≡n x0 y 0 =⇒ xy = x0 y 0
Da ciò concludiamo che l’operazione prodotto è ben definita. Ci si domanda
adesso: (Zn , +, ·) è un campo? L’operazione prodotto:
L’operazione

1. è associativa

2. è commutativa

3. ma esistono gli elementi inversi?

Facciamo la tabella di (Z4 , ·):

. 0 1 2 3
0 0 0 0 0
1 0 1 2 3
2 0 2 0 2
3 0 3 2 1

10
Si ha che 2 · 2 sia uguale a 0, ma nessuno dei due è zero. Quindi non vale la legge
di annullamento del prodotto, quindi Z4 non è un campo.
Esiste un altro modo di verificare che non si tratta di un campo, ossia guardando
l’esistenza dell’elemento inverso. Vediamo che 1 ha un elemento inverso: 1, con il
quale dà appunto 1. Lo stesso si può dire di 3, che dà 1 con 3. Ma il problema è sulla
riga del 2, che non dà 1 con alcuno degli altri. Quindi 2 non ha inverso rispetto al
prodotto, e pertanto Z4 non è un campo.
Facciamo la tabella del prodotto in Z5 .

. 0 1 2 3 4
0 0 0 0 0 0
1 0 1 2 3 4
2 0 2 4 1 3
3 0 3 1 4 2
4 0 4 3 2 1

Questo invece è un campo. Su ogni riga si può trovare 1.


In Z9 3 · 3 = 9 = 0. Pertanto anche qui non vale l’annullamento del prodotto.
Pertanto non è un campo, e osserviamo che la regola è che sono campi Zn se n è
primo.
Teorema 1. (Zn , +, ·) è un campo se e solo se n è primo.
Dimostrazione. Dimostriamo un implicazione alla volta. Dimostriamo che se Zn è un
campo allora n è primo. Anzi, dimostro che se n non è primo, Zn non è un campo.
Supponiamo quindi che n non è primo. Allora n = d · d 0 , con sia d sia d 0 1 < d, d 0 <
n.
Se si considera d · d 0 = d · d 0 = n = 0. Non vale quindi la legge di annullamento del
prodotto.
Come seconda parte dimostriamo che n è primo =⇒ (Zn , +, ·) è un campo. Per la
dimostrazione ci serviremo delle seguenti proprietà:
Proprietà 1. Siano p, a, b ∈ Z con p numero primo. Se p è divisore di ab (pab) si ha
che pa oppure pb.
Proprietà 2. La seconda proprietà che serve è il "principio della piccionaia".
Questo dice che se f : X → X (con X insieme finito):

1. f è iniettiva =⇒ f è biettiva,

2. Se f è suriettiva =⇒ f è anche iniettiva quindi biettiva.

Fissiamo a ∈ Zn , a , 0.
Definiamo un’applicazione f : Zn → Zn descritta da: x → ax.

1. Primo passo. ϕ è iniettiva. Supponiamo ϕ(x) = ϕ(y). Quindi ax = ay, quindi


ax ≡n ay, quindi ax − ay = 0, quindi p divide ax −ay = a(x −y) quindi ∃h ∈ Z|ax −
ay = hn, quindi n divide ax−ay, quindi n divide a(x−y). Ci sono due possibilità:
se na allora a = 0, che è impossibile. Se invece n(x − y) allora x ≡n y =⇒ x = y.

2. Per principio piccionaia, si ottiene che ϕ è suriettiva (dal primo passo abbiamo
dimostrato che è iniettiva).

11
3. Dimostriamo che a ha elemento inverso. ϕ è suriettiva, quindi:

∀y ∈ Zn ∃n ∈ Zn

tale che ϕ(n) = y. Considero 1 ∈ Zn . Da ciò è implicato che ∃n ∈ Zn tale che


ϕ(n) = an = 1 (ϕn = an per definizione). n è quindi l’inverso di a.

Ogni elemento diverso da 0 ha elemento inverso. Quindi, se n è primo, (Zn , +, ·) è un


campo.

12
Capitolo 2

Spazi vettoriali, vettori,


combinazioni lineari

13
2.1 Spazio vettoriale
Per definire uno spazio vettoriale si parte da un campo, come ad esempio C, R. Noi
prendiamo un campo generico K.
Prima di dare una definizione di spazio vettoriale facciamo alcuni esempi.

2.1.1 Esempio
Fissiamo n ≥ 1 intero. Consideriamo

K n = {x1 , x2 , ...xn |xi ∈ K}

Abbiamo la somma in Kn :

(x1 , ..., xn ) + (y1 , ..., yn ) = (x1 + y1 , ..., xn + yn


Definiamo inoltre un prodotto esterno in Kn con operatori in K:

λ ∈ K λ(x1 , ..., xn ) = (λx1 , λx2 , ..., λxn


Gli elementi di K si chiamano scalari.
L’elemento neutro per la somma è quindi (0, 0, ..., 0) = 0̄.
Anche altre proprietà valgono, in particolare si osserva che K n è un gruppo abe-
liano rispetto alla somma (interna).

2.1.2 Matrici
Fissiamo m, n ≥ 1. Una matrice m×n a entrate (o elementi) in K è data da mn elementi
di K scritti in una tabella con m righe e n colonne.
 
 a1,1 a1,2 · · · a1,n 
 a2,1 a2,2 · · · a2,n 
 
Am,n =  .
.. .. .. 

 .. . . . 

am,1 am,2 · · · am,n

L’insieme delle matrici m × n a entrate in K si denota così:

M(m × n; K) = {(aij )i=1,...,m;j=1,...,n }


Se m = 1 allora la matrice si dice matrice riga. Se invece n = 1 allora si dice matrice
colonna.
Anche le matrici hanno una somma interna (che è definita per matrici con stesso
numero di righe e colonne), il cui elemento neutro è la mtrice nulla:
 
0 0 · · · 0
0 0 · · · 0
 
 . . .
 .. .. . . ... 

 
0 0 ··· 0
 

ANche il prodotto scalare ha un prodotto esterno con operatori in K.


Data una matrice A, λ · A è:

14
(λaij )i=1,...,m;j=1,...,n
Quindi arriviamo alla definizione:

2.1.3 Definizione
Un insieme V è un K-spazio vettoriale (o uno spazio vettoriale su K) se:

• In V sono fissate due operazioni (che rendono V un gruppo abeliano rispetto


alla somma):

– somma interna + : V × V → V che associa (v, w) → v + w


– prodotto esterno con operatori in K: · : K × V → V , (λ, v) → λ · v,

• che verificano: V1. Rispetto alla somma, V è un gruppo abeliano, con 0 (il
vettore nullo) elemento neutro, e −v opposto di v V2. Si applicano le seguenti
quattro proprietà:

1. (λ, µ)v = λv + µv, ∀λ, µ ∈ K, v ∈ V


2. λ(v + w) = λv + λw
3. λ(µv) = (λµ)v
4. 1 · v = v (dove 1 è l’unità di K).

Chiameremo gli elementi di V vettori e gli elementi di K scalari.


In tutti gli spazi vettoriali valgono le seguenti proprietà:

1. 0 · v = 0, dove il primo 0 è lo 0 ∈ K, mentre il secondo è il vettore nullo.

2. λ · 0 = 0

3. Se λv = 0 allora λ = 0 o v = 0.

Verifichiamo:

1. Lo 0 si può scrivere come 0 + 0. Pertanto:

0 · v = (0 + 0) · v = 0v + 0v

Abbiamo usato la proprietà 1 del punto V2.

2.
λ(0) = λ(0 + 0) = λ0 + λ0 = λ0 = 0

3. λv = 0. Se λ = 0 ovvio. Se questo non è vero, allora ∃λ−1 (l’inverso di λ)

λ−1 (λv) = λ−1 0

1 · v = v =⇒ v = λ−1 · 0 = 0

15
2.2 Sottospazi vettoriali
Sia V un K-spazio vettoriale. Sia W ⊆ V . W è un sottospazio vettoriale di V se:

1. W , ∅

2. W è chiuso rispetto alla somma (dati w, w0 allora w + w0 ∈ W ).

3. W è chiuso rispetto al prodotto esterno

Si ha che se W è un sottospazio vettoriale, allora il vettore nullo 0 è 0 ∈ W (questo


si deduce dal fatto che è chiuso per il prodotto esterno, in quanto lo scalare potrebbe
essere 0). Per lo stesso motivo se w ∈ W allora −w ∈ W (lo scalare può essere -1).
Vediamo alcuni esempi:

W = {(x1 , x2 |x1 − x2 = 0}
È un sottospazio vettoriale: non è vuoto, è chiuso rispetto alla somma e rispetto
al prodotto scalare (λ(x, x) = (λx, λx)).
Invece

W 0 = {(x, y) ∈ R2 |x − y = 1}
non è un sottospazio vettoriale, poiché non contiene il vettore nullo 0. Inoltre non
è chiuso rispetto alla somma, in quanto (x, x − 1) + (y, y − 1) = (x + y, x + y − 2) che non è
della stessa forma. Se disegnassimo un grafico, si osserva che perché sia sottospazio
una retta deve passare per l’origine (per contenere il vettore nullo).
Se invece prendiamo un cerchio, ossia

W = {(x, y) ∈ R2 |x2 + y 2 ≤ 1}
osserviamo che non è un sottoaspazio, in quanto se moltiplicassimo un vettore (una
coppia x, y) per uno scalare λ, il vettore ottenuto potrebbe trovarsi fuori dalla circon-
ferenza. Pertanto il sottoinsieme non è chiuso rispetto al prodotto esterno e pertanto
non è un sottospazio.

2.3 Polinomi
Denotiamo con
K[t]
l’insieme dei polinomi nella indeterminata t a coefficienti in K.
Un polinomio f (t) è un’espressione formale del tipo:

f (t) = a0 + a1 t + a2 t 2 + . . . + an t n . (2.1)
Quindi non interpretiamo i polinomi come funzioni, bensì come espressioni for-
mali finite.
Un polinomio di grado n è un espressione del tipo alla 2.1 con an , 0.
La somma di due polinomi f (t) = a0 + a1 t + ...an t n e g(t) = b0 + b1 t + ... + bm t m , con
n ≤ m, è:

16
f (t) + g(t) = (a0 + b0 ) + (a1 + b1 )t + ... + (an + bn )t n + bn+1 t n+1 + ... + bm t m

L’elemento neutro è il polinomio nullo, lo 0 di K.


Indichiamo con K[t]d i polinomi di grado minore o uguale a d. Questo è uno
spazio vettoriale di K[t].
Indichiamo invece con K[t]d l’insieme dei polinomi di grado d.
Si osserva che questo non è uno spazio vettoriale. Infatti se prendiamo ad esempio
f = 1+2t+3t 2 +5t 3 e g = −3+4t−5t 3 , osseviamo che la loro somma è f +g = −2+6t+3t 2 ,
che non ha grado 3.
Se W è uno spazio vettoriale di V , in W posso considerare la somma indotta della
somma che c’è in V .
Si può restringere ossia
+ : V ×V → V
a

W ×W → W

(w, w0 ) → (w + w0 )
Lo stesso si può fare per il prodotto per uno scalare. Rispetto alle operazioni
indotte W è un K-spazio vettoriale.
Si nota che uno spazio vettoriale V ha sicuramente almeno due sottospazi: il
sottospazio nullo o banale, composto dal solo vettore nullo ({0}), e lo sottospazio
improprio, ossia V stesso.

2.4 Propietà di famiglie di spazi vettoriali


Sia data una "famiglia" di spazi vettoriali di V. Vuol dire che c’è un insieme di indici
I tale che ∀i ∈ I, è dato Wi sottospazio.

{Wi }i∈I famiglia di sottospazi "indiciata su i"


Proposizione. Ogni intersezione di sottospazi vettoriali di V è un sottospazio vetto-
riale di V.
Dimostrazione. \
W= Wi
i∈I
si ha che 0 ∈ Wi ∀i =⇒ 0 ∈ W , per la definizione di sottospazio vettoriale (ogni
sottospazio vettoriale include il vettore nullo).
Se v, w ∈ W =⇒ u, w ∈ Wi ∀i, quindi v + v 0 ∈ Wi ∀i, quindi è chiuso rispetto alla
somma.
Sia v ∈ W . Allora

v ∈ Wi ∀ ∈ I =⇒ λv ∈ Wi ∀i ∈ I =⇒ λv ∈ W .

17
2.4.1 Esempi
1
Sia V = K[t]. Sia Wd = K[t]d .
Allora se prendiamo la famiglia di sottospazi

{Wd }d∈N
allora
\
=K
d∈N
dove K sono dunque i polinomi di grado 0, incluso il polinomio 0.

2.4.2 Unione
L’unione di sottospazi non è detto che sia un sottospazio. Prendiamo per esempio due
rette passanti per l’origine in R2 , con direzioni diverse. Sono sottospazi vettoriali, la
loro intersezione è l’origine. Ma se prendiamo due vettori su queste rette, di modulo
non nullo, la loro somma è un vettore che non appartiene a nessuna delle due rette.
Pertanto l’unione delle due rette non è un sottospazio, poiché non è chiuso rispetto
all’addizione.

2.4.3 Esercizio
Se W1 e W2 sono sottospazi tali che W1 ∪ W2 è un sottospazio, allora W1 ⊆ W2 o
W2 ⊆ W1 .

Dimostrazione. Per assurdo, supponiamo che sia W1 * W2 e W2 * W1 . Supponiamo


che x ∈ W1 \W2 e y ∈ W2 \W1 . Ora x+y < W1 , poiché x ∈ W1 e dunque −x ∈ W1 e dunque
per la chiusura rispetto all’addizione x + y − x ∈ W1 , che è impossibile. Per lo stesso
motivo x + y non può nemmeno essere in W2 . Dunque x + y non può essere nemmeno
nell’unione W1 ∪ W2 , e quindi l’unione non è chiusa per l’addizione, dunque non è
un sottospazio: assurdo.

2.5 Combinazione lineare di vettori


Supponiamo V spazio vettoriale con v1 , v2 , ..., vn ∈ V .
Chiamiamo combinazione lineare di v1 , . . . , vn ogni vettore del tipo a1 v1 + a2 v2 +
... + an vn , dove a1 , ..., an ∈ K.
Un caso particolare si ha se a1 = a2 = ... = an = 0.
Si dice in questo caso che si ha la combinazione lineare banale.
Se W ⊆ V e W è chiuso per combinazioni lineari, allora W è un sottospazio.
Dimostrazione:
Siano w1 ,w2 ∈ W. w1 +w2 è in realtà già una combinazione lineare, con coefficienti
(1, 1), per la quale per ipotesi W è chiuso.

18
2.5.1 Sottospazi generati
Prendiamo S ⊆ V , sottoinsieme qualunque. Esiste qualche sottospazio di V che con-
tiene S? Sicuramente sì, almeno V. Qual è il più piccolo sottospazio di V che contiene
almeno S?
Prendiamo \
Wi
Dove Wi è un sottospazio di V che contiene S:

S ⊆ Wi ⊆ V
\
Wi
è un sottospazio che contiene S. Se W 0 ⊇ S ed è un sottospazio, W 0 è uno dei Wi , e
quindi ∩Wi ⊆ W 0 .
Pertanto
\
Wi
è il più piccolo sottospazio di V contente S.
Denotiamo questo oggetto così:

hSi
e lo chiamiamo sottospazio generato da S.

2.5.2 Sottospazio generato da un sistema di vettori.


Proposizione. hv1 , ..., vn i è l’insieme di tutte le combinazioni lineari di v1 , ..., vn .
Dimostrazione. Vediamo due cose:
1. Le combinazioni lineari di v1 , ...vn formano un sottospazio W
2. Questo sottospazio è contenuto in ogni sottospazio che contiene v1 , ..., vn .
1. Vediamo innanzitutto che 0 è ottenibile con la combinazione lineare banale,
ossia con tutti i coefficienti nulli. Verifichiamo ora gli altri requisiti di uno
spazio vettoriale:
(a) Chiusura rispetto alla somma. Prendiamo (a1 v1 +...+an vn ) + (b1 v1 +...+bn vn .
Utilizzando l’associatività e la commutatività si osserva subito che ciò è
uguale a (a1 +b1 )v1 +...+(an +bn )vn che è ancora una combinazione lineare,
pertanto W è chiuso rispetto alla somma.
(b) Chiusura rispetto al prodotto con uno scalare. Prendiamo λ ∈ K. Allora
λ(a1 v1 + ... + an vn ) = (λa1 )v1 + ... + (λan )vn che è ancora una combinazione
lineare.
2. Prendiamo W 0 sottospazio di W, tale che v1 , ..., vn siano inclusi in esso. Allora
poiché W’ è un sottospazio, in esso sono incluse tutte le combinazioni lineari di
v1 , ..., vn . Quindi W ⊆ W 0 , ma per definizione di sottospazio, anche W 0 ⊆ W .

19
2.6 Indipendenza lineare
Dei vettori v1 , ..., vn si dicono linearmente indipendenti se ogni loro combinazione
lineare nulla è banale, ossia se

a1 v1 + ... + an vn = 0
deve essere necessariamente

a1 = a2 = ... = an = 0.
Se dei vettori non sono linearmente indipendenti, ossia se esiste almeno un coef-
ficiente non nullo della combinazione lineare nulla, allora si dice che i vettori sono
linearmente dipendenti.

2.6.1 Esempi
Un vettore nullo
Se in v1 , ..., vn un vettore vi è il vettore nullo, allora i vettori sono linearmente dipen-
denti.

Vettori in R3
Prendiamo i vettori (1,2,3),(1,-1,0),(0,1,4). Sono linearmente indipendenti o dipen-
denti? Per farlo troviamo coefficienti x1 , x2 , x3 tali che la combinazione lineare dei
vettori dati sia nulla.
Quindi

x1 (1, 2, 3) + x2 (1, −1, 0) + x3 (0, 1, 4) = (0, 0, 0)


Questo equivale a:

(x1 + x2 , 2x1 − x2 + x3 , 3x1 + 4x3 ) = (0, 0, 0)


che equivale a risolvere il sistema:



 x1 + x2 =0

2x1 − x2 + x3 = 0




3x

+ 4x3 =0
1

Da ciò si ricava che x2 = −x1 e x3 = − 43 x1 , e dall’ultima che 94 x1 = 0. Pertanto tutti


i coefficienti sono nulli, e i vettori sono linearmente indipendenti.

In più incognite . . .
Continuando l’esempio precedente, se invece chiedessimo di verificare l’indipenden-
za lineare di ad esempio 6 vettori in R13 , dovremmo risolvere un sistema lineare in 6
incognite di 13 equazioni.

20
2.6.2 Combinazione di vettori linearmente indipendenti
Proposizione. Se v1 , ..., vn sono linearmente indipendenti, allora ogni vettore v ∈
hv1 , ..., vn i si esprime in maniera unica come combinazione lineare di v1 , ..., vn .
Dimostrazione. Supponiamo che esistano due combinazioni lineari che danno v. Al-
lora

v = λ1 v1 + ... + λn vn = µ1 v1 + ... + µn vn
=⇒ λ1 v1 + ... + λn vn − µ1 v1 − ... − µn vn = 0.
Dunque

(λ1 − µ1 )v1 + ... + (λn − µn )vn = 0


e poiché per ipotesi i vettori v1 , ..., vn sono linearmente indipendenti,

λ1 − µ1 = ... = λn − µn = 0

dunque i coefficienti sono gli stessi.

Viceversa, se ogni vettore di hhv1 , ..., vn i ha un’unica espressione come combina-


zione di v1 , ..., vn , allora questi sono linearmente indipendenti.

Dimostrazione. Se λ1 v1 + . . . + λn vn = 0, 0v1 + . . . + 0vn = 0. Dunque lo 0 è scritto in due


modi, per ipotesi c’è un’unica espressione: quindi

λ1 = . . . = λn = 0

e pertanto i vettori sono linearmente indipendenti.

2.7 Basi
Per prima cosa definiamo un sistema di generatori.
Definizione 5. Una famiglia di elementi di V è {vi }i∈I è un sistema di generatori di
V se V = h{vi }i∈I i, ossia se ogni elemento v di V è combinazione lineare di un numero
finito di elementi vi .
V è detto finitamente generato se ha un sistema finito di generatori v1 , ..., vn .

2.7.1 Definizione
Definizione 6. Una famiglia {vi }i∈I di elementi di V è una base di V se è un sistema
di generatori linearmente indipendenti.
Se B = (v1 , ..., vn ) è una base di V, ogni v ∈ V è combinazione lineare di v1 , ..., vn in
maniera unica.

2.7.2 Esempi
In K n prendiamo e1 , ..., en = C la base canonica (nota anche come base standard).
Esiste solo in K n .

21
2.7.3 Coordinate
Se v si esprime come combinazione della base B con v = x1 v1 + ... + an vn allora x1 , ..., xn
si chiamano coordinate di v rispetto alla base B.

2.7.4 Riassunto
Quindi ricapitolando:
Sottospazio generato L’insieme di tutte le combinazioni lineari di v1 , ..., vn si de-
nota < v1 , ..., vn > è un sottospazio di V che contiene v1 , ..., vn ed è detto {sottospazio
generato} da v1 , ..., vn
Sistema di generatori Una famiglia di elementi di V {vi }i∈I è un sistema di gene-
ratori di V se ogni v di V è combinazione lineari di un numero finito di vi . V è detto
finitamente generato se ha un sistema finito di generatori v1 , ..., vn .
Base Una famiglia di elementi di V {vi }i∈I è una base se è un sistema di generatori
linearmente indipendenti. Se B = vi , ..., vn è una base di V , ogni v ∈ V è combinazione
lineare di vi , ..., vn in maniera unica.

22
Capitolo 3

Indipendenza lineare, basi,


sottospazi

23
3.1 Lemma dello scambio
Lemma 2. Sia (v1 , ..., vn ) = B una base di V. Sia w = x1 v1 + ... + xn vn , con xk , 0 per un
certo 1 ≤ k ≤ n. Allora anche

v1 , ..., vk−1 , w, vk+1 , ..., vn


è una base di V (stiamo sostituendo vk con w).
Dimostrazione. Riordinando, possiamo supporre che k = 1, allora x1 , 0. Si devono
dimostrare quindi due cose:

1. w, v2 , ..., vn generano V

2. sono linearmente indipendenti

1. Sia v ∈ V . Poiché B è una base, si ha che v = µ1 v1 + . . . + µn vn . Ma w = x1 v1 + . . . +


xn vn , quindi:
v1 = x1−1 w − x1−1 x2 v2 − . . . − x1−1 xn vn .
allora:
v = µ1 (x1−1 w − x1−1 x2 v2 − . . . − x1−1 xn vn ) + µ2 v2 + . . . + µn vn
µ1 µ1 x2 µ1 xn .
= v1 + (µ2 − )v2 + . . . + (µn − )vn
x1 x1 xn
2. Sia a1 w + a2 v2 + . . . + an vn = 0. Allora sostituendo le coordinate di w, a1 (x1 v1 +
. . . + xn vn ) + a2 v2 + . . . + xn vn = 0, ossia:

(a1 x1 )v1 + (a2 + a1 x2 )v2 + . . . + (an + a1 xn )vn = 0,

che è valido solo se a1 x1 = a2 + a1 x2 = . . . = 0 e poiché per ipotesi x1 , 0 deve


essere a1 = 0, e quindi di conseguenza anche a2 = a3 = . . . = an = 0.

3.2 Teorema di prolungamento o completamento a una base


Teorema 2. Sia V uno spazio vettoriale, sia B = (v1 , ..., vn ) una base di V. Supponiamo
che w1 , w2, ..., wr siano linearmente indipendenti. Allora possiamo dimostrare che:

1. r ≤ n

2. Si può prolungare (o completare) w1 , ..., wr a una base di V aggiungendo n − r


vettori presi tra v1 , ..., vn . Ciò equivale a dire che ∃vi , ..., vin−r vettori di B tali che
w1 , ..., wr , vi , ..., vi−r formano una base di V.

Dimostrazione. 1. Per induzione su r. Iniziamo dunque a verificare che sia valido


per r = 0. Ciò è banale, poiché ovviamente 0 ≤ n e poiché n − r = n, riottengo la
base B.
Passo induttivo: suppongo che il teorema sia vero ogni volta che parto da r − 1
vettori linearmente indipendenti (ipotesi induttiva). Ora dimostriamo che il
teorema vale per w1 , ..., wr .

24
Considero w1 , ..., wr−1 , che sono dunque linearmente indipendenti.
Per ipotesi induttiva,

(a) r − 1 ≤ n
(b) ∃n − (r − 1) = n − r + 1 vettori di B.Posso assumere che siano i primi che con
w1 , ..., wr−1 formano una base w1 , ..., wr−1 , v1 , ..., vn−r+1 .

Vogliamo dimostrare che r ≤ n. È dunque necessario escludere il caso r − 1 = n,


ossia r = n + 1. Se fosse r = n + 1, avrei r − 1 = n, e allora w1 , ..., wr−1 sarebbe
w1 , ..., wn . La seconda parte dell’ipotesi induttiva dice che n − r + 1 = 0, e quindi
w1 , ..., wr−1 formano una base di V. Quindi ogni vettore di V è una loro combi-
nazione lineare, in particolare wr : assurdo perché w1 , ..., wr sono linearmente
indipendenti. Quindi r < n + 1, ossia r ≤ n.

2. Per la 2 usiamo il lemma dello scambio. Abbiamo che:

w1 , ..., wr−1 , vr , ..., vn

sia una base di V. Inoltre, abbiamo appena dimostrato che r ≤ n ossia che n − r +
1 ≥ 1.
Ho che wr , 0, altrimenti w1 , w2 , . . . , wr sarebbero linearmente dipendenti.
Voglio sostituire uno fra i vr , ..., vn con i wr . Mi basta far vedere che se:

wr = λ1 w1 + ... + λr−1 wr−1 + λr vr + λr+1 vr+1 + ... + λn vn

almeno uno dei coefficienti λ , 0.


Ma se fosse

λr = λr+1 = ... = λn = 0

avrei wr combinazione lineare di w1 , ..., wr−1 , che è impossibile per ipotesi. Dal
lemma dello scambio abbiamo che si può dunque sostituire vr con wr , e dunque

w1 , ..., wr , vr+1 , . . . , vn

è base di V.

3.2.1 Conseguenze
Vediamo alcune importanti conseguenze di questo fondamentale teorema.

1. Se V ha una base finita, allora ogni base di V è finita. Dimostrazione: Sia B =


(v1 , ..., vn ). Supponiamo che sia {wi }i∈I un’altra base. Se I fosse infinito, allora
potrei prendere n + 1 vettori tra i {wi }, che è una contraddizione del teorema
appena dimostrato.

25
2. Se V ha una base B = (v1 , ..., vn ), allora ogni base di V è formata da n vettori.
Dimostrazione: siano B e B’ due basi di V, formate rispettivamente da r e n
vettori. Allora poiché B è base, e i vettori di B’ sono linearmente indipendenti,
per il teorema deve essere r ≤ n. Ma poiché anche B’ è base, e i vettori di B sono
linearmente indipendenti, deve anche essere n ≤ r. Entrambe le condizioni
sono verificate solo se n = r.

Dato questo teorema, possiamo definire la nozione di dimensione di uno spazio


vettoriale.

3.3 Dimensione di spazi vettoriali


Sia V un K−spazio vettoriale.
Definiamo la dimensione di V essere:

∞se V non ha basi finite


dimK V = 
n numero di vettori di una base, se V ha basi finite

3.3.1 Esempi
1. La dimensione dello spazio vettoriale delle matrici m × n è mn.

2. La dimensione dello spazio vettoriale R2 è 2.

3. Se dimK V = n, allora:

• Se v1 , ..., vn sono linearmente indipendenti, sono una base. Dimostrazione:


per il teorema del completamento a una base, sono n vettori linearmente
indipendenti, che quindi si possono completare a una base di n elementi,
ovviamente non occorre aggiungere neanche un elemento.
• Se hv1 , ..., vn i = V , allora formano una base. Dimostrazione: tentiamo di
dimostrare un enunciato più generale, ossia che se v1 , ..., vr formano un si-
stema di generatori di V, da questi è possibile estrarre una base di V. Se
sono linearmente indipendenti, l’enunciato è ovvio. Se non sono linear-
mente indipendenti, allora vuol dire che almeno un vettore è combinazio-
ne lineare degli altri. Mi è sufficiente eliminare questo vettore e continuare
così, finché non ottengo dei vettori linearmente indipendenti.

Dire che uno spazio V ha una base finita ⇐⇒ V è finitamente generato.


Se V è lo spazio vettoriale nullo, ha dimensione 0, perché non ci sono vettori
linearmente indipendenti (ha un solo vettore, il vettore nullo, che ovviamente non è
linearmente indipendente). La sua base è ∅.
Se dimV = 1 allora ogni base è formata da un solo vettore: B = {v}, con v , 0
(poiché deve essere linearmente indipendente). In tal caso,

V = hvi = {λv|λ ∈ K}
Consideriamo ora la

26
3.3.2 Dimensione dei sottospazi
Sia V un K-spazio vettoriale di dimensione n. Sia W ⊆ V un sottospazio vettoriale.
Allora:
1. anche la dimensione di W è finita,

2. dimW ≤ dim V ,

3. se dim W = dim V allora W = V .


Dimostrazione. 1. Se W avesse dimensione infinita, ci sarebbe una base di W for-
mata da infiniti vettori linearmente indipendenti, ma questi sono vettori di V,
che ha dimensione finita, e quindi ciò è impossibile.

2. Se fosse dim W = m > n, si troverebbero w1 , ..., wm linearmente indipendenti.


Ma poiché è W ⊆ V , sarebbero m vettori lineari indipendenti, il che è assurdo
(come conseguenza del teorema del completamento a una base).

3. Sia dimW =dimV = n. Sia w1 , ..., wn una base di W . Si tratta di n vettori linear-
mente indipendenti che appartengono anche a V , e quindi formano una base di
V. Pertanto W = V .

Noi non lo dimostriamo, ma è possibile dimostrare che ogni spazio vettoriale ha


una base.

3.4 Somma di sottospazi


Siano U , W ⊆ V sottospazi. Definiamo il sottospazio somma di U e W nel seguente
modo:

U + W = {u + w|u ∈ U , w ∈ W }.
Questo risulta un sottospazio di V, poiché:

1. non è vuoto, poiché almeno il vettore nullo appartiene sicuramente a entrambi


( 0 + 0 = 0 ).
|{z} |{z} |{z}
∈U ∈W ∈U +W

2. è chiuso rispetto alla somma: (u + w) + (u 0 + w0 ) = (u + u 0 ) + (w + w0 ).

3. è chiuso rispetto al prodotto scalare: λ(u + w0 ) = λu + λw0 che appartengono


rispettivamente a U e a W , e quindi hanno la stessa forma.

Lo sottospazio somma è generato dall’unione U ∪ W . Dimostriamo: Si ha ovvia-


mente che il sottospazio somma contenga entrambi i sottospazi sommati: U + W ⊇
U , W . Inoltre, se prendiamo un qualunque sottospazio V 0 ⊇ U ∪ W che contiene que-
st’unione, essendo un sottospazio V 0 è chiuso rispetto alla somma, e dunque contiene
anche U + W .
Avendo queste informazioni, possiamo dimostrare il seguente teorema, che mette
in relazione gli spazi dati da intersezione, unione e il sottospazio somma.

27
3.5 Relazione di Grassmann
Teorema 3. Sia V uno spazio vettoriale di dimensione finita.
Siano W , W 0 suoi sottospazi. Allora vale la relazione:

dim W + dim W 0 = dim(W + W 0 ) + dim(W ∩ W 0 ).

Dimostrazione. Sia r = dim(W ∩ W 0 ). Fisso quindi base di questo sottospazio che ha


r elementi v1 , ..., vr . Sono r vettori linearmente indipendenti che appartengono sia a
W sia a W 0 (ossia una base di W ∩ W 0 ). Per il teorema del completamento a una base,
posso quindi completarli a una base di W e a una base di W 0 .

v1 , ..., vr , w1 , ..., wk base di W


e

v1 , ..., vr , w10 , ..., wn0 .


Allora basta dimostrare che k + n = dim(W + W 0 ) + r. È necessario quindi trovare
una base formata da k + n − r vettori di W + W 0 . Il candidato naturale è:

v1 , ..., vr , wr+1 , ..., wk , wk+1 .


Dimostriamo dunque che questi formano una base.

1. Generano W + W 0 . Se w + w0 è un elemento di W + W 0 , allora w si può scrivere


w = λ1 v1 +...+λr vr +λr+1 w1 +...+λr+k wk , e w0 = µ1 v1 +...+µr vr +µr+1 w10 +...+µr+k wk0 ;
dunque

w + w0 = (λ1 + µ1 )v1 + .... + (λr + µr )vr + (λr+1 )w1 + . . . + (3.1)


+(λr+k )wk + (µr+1 )w10 + ... + (µr+k )wk0 (3.2)

2. Sono linearmente indipendenti: Prendiamo la seguente combinazione lineare


nulla:
α1 v1 + . . . + αr vr + γ1 w10 + . . . + γn wn0 = 0
| {z } | {z }
v∈W ∈W 0
Ma allora
v = −γ1 w10 − . . . − γn wn0 =⇒ v ∈ W 0
che implica quindi
=⇒ v ∈ W ∩ W 0 ,
dunque v si può scrivere come v = δ1 v1 + . . . + δr vr .
Pertanto

v = δ1 v1 + . . . + δr vr = α1 v1 + . . . + αr vr + β1 w1 + . . . + βk wk

ossia ci sono 2 espressioni di v come combinazione lineare di vettori linearmen-


te indipendenti. Pertanto
δ1 = α1 , . . . , δr = αr ,

28
β1 = . . . = βk = 0.
Da qui si passa facilmente a:

α1 v1 + . . . + αr vr + γ1 w10 + . . . + γn wn0 = 0

ma v1 , . . . , vr , w10 , . . . , wn0 sono linearmente indipendenti, pertanto

α1 = . . . = αr = γ1 = . . . = γn = 0.

3.5.1 Somma diretta


La somma W + W 0 è diretta se W ∩ W 0 = (0), in tal caso si ha che dim W + W 0 =
dim W + dim W 0 ; la somma si scrive così:

W ⊕ W 0.
V è somma diretta di due spazi W , W 0 se V = W + W 0 e W ∩ W 0 = (0). Allora ogni
vettore v ∈ V si scrive in maniera unica come v = w + w0 , con w ∈ W e w0 ∈ W 0 .
In particolare: w + w0 = 0 =⇒ w = 0 e w0 = 0.
Infatti se v = w + w0 = u + u 0 (u, w ∈ W e w0 , u 0 ∈ W 0 ) allora w − u = u 0 − w0 =⇒
|{z} | {z }
∈W ∈W 0
∈ W ∩ W 0 e perciò è nullo e si ha w − u = 0, u 0 − w0 = 0. Viceversa, supponiamo che
ogni vettore di V abbia un’unica espressione come somma w + w0 . Allora V = W + W 0 .
Inoltre W ∩ W 0 = (0), infatti se ci fosse un vettore u , 0 tale che u ∈ W ∩ W 0 , allora
u = u +0 = 0+u ha 2 espressioni. Oppure anche 0 = 0+0 = u −u. Dunque V = W ⊕W 0 .

Osservazione. Se V = W ⊕ W 0 , unendo basi di W e W 0 si ottiene una base di V.


Possiamo parlare di somma di una famiglia di sottospazi {Wi }i∈I con I = {1, ..., k}.
Allora
X [
Wi = h Wi i :
i∈I
sono le somme di elementi presi nei Wi .

Definizione 7. Si definisce V = ⊕Wi somma diretta se

1. Vale che: X
V = Wi ,
i∈I
e

2. ogni vettore di V ha una e una sola espressione come somma di elementi wi ∈


Wi , ..., wk ∈ Wk .
P
La 2 equivale a Wi ∩ ( j,i,j∈I Wj ) = (0), ∀i ∈ I. Ciò si dimostra per induzione su k.
Esempio:
Se v1 , ...vn è una base di V, allora V = hv1 i ⊕ hv2 i ⊕ . . . ⊕ hvn i.

29
3.6 Matrici
A matrice m × n.

3.6.1 spazio delle righe, spazio delle colonne


Definizione 8. spazio delle righe di A è il sottospazio di K n generato dalle righe di
A ha1 , ..., am i. La sua dimensione è detta rango per righe, ed è ≤ m.
spazio delle colonne di A è il sottospazio di K m generato dalle colonne di A:
1
ha , ..., an i. La sua dim è detta rango per colonne, ed è ≤ n.

Vale il teorema, che però dimostreremo solo più avanti, che il rango per righe
coincide con il rango per colonne.

Esempi
1. Matrice identica:

In =
1 0 0
0 1 0
0 0 1

In = (δij )i,j=1,...,n (dove δij è il simbolo di Kronecker)1 .

1. " #
1 2 −1
0 1 2

Il rango per righe e per colonne è 2.

3.7 Sistemi lineari


Sia A una matrice A = (aij ), m × n a entrate in K. Siano b1 , ..., bm ∈ K. Se il sistema
lineare è il seguente, con x1 , ...xn incognite, e m equazioni:


 a11 x1 + . . . + a1n xn = b1
.. ..


(3.3)



 . .
 a x +...+ a x = b

m1 1 mn n m

 b1 
 

allora A è la matrice del sistema, (A|b) è la matrice completa, dove b =  ...  sono i
 
 
bm
termini noti. Una soluzione di 3.3 è un vettore v ∈ K n , v = (v1 , ..., vn ) tale che:
1

1 se i = j


δij = 
 .
0 se i , j

30


 a11 v1 + . . . + a1n vn = b1
.. ..





 . .
 a v +...+ a v = b

m1 1 mn n m

Se b1 = ... = bm = 0 allora il sistema è omogeneo.


Ogni sistema omogeneo ha sempre la soluzione nulla (0, ..., 0). Se un sistema li-
neare ha almeno una soluzione si dice compatibile. Un sistema lineare omogeneo è
dunque sempre compatibile. Un sistema non omogeneo può non essere compatibile;
se lo è, può avere una o più soluzioni.
Infatti la soluzione di un sistema lineare omogeneo è un sottospazio, e quindi
deve per forza passare per l’origine.
Il caso particolare in cui m = n = 1 è un sistema formato da un’equazione in un’in-
cognita, della forma ax = b. Questo ha una ed una sola soluzione se a è diverso da
0. Se a = 0 ∧ b , 0 invece non è compatibile. Se invece a = b = 0, qualunque v ∈ K è
soluzione.
Il sistema lineare 3.3 può anche essere scritto nella forma:

 a11   a12   a1n   b1 


       

x1  ...  + x2  ...  + ... + xn  ...  =  ...  ,
       
       
am1 am2 amn bm
ossia x1 a1 + ... + xn an = b.
Questo significa che il sistema è compatibile ⇐⇒ il vettore b è combinazione
lineare dei vettori colonna, ossia se b ∈ ha1 , ..., an i. In tal caso una soluzione è data
dai coefficienti di una combinazione lineare di a1 , ..., an uguale a b. Se a1 , ..., an sono in
più linearmente indipendenti, la soluzione è unica.

3.7.1 Esempio
1. Sia un sistema omogeneo. Se le colonne della matrice associata A sono linear-
mente dipendenti, ci sono soluzioni non nulle. Ogni colonna è un vettore di
K m ; le colonne sono n: se n > m certamente il sistema ha soluzioni non banali.

2. Se m = n, allora il sistema ha tante equazioni quanto incognite. Se le colon-


ne sono linearmente indipendenti, costituiscono una base di K n . Pertanto,
qualunque sia b, il sistema ha una ed una sola soluzione.

Vedremo adesso un metodo di risoluzione dei sistemi lineari, l’algoritmo di Gauss.

31
Capitolo 4

Algoritmo di Gauss

32
4.1 Algoritmo di Gauss
L’algoritmo di eleminazione di Gauss serve a passare da un sistema lineare, come 3.3,
ad un sistema equivalente, mediante trasformazioni elementari. Scopo è trasformare
la matrice completa in una matrice a gradini o a scala, che ora definiamo.
Definizione 9. Matrice a gradini o a scala è una matrice della forma:

0 . . . 0 p1
 
∗ . . . . . . . . . ∗ . . .
 .. . . .. 
 .
 . . 0 ... 0 p2 . . . ∗ . . .

 . . . . .. .. 
B =  .. .. .. .. . . 0 ∗ ∗ . . . .

 .. .. .. .. .. . .

.. 
 . . . .
 . . . pr ∗ . . .
0 0 0 ... ... ... ... ... 0

dove gli elementi p1 , p2 , . . . , pr sono , 0 e vengono detti pivot della matrice. Sotto
la scala è tutto 0.
Si dice che un sistema lineare è a gradini se lo è la sua matrice completa.
Due sistemi lineari si dicono equivalenti se hanno le stesso soluzioni.
Le trasformazioni permesse sono:
1. moltiplicazione di una riga per uno scalare λ , 0:
 ai   ai 
   
 ..   .. 
 .   . 
   
 a  → λa 
 i   i 
 .   . 
 .   . 
 .   . 
am am
   

2. addizione della j-esima riga alla i-esima riga:


 ai   ai 
   
 .   . 
 ..   .. 
   
 ai  ai + aj 
   
 ..   .. 
   
 .  →  . 
   
 a   a 
 j   j 
 .   . 
 .   . 
 .   . 
   
am am

3. addizione alla i−esima riga un multiplo della j−esima riga:


 ai   ai 
   
 .  
 ..   .. 
   . 

 ai  ai + λaj 
   
 ..   ..
   
 .  → 

   . 

 a   a 
 j   j 
 .   .. 
 .  
 .   .


am am

33
che si ottiene utilizzando le due precedenti: moltiplico la j−esima riga per λ,
sommo questa alla i−esima riga e quindi applico di nuovo il primo tipo alla
j−esima riga moltplicando per λ1 .

4. Scambio di due righe: si può ottenere applicando le precedenti. Siano ai e aj le


righe da scambiare. Moltiplicando per −1 la j−esima e poi sommando a questa
ai , ottengo le righe ai e ai −aj . Successivamente applico il terzo tipo, sommando
l’opposto di ai − aj ad ai , ottenendo aj dov’era la riga ai e ai − aj dov’era la riga
aj . Ora è sufficiente aggiungere l’i−esima riga, che contiene aj , alla j−esima, e
si è così ottenuto lo scambio delle righe i e j.

Chiamiamo b1 , b2 , . . . , br le righe non nulle (con i pivot). Se queste sono linearmen-


te indipendenti, allora formano una base dello spazio delle righe di B, e r = rg(B) (per
righe).

Dimostrazione. Se x1 b1 + . . . + xr br = 0, allora per avere:

x1 (0, . . . , 0, p1 , ∗ . . .) + x2 (0, . . . , 0, 0, p2 ∗ . . .) + . . . + xn (0, . . . , 0, 0, 0, . . . , pn ) = 0

deve essere x1 p1 = 0 e quindi x1 = 0, e quindi sommando le altre bisogna avere


anche x2 p2 = 0, e quindi anche x2 = 0 e così via (sotto p1 ci sono solo zeri, lo stesso
per p2 e così via).

4.1.1 L’algoritmo
Sia una matrice A ∈ M(m × n, K). Trasformiamola in una matrice B a scala. Se A è
nulla non c’è nulla da fare.
Altrimenti chiamo aj1 la prima colonna non nulla. Eventualmente scambiando la
prima riga con una successiva, possiamo supporre che sia a1j1 , 0 e poniamo p1 = a1j1 .
Ora sommiamo alla riga h−esima, ∀h ≥ 2, un opportuno multiplo della prima, in
modo da annullare tutti gli elementi sotto a1j1 . Se tutte le righe sotto la prima sono
nulle, abbiamo finito. Altrimenti sia j 2 la prima colonna che contiene un elemento
non nullo, e supponiamo, eventualmente scambiando righe, che questo elemento sia
nella seconda riga e lo chiamiamo p2 . Ripetiamo il procedimento: annulliamo tutti
gli elementi in colonna sotto p2 , naturalmente senza manipolare la prima riga, che è
già stata trattata. Il procedimento continua con un’altra colonna finché tutte le righe
sotto l’ultima trattata non siano nulle.

4.2 Sistemi lineari


Una volta che la matrice di un sistema lineare è in forma a gradini, il sistema si risolve
all’indietro.
Utilizziamo la seguente scrittura per i sistemi lineari, dove A è la matrice associata
e b la colonna dei termini noti.

Ax = b
oppure

34
Ax = 0
se il sistema è omogeneo.

Proposizione. Sia W = {v ∈ K n |Av = 0}, ossia le soluzione del sistema omogeneo.


Allora W è un sottospazio vettoriale di K n .

Dimostrazione. W 3 0 ed è chiuso rispetto a somma e prodotto esterno.

Proposizione. Sia S = {v ∈ K n |Av = b}, allora S non è un sottospazio vettoriale se il


sistema non è omogoneo; S è del tipo S = v̄ +W = {v̄ +w|w ∈ W } dove v̄ è una soluzione
particolare.

Dimostrazione. Se il sistema non è omogeneo, 0 non è una soluzione, e quindi S non


è un sottospazio. Se Aw = 0, a Av̄ = b, allora A(v̄ +w) = b. Viceversa se Av̄ = b e Av = b
=⇒ A(v − v̄) = 0, e quindi v = v̄ ∈ W .

Se V è uno spazio vettoriale, un sottospazio affine di V è un sottoinsieme del tipo


S = v + W , si dice W passante per v. Quindi le soluzioni di un sistema non omogeneo
sono un sottospazio affine.
Vediamo un esempio, cerchiamo di risolvere il seguente sistema:

x2 +2x4 −x5 −4x6 = 0









 x 3 −x4 −x5 +2x6 +x7 = 0
+x2 +x4 +x5 −2x6 = 0



x −x4 2x6 −x7 = 0




 3
 x
2 +x3 +x4 +x7 = 0
La matrice associata è

0 1 0 2 −1 −4 0 
 
0 0 1 −1 −1 2 1 
 
0 1 0 2 1 −2 0  .
 

0 0 1 −1 0 2 −1

 
0 1 1 1 0 0 1
Con l’algoritmo di Gauss si arriva a:

0 1 0 2 −1 −4 0
 
0 0 1 −1 −1 2 1
 
0 0 0 0 1 1 0 ,
 

0 0 0 0 0 1 2

 
0 0 0 0 0 0 0
che è una matrice a gradini che osserviamo essere di rango 4. I parametri liberi sono
le incognite delle colonne che non contengono pivot: quindi in questo caso sono x1 ,
x4 , x7 . Otteniamo che:

35



 x6 + 2x7 = 0

x5 + x6 = 0




x3 − x4 − x5 + 2x6 + x7 = 0






 x2 + 2x4 − x5 − 4x6 = 0

La soluzione del sistema è dunque

(x1 , −2x4 − 5x7 , x4 + 5x7 , x4 , 2x7 , −2x7 , x7 ) =


che possiamo riscrivere come combinazione lineare di coefficienti x1 , x4 , x7 :

= x1 (1, 0, 0, 0, 0, 0, 0) + x4 (0, −2, 1, 1, 0, 0, 0) + x7 (0, −6, 5, 0, 2, −2, 1)


chiamando i vettori rispettivamente w1 , w2 , w3 :

= x1 w1 + x4 x2 + x7 w3 .
Questi vettori sono linearmente indipendenti, perché se scriviamo una loro combi-
nazione lineare nulla
x1 w1 + x4 x2 + x7 w3 = 0
allora per forza è
x1 = x4 = x7 = 0
poiché sono alcune componenti della soluzione.
In genereale, dato un sistema Ax = 0 in K n , si ha che dim W è uguale al numero di
parametri liberi, ossia a n − (np ) con np il numero dei pivot, che è uguale a n − rg(A) =
n − r.

4.3 Rouché-Capelli
Teorema 4. Il sistema Ax = b è compatibile se e solo se
rg A = rg(A|b)
(per righe).
Dimostrazione. Per mezzo di trasformazioni elementari, trasformo la matrice A in
una matrice a gradini A0 , per trovarne il rango. Sia dunque r := rg A.
Sempre a mezzo di trasformazioni elementari, trasformo la matrice (A|b) in una
matrice a gradini (B|c):
 
 b1,j1 c1 
b2,j2 c2 
 


(A|b) → 
 .. 
.
0 b c

 r,jr r 


 c r+1  
. . . cm

I ranghi delle matrici A e (A|b) sono diversi se e solo se nell’ultima colonna ho più di
r elementi.
Se così non avviene, allora si ha un pivot nella riga r +1 di (B|c), in tal caso l’ultima
equazione è chiaramente non compatibile (un numero diverso da 0 pari a 0).

36
4.4 Riassunto
Sia A una matrice m × n. Allora il sistema lineare Ax = b è compatibile se e so-
lo se rg A = rg(A|b), in particolare se il sistema omogeneo associato è compatibile e
l’insieme delle soluzioni è un sottospazio vettoriale di K n di dimensione n − r dove
r = rg(A).
Se il sistema non è omogeneo ed è compatibile, l’insieme delle soluzioni è del
tipo S = v̄ + W0 dove v̄ è una soluzione particolare e W0 è lo spazio delle soluzioni
del sistema omogeneo associato. In questo caso S è un sottospazio affine di K n di
dimensione pari a dim W0 = n − rg A = n − rg(A|b).
Per risolvere il sistema, si riduce (A|b) a gradini. Dopo aver verificato che i ranghi
siano uguali, si procede con il metodo di sostituzione all’indietro che fornisce una
soluzione particolare e una base per W0 .

Esempio. Risolviamo il sistema



x −2x2 +x3 =1
 1




 x1 −2x2 −x 4 =2
x3 +x4 = −1


   
 1 −2 1 0 1   1 −2 1 0 1 
 1 −2 0 −1 2  →  0 0 −1 −1 1 

   
0 0 1 1 −1 0 0 1 1 −1
  
 
 1 −2 1 0 1 
→  0 0 −1 −1 1 
 
0 0 0 0 0
 

che è compatibile.
x2 e x4 sono parametri liberi. Si ha che x3 = −x4 − 1 e

x1 = 2x2 − x3 + 1 = 2x2 + x4 + 1 + 1.

Soluzione è dunque:

x2 (2, 1, 0, 0) + x4 (1, 0, −1, 1) + (2, 0, −1, 0)


Se chiamiamo (2, 1, 0, 0) = w e (1, 0, −1, 1) = w0 allora W0 = hw, w0 i, ha dimensione 2.
v = (2, 0, −1, 0) è una soluzione particolare, ottenuta per x2 = x4 = 0.

37
Capitolo 5

Applicazioni lineari e matrici

38
5.1 Prodotto fra matrici
Definiamo il prodotto fra matrici, detto prodotto riga per colonna.

Definizione 10. Definiamo un’applicazione:

M(m × n, K) × M(n × r, K) → M(m × r, K)

(A = (aij ), B = (bjk )) 7→ AB = C = (cik )


dove
cik = ai1 b1k + ai2 b2k + . . . + ain bnk
Xn
= aij bjk .
j=1

Esempio.  
   1 0
 1 0 1 −1
−1 1
 
A =  2 1 0 0  , B = 
 

 0 1
−1 0 1 1
 
1 1
 

A è 3 × 4, B è 4 × 2, dunque AB sarà 3 × 2 ed è:
 
0 0
AB = 1 1 .
 
0 2
 

Per calcolarla abbiamo prima usato la prima riga di A e la prima colonna di B:

c11 = 1 · 1 + 0 · (−1) + 1 · 0 + (−1) · 1 = 0

Poi abbiamo usato la prima riga di A e la seconda colonna di B:

c12 = 1 · 0 + 0 · 1 + 1 · 1 + (−1) · 1 = 0

e così via.

Si ottiene facilmente che En = δij è l’lemento neutro:

AEn = En A = A.

Utilizzando il prodotto fra matrici possiamo scrivere i sistemi lineari (come (??)) in
forma “matriciale”:
 a11 . . . a1n  x1  b1 
    
 .. .. ..   ..  =  ..  .
 .
 . .   .   . 
am1 . . . amn xn bn
   

Proposizione. Proprietà del prodotto riga per colonne. Siano A, B, A0 , B0 matrici con
un numero opportuno di righe e colonne (di volta in volta per i prodotti). Allora
valgono:

1. t(AB) = tB tA

39
2.
A(B + B0 ) = AB + AB0 , (A + A0 )B = AB + A0 B
(distributività, a sinistra e a destra)

3. (AB)C = A(BC) (associatività)

4. (λA)B = λ(AB) = A(λB)

Dimostrazione. 1. A = aij (m × n), B = bjk (n × r). Allora C = AB = cik ed è m × r,con


n
X
cik = aij bjk .
j=1

Chiamando C 0 = t(AB):
C 0 = tC = (cki
0
)
con
n
X
0
cki = cik = aij bjk
j=1

Inoltre tA = (a0ji = aij ) ed è n × m, mentre tB = (bkj


0
= bjk ) ed è r × n. Dunque se
t t
chiamiamo D = B A = (dki ) (r × m), allora
n
X n
X
0 0
dki = bkj aji = bjk aij
j=1 j=1
Xn
= aij bjk .
j=1

da cui
0
cki = dki
ossia t(AB) = tB tA.

2. Anche qui da verificare che la moltiplicazione funzioni

3. Più avanti si trattano le applicazioni lineari definite dalle matrici. L’associati-


vità si dimostra con questo, nel senso che se L(∗) è la matrice collegata ad una
matrice ∗, allora
L(A) ◦ L(B) ◦ L(C) = ABC;
poiché la composizione di funzioni è associativa, lo è anche la moltiplicazione
di matrici.
Alternativamente, chiamiamo AB = (αjk ) con
n
X
αjk = aij bjk .
j=1

40
Se C = (ckl ), allora (AB)C = (dil ) con
 
r X
X  n 
dil = a b  ckl .

ij jk 


k=1 j=1

Chiamiamo BC = (βjl ) con


r
X
βjl = bjk ckl .
k=1
Allora ABC = (dil0 ) con  r 
n
X X 
dil0 = aij  bjk ckl  ,
j=1 k=1

che è uguale alla sommatoria che definiva dil , dunque sono uguali.
4. La dimostrazione è immediata.

5.2 Applicazioni lineari


Siano V , W spazi vettoriali su un campo K.
Definizione 11. Un’applicazione f : V → W si dice lineare se valgono:
1. f è compatibile con la somma, ossia:
f( v1 + v2 ) = f (v1 ) + f (v2 ) ∀v1 , v2 ∈ V ;
| {z } | {z }
somma in V somma in W

2. f è compatibile con il prodotto, ossia ∀λ ∈ K e ∀v ∈ V


f (λv) = λf (v)
dove naturalmente il primo prodotto è in V e il secondo in W .
Osservazione. Alternativamente, f è lineare se e solo se ∀λ1 , λ2 ∈ K e ∀v1 , v2 ∈ V vale
che
f (λ1 v1 + λ2 v2 ) = λ1 f (v1 ) + λ2 f (v2 )
Proposizione. Se f : V → W è lineare, allora:
f (0) = 0
e
f (−v) = −f (v).
Dimostrazione.
f (0) = f ( 0 · 0 ) = 0f (0) = 0.
|{z} |{z}
∈K ∈V
f (−v) = f ((−1)v) = −f (v).

41
Osservazione. Se f (0) , 0 allora f non è lineare.
Osservazione. Da questo si deduce anche che f è un’applicazione lineare costante se
e solo se f (v) = 0 ∀v ∈ V .

5.3 Proposizioni sulle applicazioni lineari


Proposizione. Sia f : V → W applicazione lineare. Allora:

1. Se V 0 ⊂ V è un sottospazio vettoriale, allora f (V 0 ) ⊂ W è un sottospazio vetto-


riale.

2. Se W ⊂ W è un sottospazio vettoriale allora la controimmagine f −1 (W 0 ) ⊂ V è


un sottospazio.

In particolare ciò vale per f (V )0 = Im f .


Dimostrazione. 1. Siano w1 , w2 ∈ f (V 0 ). Allora w1 = f (v1 ), w2 = f (v2 ) per qualche
0
v1 , v2 ∈ V . Siano x1 , x2 ∈ K. Considero:

x1 w1 + x2 w2 = x1 f (v1 ) + x2 f (v2 ) (5.1)


= f (x1 v1 ) + f (x2 v2 ) (5.2)
= f (x1 v1 + x2 v2 ) ∈ f (V ) (5.3)

Ma siccome V 0 è sottospazio e v1 , v2 ∈ V 0 , allora anche x1 v1 +x2 v2 ∈ V 0 , pertanto


x1 w1 + x2 w2 ∈ f (V 0 ).

2. Siano v1 , v2 ∈ f −1 (W 0 ), ossia f (v1 ) ∈ W 0 , f (v2 ) ∈ W 0 . Considero x1 v1 + x2 v2 e


verifico che f (x1 v1 + x2 v2 ) ∈ W 0 . Ma f (x1 v1 + x2 v2 ) = x1 f (v1 ) + x2 f (v2 ) ∈ W 0 ,
pertanto W 0 è un sottospazio, e quindi x1 v1 + x2 v2 ∈ f −1 (W 0 ).

5.3.1 Un po’ di terminologia


Definizione 12. Siano V , W spazi vettoriali su un campo K. Definiamo:

hom(V , W ) = {f : V → W |f lineare}.

La notazione viene da omomorfismo, sinonimo di applicazione lineare.


Proposizione. hom(V , W ) è un K−spazio vettoriale.
Dimostrazione. • f , g lineari =⇒ f + g lineare

• f lineare, λ ∈ K =⇒ λf lineare

• 0 è lineare: è l’applicazione nulla

• Altre proprietà erano già state verificate per Appl(V , W ), di cui chiaramente
hom è un sottoinsieme.

42
Nomenclatura
Definizione 13. Sia f : V → W un’applicazione lineare (cioè un omomorfismo). f
può essere chiamata in diversi modi a seconda delle sue proprietà:

• epimorfismo = suriettiva

• monomorfismo = iniettiva

• isomorfismo = biettiva

• endomorfismo se V = W

• automorfismo se V = W e f è isomorfismo

Proposizione. Sia f : V → W un isomorfismo. Allora ∃f −1 : W → V l’applicazione


inversa. Dimostriamo che f −1 ist linear e quindi che è un isomorfismo.

Dimostrazione. Poniamo f −1 = g. Siano w1 , w2 ∈ W . Sappiamo che esistono unici


v1 , v2 tali che w1 = f (v1 ) e w2 = f (v2 ), dunque g(w1 ) = v1 e g(w2 ) = v2 . Allora

g(λw1 + µw2 ) = g(λf (v1 ) + µf (v2 )) =


= g(f (λv1 + µv2 )) = λv1 + µv2 =
|{z} .
g=f −1

= λg(w1 ) + µg(w2 )

5.4 Nucleo di un’applicazione lineare


Sia f : V → W lineare.

Definizione 14. Nucleo di di f , denotato ker f , è il sottospazio controimmagine del


sottospazio nullo, ossia:

ker f = f −1 (0) = {v ∈ V |f (v) = 0}

Proposizione. f è iniettiva (f è un monomorfismo) ⇐⇒ ker f = (0)

Dimostrazione. Se f è iniettiva allora f −1 (0) è necessariamente formato da un unico


elemento, che poiché f è lineare è necessariamente nullo. Per quanto riguarda l’im-
plicazione nell’altro verso, supponiamo che ker f = (0). Allora siano v1 , v2 ∈ V tali
che f (v1 ) = f (v2 ). Dunque f (v1 ) − f (v2 ) = 0, che poiché f è lineare equivale a dire che
f (v1 − v2 ) = 0. Questo significa che v1 − v2 appartiene a ker f , e per ipotesi ker f = (0),
dunque v1 − v2 = 0 =⇒ v1 = v2 .

43
5.5 Teorema della dimensione
Teorema 5. Sia f : V → W un’applicazione lineare. Sia la dimensione di V finita.
Allora
dim V = dim(ker f ) + dim =f .
=f = f (V ) è un sottospazio di W; chiamiamo dim =f il rango di f : rg(f ).

Dimostrazione. Sia u1 , . . . , uk una base di ker f . Completo questa ad una base di V :


u1 , . . . , uk , vk+1 , . . . , vn .
Vogliamo dimostrare che f (vk+1 ), . . . , f (vn ) è una base di f (V ).
Verifichiamo dunque che sono un sistema di generatori e che sono linearmente
indipendenti.
Sistema di generatori. Sia w = f (v) ∈ f (V ). Allora

v = x1 u1 + . . . + xk uk + xk+1 vk+1 + . . . + xn vn

e dunque, utilizzando la linearità di f :

w = f (v) = f (x1 u1 + . . . + xk uk + xk+1 vk+1 + . . . + xn vn ) =


= x1 f (u1 ) + . . . + xk f (uk ) + xk+1 f (vk+1 ) + . . . + xn f (vn )

poiché u1 , . . . , uk sono una base di ker f , f (u1 ) = . . . = f (uk ) = 0, dunque:

w = f (v) = xk+1 vk+1 + . . . + xn vn .

Linearmente indipendenti. Se

yk+1 f (vk+1 ) + . . . + yn f (vn ) = 0

ossia
f (yk+1 vk+1 + . . . + yn vn ) = 0 =⇒
yk+1 vk+1 + . . . + yn vn ∈ ker f
dunque poiché u1 , . . . , uk è una base di ker f e vk+1 , . . . , vn doveva prolungarla a una
base di V , allora
yk+1 vk+1 + . . . + yn vn = y1 u1 + . . . + yk uk ,
dunque
y1 u1 + . . . + yk uk − yk+1 vk+1 − . . . − yn vn = 0.
Poiché si tratta di una base, tutti i coefficienti sono nulli.

Corollario 1. Sia f : V → W lineare con dim V = dim W e sia questa dimensione


finita. Allora sono equivalenti:

• f è iniettiva

• f è suriettiva

• f è biettiva

44
Dimostrazione. Si ha che f è iniettiva ⇐⇒ ker f = (0); per il teorema della dimensio-
ne questo avviene se e solo se dim V = dim =(f ).
Ma =(f ) ⊆ W è sottospazio; avendo dimensione uguale si ha che =f = W , che è
equivalente a dire che f è suriettiva.
Esempio. Vediamo un esempio. Sia V un K−spazio vettoriale di dimensione fissata,
sia W un suo sottospazio.
Consideriamo lo spazio quoziente V /W . Definiamo un’applicazione π detta pro-
iezione canonica:

π :V → V /W
v 7→ [v]
Per definizione π è suriettiva, inoltre è facile dimostrare che è lineare:
π(λv + µv 0 ) = [λv + µv 0 ] = λ[v] + µ[v 0 ] = λπ(v) + µπ(v 0 ).
Inoltre, si ha che
ker π = {v ∈ V |[v] = 0} = W .
Dunque per il teorema della dimensione:
dim V = dim ker π + dim =π = dim W + dim V /W
ossia
dim V /W = dim V − dim W .

5.5.1 Rango per righe e rango per colonne


Sia A una matrice m × n sul campo K.
Definiamo l’applicazione
L(A) :K n → K m
e1 7→ a1
..
.
en 7→ an
ossia che porta dai vettori della base canonica nelle colonne di A.
Allora =L(A) è generata da a1 , . . . , an e perciò
rg L(A) = dimha1 , . . . , an i = rg A per colonne.
Dal teorema della dimensione si ottiene che
ker L(A) = n − rg(A) per colonne.
Ma ricordiamo cos’è il ker L(A):
ker L(A) = {x ∈ K n |L(A)(x) = 0}
= {x ∈ K n |Ax = 0} = W
ed è quindi proprio lo spazio delle soluzioni del sistema omogoneo associato ad A.
Ma allora
dim W = n − r
dove r è il rango per righe di A.
Si ha dunque che il rango per righe è uguale al rango per colonne.

45
5.6 Teorema di determinazione di un’applicazione lineare
Teorema 6. Siano V , W K−spazi vettoriali. Fissata una base di V , v1 , ..., vn . Fissiamo
inoltre n vettori qualunque di W w1 , ..., wn . Allora esiste una ed una sola applicazione
lineare f : V → W tale che f (v1 ) = w1 , ..., f (vn ) = wn .
Dimostrazione. Unicità.
Supponiamo che f esista e sia v ∈ V un vettore qualunque. Allora v ha un’unica
espressione come combinazione lineare della base, così: v = x1 v1 + . . . + xn vn .

f (v) = f (x1 v1 + ... + xn vn ) = x1 f (v1 ) + . . . + xn f (vn ) (5.4)


= x1 w1 + ... + wn wn (5.5)

Esistenza.
Prendiamo la precedente come definizione di f , ponendo f (x1 v1 + . . . + xn vn ) =
x1 f (v1 ) + . . . xn f (vn ). f è ben definita, basta dimostrare che f è lineare.

f (αv + βv 0 ) =?
Sia v = x1 v1 + . . . xn vn , v 0 = µ1 v1 + µn vn , perciò:

αv + βv 0 = αx1 v1 + . . . + αxn vn + βµ1 v1 + . . . + βµn vn =


,
= (αx1 + βµ1 )v1 + . . . + (αxn + βµn )vn )
quindi

f (αv + βv 0 ) = (αx1 + βµ1 )w1 + . . . + (αxn + βµn )wn =


= α(x1 w1 + . . . xn wn ) + β(µ1 w1 + . . . µn wn ) =
= αf (v) + βf (v 0 )

Osservazione. La proposizione precedente vale anche per spazi vettoriali di dimen-


sione infinita.
Osservazione. Siano v1 , ..., vn e w1 , ..., wn rispettivamente basi di V e W . Allora:

∃!f : V → W (5.6)
v1 → w1 (5.7)
..
. (5.8)
vn → wn (5.9)

∃!g : W → V
w1 → v 1
.. .
.
wn → vn

46
Allora (g ◦ f )(vi ) = g(f (vi )) = g(wi ) = vi ∀i, e quindi (g ◦ f )(vi ) = Idv (vi )∀i =⇒
g ◦ f = IdV . Analogamente se scrivessimo le applicazioni al contrario si avrebbe che
f ◦ g = IdW . Perciò f e g sono isomorfismi uno inverso dell’altro. Da ciò otteniamo
un corollario del teorema:

Corollario 2. Se dim V = dim W = n, V e W sono isomorfi, ossia ∃f : V → W isomor-


fismo V  W : basta fissare 2 basi. In particolare da uno spazio V di dimensione n
esiste l’isomorfismo V  K n , ma non è un isomorfismo canonico, dipende dalla scelta
di una base di V .
Sia dunque fissata una base B di V , B = (v1 , . . . , vn ). Si definisce

KB : V → K n
un’applicazione lineare tale che vi → ei (vettori della base canonica), che associa
a ciascun vettore v ∈ V definito rispetto alla base B la n-upla delle coordinate di v
rispetto a B:

λ1 
 

v = λ1 v1 + . . . + λn vn →  ...  = λ1 e1 + . . . λn en .


 
 
λn
Questo è un ismorfismo di spazi vettoriali, associa a ogni vettore le sue coordinate
rispetto a B.

5.6.1 Esercizi dal teorema di determinazione


Abbiamo visto che dati V , W spazi vettoriali su K, con dim V = n, per il teorema
della determinazione di un’applicazione lineare esiste un’unica applicazione lineare
f : V → W tale che f (vi ) = wi ∀i = 1, . . . , n, dove i vettori wi sono vettori qualunque di
W , potrebbero essere anche tutti uguali. Due esercizi importanti derivanti da questo
teorema sono i seguenti:

1. Se w1 , . . . , wn sono linearmente indipendenti, allora f è iniettiva.

2. Se w1 , . . . , wn sono un sistema di generatori, allora f è suriettiva.

Svolgimento
1. I vettori wi siano linearmente indipendenti, dunque x1 w1 + . . . + xn wn = 0 ⇐⇒
x1 = . . . = xn = 0. Dobbiamo dimostrare che f è iniettiva, ossia che f (v) =
f (v 0 ) =⇒ v = v 0 , ∀v, v 0 ∈ V . Prendiamo v = x1 v1 +. . .+xn vn e v 0 = y1 v1 +. . .+yn vn
tali che f (v) = f (v 0 ). Allora f (v) − f (v 0 ) = (x1 − y1 )w1 + . . . + (xn − yn )wn = 0, e
poiché per ipotesi i vettori wi sono linearmente indipendenti, questo significa
che (x1 − y1 ) = . . . = (xn − yn ) = 0, e dunque x1 = y1 , x2 = y2 , . . . , xn = yn e pertanto
essendo combinazioni lineari con stessi coefficienti v = v 0 .

2. Si ha per ipotesi che hw1 , . . . , wn i = W , quindi ogni w ∈ W può essere scritto


come combinazione lineare di w1 , . . . , wn . Vogliamo dimostrare che f è suriet-
tiva, ossia che ∀w ∈ W ∃v ∈ V tale che f (v) = w. Prendiamo quindi un w ∈ W ,
w = x1 w1 + . . . + xn wn . Allora w = x1 f (v1 ) + . . . + xn f (vn ), e poiché f è lineare,

47
questo è equivalente a w = f (x1 v1 + . . . + xn vn ). Poiché i vettori vi sono una base,
x1 v1 + . . . + xn vn è sicuramente un vettore di V .

5.7 Spazio vettoriale duale


Prendiamo V , W K− spazi vettoriali. Consideriamo l’insieme delle applicazioni li-
neari fra questi due spazi vettoriali:

hom(V , W ) = {f : V → W |f lineare},
questo è chiaramente un sottoinsieme di Appl(V , W ). hom viene da "omomorfi-
smo".
Risulta anche uno spazio vettoriale, poiché f , g lineari =⇒ f +g lineare, e λ ∈ K, f
lineare =⇒ λf lineare. Per definizione di somma interna a Appl si ha che (f +g)(v) =
f (v) + g(v), verifichiamo ora che se f , g sono lineari anche f + g è lineare.
Due vettori: v e w. f , g lineari significa che f (v + w) = f (v) + f (w), stesso per g.
Dunque (f + g)(v + w) = f (v + w) + g(v + w) = f (v) + f (w) + g(v) + g(w). Per il prodotto
scalare invece, f (λx) = λ(f (x)) (e lo stesso per g. Dunque (f + g)(λx) = f (λv) + g(λv) =
λf (v) + λg(v) = λ(f (v) + g(v)). Inoltre poiché f è lineare, si ha che f (λx) = λf (x),
quindi è ovvio che hom(V , W ) è chiuso rispetto al prodotto per uno scalare.
Un caso particolare di hom(V , W ) si ha se W = K. K è uno spazio vettoriale, con
dim K = 1 e come base canonica l’unità 1 ∈ K. Allora hom(V , K) si indica con V ∗ e
viene detto spazio vettoriale duale di V. Ogni f ∈ V ∗ è una f : V → K, che si chiama
forma lineare su V. 7→
Prendiamo una base B di V , B = (v1 , . . . , vn ) (dunque dim V = n). Definiamo delle
forme lineari associate a questa base, devo dunque trovare n forme lineari.
Definiamo delle particolari forma lineari, tali che:

v1∗ :V → K
v1 7→ 1
v2 7→ 0
..
.
vn 7→ 0
e facciamo così per ogni (vi )i=1,...,n , ossia vi∗ (vi ) = 1 e = 0 per tutti gli altri vettori di
B (dunque vi∗ = δij ). Cosa succede se applichiamo ad esempio v1 a un generico vettore
v ∈ V , v = x1 v1 + . . . + xn vn ?

v1∗ (v) = x1 v1∗ (v1 ) + x2 v1∗ (v2 ) + . . . + xn v1∗ (vn )


= x1 · 1 + x2 · 0 + . . . + xn · 0 = x1
Otteniamo quindi la prima coordinata di v rispetto alla base B. In generale quin-
di vi∗ (v) manda nell’i-esima coordinata rispetto alla base B di v. Le forme lineari
v1∗ , . . . , vn∗ sono quindi appropriatamente dette funzioni coordinate rispetto alla base
B.
Proposizione. Sia V uno spazio vettoriale con dim V = n. Sia B = (v1 , . . . , vn ) una base
di V . Allora v1∗ , . . . , vn∗ formano una base di V ∗ = hom(V , K) (vengono detti base duale
di B e si indica con B∗ ).

48
Dimostrazione. Vediamo le due parti, ossia che sono linearmente indipendenti e che
generano V ∗ .
Sia v ∈ V = ni=1 xi vi , vi ∈ B.
P
vediamo che sono linearmente indipendenti

λ1 v1∗ + . . . λn vn∗ = 0 ∈ V ∗ ⇐⇒ ∀v ∈ V (λ1 v1∗ + . . . + λn vn∗ )(v) = 0. (5.10)


Quindi deve essere

λ1 x1 + . . . + λn xn = 0. (5.11)
Poiché la 5.10 deve valere ∀v ∈ V , vale in particolare anche per i vettori della base
B. Se inseriamo v1 , otteniamo dalla 5.11, dove troviamo che x1 = 1 mentre tutti gli
altri xi sono pari a 0, la seguente equazione:

λ1 · 1 + λ2 · 0 + . . . + λn · 0 = 0,
che ovviamente è verificata solo per λ1 = 0 e qualunque valore per λ2 , ..., λn . Se
facciamo lo stesso procedimento con tutti i vettori della base, otteniamo di volta in
volta che un λ sia uguale a 0, e quindi sono tutti uguali a 0.
Vediamo ora che sono un sistema di generatori.

5.8 Applicazioni lineari e matrici


Definizione 15. Sia A matrice m × n a entrate in K. L’applicazione lineare associata
alla matrice A, ossia L(A) è:

L(A) : K n → K m
che associa a un vettore colonna x un prodotto riga per colonna:

x1  x1 
   
 . 
 .  → A  ..  ∈ K m
 
 .   . 
xn xn
   
|{z} |{z}
=x =Ax

L(A)(x) = Ax,
con x vettore colonna, ossia per applicare L(A) ad un vettore x facciamo il prodot-
to per matrici Ax.

Proposizione. L(A) è lineare.

Dimostrazione.
 x1  y1 
    

L(A) λ  ..  + µ  ... 


  .   
  
    
xn yn

49
che per definizione è uguale a:

 x1  y1 


    

= A λ  ..  + µ  ... 


  .   
    
xn yn

e per la distributività del prodotto fra matrici:

 x1   y1 


     

= A λ  ..  + A µ  ... 


  .    
     
xn yn

e per un’altra proprietà del prodotto fra matrici:

x1  y1 
   

= λA  ..  + µA  ... 


 .   
   
xn yn

e dunque per la definizione di L(A) giungiamo alla conclusione:

x1  y1 
   

= λL(A)  .  + µL(A)  ...  .


 ..   
   
xn yn

Osservazione. Sia e1 , ..., en la base canonica di K n . Allora


 
 a11 
 a21 
 
L(A)(e1 ) = Ae1 =  .  = a1 ,

 .. 
 
am1
e in generale

L(A)(ei ) = ai
In questo caso le colonne di A sono i corrispondenti dei vettori della base canoni-
ca.

5.9 Matrice di un’applicazione lineare rispetto a basi fissate


Sia f : V → W lineare, con dim V = n, dim W = m. Fissiamo le basi A = (v1 , . . . , vn )
di V e B = (w1 , . . . , wm ) di W . Allora ogni vettore f (vj )j=1,...,n si può scrivere come
combinazione lineare di w1 , . . . , wm :
m
X
f (vj ) = aij wi .
i=1

50
Definizione 16. Matrice di f rispetto alle basi A e B è la matrice:

MBa (f ) = (aij ) i = 1, . . . , m
j = 1, . . . , n
ossia
 
 a11 a12 ... a1n 
 a21 a22 ... a2n 
 
 .. .. .. ..  ,
 
 .
 . . . 
am1 am2 . . . amn

la prima colonna della matrice contiene le coordinate di f (v1 ) rispetto a B, la


seconda le coordinate di f (v2 ) rispetto a B, e così via.
Sia v ∈ V = x1 v1 + . . . + xn vn . Allora

f (v) = f (x1 v1 + . . . + xn vn ) = x1 f (v1 ) + . . . + xn f (vn ) =


= x1 (a11 w1 + a21 w2 + . . . + am1 wm ) + x2 (a12 w1 + a22 w2 + . . . + am2 wm ) + . . . +
+ xn (a1n w1 + a2n w2 + . . . + amn wm )
= (x1 a11 + x2 a12 + . . . + xn a1n )w1 + (x1 a21 + . . . + xm a2n ) + . . . + (x1 am1 + . . . + xn amn )wm =
= y 1 w1 + . . . + y m wm
con 

 y1 = a11 x1 + a12 x2 + . . . + a1n xn
..





 .
ym = am1 x1 + am2 x2 + . . . + amn xn


Proposizione. Sia f : V → W lineare, sia A la sua matrice rispetto alle basi A (di V )
e B. Abbiamo il diagramma:
f
V /W

KA KB

 
Kn / Km
L(A)

Allora rg(f ) = rg L(A) = rg A (per colonne).


Dimostrazione.
rg L(A) = dim =L(A) = dim =(L(A) ◦ KA ) =
= dim =(KB ◦ f ) = dim KB (f (V )) = dim f (V ) = rg(f ).

Teorema 7. Sia A = v1 , . . . , vn una base di V e B = w1 , . . . , wm una base di W . Allora


l’applicazione
MBA : hom(V , W ) → M(m × n, K)
f 7→ MBA (f )
è un isomorfismo di spazi vettoriali.

51
Dimostrazione. È facile dimostrare che è lineare.
Per verificare che è iniettiva, basta verificare che il suo nucleo è banale: anche
questo è facile, in quanto MBA (f ) = 0 se e solo se f è l’applicazione nulla.
Per dimostrare la suriettività, definiamo una matrice M e costruiamo una funzio-
ne ϕ tale che
MBA (ϕ) = M.
Questo è sempre possibile in quanto basta associare a vi il vettore che ha nella colonna
mi le coordinate di f (vi ) rispetto a B, usando poi il teorema di determinazione di
un’applicazione lineare.

Teorema 8. Matrice dell’applicazione composta. Consideriamo f : V → V 0 descrit-


ta dalla matrice A, e g : V 0 → V 00 , descritta dalla matrice B. Siano B, B 0 , B 00 basi
rispettivamente di V , V 0 , V 00 . Allora:
0
MBB00 (g ◦ f ) = MBB00 (g)MBB0 (f ) = BA

dove l’ultima moltiplicazione indica il prodotto righe per colonne.


Dimostrazione. Se B 0 = v10 , . . . , vm
0 e B 00 = v 00 , . . . , v 00 ,
1 p

m
X
f (vk ) = a1k v10 + . . . + amk vm
0
= ajk vj0
j=1

p
X
g(vj0 ) = bij v100 + . . . + vp00 = bij vi00 .
i=1
Da cui
Xm m
X
0
g(f (vk )) = g( ajk vj ) = ajk g(vj0 ) =
j=1 j=1
m
X p
X
= ajk bij vi00 =
j=1 i=1

che è proprio  
p X
X  m 
= bij ajk  vi00
 
 
i=1 j=1

ossia il prodotto di matrici BA applicato a vi00 .

Se f : V → V è un endomorfismo, e la dimensione di V è finita, si può prendere


la stessa base sia nel dominio sia nel codominio, e allora la matrice MBB si denota solo
MB (f ).
Per il teorema precedente si nota che l’isomorfismo

MB : hom(V , V ) → M(n × n, K)

gode di un’ulteriore proprietà, namely l’esistenza in entrambi gli spazi vettoriali di


un’operazione interna di prodotto: la composizione in hom e il prodotto righe per
colonne in M(n × n, K).

52
Entrambi sono non-commutativi e soddisfano alcune proprietà (assoc., elemento
neutro, distributività rispetto alla somma).
Somma interna, prodotto esterno e prodotto interno danno agli spazi vettoriali
una struttura di K−algebre. Si ha pertanto il teorema

Teorema 9. MB è un isomorfismo di K−algebre, ossia conserva il prodotto:

MB (g ◦ f ) = MB (g)MB (f ).

In particolare, rispetto alle basi canoniche,

L(BA) = L(B) ◦ L(A)

Vediamo un teorema che sarà utile in seguito.

Teorema 10. Sia f : V → W lineare, V , W di dimensione finita. Allora esistono basi


A di V e B di W tali che

Er 0
MBA (f ) = m − r {0 0
|{z}
n−r

Dimostrazione. Sia r = rg f , n è la dimensione del dominio, dunque dim ker f = n − r.


Gli ultimi n− elementi di A devono quindi formare una base di ker f , pertanto parto
da questa vr+1 , . . . , vn e la prolungo ad una base A di V :

v1 , . . . , vr , vr+1 , . . . , vn .
| {z }
base di ker f

Sappiamo che f (v1 ), . . . , f (vr ) è una base di =f ; la prolungo ad una base B di W :

w1 , . . . , wr , wr+1 , . . . , wm .
Allora rispetto a queste 2 basi la matrice è quella voluta, infatti:

f (v1 ) = w1 , . . . , f (vr ) = wr , f (vr+1 ) = 0, . . . , f (vn ) = 0.

5.10 Esempio di applicazione lineare e matrici


Prendiamo V = R2 e definiamo fα : V → V la rotazione di angolo α. Questa è
l’endomorfismo L(A) che ha come matrice, rispetto alla base canonica C:
!
cos α − sin α
A= .
sin α cos α
Consideriamo ora la rotazione di angolo βfβ . L’applicazione composta fβ ◦ fα ,
ottenuta applicando prima la rotazione di angolo α e poi quella di angolo β, è quindi
fα+β , e dunque MC (fβ ◦ fα ) = MC (fα+β ). Per le proprietà che abbiamo visto qui sopra,
facendo il prodotto fra matrici otteniamo proprio la matrice che descrive fα+β :

53
! !
cos β − sin β cos α − sin α
MC (fβ )MC (fα ) = =
sin β cos β sin α cos α
!
cos α cos β − sin α sin β − sin α cos β − sin β cos α
= =
sin β cos α + sin α cos β − sin α sin β + cos α cos β
!
cos(α + β) − sin(α + β)
= .
sin(α + β) cos(α + β)
Ci avviciniamo ad un’importante questione di questo capitolo, ossia il cambia-
mento di base. Prima introduciamo un particolare tipo di matrici.

5.11 Matrici invertibili


Definizione 17. Sia A matrice quadrata (A ∈ M(n × n, K). A è invertibile se ∃ una
matrice A−1 ∈ M(n × n, K) tale che AA−1 = A−1 A = En dove En è la matrice identità
1 . . . 0
 

0 . . . 0.
 
 
0 ... 1

Definizione 18. Denotiamo GL(n, K) ⊂ M(n × n, K) l’insieme delle matrici n × n inver-


tibili con entrate in K (general linear).

Proposizione. GL(n, K) è un gruppo rispetto al prodotto righe per colonne, ed è detto


gruppo generale lineare.

Dimostrazione. Si ha che GL(n, K) è chiuso rispetto al prodotto: infatti, se A, B ∈


GL(n, K), allora ∃A−1 , B−1 e AA−1 = A−1 A = En = BB−1 = B−1 B. Allora:

(AB)(B−1 A−1 ) = A(BB−1 )A−1 = AEn A−1 = En .

L’elemento neutro è En . La proprietà associativa è già stata verificata per il prodotto


righe per colonne, e l’inverso di ogni elemento esiste per definizione.

Osservazione. 1. (A−1 )−1 = A


t
2. A invertibile ⇐⇒ tA invertibile. Infatti ( tA)−1 = (A−1 ), e quindi t(A− 1) tA =
t
(AA−1 ) = tEn = En e

3. Se A è invertibile, L(A) è un isomorfismo. Infatti AA−1 = En , e L(AA−1 ) =


L(En ) = IdK n , ma L(AA−1 ) = L(A)L(A−1 ). Inoltre anche L(A−1 )L(A) = IdK n dun-
que L(A)−1 = L(A−1 ) è l’inversa di L(A).
Un risultato più generale di quest’ultimo punto si ha nel seguente teorema.

Teorema 11. Sia f : V → W lineare, sia dim V = dim W = n finita, e siano A, B


rispettivamente basi di V e W . Allora:

f è un isomorfismo ⇐⇒ MBA (f ) è invertibile

54
Dimostrazione. =⇒
f isomorfismo =⇒ ∃f −1 isomorfismo inverso tale che f ◦ f −1 = IdW e f −1 ◦ f =
IdV . Siano allora A = MBA (f ) e A0 = MA
B −1
(f ). Allora

AA0 = MBA (f )MA


B −1
(f ) = MBB (f ◦ f −1 ) = MBB (IdW ) = En .

Analogamente si vede A0 A = En .
⇐=
Supponiamo A = MBA (f ) invertibile. Allora L(A) : K n → K n è un isomorfismo.
Consideriamo il diagramma commutativo:

f
V /W .

KA KB

 
Kn / Kn
L(A)

Vediamo che f = KB−1 ◦ L(A) ◦ KA è un isomorfismo, poiché è composizione di isomor-


fismi.

Teorema 12. Sia A ∈ M(n × n, K). Allora sono equivalenti:

1. A è invertibile

2. il rango per colonne è n

3. i vettori colonna sono una base di K n

4. tA è invertibile

5. il rango per righe di A è n

6. i vettori riga di A sono una base di K n

Dimostrazione. A invertibile ⇐⇒ L(A) è isomorfismo, equivalente a L(A) iniettiva e


suriettiva ⇐⇒ i vettori colonna ai = L(A)ei generano K n , che è ⇐⇒ il rango per
colonne è n.
Il resto della dimostrazione è analogo ragionando su tA.

5.12 Cambiamento di base


5.12.1 Esprimere un vettore rispetto ad un’altra base
Sia V K−spazio vettoriale di dimensione n. Supponiamo siano date 2 basi di V A =
(v1 , . . . , vn ) e B = (w1 , . . . , wn ).
Consideriamo il diagramma commutativo:

55
idV
V /W .

KA KB

 
Kn / Kn
L(A)

x1 
 

Vogliamo esprimere v, che ha coordinate  ...  rispetto a A, con le sue coordinate
 
 
xn
y
 
 1 
 . 
 .  rispetto a B 1 , ossia:
 . 
yn
 

v = x1 v1 + . . . + xn vn
.
= y 1 w1 + . . . + y n wn

y1  x1 
   

Dal diagramma otteniamo che A = MB (IdV ) è una matrice tale che  .  = A  ... .
A  ..   
   
yn xn
A è detta matrice del cambiamento di base o matrice di passaggio da A a B.

a11 a12 . . . a1n 


 

A =  ... .. .. .. 



 . . . 
an1 an2 . . . ann

La prima colonna contiene le coordinate di v1 rispetto a w1 , . . . , wn , la seconda colonna


le coordinate di v2 rispetto a w1 , . . . , wn e così via:
n
X
vj = IdV (vj ) = aij wi .
i=1

5.12.2 Applicazioni fra spazi vettoriali diversi


Supponiamo di avere un omomorfismo da uno spazio V di dimensione n a uno spazio
W di dimensione m, e che A e A0 siano basi di V e B e B 0 siano basi di W .
Abbiamo il seguente diagramma.
1 Per questo,
v /v

 
x1  y1 
   

/  .. 
 .   
 . 
 .   . 
 
xn yn
 

56
IdV f IdW
V /V /W /W
K A0 KA KB KB 0
 L(A)   
K n A0 / K n A / Km / Km
MA (IdV ) MB (f ) MBB0 (IdW )

Allora si ha il prodotto di matrici:


0 0
MBA0 = MBB0 (IdW )MBA (f )MA
A
(IdV ).
Due matrici che rappresentano f rispetto a basi diverse differiscono per il prodot-
to a destra e sinistra di 2 matrici invertibili.

Osservazione. La amtrice di passaggio d A a B e quella di passaggio da B a A sono


una l’inversa dell’altra.

Per un teorema precedente (10 a pagina 53), se A è una matrice m × n esistono


matrici invertibili S e T tali che
!
Er 0
S A T =
|{z} |{z} |{z} 0 0
m×m m×n n×n

Dimostrazione. Consideriamo L(A): rispetto alle basi canoniche, A è la sua matrice.


Esistono basi A di K n e B di K m riespetto a cui la matrice è
!
Er 0
0 0

C
Sia C la base canonica. Se prendiamo T = MCA (IdK n ) e S = MBm (IdK m ), allora SAT è la
n
matrice richiesta.

Da questo si ottiene una nuova dimostrazione che il rango per righe è uguale al
rango per colonne:

• Chiaramente il rango per righe di


!
Er 0
0 0

è r.

• Il rango per colonne di SAT è uguale al rango dell’applicazione lineare L(SAT )


associata, che è uguale a L(S) ◦ L(A) ◦ L(T ). Poiché S e T sono isomorfismi,
rg(L(SAT )) = rg(L(A)) che è il rango per colonne di A.

• Inoltre il rango per righe di SAT è uguale al rango per colonne di t(SAT )
che per lo stesso ragionamento di prima è uguale al rango per colonne di tA.
Quest’ultimo è uguale al rango per righe di A.

57
5.12.3 Cambio di base ed endomorfismi
Se abbiamo un endomorfismo su V descritto dalla matrice A, e delle basi A e B di V ,
come facciamo a descrivere questo rispetto a basi diverse?
Abbiamo il diagramma:

IdV f IdV
V /V /V /V
KB KA KA KB
 L(A)   
Kn B / Kn / Kn / Kn
M (IdV ) A MBA (IdV )
A

Dunque
MB (f ) = MBA (IdV )MA (f )MA
B
(IdV ).

Le matrici MBA (IdV ) e MA


B
(IdV ) sono una l’inversa dell’altra.
Possiamo dunque scrivere, chiamando la prima S, che:

MB (f ) = SMA (f )S −1 .

5.12.4 Matrice inversa


Definizione 19. Due matrici quadrate A e B si dicono simili tra loro se esiste una
matrice S invertibile tale che
A = SBS −1 .
È una relazione d’equivalenza fra matrici detta “similitudine”.

Proposizione. Se esiste una matrice B tale che BA = En oppure una matrice C tale
che AC = En , allora A è invertibile.

Dimostrazione. Se BA = En allora L(BA) = IdK n .


Allora L(A) è iniettiva, poiché se L(A)(v) = 0 significa che L(B)(L(A)(v)) = L(B)(0) =
0, dunque v ∈ kerL(B) ◦ L(A) = ker IdV = 0, dunque L(A) è isomorfismo e pertanto A è
invertibile.
Se invece AB = En allora L(AB) = L(A)◦L(B) = IdK n , il che implica che L(A) è suriet-
tiva (poiché preso v ∈ K n , v = IdK n (v) = L(A)(L(B)(v)) ossia v ∈ =(L(A)), indipenden-
temente dal v scelto), pertanto L(A) è isomorfismo, e dunque L(A) è invertibile.

Algoritmo
Come facciamo a calcolare la matrice inversa?
L’idea è quella di cercare una matrice X tale che AX = En . Si tratta quindi di
trovare le soluzioni di un’equazione matriciale nell’incognita X = (xij )i,j=1,...,n .

AX = En ⇐⇒ AX 1 = e1 , AX 2 = e2 , . . . , AX n = en
dove X 1 , . . . , X n sono le colonne di X.
Trovare X equivale pertanto a risolvere n sistemi lineari con matrice dei coeffi-
cienti A e colonne dei termini noti e1 , e2 , . . . , en .
Dunque A è invertibile ⇐⇒ ognuno di tali sistemi ha una ed una sola soluzione.

58
Per risolverli, usiamo l’algoritmo di Gauss, riducendo A a gradini e contempo-
raneamente operando le stesse trasformazioni anche alla colonna dei termini noti.
Queste trasformazioni sono le stesse per tutti gli n sistemi. Dunque scriviamo la
matrice formata da A ed En e la trasformiamo nella matrice (B|C):
   
A En → B C

otteniamo così n sistemi lineari equivalenti ai primi.


Successivamente, operiamo dal basso nuovamente trasformazioni elementari per
mandare a zero tutti gli elementi sopra la diagonale principale.
 
 b11 . . . b1n c11 . . . c1n 
 .. .. .. 

 . . .


 →
..

 

 0 bn−1,n . 

bnn cn−1 . . . cnn
 0 0 0 0 
 b11 b12 . . . b1,n−1 0 c11 . . . c1n 

 . . . .. . .
.. .
.. .
.. .
.. 

 
 .. 0 .
.. .
.. 


 0 . bn−1,n−1 0 
0 0 
0 0 bnn cn−1 . . . cnn

Ripetendo il procedimento per le altre colonne otteniamo

 b11 ... 0
 

 .. 
 0 . D  .
 
bnn
 

I sistemi lineari da risolvere ora sono:





 b11 x11 = d11
 b22 x21 = d21



 ..
.




nn n1 = dn1

 b x

Dunque x11 = db11 , x21 = db21 , e così via;


11 22
il secondo sistema sarà



 b11 x12 = d12
 22 22 = d22
 b x


 ..
.




nn n2 = dn2

 b x

Dunque x12 = db12 , x22 = db22 , e così via.


11 22
Analogamente per gli altri sistemi.
Giungiamo dunque al fatto che se la matrice A è invertibile, allora a destra si
troverà A−1 che ha forma

59
 d11 d12 d1n   d1 
 b b11 ... b11   b 
 d11  d112 

 21 d22 d2n 
b b22 ... b22 
  
−1
A =  22  =  b22 .
  
 ...   .. 
   . 
 dn1 dn2
... dnn    d n 
bnn bnn bnn bnn

Esempio. Per esempio,  


−1 1 0 
A =  1 −1 −1
 
0 1 2
 

Allora  
 −1 1 0 1 0 0 
 1 −1 −1 0 1 0  → . . . →
 
 
0 1 2 0 0 1
 
 −1 0 0 −1 −2 −1 
→  0 1 0 2 2 1 
 
0 0 −1 1 1 0
 

Dunque  
 1 2 1
A−1 =  2 2 1 .
 
−1 −1 0
 

60
Capitolo 6

Determinanti

61
6.1 Introduzione ed esempi
Sia data una matrice 2 × 2:
!
a b
.
c d
Il determinante di una matrice due per due è ad − bc.
Possiamo immaginare il determinante come un numero che indica come cambia-
no le aree di figure trasformate dall’applicazione lineare associata alla matrice di cui
calcoliamo il determinante: si immagini in uno spazio vettoriale R2 i vettori della
base canonica e l’area del quadrato formato da questi (che è 1). Consideriamo poi
l’applicazione lineare, endomorfismo, la cui matrice rispetto alla base canonica è:
!
3 0
.
0 4
Questa trasforma i vettori della base canonica in vettori che hanno coordinate
rispetto alla base canonica (3, 0) e (0, 4). L’area del parallelogramma compreso fra
questi due è 12, e il determinante della matrice è proprio 12.
Prendiamo per esempio un parallelogramma costruito su due vettori, v1 , v2 . L’a-
rea del parallelogramma è

AP = ( base × altezza).
Costruiamo un parallelogramma su due vettori v, w, di coordinate v = (a1 , a2 ) e
w = (b1 , b2 ). Come da figura (6.1)(Fischer pag. 176), possiamo esprimere questi vet-
tori rispettivamente come v = τv 0 e w = σ w0 , con σ , τ opportuni scalari. Naturalmen-
te si ha che v 0 = (cos α, sin α) e w0 = (cos β, sin β). Sia A l’area del parallelogramma
di lati v, w e A0 l’area del parallelogramma generato da v 0 , w0 . Se h0 è l’altezza del
parallelogramma con area A0 , allora dal disegno si deduce facilmente che

62

cos α sin α
h0 = sin(β − α) = cos α sin β − cos β sin α = .
cos β sin β
Utilizzando la geometria piana si può verificare che l’area A è pari a

0 0 τ cos α τ sin α a1 a2
A = τσ A = τσ h = = .
σ cos β σ sin β b1 b2
L’area è dunque uguale al determinante.
Avendo inteso il determinante come area di un parallelogramma, è facil vedere il
senso geometrico dietro le seguenti proprietà del determinante:
! ! ! !
λv v v v
det = λ · det , det = µ det .
w w µw w

Il determinante associa quindi ad una matrice uno scalare. È quindi una partico-
lare applicazione lineare. Per definirlo formalmente servono alcune definizioni.

6.2 Gruppi di permutazioni


Dato un insieme non vuoto (chiamiamolo A), si definisce permutazione una qualun-
que biezione da A in sé stesso.
Sia ad esempio l’insieme {1, 2, . . . , n} = In . Sia σ dunque una permutazione: si ha
che:

σ : In → In
1 7→ σ (1)
2 7→ σ (2).
..
.
n 7→ σ (n)
Per esempio, se n = 3, si hanno 6 permutazioni:

1, 2, 3 1, 3, 2 2, 1, 3 2, 3, 1 3, 1, 2 3, 2, 1.
Denoto Sn l’insieme delle permutazioni di {1, . . . , n}. Esso ha n! elementi (si dimo-
stra per induzione).
Osservazione. L’insieme Sn è un gruppo per la composizione di applicazioni. Si
osserva che non è abeliano per n > 2. L’ordine è n!.

63
La notazione che si usa di solito per indicare come opera una permutazione σ è la
seguente:
!
1 2 ... n
.
σ (1) σ (2) . . . σ (n)
Se prendiamo σ ∈ Sn , e poniamo σ (1) = i1 , . . . , σ (n) = in , possiamo definire un’ap-
plicazione che è ad ogni permutazione σ associa la n−upla ordinata (i1 , . . . , in ) di ele-
menti di In . Capita che si identifichi Sn con la sua immagine in Inn (l’insieme di n−uple
ordinate di elementi di In ).
Osserviamo che con n = 3 le permutazioni non sono commutative. Prendiamo:
! !
1 2 3 1 2 3
, .
2 3 1 1 3 2
Se applichiamo prima la prima e poi la seconda, si ottiene:
!
1 2 3
;
3 2 1
se applichiamo prima la seconda e poi la prima si ottiene:
!
1 2 3
.
2 1 3
Sia data la seguente permutazione:
!
1 2 3 4 5 6 7
σ= .
5 3 1 2 7 6 4
Osserviamo che si ha la seguente catena:

1 → 5 → 7 → 4 → 2 → 3 → 1.
Questa è una permutazione ciclica ed il ciclo ha lunghezza 6.
Invece
6→6
significa che 6 è un punto fisso (ed è quindi un ciclo di lunghezza 1).
Possiamo scrivere quindi σ semplicemente come:
 
1 5 7 4 2 3 1 (6) .
|{z}
non si scrive
Sia invece data
!
0 1 2 3 4 5 6 7
σ = .
2 1 5 4 7 3 6
Allora abbiamo:
 
1→2→1 1 2 ciclo di lunghezza 2

64
 
3→5→7→6→3 3 5 7 6 ciclo di lunghezza 4

4 → 4 (4).
Allora σ 0 è prodotto di 2 cicli disgiunti di lunghezze 2 e 4: sono permutabili.
  
σ0 = 1 2 3 5 7 6 .

Definizione 20. Ciclo è quindi una permutazione del tipo:

(ny y y
1 n2 . . . nk ).

Si dice che il ciclo ha lunghezza k o che è un k−ciclo.

Attenzione che il prodotto di permutazioni scritto così si legge da sinistra a de-


stra: applico prima la permutazione a sinistra e poi quella a destra, non come la
composizione di applicazioni (ossia se σ , σ 0 sono due permutazioni, si ha che σ · σ 0 =
σ 0 ◦ σ ).

Cicli non disgiunti


Esempio
   
1 3 5 3 1 7 4 6 7 2
è un prodotto di cicli non disgiunti, pari a:
!
1 2 3 4 5 6 7
=
1 6 5 3 2 7 4
 
= 2 6 7 4 3 5
ed è dunque un 6-ciclo.

6.2.1 Trasposizioni
Definizione 21. Trasposizione è un 2-ciclo (n1 n2 ) ossia n1 → n2 , n2 → n1 e tutto il
resto resta fisso. Per esempio, se sono k, l gli elementi che vengono invertiti da una
trasposizione τ, si ha che:

τ(k) = l
τ(l) = k
τ(i) = i per i ∈ {1, . . . , n} \ {k, l}
Osservazione.
(1 3 5) = (3 5 1) = (5 1 3)

Osservazione. Due cicli disgiunti commutano.

Proposizione. 1. Ogni permutazione è prodotto di cicli disgiunti.

65
2. Ogni ciclo è prodotto di trasposizioni (non disgiunte in generale)

3. Ogni permutazione è prodotto di trasposizioni (non disgiunte in generale)

Dimostrazione. 1. Lo si fa in modo algoritmico

2. Per induzione su k, dove k è la lunghezza del ciclo

3. Segue da 1 e 2
Dunque per induzione la 2:
Se k = 2 è banale: un 2−ciclo è una trasposizione.
Per induzione, supponiamo dunque che sia vero per (k−1)−cicli. Abbiamo dunque
che:

(x1 , x2 , . . . , xk−1 ) = (x1 , x2 )(x2 , x3 ) . . . (xk−2 , xk−1 )(xk−1 , x1 ).


Moltiplichiamo entrambi i lati per la trasposizione (xk−1 , xk ).
È facile vedere che (x1 , . . . , xk−1 ) · (xk−1 , xk ) = (x1 , . . . , xk ), poiché xk−1 → x1 , ma poi-
ché nel secondo si ha che xk−1 → xk , si scambiano xk−1 con xk , ma xk−1 mandava in
x1 , si ottiene che xk−1 → xk → x1 .

Le espressioni come prodotto di trasposizioni in generale non sono uniche.

Definizione 22. Inversione di σ ∈ Sn è una coppia di indici i < j ∈ {1, . . . , n} tali che
σ (i) > σ (j).

Definizione 23. Segno di σ ∈ Sn è definito come

sgn σ = (−1)a
dove a è il numero di inversioni di σ . Il segno è dunque 1 se a è pari, −1 se a è
dispari.

Per esempio, sia σ = (n1 n2 ) una trasposizione:


!
1 . . . n1 n1 + 1 . . . n2 − 1 n2 n2 + 1 . . . n
1 . . . n2 n1 + 1 . . . n2 − 1 n1 n2 + 1 . . . n
Nel I blocco non ci sono inversioni, e lo stesso si può dire del II e del III, poiché
tutto rimane fisso.
Invece, ∀ni con n1 < ni < n2 abbiamo 2 inversioni:

1. n1 < ni , ma σ (n1 ) = n2 > σ (ni ) = ni

2. ni < n2 , ma σ (ni ) = ni > σ (n2 ) = n1

Infine n1 < n2 ma σ (n1 ) = n2 > n1 = σ (n2 ). Dunque complessivamente sgn σ = −1.


Ogni trasposizione ha quindi segno -1, come vediamo in un’osservazione a segui-
re.

66
6.2.2 Permutazioni pari e dispari
Definizione 24. Una permutazione si dice pari se ha segno 1, dispari se ha segno -1.

Osservazione. Ogni trasposizione è dispari. Infatti una trasposizione (i j) presenta


inversioni nelle coppie (i, i + 1), (i, i + 2), . . ., (i, j), (i + 1, j), . . ., (j − 1, j), il cui numero è
(j − 1) + (j − i − 1) = 2(j − i) + 1.

Teorema 13. Date 2 permutazioni σ , τ ∈ Sn , vale che

sgn(σ τ) = sgn(σ ) sgn(τ),

o equivalentemente:

sgn :Sn → ({1, −1}, ·)


σ 7→ sgn(σ )
è un omomorfismo di gruppi.

Dimostrazione. Dimostrazione saltata, serve un lemma che dice che


Y σ (j) − σ (i)
sgn σ = .
j −i
i<j

Corollario 3. Se σ = τ1 . . . τk è un prodotto di k trasposizioni, allora


k
Y
sgn(σ ) = sgn(τi ) = (−1)k .
i=1

Corollario 4. Se σ è un k−ciclo (σ = (n1 , . . . , nk ), allora sgn(σ ) = (−1)k−1 .

Dimostrazione. Per induzione su k. Se k = 2, allora sgn(2 − ciclo) = −1.


Dimostriamo che k − 1 =⇒ k. Inoltre si ha che

(n1 . . . nk−1 ) (nk n1 ) = (n1 . . . nk ).


| {z } |{z}
(−1)k−2 per ipotesi induttiva −1 perché è trasposizione
da cui segue la tesi.

Per esempio, sia


!
1 2 3 4 5
σ= = (1 5)(2 4),
5 4 3 2 1
ossia un prodotto di 2 trasposizioni. Si ha infatti che

sgn σ = (−1)2 = 1.

Definizione 25. An = {σ ∈ Sn |σ è pari} è un sottogruppo di Sn , è il nucleo dell’omor-


fismo sgn. Esso viene detto sottogruppo alternante.

67
• È chiuso rispetto al prodotto: σ , τ ∈ An , sgn(σ τ) = sgn(σ ) sgn(τ) = 1 · 1 = 1.

• σ pari =⇒ σ −1 pari. Infatti σ σ −1 = Id e sgn(σ ) sgn(σ −1 ) = 1 =⇒ sgn(σ −1 ) = 1.

Da osservare che Sn = An ∪{permutazioni dispari} ma le permutazioni dispari non


sono chiuse rispetto al prodotto.
Se τ è una permutazione dispari,

τAn = {τσ |σ ∈ An }
coincide con l’insieme di tutte le permutazioni dispari. Infatti se α è una permu-
tazione dispari,

α = τ(τ −1 α)
e τ −1 è dispari, α è dispari, dunque τ −1 α ∈ An è pari (dunque ∈ An ) e quindi si
ottiene che α ∈ τAn .
Allora Sn = An ∪ τAn e i 2 sottinsiemi di permutazioni pari e dispari sono in biie-
zione. Dunque An ha n! n!
2 elementi (ha ordine 2 ), come l’insieme delle permutazioni
dispari.
Per esempio,

S3 = {IdI3 , (1 2), (1 3), (2 3), (1 2 3), (1 3 2)}


ha 6 elementi, i 2-cicli hanno segno −1.
Invece
A3 = {IdI3 , (1 2 3), (1 3 2)}
è un gruppo abeliano con 3 elementi (ed è dunque isomorfo a Z3 .

6.3 Applicazioni multilineari


Interpretiamo il determinante come un’applicazione che associa ad una matrice uno
scalare. Per poterlo definire servono alcune definizioni su delle particolari applica-
zioni.

Definizione 26. Funzione (o applicazione) multilineare. Un’applicazione

D : V × ... × V = V n → K
è multilineare se è lineare in ogni argomento, ossia se fissato un qualunque intero
i = 1, . . . , n e comunque si prendono ∀j = 1, . . . , i − 1, i + 1, . . . , n dei vettori vj ∈ Vj ,
l’applicazione

v ∈ Vi 7→ Φ(v1 , . . . , vi−1 , v, vi+1 , . . . , vn ) ∈ V


è lineare. Ciò equivale a dire che ∀i = 1, . . . , n

D(v1 , . . . , λvi + µvi0 , vi+1 , . . . , vn ) = λD(v1 , . . . , vi , . . . , vn ) + µD(v1 , . . . , vi0 , . . . , vn ).

68
Definizione 27. Funzione multilineare alternante. Una funzione multilineare D è
alternante se D(v1 , . . . , vn ) = 0 ogni qualvolta ∃vi = vj con i , j.
Definizione 28. Una funzione determinante su V con V K−spazio vettoriale con
dim V = n, è una funzione multilineare alternante
D : V × . . . × V = V n → K.

6.3.1 Antisimmetria
Proposizione. Sia D una funzione determinante su V. Allora D è antisimmetrica, cioè
D(v1 , . . . , vi , . . . , vj , . . . , vn ) = −D(v1 , . . . , vj , . . . , vi , . . . , vn ).
Dimostrazione. Considero D(v1 , . . . , vi + vj , . . . , vi + vj , . . . , vn ) = 0 perché D è alternante
per definizione. Ma per la multilinearità questo è anche uguale a:

= D(v1 , . . . , vi , . . . , vj , . . . , vn ) + D(v1 , . . . , vj , . . . , vi , . . . , vn )+
.
+ D(v1 , . . . , vi , . . . , vi , . . . , vn ) + D(v1 , . . . , vj , . . . , vj , . . . , vn ) = 0
Notiamo che D(v1 , . . . , vi , . . . , vi , . . . , vn ) e D(v1 , . . . , vj , . . . , vj , . . . , vn ) sono entrambi ugua-
li a 0 per alternanza, e quindi la proprietà è verificata.

Proposizione. Se σ inSn , allora D(vσ (1) , . . . , vσ (n) ) = sgn σ D(v1 , . . . , vn ).


Dimostrazione. σ è un prodotto di trasposizioni, con ogni trasposizione cambia il
segno di D.
Proposizione. Se v1 , . . . , vn sono linearmente dipendenti, allora D(v1 , . . . , vn ) = 0. In
particolare se uno dei vettori è nullo, allora D(v1 , . . . , vn ) = 0.
Dimostrazione. Se v1 , . . . , vn sono linearmente dipendenti, allora uno di loro è com-
binazione lineare degli altri. Supponiamo sia vn , dunque vn = x1 v1 + . . . + xn vn−1 .
Allora:
D(v1 , . . . , vn ) = D(v1 , . . . , vn−1 , x1 v1 + . . . + xn−1 vn−1 ) =
per le proprietà del determinante tutto ciò è uguale a:
n−1
X
= D(v1 , . . . , vn−1 , vi ) = 0
i=1
che è nullo poiché D è alternante.
Osservazione. Abbiamo dimostrato che D multilineare alternante è antisimmetrica.
Vale anche il viceversa purché il campo K abbia caratteristica diversa da 2, cioè se
2 , 0. Infatti se scambiamo due vettori uguali (vi con vi qui sotto):
D(v1 , . . . , vi , . . . , vi , . . . , vn ) = −D(vv1 , . . . , vi , . . . , vi , . . . , vn )
| {z }
=0 per alternanza

sommando a entrambi i lati la stessa quantità si ottiene:


=⇒ 2D(v1 , . . . , vi , . . . , vi , . . . , vn ) = 0
se 2 , 0 allora 2 è invertibile in K e si può semplificare, altrimenti non si può conclu-
dere che il determinante sia per forza pari a 0.

69
6.3.2 Leibniz
Sia B = (v1 , . . . , vn ) una base di V . Consideriamo n vettori w1 , . . . , wn , vogliamo espri-
mere D(w1 , . . . , wn ) facendo intervenire la base B. Supponiamo che sia:
n
X n
X
wi = xij vj oppure wi = xij vji .
j=1 ji =1

Allora:
n
X n
X
D(w1 , . . . , wn ) = D( xij vj , x2j2 vj2 , . . .) =
j1 =1 j2 =1

per multilinearità:
n
X X X
= x1j1 D(vj1 , x2j2 vj2 , . . . , xnjn vjn ) =
j1 =1

ripetendo per ogni argomento:


n
X
= x1j1 x2j2 . . . xnjn D(vj1 , . . . , vjn )
j1 ,...,jn =1

ma D(vj1 , . . . , vjn , 0 solo se non ci sono ripetizioni, ossia solo se j1 , . . . , jn sono una
permutazione di {1, . . . , n}. Quindi si può scrivere così:
X
D(w1 , . . . , wn ) = x1σ (1) . . . xnσ (n) D(vσ (1) , . . . , vσ (n) ) =
σ ∈Sn
X
= (sgn σ )x1σ (1) . . . xnσ (n) D(v1 , . . . , vn ) . (6.1)
σ ∈Sn | {z }
costante
Quest’ultima è la formula di Leibniz per il determinante. È un’espressione con n!
addendi.

Corollario 5. Sia D , 0. Allora (v1 , . . . , vn ) è una base di V ⇐⇒ D(v1 , . . . , vn ) , 0.

Dimostrazione. Se non sono una base, sono linearmente dipendenti (la dimensio-
ne dello spazio a cui ci stiamo riferendo è n), e dunque abbiamo già dimostrato
che il determinante è nullo. Se il determinante è D , 0, allora esistono dei vettori
w1 , . . . , wn ∈ V tali che D(w1 , . . . , wn ) , 0. Allora se (v1 , . . . , vn ) è una base, applichiamo
la formula precedente e otteniamo che deve essere D(v1 , . . . , vn ) , 0.

Teorema 14. Sia V uno spazio vettoriale di dimensione n, sia (v1 , . . . , vn ) una base di
V . Allora ∃! funzione determinante D : V n → K tale che D(v1 , . . . , vn ) = 1.
Ogni altra funzione determinante è del tipo λD con λ ∈ K.

Dimostrazione. Stiamo supponendo da qui in avanti che


X
wi = xij vj (6.2)

70
P
L’espressione di Leibniz ((6.1)) implica l’unicità: D deve operare così: se wi = xij vj ,
P
D(w1 , . . . , wn = σ inSn sgn(σ )x1σ (1) . . . xnσ (n) . Definità così infatti vale che D(V1 , . . . , vn ) =
1. Infatti la matrice di v1 , . . . , vn rispetto alla base v1 , . . . , vn seguendo (6.2) è ovviamen-
te la matrice identica En δij . Bisogna verificare che D è multilineare alternante:
Multilinearità: Ricordiamo la definizione dei w, ossia (6.2). Allora se aggiungia-
mo a un vettore wi dei w1 , . . . , wn un vettore wj0 e moltiplichiamo per scalari, otteniamo
che X X
λwi + µwj0 = λ( xik vk ) + µ( 0
xjl vl )
k l
dove xj0 sono le coordinate di wj0 rispetto alla base v1 , . . . , vn .
X
D(w1 , . . . , λwi + µwj0 , . . . , wn ) = 0
sgn(σ )x1σ (1) . . . (λxiσ (i) + µxiσ (i) ) . . . xnσ (n) =

λD(w1 . . . wn ) + µD(w1 + . . . wi0 . . . wn ).


Alternanza: Se wi = wj , i < j : xik = xjk ∀k, Sia τ = (i j) trasposizione, Sn = An ∪ τAn ,
dove An è il sottoinsieme di Sn delle permutazioni pari. Allora D(w1 . . . wi . . . wj . . . wn ) =
X
= sgn(σ )x1σ (1) . . . xnσ (n) =
σ
X X
= x1σ (1) . . . xnσ (n) − x1σ (τ(1)) . . . xnσ (τ(n))
σ ∈An σ ∈An

poiché chiaramente se prendiamo le permutazioni pari hanno segno positivo, compo-


nendo una trasposizione diventano dispari e quindi la seconda sommatoria ha segno
(−). Si vede che
x1σ τ(1) . . . xiσ (τ(i)) . . . xjσ (τ(j)) . . . xnσ (τ(n)) =
= x1σ (1) . . . xiσ (i) . . . xjσ (j) . . . xnσ (n)
quindi la somma è nulla.

Corollario 6. Se V = K n ,

D : (K n )n → K : D(e1 , . . . , en ) = 1

viene chiamato il determinante standard e si indica con det (il determinante che è 1
sulla matrice identica.
Proposizione.
det( tA) = det(A)
Dimostrazione. A = (aij ), tA = (a0ij ) con a0ij = aji .
Allora: X
det( tA) = sgn(σ )a01σ (1) . . . a0nσ (in)
σ
X
= sgn(σ )aσ (1)1 . . . aσ (n)n =
σ ∈Sn
X .
= sgn(σ )a1σ −1 (1) . . . anσ −1 (n)
σ ∈Sn
= det(A)

71
Abbiamo usato il fatto che:

aσ (1)1 · . . . · aσ (n)n = a1σ −1 (1) · . . . · anσ −1 (n) .

Inoltre abbiamo già dimostrato che:

sgn σ = sgn σ −1 .

Per la catena di uguaglianza abbiamo usato la proprietà che con σ e σ −1 di descrive


tutto Sn , o, più precisamente, l’applicazione

Sn → Sn , σ 7→ σ −1

è una biezione. Questo è una conseguenza del fatto che Sn è un gruppo.

Esempio. Sia A una matrice quadrata di ordine n = 3, Si hanno allora sei permuta-
zioni:
σ = (1, 2, 3), τ = (2, 3, 1) υ = (3, 1, 2)
α = (2, 1, 3) = (1, 2) β = (1, 3, 2) = (2, 3) γ = (3, 2, 1) = (1, 3)
Notiamo dunque che α, β, γ hanno segno negativo poiché trasposizioni, le altre hanno
segno positivo. I termini sono dunque:
" #
aσ = a11 a22 a33 aτ = a12 a23 a31 aυ = a13 a21 a32
aα = −a12 a21 a33 aβ = −a11 a23 a32 aγ = −a13 a22 a31

Se applichiamo ad esempio alla matrice:



1 0 5
7 3 9 = 1 · 3 · 1 + 0 · 9 · 4 + 5 · 7 · 7 − 4 · 3 · 5 − 7 · 9 · 1 − 1 · 7 · 0 = 125.
4 7 1

6.3.3 Ricapitolando
Abbiamo definito una particolare applicazione detta determinante

det :M(n × n; K) → K
A 7→ det A

che soddisfa le seguenti proprietà:

• Multilinearità (per def.)

• Alternanza (per def.)

• Su En vale 1 (per def.)

Valgono inoltre le proprietà:

Teorema 15. • ∀λ ∈ K vale che det(λA) = λn det A

• Se una riga di A è nulla, allora det A = 0.

72
• Se B è la matrice A con uno scambio fra righe, allora det B = − det A (trasforma-
zione del IV tipo)

• Se B è la matrice ottenuta da A sommando a una riga un’altra riga moltiplicata


per uno scalare λ, allora det B = det A (trasformazione del III tipo)

• det A = 0 se e solo se rg A < n

det A = 0 ⇐⇒ rg A < n. (6.3)

Dimostrazione. Per il primo punto, la dimostrazione è nella sezione successiva. Il


secondo è già stato dimostrato. Per il terzo, ricordando che det(ai ai ) = 0 (per alter-
nanza),
det A + det B = det(ai aj ) + det(aj ai ) =
= det(ai ai ) + det(ai aj ) + det(aj ai ) + det(aj aj ) =
= det(ai + aj , ai + aj ) = 0
=⇒ det A = − det B.
Per il quarto,

det B = det(ai + λaj , aj ) = det A + λ det(aj , aj ) = det A.

Il fatto che il determinante sia diverso da zero se e solo se la matrice di rango mas-
simo si ottiene portando, a mezzo di trasformazioni elementari, la matrice in forma
triangolare superiore: il determinante di questa (come dimostrato sotto) è pari al pro-
dotto degli elementi della diagonale ed è come già dimostrato ± il determinante della
matrice di partenza. Se uno degli elementi della diagonale è nullo, allora la matrice
non è di rango massimo, e il prodotto degli elementi della diagonale è nullo quindi
anche il determinante lo è.

6.4 Metodi per calcolare il determinante


Proposizione. Se A è una matrice triangolare superiore (aij = 0∀i, j : i > j), allora il
suo determinante è: det A = a11 . . . ann (elementi della diagonale).
P
Dimostrazione. det A = σ inSn sgn(σ )a1σ (1) . . . anσ (n) , ma se σ , Id c’è almeno un fattore
nullo, ossia c’è almeno un’inversione (triangolare superiore vuol dire che aij = 0 se
i > j).

Regola di Sarrus: matrici 3x3.


Si ha che:
 a1 
 
 .. 

 . 

det ai + λaj  =
 

 .. 

 . 

an

73
per multilinearità, in particolare linearità nell’i−esima riga,

a1 
 
 . 
 .. 
 
a  aj 
   
 1 
= det  ..  + λ det  ...  =
 .   
 
   
an  a 
 j 
 . 
 . 
 . 
 
an

per alternanza il termine con ripetuto aj si annulla, dunque:

a1 
 

= det  ...  .


 
 
an

Abbiamo inoltre come diretta conseguenza delle proprietà del determinante che:

a1  a1 
   
 .   . 
 a1  a1   ..   .. 
     
 .   .     
 .   .   a 

 ai 
 
 .   .   i 
det λai  = λ det  ai  ; det  ..  = − det  ...  .
     .   
 
 .   .     
 .   .   a   a 
 .   .   j   j 
 .. 
   . 
 . 
an an
   
 .   . 
   
an an

(il cambio di segno scambiando le righe si deduce dall’antisimmetria).


Otteniamo da ciò che det(λA) = λn det(A), se A è n × n.

Proposizione. Sia A una matrice a blocchi:


!
B ∗
A= =⇒ det(A) = det B det C
0 C

con B, C naturalmente quadrate.

Dimostrazione. La dimostrazione si effettua con trasformazioni elementari utilizzan-


do l’algoritmo di Gauss per trasformare in B e C in matrici triangolari superiori, senza
però mai moltiplicare una riga per uno scalare, eventualmente scambiando righe.

6.4.1 Teorema di Binet


Teorema 16. Se A, B sono matrici n × n, allora:

det(AB) = det A det B


ossia
det : GL(n, K) → K \ {0}

74
è un omomorfismo di gruppi. Definiamo anche:

SL(n, K) = ker det = {A ∈ GL(n, K)| det(A) = 1}

che è un sottogruppo ed è chiamato gruppo lineare speciale.

Dimostrazione. Se il determinante B è uguale a 0, allora le righe di B sono linearmente


dipendenti, dunque il sistema lineare Bx = 0 ha soluzione non nulla v , 0. Dunque
A(Bv) = A · 0 = 0, ma A(Bv) = (AB)v dunque anche AB ha rango minore del numero di
righe e pertanto det(AB) = 0.
Se invece è det B , 0, allora consideriamo l’applicazione f : M(n × n, k) → K
definita da
det(AB)
f (A) = .
det B
Vogliamo dimostrare che f (A) = det(A). Basta verificare le proprietà del determi-
nante: ossia che è l’ultima applicazione multilineare alternante tale che f (En ) =
1.

• f (En ) = 1, infatti:
det(En B) det B
f (En ) = = = 1.
det B det B
• Multilinearità: sia A = λA0 + µA00 , dove A0 ha tutte le righe uguali ad A, tranne
la j−esima e analogamente A00 , dunque aj = λa0j + µa00j . Allora:

(AB)jk = aj bk = (λa0j + µa00j )bk =

= λ(a0j bk ) + µ(a00j bk )
perciò (AB)j , la j−esima riga di AB, è combinazione lineare di due righe. Il
determinante è lineare in particolare nella j−esima componente: =⇒ det AB =
λ det(A0 B) + µ det(A00 B)

=⇒ f (A) = λf (A0 ) + µf (A00 ).

• Alternanza: se A ha due righe uguali, anche AB ha due righe uguali, dunque


det AB = 0, che implica f (A) = 0.

Si ha dunque che:
det AB
f (A) = det(A) = .
det B

Corollario 7.
1
det(A−1 ) = .
det(A)
Dimostrazione.
AA−1 = En =⇒ det(A) det(A−1 ) = det(En ) = 1

75
Proposizione. Se A, B sono simili, hanno lo stesso determinante.

Dimostrazione. B = SAS −1 =⇒ det B = det S det A det S −1 = det A.

Come conseguenza possiamo definire il determinante di un endomorfismo.

Definizione 29. f : V → V sia un enodmorfismo, dim V = n. Definiamo:

det(f ) = det MB (f )

dove B è una base di V . Se B0 è un altra base, MB0 (f ) e MB (f ) sono simili pertanto


hanno lo stesso determinante, dunque det(f ) è ben definito.

Osservazione. f è un automorfismo, ossia un isomorfismo di V su V ⇐⇒ det(f ) , 0.

6.5 Formula di Laplace


Sia A = (aij ).
Consideriamo la matrice ottenuta annullando tutti i termini della i−esima riga e
della j−esima colonna tranna l’elemento in ij che è 1, indicata con Aij :
 
 a11 . . . a1j−1 0 a1j+1 . . . a1n 
 . .. .. .. .. 
 .. . . . . 

 i−1,1 . . . ai−1,j−1 0 ai−1,j+1 . . . ai−1.n 
a 
Aij =  0 ... 0 1 0 ... 0 
 
ai+1,1 . . . ai+1,j−1 0 ai+1,j+1 . . . ai+1,n 
 
 . .. .. .. .. 
 .. . . . . 

an1 . . . an,j−1 0 an,j+1 . . . ann
 

Consideriamo la matrice à = a˜ij , che è definita da a˜ij := det Aji dove Aji = tAij .
Chiamiamo à “matrice complementare”.

Osservazione. Si osserva che:

det Aij = det(a1 , . . . , aj−1 , ei , aj+1 , . . . , an ).

Aggiungendo infatti opportuni multipli della j−esima colonna (che è proprio ei ) alle
altre colonne ci si può ricondurre all’enunciato.

Teorema 17.
ÃA = AÃ = det(A)En .

76
Dimostrazione. Descriviamo i componenti di à · A:
n
X n
X
a˜ij ajk = ajk det Aji
j=1 j=1
Xn
= ajk det(a1 , . . . , ai−1 , ej , ai+1 , . . . , an ) per oss. prec.
j=1
n
X
1 i−1
= det(a , . . . , a , ajk ej , ai+1 , . . . , an ) multilin.
j=1
1 i−1
= det(a , . . . , a , ak , ai+1 , . . . , an )
= δik · det A per alternanza.

Dunque à · A = det A · En . La dimostrazione di A · à è analoga..

Definizione 30. A matrice n × n. Chiamo:

A0ij
la sottomatrice di A di dimensioni (n − 1) × (n − 1) ottenuta cancellando la i − esima
riga e la colonna j − esima. Viene chiamata minore complementare di aij .
Lemma 3.
det(Aij ) = (−1)i+j det(A0ij )
Dimostrazione. Operando i − 1 scambi di righe e j − 1 scambi di colonne, è possibile
condurre Aij alla forma:

1 0 . . . 0
 
0 

Aij →  ..
 
 . A0ij


 
0
che è una matrice a blocchi: il determinante è dunque det A0ij .

Possiamo enunciare il teorema di Laplace.

6.5.1 La formula
Teorema 18. Sia A = (aij ), n × n. Allora:
1. Fissato un i ∈ {1, . . . , n} indice di riga si ha lo sviluppo secondo la i−esima riga:
n
X
det(A) = (−1)i+j aij det(A0ij )
j=1

2. Fissato un j si ha lo sviluppo secondo la j−esima colonna:


n
X
det(A) = (−1)i+j aij det(A0ij )
i=1

77
(notare gli indici! Se scegliamo la riga la sommatoria è con l’indice delle colonne!)

Dimostrazione. Chiamiamo (bij )i,j = AÃ, che abbiamo dimostrato essere uguale a
det(A)En , pertanto bii = det A. Dunque:

bii = det(A) =
Xn
= aij a˜ji =
j=1
Xn
= aij det(Aij )
j=1

per il lemma precedente (3),


n
X
=⇒ det(A) = (−1)i+j det(A0ij ).
j1

Esempio. Vediamo uno sviluppo secondo, per esempio, la terza riga:



1 2 0 2
= (−1)3+1 · 1 · + (−1)3+2 · 1 · +0 =
2 1 3 1

= −3 + 6 − 3.
Lo stesso determinante, secondo la prima colonna:

0 1 2
3 2 1 = −3 1 2 + 1 1 2 = 6 − 3 = 3.
1 0 2 1
1 1 0

6.6 Regola di Cramer


Un metodo per la risoluzione dei sistemi lineari quadrati con una ed una sola solu-
zione (rango massimo).

Teorema 19. Sia A una matrice invertibilie n × n, b ∈ K n . Allora il sistema lineare


Ax = b ha l’unica soluzione data da:

det(a1 . . . aj−1 baj+1 . . . an )


xj = ∀j = 1, . . . , n.
det A
Osservazione. La soluzione x è x = A−1 b.

Dimostrazione.
teAx = b ⇐⇒ x1 a1 + x2 a2 + . . . + xn an = b
In questo caso det(a1 , . . . , aj−1 , b, aj+1 , . . . , an ) =

= det(a1 , . . . , aj−1 , x1 a1 + x2 a2 + . . . + xn an , aj+1 , . . . , an ) =

78
per multilinearità:
n
X
xi det(a1 , . . . , aj−1 , ai , aj+1 , . . . , an ) =
i=1
per alternanza rimane solo

= xj det(a1 , . . . , aj , . . . , an ) =

= xj det(A).
Per ricavare xj è sufficiente quindi dividere det(a1 , . . . , aj−1 , b, aj+1 , . . . , an ) per det(A)
che è sicuramente diverso da 0 poiché la matrice è di rango massimo.

79
Capitolo 7

Autovalori, autovettori,
diagonalizzazione

80
7.1 Introduzione
7.1.1 Motivazione
Sia f : V → V un’applicazione lineare, sia dim V = n.
Stiamo cercando di trovare una base B di V tale che MB (f ) sia “il più semplice
possibile”. In altri termini, se A è una matrice, stiamo cercando una matrice simile
ad A che sia il più semplice possibile.

7.1.2 Definizione ed esempi


Da qui in avanti, a meno che non sia diversamente scritto, lavoriamo in un generico
campo K.

Definizione 31. Sia f un endomorfismo del K−spazio vettoriale V (f : V → V ). Si


dice che un λ ∈ K è un autovalore (de: Eigenwert, en: eigenvalue) di f se esiste v ∈ V ,
v , 0, tale che:
f (v) = λv.
Ogni vettore v non nullo per cui questa condizione si verifica è detto autovettore di
f (rispetto all’autovalore λ).

Per una matrice, diciamo che se A è una matrice n × n, λ ∈ K è un autovalore di A


se esiste v ∈ K n , v , 0 tale che Av = λv.

Osservazione. 1. λ autovalore di A ⇐⇒ λ autovalore di L(A).

2. gli autovettori sono diversi da 0.


Si ha infatti che ∀λ ∈ K, f (0) = λ0 ma non tutti i λ sono autovalori.

Esempi
Prendiamo V = R2 . Sia A la matrice:
!
cos α sin α
A= .
sin α − cos α
Questa rappresenta una riflessione rispetto alla retta che forma un angolo α/2 con
l’asse orizzontale. Osserviamo che esistono due autovalori λ1 = 1 e λ2 = −1. Per λ1
c’è un autovettore v1 = (cos α2 , sin α2 ) e per λ2 un autovettore v2 = (cos α+π α+π
2 , sin 2 ).
Sia
!
2 0
A= .
0 0
! ! ! !
1 2 1 1
Allora 2 è un autovalore: A = =2 ,e è un autovettore per 2 (ossia
0 0 0 0
! ! !
1 0 0
lungo la direzione A moltiplica per 2). Anche 0 è un autovalore: A = =
0 1 0
! ! !
0 0 0
0 ,e è un autovettore per 0 (lungo la direzione A moltiplica per 0).
1 1 1

81
7.2 Autospazio
Sia f : V → V lineare.

Definizione 32. Chiamiamo

Aut(λ) = {v ∈ V : f (v) = λv}

ossia l’insieme degli autovettori di λ unito al vettore nullo {0}.


Aut(λ) si chiama autospazio di λ.

Proposizione. Aut(λ) è un sottospazio di V .

Dimostrazione. • 0 ∈ Aut(λ) (f (0) = λ0).

• v1 , v2 ∈ Aut(λ) =⇒ f (µ1 v1 + µ2 v2 ) = µ1 f (v1 ) = µ2 f (v2 ), che è uguale a µ1 λv1 +


µ2 λv2 = λ(µ1 v1 + µ2 v2 ) =⇒ µ1 v1 + µ2 v2 ∈ Aut(λ).

Osservazione. λ è un autovalore ⇐⇒ Aut(λ) , {0}.

7.2.1 Molteplicità geometrica


Definizione 33.
mg (λ) = dim(Aut(λ)) (7.1)
mg si chiama molteplicità geometrica di λ.

Osservazione. λ1 , λ2 ∈ K, λ1 , λ2 . Allora Aut(λ1 ) ∩ Aut(λ2 ) = {0}.

Dimostrazione. Supponiamo esista v ∈ Aut(λ1 ) ∩ Aut(λ2 ). Allora f (v) = λ1 v = λ2 v2 , e


quindi (λ1 − λ2 )v = 0. Poiché i due autovalori sono diversi, ne consegue che v = 0.

Teorema 20. Siano v1 , . . . , vn autovettori di autovalori distinti λ1 , . . . , λn . Allora v1 , . . . , vn


sono linearmente indipendenti.

Dimostrazione. Per induzione. Per n = 1, l’enunciato è ovvio poiché per definizione


di autovettore v1 , 0. Supponiamo che la tesi sia vera per n − 1 vettori. Se scriviamo
una combinazione lineare nulla:
µ1 v1 + . . . + µn vn = 0 =⇒
f (µ1 v1 + . . . + µn vn ) = 0 =⇒
µ1 f (v1 ) + . . . + µn f (vn ) = 0 =⇒
µ1 λ1 v1 + . . . + µn λm vn = 0 =⇒
λn (µ1 v1 + . . . + µn vn )−

Osservazione. f : V → V è un endomorfismo.

1. Aut(0) = ker(f ), in particolare f non è iniettivo se e solo se 0 è un autovalore di


f.

82
2. Aut(λ) = ker(f − λ Idv ).

Dimostrazione. v ∈ Aut(λ) ⇐⇒ f (v) = λv ⇐⇒ f (v) − λv = 0 ⇐⇒ f (v) − λ Id(v) =


0 ⇐⇒ (f − λ Id)(v) = 0 ⇐⇒ v ∈ ker(f − λ IdV ).

Da questa osservazione si deduce immediatamente che Aut(λ) è un sottospazio di


V.

7.3 Polinomio caratteristico


7.3.1 Introduzione
Stiamo cercando un modo per trovare gli autovalori. Iniziamo con un’osservazione.
Osservazione.
Aut(λ) = ker(L(A) − λ L(En ) )
|{z}
IdK n

Dimostrazione.
v ∈ Aut(λ) ⇐⇒ Av = λv ⇐⇒ L(A)v = λ IdK n v
⇐⇒ L(A)v − λL(En )v = 0 ⇐⇒ (L(A) − λL(En ))v = 0
⇐⇒ v ∈ ker(L(A) − λL(En ))

Dunque otteniamo un altro modo di vedere l’autospazio Aut(λ): le soluzioni del


sistema lineare omogeneo

(A − λEn )x = 0.
Dall’osservazione deduciamo che:

λ autovalore di f ⇐⇒ Aut(λ) = ker(f − λ IdV ) , {0},


che è equivalente a:

⇐⇒ f − λ IdV non è iniettivo

⇐⇒ f − λ IdV non è biettiva


⇐⇒ det(f − λ Idv ) = 0.
Più in breve, vediamo che (come sul Fischer):

λ autovalore di f ⇐⇒ det(f − λ Idv ) = 0.

Dimostrazione. L’esistenza di un autovalore λ ∈ K, ossia che ∃v , 0 tale che f (v) = λv,


è equivalente a:
f (v) − λv = 0
e per la linearità:
⇐⇒ (f − λ IdV )(v) = 0

83
per la definizione del nucleo di un omomorfismo questo è:

⇐⇒ ker(f − λ IdV ) , {0}

per il teorema della dimensione (5.5 ), che dice che dim V = dim(ker f ) + dim=f ,
otteniamo che:
⇐⇒ =(f − λ IdV ) , V
ossia che:
rg(f − λ Idv ) < dim V ,
e poiché il determinante non è nullo se e solo se la matrice è di rango massimo (vedi
6.3), deduciamo che:
det(f − λ IdV ) = 0.

Questo porta alla seguente osservazione:


Osservazione. Gli autovalori di f sono gli zeri della seguente funzione:

p̃f : K → K
λ 7→ det(f − λ IdV )
Se B è una base di V , e la matrice associata a f rispetto alla base B è MB (f ) = A,
allora:

det(f − λ IdV ) = det(MB (f − λ IdV )) =


= det MB (f ) − det(λ IdV ) =
= det(A − λEn )
Se chiamiamo B = bij la matrice A = aij − xEn (chiamiamo x l’autovalore), allora:
 
a11 − x a12 ... a1n 
 a21 a22 − x . . . a2n 
 
bij =  .
.. .. .. 

 .. . . . 

an1 an2 . . . ann − x

Il determinante è:
X
det(A − xEn ) = sgn(σ )b1σ (1) . . . bnσ (p)
σ ∈Sn

I termini b1σ (1) . . . bnσ (p) formano un polinomio nell’indeterminata x.


L’equazione precedente è pari a:

= (a11 − x) + (a22 − x) + . . . + (ann − x) + polinomio in x di grado ≤ n − 2


| {z }
poiché σ =Id
Il polinomio è composto dalle somme rimanenti su Sn , ossia Sn \ {Id}. Poiché se c’è
uno dei biσ (i) che non sta sulla diagonale, allora esiste almeno un altro che non sta
sulla diagonale, il il grado del polinomio è ≤ n − 2. Quindi otteniamo che:

84
(a11 − x)(a22 − x) . . . (ann − x) = (−1)n xn + (−1)n−1 xn−1 (a11 + . . . + ann )xn−1 + Q1

dove Q1 è un polinomio di grado ≤ n − 2, oppure:

det(A − xEn ) = (−1)n xn + (−1)n−1 (a11 + . . . + ann )xn−1 + αn−2 xn−2 + . . . + α1 x + det A

(l’ultimo termine è det A poiché det(A − 0En ) = det A).

Definizione 34. La somma degli elementi sulla diagonale viene chiamata traccia:

traccia(A) = a11 + a22 + . . . + ann

Definizione 35. Il polinomio


det(f − x IdV )
viene chiamato polinomio caratteristico di f e si indica con pf (x).

Riassuntino
Se f : V → V è un endomorfismo, dim V = n e B è una base di V ,

pf (x) = (−1)n xn + (−1)n−1 (traccia MB f )xn−1 + αn−2 xn−2 + . . . + a1 x1 + det(MB f )

è un polinomio di grado n in x.

Proposizione. Gli autovalori di f sono esattamente gli zeri di pf (x).

Dimostrazione. Per come l’abbiamo definito, pf (x) = det(f − x Idv ), e il determinante


è nullo se e solo se x è un autovalore.

7.3.2 Esempi
Rotazione
Prendiamo come esempio l’applicazione rotazione di un angolo α. Rispetto alla base
standard la matrice è:
!
cos α − sin α
Rα .
sin α cos α
Calcolo il polinomio caratteristico:
!
cos α − sin α
p(x) = det(Rα − xE2 ) = det
sin α cos α

= (cos α − x)2 + sin2 α = x2 − 2x cos α + 1;


otteniamo che

= cos2 α − 1 ≤ 0.
4
Questo dà due possibilità: cos2 α − 1 < 0 oppure = 0.

85
Nel primo caso, non ci sono zeri reali di p(x), e pertanto non esistono autovalori
reali. È facile immaginare che una rotazione non possa operare in alcuna direzione
come il prodotto per uno scalare fissato.
Invece se ∆ = 0, ossia se cos2 α − 1 = 0, significa che α = 0, e allora l’applicazione
è l’identità e quindi l’unico autovalore è 1 (p(x) = x2 − 2x + 1); oppure α = π e in tal
caso l’unico autovalore è −1.

Lemma 4. Matrici simili hanno lo stesso polinomio caratteristico.

Dimostrazione. Sia B = SAS −1 con S ∈ GL(n; K). Si osserva che

S · t · En · S −1 = t · En .

Dunque
B − t · En = SAS −1 − S · t · En · S −1 = S(A − t · En )S −1 .
Il determinante di B − t · En è dunque

det(B − t · En ) = det S · det(A − t · En ) · (det S)−1 = det(A − t · En ),

pertanto
pB (t) = pA (t).

7.4 Diagonalizzazione
Se λ è radice del polinomio caratteristico di f pf (x), allora pf (x) è divisibile per x − λ.
La

Definizione 36. La molteplicità algebrica di λ è il massimo esponente m tale che


pf (x) = (x − λ)m g(x). ma (λ) è la molteplicità di λ come radice di pf (x), deve essere
g(λ) , 0. Dunque:
pf (x) = (x − λ)ma (λ) g(x) con g(λ) , 0.

Proposizione. f : V → V endomorfismo, dim V = n. Sia λ autovalore di f . Allora si


ha sempre
ma (λ) ≥ mg (λ).

Dimostrazione. Considero Aut(λ), prendo una sua base v1 , . . . , vm con m = mg (λ) (ov-
vio poiché mg (λ) = dim Aut(λ)) e la prolungo ad una base di V : B = (v1 , . . . , vm , . . . , vn ).
Sia A = MB (f ). Allora f (v1 ) = λv1 , . . . , f (vm ) = λvm =⇒
 
λ ... 0 
 .. 
 0
 . 0 B 

 ..
 

A =  . ... λ
 

 0 ... 0 
 
 . .. ..
 ..

 . . A0 
0 ... 0
 

86
dunque si tratta di calcolare il determinante di una matrice a blocchi (il blocco in alto
a sinistra ha m righe, dunque A0 ha n − m righe):

λ − x . . . 0
..
0 . 0 B
..
pf (x) = |A − xEn | = . ... λ − x
0 ... 0
. .. .
.. . .. A0 − xEn−m
0 ... 0

= (λ − x)m |A0 − xEn−m | =⇒ mg (λ) ≤ ma (λ)


| {z }
g(x)

poiché non sappiamo se g(λ) , 0 o se g(λ) = 0.

Esempio. Consideriamo !
cos α sin α
A=
sin α − cos α

pA (x) = λ2 − 1
=⇒ λ1 = 1, λ2 = −1.
Quindi
ma (λ1 ) = ma (λ2 ) = 1
poiché mg (λi ) non può essere < 1, ma = mg .

Osservazione. Se f ha n autovalori distinti, questi hanno necessariamente moltepli-


cità algebrica uguale a uno e quindi idem la molteplicità geometrica. Gli autovettori
di questi autovettori sono allora linearmente indipendenti, e, essendo n, formano una
base per cui la matrice di f è diagonale.

Osservazione. Se pA (x) = (x − λ)n ,e ma (λ) = n, l’unico autovalore è λ. A è diagona-


lizzabile se e solo se c’è una base di autovettori di autovalori λ, ossia se la matrice A
è simile a λEn , che succede se e solo se Aut(λ) = V ossia mg (λ) = n. In questo caso
f = λ IdV .

Vale il seguente teorema che caratterizza gli endomorfismi diagonalizzabili.

Teorema 21. f : V → V endomorfismo, dim V = n. Allora le seguenti proposizioni


sono equivalenti:

1. f è diagonalizzabile;

2. il polinomio caratteristico pf (x) è prodotto di n fattori lineari non necessariamente


distinti
pf (x) = (λ1 − x)(λ2 − x) . . . (λn − x),
e per ogni autovalore λi si ha ma (λi ) = mg (λi ).

87
3. Se µ1 , . . . , µk ∈ {λ1 , . . . , λn } sono gli autovalori distinti di f , allora

V = Aut(µ1 ) ⊕ Aut(µ2 ) ⊕ . . . ⊕ Aut(µk ).

Dimostrazione. 1 =⇒ 2. f è diagonalizzabile, scriviamo dunque una base B di V di


λ1 . . . 0 
 

autovettori tale che MB (f ) =  ... . . . ...  è una matrice diagonale. Allora pf (x) =
 
 
0 . . . λn
det(f − λ IdV ) = (λ1 − x) . . . (λn − x), ossia ha n fattori lineari. Se per un certo lambdai si
considera ma (λi ), nella matrice MB (f ) λi è ripetuto ma (λi ) volte, ossia nella base B ci
sono ma (λi ) autovettori di λi . Allora dim Aut(λi ) = mg (λi ) ≥ ma (λi ), ma visto che vale
sempre mg (λi ) ≤ ma (λi ), si conclude che ma λi = mg (λi )∀i.
2 =⇒ 3. Assumiamo dunque chepf (x) = (µ1 − x)r1 (µ2 − x)r2 . . . (µk − x)rk con r1 + r2 +
. . . + rk = n. Allora ri = ma (µi ) = mg (µi ) = dim Aut(µi ), ∀i. Si ha dunque che:

=⇒ dim Aut(µ1 ) + . . . + dim Aut(µk ) = n = dim V .

Inoltre poiché autovettori di autovalori distinti sono linearmente indipendenti, la


somma Aut(µ1 ) + . . . + Aut(µk ) è diretta, ossia se un vetore v si scrive come somma
v = w1 + . . . + wk con wi ∈ Aut(µi ) questa espressione è unica, infatti se

v = w1 + . . . + wk = w10 + . . . + wk0

allora
(w1 − w10 ) + . . . + (wk − wk0 ) = 0
| {z } | {z }
∈Aut(µ1 ) ∈Aut(µk )

quindi o sono linearmente indipendenti o sono tutti nulli. Allora Aut(µ1 ) ⊕ . . . ⊕


Aut(µk ) ha dimensione n, e dunque è uguale a V .
3 =⇒ 1. Sappiamo che V = Aut(µ1 ) ⊕ . . . ⊕ Aut(µk ). Costruisco dunque una base
di V unendo basi dei vari autospazi, e ottengo così una base di autovettori.

Esempio.  
 0 −1 1
A = −3 −2 3 ∈ M(3 × 3, R)
 
−2 −2 3
 

è diagonalizzabile?

−x −1 1

pA (x) = det(A − xE3 ) = −3 −2 − x 3 =
−2 −2 3 − x

= −x3 + x2 + x − 1 =
− (1 − x)2 (x + 1),
dunque si fattorizza in fattori lineari. Gli autovalori sono

λ1 = 1 con ma (1) = 2

88
e
λ2 = −1 con ma (−1) = 1 =⇒ mg (−1) = 1.
L’autospazio di λ1 = 1 è dunque:
 
−1 −1 1
Aut(λ1 ) = ker(L(A) − λ1 E3 ) = ker −3 −3 3
 
−2 −2 2
 

la matrice ha rango 1, per il teorema della dimensione il nucleo ha rango 2: dunque


mg (1 = λ1 ) = 2 =⇒ A è diagonalizzabile.
Scriviamo una base di autovettori.

(A − λ1 En )v = 0
 
−1 −1 1
−3 −3 3 v = 0
 
 
−2 −2 2
La matrice ha rango 1 e quindi risolviamo velocemente con Gauss e otteniamo che se
le soluzioni sono x1 , x2 , x3 allora x2 e x3 sono liberi e che quindi si ha come soluzione
−x2 + x3 , x2 , x3 = x2 (−1, 1, 0) + x3 (1, 0, 1) dunque
Aut(1) = h(−1, 1, 0), (1, 0, 1)i.
Similmente
Aut(λ2 = −1) = ker(A − (−1)E3 )
da cui
1 3
Aut(−1) = h( , , 1)i = h1, 3, 2i.
2 2
La base è formata dunque dai vettori
B = ((1, 0, 1), (−1, 1, 0), (1, 3, 2)).
La matrice rispetto a questa base è
 
1 0 0 
A0 = 0 1 0 
 
0 0 −1
 

che possiamo intendere come


S −1 AS = MB (L(A))
dove
S −1 = MBC (Id), A = MCC (L(A)), S = MCB (Id).
Abbiamo visto come la ricerca di autovalori consista nel trovare zeri di polinomi.
A differenza di altre proprietà viste finora, gli zeri dei polinomi dipendono anche da
quale campo lo spazio vettoriale considerato è costruito.
Per esempio, in R il polinomio
(x + 1)(x + 1)
non ha zeri.

89
Teorema 22. Teorema fondamentale dell’algebra. Sia p(x) un polinomio a coeffi-
cienti in C di grado n ≥ 1:

p(x) = an xn + an−1 xn−1 + . . . + a1 x + a0 ∈ C[x]


con aN , 0 e an , . . . , a1 , a0 ∈ C.
Allora p(x) ha almeno una radice λ ∈ C.
In particolare ogni polinomio ha esattamente n radici se ciascuna viene contata
con la sua molteplicità.
È interessante osservare che il teorema garantisce l’esistenza, ma non dice nulla
su formule per trovare le radici. Si dimostra che esistono formule risolutive solo per
n ≤ 4.
Esempio. !
0 1
A=
−1 0
così !
−x 1
pA (x) = det = x2 + 1 = (x + i)(x − i)
−1 −x
!
i 0
Questo significa che A è diagonalizzabile su C ed è simile a ; ma non è diago-
0 −i
nalizzabile su R.

7.5 Potenze di un endomorfismo


Dato un endomorfismo f : V → V , possiamo considerare le sue potenze:

f ◦ f = f 2 , (f ◦ f ) ◦ f = f 3 , . . .

Si ha che ker f ⊆ ker f 2 ⊆ ker f 3 ⊆ . . ..


Infatti se v ∈ ker f , significa che f (v) = 0, quindi f 2 (v) = f (0 e poiché si tratta di
applicazione lineari anche questo è pari a 0. In breve

ker f k ⊇ ker f k−1 , ∀k ≥ 1.

Le inclusioni non possono essere strette perché la dimensione di V è finita.


Osservazione. Se due ker successivi sono uguali, tutti quelli che seguono sono ugua-
li.
Dimostrazione. Se per un k ker f k−1 = ker f k se e solo se esiste un v tale che f k (v) =
f k−1 (v) = 0.
Per dimostrare che ker f k = ker f k+1 =⇒ ker f k = ker f k+j ∀j > 0, dimostriamo che
ker f k+1 = ker f k+2 e quindi procediamo per induzione.
Abbiamo già visto che ker f k ⊆ ker f k+1 , dunque dimostriamo l’altro verso. Con-
sideriamo un vettore v ∈ ker f k+2 , ossia f k+2 (v) = 0. Allora f (v) ∈ ker f k+1 , poi-
ché f k+2 (v) = f k+1 (f (v)) = 0. Poiché il ker(f k+1 ) = ker(f k ) (per ipotesi), abbiamo
che f (v) ∈ ker(f k ), dunque f k (f (v)) = 0, e dunque f k+1 (v) = 0, che implica che
v ∈ ker(f k+1 ). Pertanto ker f k+2 ⊆ ker f k+1 e pertanto sono uguali.

90
7.6 Triangolarizzazione e forma normale di Jordan
Facciamo un esempio di una matrice non diagonalizzabile:

λ 0 0 
 
... ...
 .. .. 
 1 λ
 . . 

A =  0 1 .. .. ..  .
. . . 
 .. . .
 
.. .. 
 .
 . . . 0 
0 ... 0 1 λ

Viene detto blocco di Jordan1 .


Si ha che
pA (x) = (λ − x)n
dunque ma (λ) = n. Ma cos’è mg (λ)?

Aut(λ) = ker(A − λEn )


 
 0 . . . 0 
 1 0 

A − λEn =  . .

.

 .. . . . .

0 
 
0 ... 1
che ha rango n − 1, dunque dim Aut(λ) = n − (n − 1) = 1 = mg (λ). Dunque Aut(λ) ha
equazioni x1 = x2 = . . . = xn−1 = 0.

7.6.1 Triangolarizzazione
Definizione 37. f : V → V è triangolarizzabile se esiste una base B tale che MB (f )
sia triangolare superiore.
Analogamente An × n è triangolarizzabile se è simile ad una matrice triangolare.

Teorema 23. f : V → V è triangolarizzabile se e solo se pf (x) è un prodotto di fattori


lineari.
λ1 ∗ ∗ 
 

Dimostrazione. Se f è triang. allora ∃ base B tale che MB (f ) sia triangolare  ... . . . ... ,
 
 
0 . . . λn
ossia
pf (x) = (λ1 − x) . . . (λn − x).
Il verso opposto della doppia implicazione si dimostra per induzione. Se n = 1 è
banale. Supponiamo che sia vero per matrici di ordine n − 1 e dimostriamo che vale
su n.
Per ipotesi pf (x) è prodotto di fattori lineari, ed esiste dunque un autovalore λ; sia
v1 un autovettore di λ. Prolungo v1 ad una base di V : B = (v1 , w2 , . . . , wn ). Considero
1 pronuncia francese

91
W = hw2 , . . . , wn i. Se w ∈ W , allora f (w) = µ1 v1 + µ2 v2 + . . . + µn wn . Prendo la somma
µ2 w2 + . . . + µn wn e la uso per definire un’applicazione g:

g :W →W
w 7→ µ2 w2 + . . . + µn wn dove w = µ1 v1 + µ2 w2 + . . . + µn wn .

In particolare B0 = (w2 , . . . , wn ) è una base di W .


Sia A = MB (f ), ossia
 
 λ ∗ . . . ∗ 
 0
 

A = MB (f )  . 
 .. MB0 (g)


 
0
Abbiamo quindi che

pf (x) = det(A − xEn ) = (λ − x) · pg (x)

dove pg (x) è prodotto di fattori lineari perché lo è anche pf per ipotesi.


A qesto punto applichiamo l’ipotesi induttiva e quindi g è triangolarizzabile, ossia
esistono v2 , . . . , vn base di W rispetto a cui la matrice di g è triangolare.
Allora M(f ) è triangolare rispetto alla base v1 , v2 , . . . , vn .

Come corollario di questo teorema utilizzando il teorema fondamentale dell’al-


gebra otteniamo che:

Corollario 8. Ogni matrice quadrata su C è triangolarizzabile.

7.6.2 Forma normale di Jordan


È una forma canonica, ossia un rappresentante canonico per la classe di similitudine
di una matrice quadrata (o della matrice di un endomorfismo).
Saltiamo le dimostrazioni.
Sia f : V → V un endomorfismo tale che pf (x) = (λ1 − x)a1 (λ2 − x)a2 . . . (λm − x)am :
questo polinomio ha tutte le radici in K, f è triangolarizzabile (per esempio f può
essere un qualunque endomorfismo su C).
λ1 , . . . , λm sono gli autovalori distinti, si ha che ai = ma (λi ), dunque ovviamente
a1 + a2 + . . . + am = n.
Sia λ un autovalore λ ∈ {λ1 , . . . , λm }. Dunque Aut(λ) = ker(f − λ IdV ).
Per qualunque endomorfismo g abbiamo dimostrato che vale

ker(g) ⊆ ker(g 2 ) ⊆ . . . ⊆ ker(g k ) = ker(g k+1 = . . .

Consideriamo il caso in cui g = f − λ IdV .


Allora si ha (non dimostriamo)

Teorema 24.
Aut(λ) = ker(f − λ IdV ) = Aut1 (λ) ⊆
 
⊆ ∗ ker (f − λ IdV )2 = Aut2 (λ)

92
2
..
.
⊆ ker ((f − λ IdV )a ) = Auta (λ)
dove a = ma (λ).
Gli autospazi Aut1 (λ), Aut2 (λ), . . . vengono detti autospazi generalizzati di λ.
L’ultimo di questi autospazi si ottiene per esponente leqma (λ) ed ha dimensione
uguale a ma (λ), poi sono tutti uguali.

Proposizione.
V = Auta1 (λ1 ) ⊕ . . . ⊕ Autam (λm )

Definizione 38. Un blocco di Jordan relativo all’autovalore λ è una matrice della


forma
λ 0 . . . . . . 0 
 
 .. .. 
 1 λ
 . . 

A =  0 1
 . . . 
. . . . ..  .

 .. . . . . . .
 
 . . . . 0 
0 ... 0 1 λ
 

Se rappresenta f rispetto a v1 , . . . , vn , allora

f (v1 ) = λv1 + v2
f (v2 ) = λv2 + v3
..
.
f (vn ) = λvn

quindi
(f − λ Id)(v1 ) = v2
(f − λ Id)(v2 ) = (f − λ Id)2 (v2 ) = v3
..
.
(f − λ Id)(vn−1 ) = (f − λ Id)n−1 (vn−1 ) = vn

Teorema 25. Forma normale di Jordan. Se f : V → V endomorfismo, dim V )n, sia


pf (x) = (λ1 − x)a1 . . . (λm − x)am il polinomio caratteristico.
Allora esiste una base B di V , unione di basi degli autospazi generalizzati Autai (λi ),
tale che
 
J1 
J2 0
 
 
MB (f ) =  
.

 0 . . 


Jk

dove ogni Ji è un blocco di Jordan relativo a uno degli autovalori.


Si ha anche che
2 ∗: solo ⊂ se m (λ) < m (λ), e lo stesso per i successivi.
g a

93
• La forma normale di Jordan è unica a meno di permutazione dei blocchi

• Il numero di blocchi di λi è mg (λi ).

Per costruire una base di Jordan per Autai (λi ) si procede facendo l’unione di op-
portune basi, una per ogni autospazio generalizzato Autai (λi ) dove ai è la molteplicità
algebrica dell’autovalore λi .
Per prima cosa, per ogni λi , si costruisce una base di Autai (λi ) a partire da una
base di Aut(λi ), poi la si completa ad una base di Aut2 (λi ), e questa ad una base di
Aut3 (λi ), e così via fino al primo di dimensione ai .

Aut(λi ) w1 , . . . , wb1 con b1 = mg (λi )


Aut2 (λi ) w1 , . . . , wb1 |, wb1 +1 , . . . , wb2 con b2 = dim Aut2 (λi )
..
.
Autao (λi ) w1 , . . . , wb1 |, wb1 +1 , . . . , wb2 |, . . . |, . . . , wai
con Aut(λi ) ⊂ Aut2 (λi ⊂ . . . ⊂ Autai (λi ) (e non ⊆).
Ora si modifica questa base du Autai (λi ) cominciando in basso a destra: si con-
sidera wai che appartiene all’ultimo, poi g(wai ) che appartiene al penultimo, poi
g 2 (wai ) e così via fino a g a−1 (wai ). Questi vettori sono linearmente indipendenti e
li chiamiamo v1 , v2 , . . . , va .
In pratica, da ogni riga togliamo un w in modo che v1 , . . . , va con i w rimanenti
siano ancora una base di Auta (λi ). Questi vettori v1 , . . . , va danno il primo blocco di
Jordan.
Ora si considera il w precedente a wai , diverso dai v1 , . . . , va e ripeto il procedi-
mento, applicandogli g più volte fino ad arrivare alla prima riga. Così si ottiene il
secondo blocco di Jordan.
Alla fine avrò tanti blocchi quanti sono w1 , . . . , wb1 (ossia mg (λi )) perchè ogni
blocco corrisponde ad un autovettore.

7.6.3 Esempi
Esempio 1
Sia A la matrice
 
 3 6 3 
A = −1 0 −1 .
 
1 2 3
 

det(A − xE3 ) = −(x − 2)3


Dunque λ = 2 e ma (λ) = 3.
Chiamiamo B la matrice
 
 1 4 3 
B = A − 2E3 = −1 −2 −1
 
1 2 1
 

94
Iniziamo a calcolare gli autospazi generalizzati.

Aut(2) = ker(B)
per calcolare ker B portiamo a gradini la matrice con Gauss e quindi troviamo una
base dello spazio delle soluzioni del sistema omogeneo annesso. Dunque

Aut(2) = ker(B) = h(1, −1, 1)i

Per i successivi calcoliamo B2 e B3 :


 
0 2 2 
B2 = 0 −2 −2 , B3 = 0.
 
0 2 2
 

Come sopra calcoliamo una base del ker B2 :

Aut2 (2) = ker(B2 ) = h(1, −1, 1), (0, −1, 1)i.

Aut3 (2) = ker(B3 )


ma B3 = 0, dunque ker(B3 ) = V se V è lo spazio dell’endomorfismo. Dobbiamo quindi
espandere la base di Aut2 (2) con un terzo vettore. Conviene scegliere il terzo vettore
della base canonica, e3 .

Aut3 (2) = h(1, −1, 1), (0, −1, 1), (0, 0, 1)i

Iniziamo il procedimento: scegliamo il vettore (è quello più a destra) (0, 0, 1) di


Aut3 : sarà il nostro v1 .
Applichiamo quindi B a questo v1 per trovare v2 :
   
0  3 
v2 = B 0 = −1
   
1 1
   

Dunque adesso
Aut2 (2) = h((1,-1,1)(3, −1, 1), (0, −1, 1)i
Infine applichiamo B a v2 , che è come applicare B2 a v1 , per trovare v3 :
   
0  2 
v3 = B2 0 = −2
   
1 2
   

Abbiamo così una base di Jordan BJ :

BJ = (2, −2, 2), (3, −1, 1), (0, 0, 1).


Per trovare la matrice in forma di Jordan, dobbiamo fare un cambio di base.
Sia  
0 3 2 
B
S = MC J = 0 −1 −2
 
1 1 2
 

95
Calcoliamo S −1 , quindi facciamo

S −1 AS
che è il risultato:  
2 0 0
1 2 0
 
 
0 1 2

Esempio 2
 
2 −1 1 0
0 2 0 1
 
A =   
0 0 3 1
0 0 0 3
 

È triangolare superiore, quindi è immediato che pA (x) = det(A − xE4 ) = (2 − x)2 (3 −


x)2 .
Ci sono quindi due autovalori:

λ1 = 2, ma (2) = 2
e
λ2 = 3, ma (3) = 2.
Iniziamo con λ1 .
Sia B = A − λ1 E4 = A − 2E4 :
 
0 −1 1 0
0 0 0 1
 
B =  
0 0 1 1
0 0 0 1
 

Il rango di B è 3, pertanto mg (2) = 4 − 3 = 1, pertanto avremo 1 blocco di Jordan.


Calcoliamo gli autospazi generalizzati.

Aut 2 = ker B = h(1, 0, 0, 0)i


Aut2 2 = ker B2 = h(1, 0, 0, 0), (0, 1, 0, 0)i
Prendiamo dunque v1 = (0, 1, 0, 0) e applichiamoli B:

v2 = (−1, 0, 0, 0)
Vediamo ora λ2 .
 
 −1 −1 1 0
0 − 1 0 1 
 
C = A − λ2 E4 = A − 3E4 =  
 0 0 0 1
0 0 0 0
 

Anche C ha rango 3, pertanto mg (3) = 1, avremo dunque 1 blocco di Jordan.

96
Aut 3 = ker C = h(1, 0, 1, 0)i
Aut2 3 = ker C 2 = h(1, 0, 1, 0), (−2, 1, 0, 1)i
Dunque v3 = (−2, 1, 0, 1). Applichiamo C a v3 per ottenere v4 :

v4 = (1, 0, 1, 0).
Scriviamo la matrice S:
 
0 −1 −2 1
1 0 1 0
 
B
S = MC J (Id) =  
0 0 0 1
0 0 1 0
 

Dopo aver calcolato S −1 , possiamo scrivere A in forma di Jordan, facendo S −1 AS:


 
2 0 0 0
1 2 0 0
 
−1
S AS = MBJ (L(A)) =   
0 0 3 0
0 0 1 3
 

che ha appunto due blocchi di Jordan (uno per autovalore).

Esempio 3
Vediamo un esempio più generico. Sia A una matrice n × n, sia λ il suo unico autova-
lore, sia ma (λ) = 4. Poiché vale sempre mg (λ) ≤ ma (λ), ci sono le seguenti possibilità:

• 4 blocchi di Jordan, se ma (λ) = mg (λ):

 λ
 

λ
 
 
 

 λ 

λ

• 3 blocchi di Jordan, se mg (λ) = 3:


 
 λ 
λ
 
 
 

 λ 0 

1 λ

• 2 blocchi se mg (λ) = 2, con due possibilità:

–  
 λ 
λ
 
 
 

 1 λ 

0 1 λ

97
–  
 λ 0 
 1 λ
 

 

 λ 0 
1 λ

È necessario fare i conti per capire di quale forma si tratta

• 1 blocco di Jordan, se mg (λ) = 1.


 
λ 0 0 0 
 1 λ 0 0 
 
 
 0 1 λ 0 
0 0 1 λ
 

98