Sei sulla pagina 1di 65

Appunti di Algebra Lineare

EDA - IPI

Proff. M. Conti, V. Pata


redatti in collaborazione con V. Danese e L. Fornari
2
Indice

1 Vettori e combinazione lineare 5


1.1 Cosa sono i vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Vettori nel piano . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Vettori nello spazio . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 La somma di vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 La moltiplicazione di scalare per vettore . . . . . . . . . . . . . . . . 6
1.4 Combinazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5 Indipendenza lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6 Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.7 Sottospazi, basi, dimensione . . . . . . . . . . . . . . . . . . . . . . . 8
1.7.1 Base canonica di Rn . . . . . . . . . . . . . . . . . . . . . . . 12
1.7.2 Dimensione di uno span . . . . . . . . . . . . . . . . . . . . . 13
1.8 Prodotto scalare in Rn . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2 Matrici 17
2.1 Cosa sono le matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Prodotto di matrice-vettore colonna . . . . . . . . . . . . . . . . . . . 18
2.2.1 Prodotto matrice-vettore e combinazioni lineari . . . . . . . . 19
2.3 Somma di matrici e moltiplicazione per uno scalare . . . . . . . . . . 20
2.4 Prodotto tra matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5 Matrice trasposta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.6 Matrici quadrate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.7 Matrici a scalini e metodo di eliminazione di Gauss (MEG) . . . . . 26

3 Determinante 29
3.1 Proprietà elementari del determinante . . . . . . . . . . . . . . . . . . 31
3.1.1 Calcolo del determinante col MEG . . . . . . . . . . . . . . . 32
3.1.2 Annullamento del determinante . . . . . . . . . . . . . . . . . 33
3.2 Invertibilità e matrice inversa . . . . . . . . . . . . . . . . . . . . . . 34
3.2.1 Cambiamento di base in Rn . . . . . . . . . . . . . . . . . . . 36

3
4 INDICE

4 Rango 37
4.1 Calcolo del rango col MEG . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2 Spazio colonna e nucleo di una matrice . . . . . . . . . . . . . . . . . 40

5 Sistemi lineari 43
5.1 Struttura dell’insieme delle soluzioni di un sistema lineare . . . . . . . 44
5.1.1 Sistema omogeneo . . . . . . . . . . . . . . . . . . . . . . . . 44
5.1.2 Sistema non omogeneo . . . . . . . . . . . . . . . . . . . . . . 45
5.1.3 Risolvere sistemi lineari col MEG . . . . . . . . . . . . . . . . 47

6 Diagonalizzazione di una matrice quadrata 51


6.1 Autovalori e autovettori . . . . . . . . . . . . . . . . . . . . . . . . . 51
6.2 Criteri di Diagonalizzazione . . . . . . . . . . . . . . . . . . . . . . . 54
6.3 Diagonalizzabilità delle matrici simmetriche . . . . . . . . . . . . . . 56

7 Applicazioni lineari 59
7.1 Applicazioni lineari e matrici . . . . . . . . . . . . . . . . . . . . . . . 61
7.1.1 Applicazioni lineari iniettive e suriettive . . . . . . . . . . . . 64
7.1.2 Matrici simili . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
Capitolo 1

Vettori e combinazione lineare

Il cuore dell’algebra lineare si trova in due operazioni tra vettori: la somma di vettori
v + w e la moltiplicazione di un numero reale per un vettore v; le due operazioni
insieme danno il concetto di combinazione lineare cv + dw, dove c, d ∈ R.

1.1 Cosa sono i vettori


Dato n ∈ N, chiamiamo Rn l’insieme di tutte le n-uple ordinate di numeri reali

Rn = {(x1 , x2 , . . . , xn ) : xi ∈ R, i = 1, . . . , n}.

Definizione. Chiamiamo vettore un qualsiasi elemento x = (x1 , x2 , . . . , xn ) ∈ Rn


e diciamo che xi è la i-esima componente del vettore x. Possiamo anche scrivere x
come vettore colonna  
x1
 x2 
 
x =  ..  ,
.
xn
Il vettore 0 = (0, 0, . . . , 0) ∈ Rn è detto vettore nullo. Due vettori x = (x1 , x2 , . . . , xn ) ∈
Rn , y = (y1 , y2 , . . . , yn ) ∈ Rn sono uguali se

x i = yi , ∀i = 1, . . . , n.

Altrimenti, x e y si dicono distinti.

1.1.1 Vettori nel piano


Fissiamo n = 2. Otteniamo l’insieme

R2 = {(x, y) : x, y ∈ R}.

5
6 CAPITOLO 1. VETTORI E COMBINAZIONE LINEARE

Consideriamo il piano cartesiano costituito dall’origine O, l’asse delle ascisse x e


l’asse delle ordinate y. Indichiamo con P = (x, y) il punto del piano di ascissa x e
ordinata y, o, equivalentemente, di coordinate x, y. Identifichiamo il vettore nullo
0 = (0, 0) ∈ R2 con l’origine O. Ad ogni vettore v = (x, y) ∈ R2 possiamo associare
il punto P = (x, y) e viceversa. Pertanto, visualizziamo il vettore v = (x, y) di
−→
R2 con il segmento orientato o freccia OP , caratterizzato da lunghezza (modulo),
direzione, verso (da O a P ).

1.1.2 Vettori nello spazio


Fissiamo n = 3. Otteniamo l’insieme

R3 = {(x, y, z) : x, y, z ∈ R}.

Introduciamo il sistema di riferimento cartesiano nello spazio tridimensionale di


origine O e assi x, y, z, e indichiamo con P = (x, y, z) il punto dello spazio di
coordinate x, y, z. Identificando il vettore v = (x, y, z) ∈ R3 con il punto P =
−→
(x, y, z) dello spazio, o con la freccia OP , abbiamo una corrispondenza biunivoca
tra R3 e lo spazio tridimensionale.

1.2 La somma di vettori


Definizione. Dati due vettori x = (x1 , . . . , xn ) ∈ Rn , y = (y1 , . . . , yn ) ∈ Rn , si dice
somma di x e y, e si indica con x + y, il vettore

x + y = (x1 + y1 , . . . , xn + yn ) ∈ Rn .

Interpretazione geometrica. La somma di due vettori v + w è il vettore


rappresentato dalla diagonale del parallelogramma che ha per lati v e w.

Per disegnare v + w si segue v e poi w disegnato a partire dalla fine di v


(testa-coda): si unisce con un segmento orientato la coda del primo con la testa del
secondo.

1.3 La moltiplicazione di scalare per vettore


Definizione. Dato un numero t ∈ R e un vettore x = (x1 , . . . , xn ) ∈ Rn , si dice
moltiplicazione di x per lo scalare t, e si indica con tx, il vettore

tx = (tx1 , . . . , txn ) ∈ Rn .
1.4. COMBINAZIONI LINEARI 7

Interpretazione geometrica. Il prodotto dello scalare t ∈ R per il vettore v


è il vettore la cui lunghezza è la lunghezza di v moltiplicata per |t|. Se t ̸= 0, la
direzione di tv è la stessa direzione di v e il verso è quello di v o il suo opposto
a seconda che t sia positivo o negativo.

Se t = 0 allora tv è il vettore nullo di Rn .

1.4 Combinazioni lineari


Definizione. Siano v 1 , v 2 , . . . , v k ∈ Rn e α1 , α2 , . . . , αk ∈ R. Si dice combinazione
lineare dei vettori v 1 , v 2 , . . . , v k con coefficienti α1 , α2 , . . . , αk il vettore

w = α1 v 1 + α2 v 2 + · · · + αk v k ∈ Rn .

1.5 Indipendenza lineare


Definizione. I vettori v 1 , v 2 , . . . , v k ∈ Rn si dicono linearmente indipendenti se
l’unica loro combinazione lineare uguale al vettore nullo è quella avente tutti i coef-
ficienti nulli. In altre parole, v 1 , v 2 , . . . , v k sono linearmente indipendenti se vale
l’implicazione

α1 v 1 + α2 v 2 + · · · + αk v k = 0 =⇒ αi = 0, ∀i = 1, . . . , k.

Altrimenti, v 1 , v 2 , . . . , v k si dicono linearmente dipendenti.

♢ In particolare due vettori v 1 e v 2 sono linearmente dipendenti se e solo se sono


proporzionali: v 1 = λv 2 per qualche λ ̸= 0. In tal caso si dicono paralleli.
Esempio. Vediamo se i vettori appartenenti a R3

v 1 = (1, 0, 0), v 2 = (1, 1/2, 1), v 3 = (5, 1, 2),

sono linearmente indipendenti. Imponiamo la condizione α1 v 1 + α2 v 2 + α3 v 3 = 0,


cioè


α1 + α2 + 5α3 = 0, { {
 α1 + α2 + 5α3 = 0, α1 = −3α3 ,
1
α2 + α3 = 0, ⇐⇒ ⇐⇒

 α2 = −2α3 .
2 α2 + 2α3 = 0,
α2 + 2α3 = 0,

Poiché α3 può assumere qualsiasi valore in R, concludiamo che i vettori sono linear-
mente dipendenti. Per esempio, si fissi α3 = 1.
8 CAPITOLO 1. VETTORI E COMBINAZIONE LINEARE

1.6 Spazi vettoriali


L’insieme Rn dotato delle operazioni di somma e moltiplicazione per uno scalare
forma una particolare struttura, quella di spazio vettoriale.
Definizione. Si dice spazio vettoriale su campo R un insieme X tale che:

1. Sono definite due operazioni:

• un’operazione interna che associa ad una coppia x, y di elementi di X un


elemento di X, detto somma di x e y, che si denota col simbolo x + y.
• un’operazione esterna che a uno scalare t ∈ R e a un elemento x ∈ X
associa un elemento di X che si dice prodotto di x per lo scalare t e si
denota col simbolo tx.

2. Le due operazioni verificano le proprietà seguenti ∀x, y, z ∈ X e ∀s, t ∈ R:

• x + (y + z) = (x + y) + z,
• x + y = y + x,
• esiste un elemento di X, indicato col simbolo 0 (o anche 0X ), tale che
x + 0 = x,
• per ogni x ∈ X esiste un elemento −x ∈ X tale che x + (−x) = 0,

• s(tx) = (st)x,
• 1x = x,

• t(x + y) = tx + ty,
• (s + t)x = sx + tx.

Gli elementi x ∈ X vengono chiamati vettori.

1.7 Sottospazi, basi, dimensione


Sia X uno spazio vettoriale.
Definizione. Un sottoinsieme S ⊂ X è detto sottospazio vettoriale di X se è
chiuso rispetto alle operazioni di somma e di prodotto per uno scalare, ovvero

• x + y ∈ S, ∀x, y ∈ S,

• tx ∈ S, ∀x ∈ S, ∀t ∈ R.
1.7. SOTTOSPAZI, BASI, DIMENSIONE 9

♢ In particolare, se S è sottospazio vettoriale di X, allora necessariamente 0X ∈ S.


Esempio. Sia X = R2 . Si verifica che l’insieme

S = {(x1 , x2 ) : x1 − 2x2 = 0, ∀x1 , x2 ∈ R}

è un sottospazio vettoriale di R2 . Infatti, vediamo subito che 0 = (0, 0) ∈ S. Inoltre,


per ogni x = (x1 , x2 ) ∈ S e y = (y1 , y2 ) ∈ S, abbiamo che x+y = (x1 +y1 , x2 +y2 ) ∈
S, poiché
(x1 + y1 ) − 2(x2 + y2 ) = (x1 − 2x2 ) + (y1 − 2y2 ) = 0.
Infine, per ogni x = (x1 , x2 ) ∈ S e α ∈ R, abbiamo che αx = (αx1 , αx2 ) ∈ S, in
quanto
αx1 − 2(αx2 ) = α(x1 − 2x2 ) = 0.
Invece, il sottoinsieme di R2

T = {(x1 , x2 ) : x1 − 2x2 = 5, ∀x1 , x2 ∈ R}

non è un sottospazio vettoriale di R2 . Infatti, vediamo immediatamente che 0 ∈


/ S.

♢ Un sottospazio vettoriale S ⊂ X eredita da X la struttura di spazio vettoriale.


Definizione. Siano v 1 , . . . , v k ∈ X. Si indica con

span(v 1 , . . . , v k )

l’insieme di tutte le possibili combinazioni lineari dei vettori v 1 , . . . , v k , ovvero


{ }
∑k
1 k
span(v , . . . , v ) = x = αi v : ∀ α1 , . . . , αk ∈ R .
i

i=1

♢ È facile verificare che l’insieme span(v 1 , . . . , v k ) è un sottospazio di X. Esso viene


chiamato sottospazio generato dai vettori v 1 , . . . , v k .
Esempio: rette e piani.
• Dato v ∈ Rn , v ̸= 0, l’insieme

span(v) = {tv : t ∈ R}

si chiama retta passante per l’origine e con vettore direzione v. La funzione


vettoriale
P (t) = tv, t∈R
si chiama equazione parametrica della retta.
Ad esempio, il sottospazio S dell’esempio precedente è la retta passante per
l’origine con vettore direzione v = (2, 1). La sua equazione parametrica è P (t) =
t(2, 1), mentre x − 2y = 0 è la sua equazione cartesiana.
10 CAPITOLO 1. VETTORI E COMBINAZIONE LINEARE

In generale, dati due vettori non banali1 di Rn , non paralleli tra loro, l’espressione

P (t) = tv + a, t∈R

descrive una retta parallela a v, non passante per l’origine. Si noti che l’insieme
dei punti della retta in questo caso NON è uno spazio vettoriale, ma un insieme
ottenuto traslando lo spazio vettoriale span(v) col vettore a. Spazi di questo tipo
vengono chiamati spazi affini.
• Dati v, w ∈ Rn due vettori non banali linearmente indipendenti, l’insieme di punti

span(v, w) = {sv + tw : s, t ∈ R}

si chiama piano passante per l’origine e con vettori direttori v, w (o, equivalente-
mente, parallelo ai vettori v, w). L’equazione vettoriale

P (s, t) = sv + tw, s, t ∈ R

è detta l’equazione parametrica del piano.


Esempio. L’insieme di R3 dato da

W = {(x1 , x2 , x3 ) : x1 + x2 + x3 = 0, x1 , x2 , x3 ∈ R}

è il piano di R3 passante per l’origine, generato dai vettori v = (−1, 1, 0) e w =


(−1, 0, 1), ovvero W = span(v, w), e ha equazione parametrica P (s, t) = sv + tw
al variare si s e t in R. La sua equazione cartesiana è x + y + z = 0.

Definizione. Dati i vettori b1 , b2 , . . . , bk ∈ X, l’insieme {b1 , b2 , . . . , bk } è una base


di X se valgono le seguenti proprietà:
(i) i vettori b1 , b2 , . . . , bk sono linearmente indipendenti,

(ii) {b1 , b2 , . . . , bk } è un insieme di generatori di X, ovvero

span(b1 , . . . , bk ) = X.

Teorema. L’insieme B = {b1 , b2 , . . . , bk } sia una base di X. Allora, per ogni


v ∈ X, esiste un’unica k-upla di scalari α1 , α2 , . . . , αk ∈ R tale che


k
v= αi bi .
i=1

Gli scalari α1 , α2 , . . . , αk sono detti componenti o coordinate del vettore v rispetto


alla base B.

1
Diciamo non banale un qualunque vettore v ̸= 0.
1.7. SOTTOSPAZI, BASI, DIMENSIONE 11

Dim. Sia B una base di X e v un qualunque fissato vettore di X. Poiché B è un insieme di


generatori, allora v si puo’ scrivere come combinazione lineare degli elementi di B: esiste
quindi una k-upla di scalari α1 , α2 , . . . , αk ∈ R tale che


k
v= αi bi . (1.1)
i=1

Ci rimane da dimostrare che una k-upla α1 , α2 , . . . , αk ∈ R che soddisfa (1.1) è unica. Per
assurdo, supponiamo che esistano un vettore v ∈ X e due k-uple α1 , . . . , αk e α̃1 , . . . , α̃k
distinte tali che
∑ k ∑ k
i
v= αi b = α̃i bi .
i=1 i=1

Pertanto,

k
(αi − α̃i )bi = 0,
i=1

da cui, poiché i vettori b1 , b2 , . . . , bk sono linearmente indipendenti,

αi = α̃i , ∀i = 1, . . . , k. 

♢ E’ vero anche il viceversa: ovvero se∑per ogni v ∈ X, esiste un’unica k-upla di


scalari α1 , α2 , . . . , αk ∈ R tale che v = ki=1 αi bi , allora {b1 , b2 , . . . , bk } è una base
di X.

Vale il seguente risultato fondamentale:

Teorema della dimensione per spazi vettoriali. Sia X uno spazio vetto-
riale. Se esiste una base di X costituita da n ∈ N vettori, allora ogni base di X
è formata da n vettori linearmente indipendenti.

Diamo quindi la seguente definizione.

Definizione. Sia X uno spazio vettoriale. Si dice che X ha dimensione n, e


si scrive
Dim(X) = n,
se X ammette una base formata da n ∈ N vettori, ovvero n è la cardinalità di
ogni sua base.
12 CAPITOLO 1. VETTORI E COMBINAZIONE LINEARE

♢ Se W è un sottospazio vettoriale di X, allora Dim(W ) ≤ Dim(X).


♢ Il sottospazio nullo W = {0} ha dimensione 0, ed è l’unico spazio vettoriale con
dimensione zero.
♢ Per mostrare che due spazi vettoriali finito-dimensionali W e X sono uguali, si
usa spesso il seguente criterio:
se W è un sottospazio di X con Dim(W ) = Dim(X), allora W = X.

1.7.1 Base canonica di Rn


Lo spazio vettoriale Rn ha dimensione n:
Dim(Rn ) = n.
Infatti ha una base, detta base canonica di Rn costituita da n elementi: è l’insieme
formato dai vettori e1 , e2 , . . . , en ∈ Rn dati da
     
1 0 0
0 1 0
     
e1 =  ..  , e2 =  ..  , · · · , en =  ..  .
. . .
0 0 1

Ogni vettore di Rn si scrive in modo unico come combinazione lineare dei vettori
della base canonica, con coefficienti di combinazione che sono le componenti del
vettore stesso: se x = (x1 , . . . , xn ) allora

x = x1 e1 + · · · + xn en .

♢ Nel piano i vettori della base canonica si indicano con i simboli


[ ] [ ]
1 0
i= , j= (base canonica di R2 )
0 1
e il vettore x = (x, y) si scrive come
x = xi + yj.
Analogamente nello spazio si ha
     
1 0 0
 
i = 0 , j = 1 ,  
k = 0 (base canonica di R3 )
0 0 1
e il vettore x = (x, y, z) si scrive come
x = xi + yj + zk.
1.8. PRODOTTO SCALARE IN RN 13

1.7.2 Dimensione di uno span


Dati v 1 , . . . , v k ∈ X, sia S = span(v 1 , . . . , v k ) il sottospazio generato dai k vettori
di V = {v 1 , . . . , v k }. Vogliamo trovare Dim(S) e una base per S.
Osserviamo innanzitutto che:

Ogni insieme di generatori di S contiene una base di S.

Infatti dato un insieme ordinato di generatori, eliminando quei vettori che sono
combinazione lineare dei precedenti, si ottiene ancora un insieme di generatori che
sono linearmente indipendenti, ovvero una base. Si ha quindi:

• se v 1 , . . . , v k sono linearmente indipendenti, allora


V è una base di S e Dim(S) = k.

• altrimenti, una base di S è formata da m vettori di V linearmente indipendenti,


dove m è il massimo numero di vettori di V linearmente indipendenti.

1.8 Prodotto scalare in Rn


In aggiunta alla struttura di spazio vettoriale, in Rn è possibile definire un’ulteriore
operazione
⟨·, ·⟩ : Rn × Rn → R,
detta prodotto scalare.
Definizione. Siano u = (u1 , . . . , un ) ∈ Rn , v = (v1 , . . . , vn ) ∈ Rn . Si dice prodotto
scalare (o prodotto interno) di u e v, e si indica con ⟨u, v⟩, il numero


n
⟨u, v⟩ = ui vi ∈ R.
i=1

Proprietà del prodotto scalare.


È immediato verificare che il prodotto scalare sopra definito gode delle seguenti
proprietà:

(i) Proprietà commutativa:

⟨u, v⟩ = ⟨v, u⟩, ∀u, v ∈ Rn .

(ii) Proprietà distributiva rispetto alla somma:

⟨u + v, w⟩ = ⟨u, w⟩ + ⟨v, w⟩, ∀u, v, w ∈ Rn .


14 CAPITOLO 1. VETTORI E COMBINAZIONE LINEARE

(iii) Per ogni t ∈ R,


⟨tu, v⟩ = t⟨u, v⟩, ∀u, v ∈ Rn .
(iv) Per ogni v ∈ Rn ,

n
⟨v, v⟩ = vi2 ≥ 0.
i=1

(v) Per ogni v ∈ Rn ,


⟨v, v⟩ = 0 ⇐⇒ v = 0.

Definizione. Si dice norma (euclidea) di un vettore v = (v1 , . . . , vn ) ∈ Rn , e si


indica con ∥v∥, il numero
( n )1/2
√ ∑
∥v∥ = ⟨v, v⟩ = vi2 ≥ 0.
i=1

Dal punto di vista geometrico, la norma euclidea di un vettore in Rn può essere


interpretata come la lunghezza del vettore.

Teorema. Dati due vettori u, v ∈ Rn , si ha

⟨u, v⟩ = ∥u∥∥v∥ cos α,

dove α è l’angolo compreso tra u e v.

Pertanto, geometricamente il prodotto scalare di due vettori in Rn può essere inter-


pretato come il prodotto delle lunghezze per il coseno dell’angolo compreso.
Dim. Sia u = ∥u∥ e v = ∥v∥. Chiamiamo c = ∥v − u∥, dunque, per definizione di
norma
c2 = ⟨u − v, u − v⟩ = ∥u∥2 + ∥v∥2 − 2⟨u, v⟩
Ora applichiamo il Teorema di Carnot al triangolo formato da u, v e v − u (chia-
mando α l’angolo formato tra u e v): si ha
c2 = u2 + v 2 − 2uv cos α.
Confrontando le due espressioni si trova la tesi, cioè uv cos α = ⟨u, v⟩. 
Ricordando che, per ogni α ∈ R, | cos α| ≤ 1 si ha immediatamente la Disugua-
glianza di Cauchy-Schwarz:
|⟨u, v⟩| ≤ ∥u∥∥v∥, ∀u, v ∈ Rn .
♢ Due vettori u, v ∈ Rn si dicono ortogonali se
⟨u, v⟩ = 0.
1.8. PRODOTTO SCALARE IN RN 15

Proprietà della norma.


(i) Positività e annullamento: per ogni v ∈ Rn ,

∥v∥ ≥ 0 e ∥v∥ = 0 ⇐⇒ v = 0.

(ii) Omogeneità:
∥tv∥ = |t|∥v∥, ∀t ∈ R, ∀v ∈ Rn .

(iii) Disuguaglianza triangolare:

∥u + v∥ ≤ ∥u∥ + ∥v∥, ∀u, v ∈ Rn .

Dim. Le proprietà (i) e (ii) seguono immediatamente dalle proprietà del prodotto scalare.
Dimostriamo la proprietà (iii). Per le proprietà (i)-(ii) del prodotto scalare, abbiamo

∥u + v∥2 = ⟨u + v, u + v⟩ = ∥u∥2 + ∥v∥2 + 2⟨u, v⟩,

e, grazie alla Disuguaglianza di Cauchy-Schwarz,

∥u + v∥2 ≤ ∥u∥2 + ∥v∥2 + 2∥u∥∥v∥ = (∥u∥ + ∥v∥)2 ,

da cui ∥u + v∥ ≤ ∥u∥ + ∥v∥. 

Definizione (versore). Si dice versore un qualsiasi vettore appartenente a Rn di


norma unitaria.
Sia v ∈ Rn diverso da 0. Per la proprietà di omogeneità della norma, il vettore
w ∈ Rn ottenuto moltiplicando v per il reciproco della sua norma
v
w=
∥v∥

è un versore avente la stessa direzione e verso di v.


Definizione. Sia B = {b1 , b2 , . . . , bn } una base di Rn . Si dice che B è una base
ortogonale se è costituita da vettori a due a due ortogonali, ovvero

⟨bi , bj ⟩ = 0, ∀i ̸= j.

La base si dice ortonormale se è ortogonale e i suoi elementi sono tutti versori.


16 CAPITOLO 1. VETTORI E COMBINAZIONE LINEARE
Capitolo 2

Matrici

2.1 Cosa sono le matrici


Definizione. Si dice matrice m × n un quadro di m · n numeri disposti in m righe
orizzontali ed n colonne verticali
n colonne
 z }| {

 a a ... a1n
 11 12
  a21 a22 . . .
 a2n 

m righe  . .. ..  . (2.1)

  .. . . 

 a
m1 a m2 . . . amn

Il numero aij viene detto elemento di posto i, j, all’incrocio della i-ma riga con la
j-ma colonna. L’indice i assume un valore compreso tra 1 e m, l’indice j tra 1 e n.
La matrice sopra è costituita da m righe di n elementi
[ ]
ai1 ai2 . . . ain , i = 1, . . . , m,

e n colonne di m elementi
 
a1j
 a2j 
 
 ..  , j = 1, . . . , n.
 . 
amj

Se m = n, la matrice si dice quadrata, di ordine m = n, altrimenti si dice rettango-


lare.
Notazione. Per indicare una generica matrice A della forma (2.1) utilizziamo
anche la notazione A = [aij ]. Indichiamo con Mm,n l’insieme delle matrici m × n
a coefficienti reali. Nel caso m = n, utilizziamo la notazione Mn al posto di Mn,n .

17
18 CAPITOLO 2. MATRICI

Adottiamo la seguente convenzione: identifichiamo un vettore x = (x1 , . . . , xm ) ∈


Rm con la colonna  
x1
 x2 
 
x =  ..  ∈ Mm,1 .
 . 
xm

Dati n vettori colonna b1 , . . . , bn ∈ Rm , indichiamo con


[ 1 ]
b | . . . | bn ∈ Mm,n

la matrice ottenuta accostando le colonne b1 , . . . , bn .


[ ]
Esempio. Siano b1 = (1, 2, 3), b2 = (0, 1, 4). La matrice B = b1 | b2 ∈ M3,2 è data
da  
1 0
B = 2 1 .
3 4

2.2 Prodotto di matrice-vettore colonna

Definizioni.

• Dato un vettore riga a = [a1 a2 . . . an ] e un vettore colonna x = (x1 , x2 , . . . , xn )


con lo stesso numero n di componenti il loro prodotto è dato da
 
x1
 x2 
 
ax = [a1 a2 . . . an ]  ..  = a1 x1 + a2 x2 + · · · + an xn ,
.
xn

ovvero dal prodotto scalare in Rn dei due vettori.

• Data una matrice A = [aij ] ∈ Mm,n e un vettore colonna x = (x1 , x2 , . . . , xn ),


il prodotto Ax è un vettore colonna con m componenti dato da
   
a1 x a11 x1 + a12 x2 + · · · + a1n xn
 a2 x   a21 x1 + a22 x2 + · · · + a2n xn 
   
Ax =  ..  =  ..  ∈ Rm
 .   . 
am x am1 x1 + am2 x2 + · · · + amn xn

dove ai = [ai1 ai2 . . . ain ] è la i-ma riga di A.


2.2. PRODOTTO DI MATRICE-VETTORE COLONNA 19

Esempio. Siano [ ]
2 −5 0
A= e x = (−6, 2, 1).
−4 1 3
Calcoliamo Ax:
Ax = (2 · (−6) − 5 · 2 + 0 · 1, −4 · (−6) + 1 · 2 + 3 · 1) = (−22, 29).

Teorema. Il prodotto Ax è lineare in x, ovvero

(i) A(x + y) = Ax + Ay per ogni x, y ∈ Rn ,

(ii) A(tx) = t(Ax) per ogni t ∈ R, x ∈ Rn .

2.2.1 Prodotto matrice-vettore e combinazioni lineari


Il prodotto Ax si può anche esprimere in termini delle colonne di A: scrivendo
 
a1j
 a2j 
 
A = [a | . . . |a ] ∈ Mm,n
1 n
dove a =  .. 
j
 . 
amj
e x = (x1 , . . . , xn ) ∈ Rn , si ha

n
Ax = x1 a + · · · + xn a =
1 n
xi ai ,
i=1
ovvero

Il prodotto Ax è il vettore combinazione lineare delle colonne di A con


coefficienti dati dalle componenti di x.

♢ Per scrivere una combinazione lineare di n vettori v 1 , . . . , v n in Rm , si definisce


la matrice A = [v 1 | . . . |v n ] ∈ Mm,n . Dato il vettore x = (x1 , . . . , xn ) ∈ Rn , la
combinazione lineare dei v i con coefficienti xi è
Ax = x1 v 1 + · · · + xn v n .

Gli n vettori v 1 , . . . , v n in Rm sono linearmente indipendenti se e solo se si ha

Ax = 0 soltanto per x = 0,

dove A = [v 1 | . . . |v n ] ∈ Mm,n .
20 CAPITOLO 2. MATRICI

2.3 Somma di matrici e moltiplicazione per uno


scalare
Definizione. Date due matrici A = [aij ], B = [bij ] ∈ Mm,n , si dice somma di A e
B, e si indica con C = A + B, la matrice C = [cij ] ∈ Mm,n il cui elemento di posto
i, j è dato da
cij = aij + bij .

Esempio. Siano
[ ] [ ]
0 1 3 2 5 1
A= ∈ M2,3 , B= ∈ M2,3 .
1 2 4 1 2 4

La somma di A e B è data da
[ ] [ ]
0+2 1+5 3+1 2 6 4
C= = ∈ M2,3 .
1+1 2+2 4+4 2 4 8

Le matrici  
[ ] 2 0
0 1
A= ∈ M2,2 , B = 1 1 ∈ M3,2
2 5
6 4
non possono essere sommate.
Si verifica che la somma tra matrici gode delle seguenti proprietà (esercizio).

(i) Proprietà associativa:

A + (B + C) = (A + B) + C, ∀A, B, C ∈ Mm,n .

(ii) Proprietà commutativa:

A + B = B + A, ∀A, B ∈ Mm,n .

(iii) La matrice nulla O ∈ Mm,n , definita come la matrice che ha tutte le compo-
nenti nulle, è tale che

A + O = A, ∀A ∈ Mm,n .

Definizione. Dati una matrice A = [aij ] ∈ Mm,n e uno scalare t ∈ R, si dice


prodotto di t per A la matrice tA ∈ Mm,n il cui elemento di posto i, j è dato da taij .
2.4. PRODOTTO TRA MATRICI 21

Esempio. Sia [ ]
10 5 7
A= ∈ M2,3 .
1 5 3
La matrice B = 4A è data da
[ ] [ ]
4 · 10 4 · 5 4 · 7 40 20 28
B= = ∈ M2,3 .
4·1 4·5 4·3 4 20 12

Si verifica che la moltiplicazione di una matrice per uno scalare gode delle
seguenti proprietà (esercizio).
(i) s(tA) = (st)A, ∀s, t ∈ R, ∀A ∈ Mm,n .

(ii) t(A + B) = tA + tB, ∀t ∈ R, ∀A, B ∈ Mm,n .

(iii) (s + t)A = sA + tA, ∀s, t ∈ R, ∀A ∈ Mm,n .

♢ Si verifica facilmente che Mm,n con le operazioni di somma e moltiplicazione


per uno scalare è uno spazio vettoriale. (Esercizio.) Determinare una base e la
dimensione di Mm,n .

2.4 Prodotto tra matrici


Definizione. Date due matrici A = [aij ] ∈ Mm,r e B = [bij ] ∈ Mr,n
   
a11 a12 . . . a1r b11 b12 . . . b1n
 a21 a22 . . . a2r  b21 b22 . . . b2n 
   
A =  .. .. ..  , B =  .. .. ..  ,
 . . .   . . . 
am1 am2 . . . amr br1 br2 . . . brn

si dice prodotto di A per B, e si indica con C = AB, la matrice C = [cij ] ∈ Mm,n


il cui elemento di posto i, j è dato da

r
cij = ai1 b1j + ai2 b2j + · · · + air brj = aik bkj ,
k=1

ovvero il prodotto tra il vettore ai (i-ma riga di A) e il vettore bj (j-ma colonna di


B). In altre parole, si ha
AB = [Ab1 | . . . |Abn ].

Osservazione. È possibile eseguire il prodotto di due matrici A e B se e solo


se il numero di colonne di A è uguale al numero di righe di B.
22 CAPITOLO 2. MATRICI

Esempio. Siano
 
[ ] 2 0
0 1 1
A= ∈ M2,3 , B = 1 2 ∈ M3,2 .
2 2 1
3 1

Il prodotto di A per B è ben definito ed è dato dalla matrice C = [cij ] ∈ M2


[ ]
4 3
C= ,
9 5

i cui elementi sono dati da

c11 = 0 · 2 + 1 · 1 + 1 · 3 = 4,
c12 = 0 · 0 + 1 · 2 + 1 · 1 = 3,
c21 = 2 · 2 + 2 · 1 + 1 · 3 = 9,
c22 = 2 · 0 + 2 · 2 + 1 · 1 = 5.

Osserviamo che si puo’ fare anche il prodotto BA, che risulta essere una matrice
3 × 3. Ovviamente AB ̸= BA.
Osservazioni.
♢ Il prodotto tra matrici non è commutativo.
♢ Per il prodotto di matrici non vale la legge di annullamento: il prodotto tra due
matrici può essere la matrice nulla senza che alcuna delle matrici a fattore sia nulla!
Esempio: [ ]
0 1
A=B= .
0 0

Si verifica facilmente che il prodotto tra matrici gode delle seguenti proprietà.

(i) Proprietà associativa:

A(BC) = (AB)C, ∀A ∈ Mm,r , ∀B ∈ Mr,n , ∀C ∈ Mn,p .

(ii) Proprietà distributiva a sinistra:

A(B + C) = AB + AC, ∀A ∈ Mm,r , ∀B, C ∈ Mr,n .

(iii) Proprietà distributiva a destra:

(A + B)C = AC + BC, ∀A, B ∈ Mm,r , ∀C ∈ Mr,n .

(iv) Omogeneità:

A(tB) = (tA)B = t(AB), ∀t ∈ R, ∀A ∈ Mm,r , ∀B ∈ Mr,n .


2.5. MATRICE TRASPOSTA 23

2.5 Matrice trasposta


Definizione. Data una matrice A = [aij ] ∈ Mm,n , si dice trasposta di A, e si indica
con A⊤ la matrice ottenuta scambiando le righe con le colonne di A. Pertanto,
A⊤ ∈ Mn,m e soddisfa

(a⊤ )ij = aji , ∀i = 1, . . . , n, ∀j = 1, . . . , m.

Definizione. Una matrice A = [aij ] ∈ Mn si dice simmetrica se A = A⊤ , ovvero

aij = aji , ∀i, j = 1, . . . , n.

Esempio. La trasposta della matrice


 
[ ] 0 2
0 3 1
A= è A⊤ = 3 1 .
2 1 1
1 1

La matrice  
1 2 1
B = 2 0 3
1 3 1
è simmetrica.
Si verifica che valgono le seguenti proprietà:
(i) (A + B)⊤ = A⊤ + B ⊤ , ∀A, B ∈ Mm,n .

(ii) (tA)⊤ = tA⊤ , ∀t ∈ R, ∀A ∈ Mm,n .

(iii) (AB)⊤ = B ⊤ A⊤ , ∀A ∈ Mm,n , B ∈ Mn,p .

2.6 Matrici quadrate


Una matrice si dice quadrata se ha lo stesso numero n di righe e di colonne. Data
una matrice A = [aij ] ∈ Mn , la funzione

Rn → Rn
x 7→ Ax

è una trasformazione (geometrica) di Rn in se stesso.


24 CAPITOLO 2. MATRICI

Esempio. La matrice
[ ]
cos α − sin α
Uα = con α ∈ [0, 2π)
sin α cos α

corrisponde alla rotazione nel piano di centro l’origine, in senso anti-orario, di un


angolo α.
Definizioni. Data una matrice A = [aij ] ∈ Mn

• si dice diagonale principale di A l’insieme degli elementi di uguale indice,


ovvero
{a11 , a22 , . . . , ann }.
Gli n elementi a11 , a22 , . . . , ann vengono detti elementi diagonali di A.

• si dice traccia di A il numero



n
tr(A) = aii ,
i=1

ovvero la somma di tutti gli elementi della diagonale principale di A.

Esempio. La diagonale principale della matrice A = [aij ]


 
2 1 0
A = 0 3 1
1 1 5

è formata dagli elementi a11 = 2, a22 = 3, a33 = 5. La traccia di A è

tr(A) = a11 + a22 + a33 = 2 + 3 + 5 = 10.

Definizioni.

• Una matrice L = [lij ] ∈ Mn si dice triangolare inferiore se

lij = 0, ∀i < j,

ovvero tutti gli elementi al di sopra della diagonale principale sono nulli.

• Una matrice U = [uij ] ∈ Mn si dice triangolare superiore se

uij = 0, ∀i > j,

ovvero tutti gli elementi al di sotto della diagonale principale sono nulli.
2.6. MATRICI QUADRATE 25

• Una matrice D = [dij ] ∈ Mn si dice diagonale se

dij = 0, ∀i ̸= j.

Per brevità, scriviamo D = Diag(d11 , . . . , dnn ).

Esempio. Consideriamo le matrici


     
1 0 0 2 0 0 1 2 0
A = 0 5 0 , B = 5 0 0 , C = 0 4 3 .
0 0 2 1 3 1 0 0 1

A è diagonale, B è triangolare inferiore, C è triangolare superiore.

La Matrice identità
[ ]
La matrice quadrata I = e1 | . . . |en ∈ Mn verifica

A = IA = AI, ∀A ∈ Mn .

Viene detta matrice identità. Per esempio, se n = 2,


[ ]
1 0
I= ∈ M2 ,
0 1

mentre, se n = 3,
 
1 0 0
I = 0 1 0 ∈ M3 .
0 0 1

Potenze di una matrice quadrata

Dato un intero k ≥ 2 e una matrice quadrata A ∈ Mn definiamo la potenza k-ma di


A come il prodotto di k matrici tutte uguali ad A. Si noti che l’ordine non conta
grazie alla proprietà associativa. Si pone A0 = I e A1 = A.
Esempio. Calcolare tutte le potenze delle matrici
   
1 0 0 0 1 1
A = 0 2 0 e B = 0 0 1 .
0 0 3 0 0 0
26 CAPITOLO 2. MATRICI

2.7 Matrici a scalini e metodo di eliminazione di


Gauss (MEG)

Definizione. Si dice matrice a scalini una matrice in cui il primo elemento diverso
da zero di una riga si trova più a destra del primo elemento diverso da zero della
riga precedente. Il primo elemento diverso da zero su ogni riga si dice pivot.

Esempio. Le matrici
 
1 0 2 3  
0 3 1 0 3
 4 0 0
 0 4 0 0
0 e
0 0 5
0 0 0 1
0 0 0 0

sono a scalini e hanno 3 pivot.


Il metodo di eliminazione di Gauss. Indicato brevemente con MEG, è un
algoritmo che trasforma una qualsiasi matrice (non nulla) in una matrice a scalini
attraverso le mosse di Gauss (chiamate anche operazioni elementari ). Anticipiamo
che l’algoritmo si rivela utile per la determinazione di determinante e rango di una
matrice, e per la risoluzione di sistemi lineari.
Si chiamano mosse di Gauss le operazioni seguenti:

• scambio di due righe

• sostituzione di una riga con la somma tra la riga stessa e un multiplo di un’altra
riga.

Funziona nel modo seguente:

1. Se la prima riga ha il primo elemento nullo, si scambia con una riga che ha il
primo elemento non nullo. Se tutte le righe hanno il primo elemento nullo =⇒
punto 3.

2. Per ogni riga i (i > 1) si moltiplica la prima riga per un coefficiente scelto in
maniera tale che la somma tra la nuova prima riga e la i-ma abbia il primo
elemento nullo ( coefficiente = −ai1 /a11 ). Si sostituisca ora la riga i con la
somma appena ricavata.

3. In questo modo sulla prima colonna tutti gli elementi sotto a a11 sono nulli.
A questo punto si ritorna al passo 1 e si lavora sulla sottomatrice ottenuta
cancellando la prima riga e la prima colonna.
2.7. MATRICI A SCALINI E METODO DI ELIMINAZIONE DI GAUSS (MEG) 27

Esempio.
     
−1 1 0 −1 1 0 −1 1 0
A =  1 2 0  →  0 3 0  →  0 3 0  =: U .
0 6 −4 0 6 −4 0 0 −4

Dalla matrice di partenza A abbiamo sommato la prima riga moltiplicata per 1 con
la seconda (scrivendo il risultato nella seconda riga in modo da ottenere uno zero in
prima colonna), poi abbiamo moltiplicato la riga ottenuta per −2 e sommata alla
terza riga. La matrice a scalini U ha tre pivot: −1, 3 e −4.
28 CAPITOLO 2. MATRICI
Capitolo 3

Determinante

Il determinante è un numero associato ad una matrice quadrata A ∈ Mn .

Definizione (Determinante di una matrice 2 × 2). Data la matrice


[ ]
a11 a12
A= ∈ M2 ,
a21 a22

si dice determinante di A il numero

Det(A) = a11 a22 − a12 a21 .

Per indicare il determinante di A si utilizza anche la notazione


a11 a12
.
a21 a22

Veniamo ora al caso n ≥ 3. Il determinante di A = [aij ] ∈ Mn viene definito tramite


una formula induttiva che si basa sulla conoscenza del determinante di matrici di
ordine n − 1 ottenute a partire da A. Servono alcune definizioni.
Definizione (Complemento algebrico). Sia A ∈ Mn . Dati due indici i, j =
1, . . . , n, sia
Aij ∈ Mn−1
la matrice ottenuta cancellando la riga i-esima e la colonna j-esima di A. Si dice
minore complementare dell’elemento aij , e si indica con Det(Aij ), il determinante
di Aij . Il numero reale
(−1)i+j Det(Aij )
viene detto complemento algebrico dell’elemento aij .

29
30 CAPITOLO 3. DETERMINANTE

Esempio. Consideriamo la matrice


 
2 1 3
A = 1 1 4
3 2 2

e calcoliamo minore complementare e complemento algebrico dell’elemento di posto


1, 2. La matrice ottenuta cancellando la riga 1 e la colonna 2 è
[ ]
1 4
A12 = ,
3 2

pertanto il minore complementare è

1 4
Det(A12 ) = = 1 · 2 − 4 · 3 = −10
3 2

e il complemento algebrico è

(−1)1+2 · (−10) = 10.

♢ Si può dimostrare che la somma dei prodotti degli elementi di una qualsiasi riga
o colonna di A per i rispettivi complementi algebrici assume sempre lo stesso valore
(!). Questo valore viene chiamato determinante di A.
Definizione (Determinante di una matrice n × n). Dato un qualsiasi indi-
ce di riga i = 1, . . . , n, e un qualsiasi indice di colonna j = 1, . . . , n, si definisce
determinante di A il numero


n
Det(A) = (−1)i+k aik Det(Aik ) sviluppo secondo la riga i-ma,
k=1
∑n
= (−1)k+j akj Det(Akj ) sviluppo secondo la colonna j-ma.
k=1

Esempio. Calcoliamo il determinante della matrice dell’esempio precedente svilup-


pando secondo la prima riga. Abbiamo:

1 4 1 1
Det(A11 ) = = −6, Det(A12 ) = −10, Det(A13 ) = = −1,
2 2 3 2
3.1. PROPRIETÀ ELEMENTARI DEL DETERMINANTE 31

pertanto

Det(A) = (−1)2 · 2 · (−6) + (−1)3 · 1 · (−10) + (−1)4 · 3 · (−1) = −5.

♢ Per il calcolo del determinante conviene quindi scegliere una riga o una colonna
col maggior numero di elementi uguali a 0. 1

3.1 Proprietà elementari del determinante


Sia A ∈ Mn . Si verifica facilmente che:

• Det(A⊤ ) = Det(A).

• Se A ha una riga (o una colonna) di zeri, allora Det(A) = 0.

• Il determinante è una funzione lineare di ciascuna riga: ovvero


     
a1 + b1 a1 b1
 a2   a2   a2 
     
Det  ..  = Det  ..  + Det  ..  ,
 .   .   . 
an an an

e moltiplicando tutti gli elementi di una riga di A per λ ∈ R, il determinante


viene moltiplicato per λ.

• Det(λA) = λn Det(A), ∀λ ∈ R.

• Se A è una matrice diagonale, triangolare superiore o triangolare inferiore,


allora
∏n
Det(A) = aii = a11 a22 . . . ann .
i=1

Le seguenti proprietà descrivono come cambia il determinante quando si compio-


no operazioni elementari sulle righe della matrice (tutti i risultati valgono anche se
si compiono operazioni elementari sulle colonne invece che sulle righe della matrice):

• Scambiando fra loro due righe di A, il determinante cambia segno.

• Se A ha due righe uguali, allora Det(A) = 0. Più in generale, se gli elementi


di una riga sono proporzionali a quelli di un’altra riga, allora Det(A) = 0.

• Se le righe di A sono linearmente dipendenti, allora Det(A) = 0.


1
Nel caso particolare di una matrice A ∈ M3 per calcolare il determinante si può utilizzare la
cosiddetta regola di Sarrus (per chi la conosce).
32 CAPITOLO 3. DETERMINANTE

• Se ad una riga si aggiunge una qualunque combinazione lineare delle altre


righe, allora il determinante non cambia.
Dim. Iniziamo mostrando che scambiando fra loro due righe di A, il determinante cambia
segno. È facile vedere che la proprietà è soddisfatta da una qualsiasi matrice 2 × 2.
Procediamo dunque per induzione e supponiamo che la proprietà sia vera per ogni matrice
appartenente a Mn−1 (n ≥ 3). Sia A ∈ Mn , e sia A′ la matrice ottenuta scambiando due
righe di A. Scegliamo una riga ī diversa da quelle scambiate tra loro, e sviluppiamo
Det(A) e Det(A′ ) secondo la riga ī:

n
Det(A) = (−1)ī+j aīj Det(Aīj ),
j=1

n
Det(A′ ) = (−1)ī+j aīj Det(A′īj ).
j=1

Poiché, per ogni j = 1, . . . , n, Aīj e A′īj appartengono a Mn−1 e differiscono soltanto per
due righe scambiate tra di loro, l’ipotesi induttiva implica Det(Aīj ) = −Det(A′īj ), da cui
segue immediatamente Det(A) = −Det(A′ ).
Proviamo ora la seconda proprietà . Se A ha due righe uguali, allora scambiandole tra
di loro otteniamo la matrice A′ = A, quindi Det(A′ ) = Det(A). D’altra parte, sappiamo
dal risultato precedente che Det(A′ ) = −Det(A), pertanto Det(A) = 0.
Se A presenta una riga i cui elementi sono proporzionali a quelli di un’altra riga, ci si può
ricondurre ad una matrice con due righe uguali moltiplicando una delle due righe per un
numero opportuno... e cosi via. 
Vale inoltre il Teorema di Binet per il determinante del prodotto di due matrici:
Teorema di Binet. Se A e B sono matrici quadrate dello stesso ordine allora il
determinante della matrice prodotto è il prodotto dei determinanti
Det(AB) = Det(A)Det(B).

3.1.1 Calcolo del determinante col MEG


Sia U ∈ Mn la matrice a scalini ottenuta con il MEG a partire da una matrice qua-
drata A ∈ Mn ; grazie alle proprietà elementari del determinante, Det(A) e Det(U )
coincidono - a meno del segno2 . Ora il determinante di U si calcola facilmente
come il prodotto degli elementi sulla sua diagonale principale (perché U è triango-
lare superiore). Si può dunque usare l’algoritmo di Gauss per il calcolo veloce del
determinante 3 di una generica matrice quadrata:
|Det(A)| = |Det(U )| = |Πni=1 uii |.
2
Attenzione al numero di scambi di riga, perchè il determinante cambia segno ad ogni scambio.
3
Il calcolo del determinante tramite questa procedura è quello meno costoso dal punto di vista
computazionale (se A ∈ Mn con il MEG si ha crescita polinomiale in n invece che n! - usando lo
sviluppo per righe/colonne) ed è l’unico applicabile quando le dimensioni delle matrici diventano
grandi.
3.1. PROPRIETÀ ELEMENTARI DEL DETERMINANTE 33

Esempio. Consideriamo ancora la matrice


 
2 1 3
A = 1 1 4 .
3 2 2

Riduciamo col MEG:


   
2 1 3 2 1 3
A → 0 1/2 5/2  → 0 1/2 5/2 := U .
0 1/2 −5/2 0 0 −5

Il determinante è 2 · 12 · (−5) = −5.

3.1.2 Annullamento del determinante


Abbiamo visto che se le righe o le colonne di A sono linearmente dipendenti allora
Det(A) = 0. In realtà vale anche il viceversa. Possiamo quindi affermare che il
determinante si annulla se e solo se le righe (colonne) della matrice sono linearmente
dipendenti. In maniera equivalente abbiamo:

[ ]
Teorema. Siano v 1 , v 2 , . . . , v n ∈ Rn e sia A = v 1 | . . . | v n ∈ Mn . Allora i
vettori v 1 , v 2 , . . . , v n sono linearmente indipendenti se e solo se

Det(A) ̸= 0.

Esempio. Per stabilire se i vettori appartenenti a R3

v 1 = (1, 0, 0), v 2 = (1, 1/2, 1), v 3 = (5, 1, 2)

sono linearmente indipendenti, basta costruire la matrice


 
1 1 5

A = 0 1/2 1
0 1 2

e calcolare il suo determinante:

1/2 1
Det(A) = 1 · = 0.
1 2

Dunque i vettori solo linearmente dipendenti.


34 CAPITOLO 3. DETERMINANTE

3.2 Invertibilità e matrice inversa


Definizione. Sia A ∈ Mn . Si dice che A è invertibile se esiste una matrice B ∈ Mn ,
tale che
AB = BA = I.
In tal caso, B è detta matrice inversa di A.
♢ Se A è invertibile ha un’unica matrice inversa che indichiamo col simbolo A−1 .
Dim. Infatti, supponiamo che BA = AB = I e CA = AC = I. Usiamo l’uguaglianza
seguente (vera per la proprietà associativa)

B (AC) = (BA) C
| {z } | {z }
I I

ovvero
BI = IC =⇒ B = C. 

Teorema. Sia A ∈ Mn . Se A è invertibile, allora Det(A) ̸= 0.


Dim. Sia B inversa di A. Pertanto, AB = I. Per il Teorema di Binet,

Det(A)Det(B) = Det(AB) = Det(I) = 1,

quindi Det(A) ̸= 0. 
In realtà vale il viceversa, grazie al teorema seguente:
Teorema (Formula di Laplace per la matrice inversa). Sia A = [aij ] ∈ Mn
tale che Det(A) ̸= 0. Allora A è invertibile e la matrice inversa è

1
A−1 = B⊤
Det(A)

dove B ⊤ indica la matrice trasposta di B, e l’ elemento bij di B è il complemento


algebrico di aij :
bij = (−1)i+j Det(Aij ).
Inoltre,
1
Det(A−1 ) = .
Det(A)

In conclusione:

Una matrice A ∈ Mn è invertibile se e solo se Det(A) ̸= 0.


3.2. INVERTIBILITÀ E MATRICE INVERSA 35

Esempio. Sia [ ]
a11 a12
A= ∈ M2
a21 a22
tale che Det(A) ̸= 0. Allora, grazie alla formula di Laplace la matrice inversa è data
da [ ]
−1 1 a22 −a12
A = .
Det(A) −a21 a11
Ad esempio la matrice inversa di
[ ]
2 1
A=
−1 3

è data da [ ]
−1 3/7 −1/7
A = .
1/7 2/7

Esempio. Consideriamo la matrice


 
1 2 0
A = 3 4 2 .
1 0 1

Verifichiamo che sia invertibile e calcoliamo la matrice inversa A−1 . Scegliamo la


seconda colonna e calcoliamo i minori complementari:

Det(A12 ) = 1, Det(A22 ) = 1,

da cui
Det(A) = −2 · 1 + 4 · 1 = 2 ̸= 0,
dunque A è invertibile. I restanti minori complementari sono

Det(A11 ) = 4, Det(A13 ) = −4, Det(A21 ) = 2, Det(A23 ) = −2,


Det(A31 ) = 4, Det(A32 ) = 2, Det(A33 ) = −2,

quindi la matrice inversa è


   
4 −2 4 2 −1 2
1
A−1 = −1 1 −2 = −1/2 1/2 −1 .
2
−4 2 −2 −2 1 −1
36 CAPITOLO 3. DETERMINANTE

3.2.1 Cambiamento di base in Rn


Consideriamo in Rn la base canonica e una seconda base

B = {b1 , . . . , bn }.

Consideriamo un qualunque vettore v di Rn . Sappiamo che v si scrive in modo


unico come combinazione lineare degli elementi delle due basi:

n ∑
n
v= xi ei v= x̂i bi
i=1 i=1

dove xi sono le coordinate di v nella base canonica e x̂i sono le coordinate nella base
B. Qual è la relazione tra queste coordinate? Se chiamiamo

M = [b1 | . . . |bn ] ∈ Mn , x = (x1 , . . . , xn ), x̂ = (xˆ1 , . . . , xˆn ),

possiamo scrivere
v = Ix e v = Mx̂
dunque
x = Mx̂.
Se vogliamo conoscere le coordinate di v nella nuova base B, basta quindi calcolare

x̂ = M−1 x.

Si osservi che l’inversa di M esiste: infatti i vettori bi sono linearmente indipendenti,


dunque Det(M) ̸= 0.
Esempio. Calcoliamo le coordinate del vettore v = (5, 3) rispetto alla base di R2
data da {b1 , b2 } con b1 = (1, 1) e b2 = (2, 0). A questo scopo basta scrivere la
matrice che ha per colonne i vettori della nuova base
[ ]
1 2
M= ,
1 0

e calcolarne l’inversa: [ ]
−1 1 0 −2
M =− .
2 −1 1
Il vettore v = 5e1 + 3e2 ha coordinate x = (x1 , x2 ) = (5, 3) nella base canonica.
Nella nuova base le sue coordinate sono

x̂ = M−1 x = (3, 1),

dunque
v = 3b1 + 1b2 .
Capitolo 4

Rango

Il determinante è definito soltanto per matrici quadrate. Consideriamo ora una


generica matrice A = [aij ] ∈ Mm,n .
Definizione. Una sottomatrice di A è una matrice che si ottiene rimuovendo da A
alcune righe e alcune colonne.
Possiamo estrarre da A delle sottomatrici quadrate, i cui determinanti si dicono
minori estratti dalla matrice A. Il numero di righe (o colonne) della sottomatrice
quadrata è detto ordine del minore.

Definizione. Si dice rango della matrice A, e si indica con

Rank(A),

l’ordine massimo dei minori non nulli che si possono estrarre da A.

Osservazioni.

• Rank(A) ≤ min{m, n}. Se Rank(A) = min{m, n}, si dice che A ha rango


pieno.

• Rank(A) = 0 se e solo se A è la matrice nulla.

• Possiamo dire che Rank(A) = r ̸= 0 se e solo se:

(i) esiste un minore estratto da A diverso da zero, di ordine r


(ii) tutti i minori estratti da A di ordine maggiore di r sono nulli.

• Se A ∈ Mn , Rank(A) = n se e solo se Det(A) ̸= 0.

Ne segue che

37
38 CAPITOLO 4. RANGO

Il rango di una matrice rappresenta il massimo numero di righe o di


colonne della matrice linearmente indipendenti.

Per la determinazione del rango di una matrice risulta utile il seguente teorema.

Teorema di Kronecker. Il rango di A è r se e solo se

(i) A ha un minore di ordine r diverso da zero: ovvero esiste una sottomatrice


B ∈ Mr tale che Det(B) ̸= 0,

(ii) ogni sottomatrice quadrata di A di ordine r+1 che ha B come sottomatrice


ha determinante uguale a zero.

Esempio. Determiniamo il rango della matrice


 
0 1 3 2
A = 1 0 −5 −1 .
1 2 1 3

Sicuramente Rank(A) ≤ 3. Notiamo che la sottomatrice


[ ]
′ 0 1
A =
1 0

ha sicuramente determinante diverso da 0, in quanto appartiene a M2 e presen-


ta almeno uno 0 su una diagonale e nessuno 0 sull’altra diagonale. Pertanto,
Rank(A) ≥ 2. Orliamo A′ prima con la terza riga e la terza colonna e calcoliamo il
determinante della matrice ottenuta:

0 1 3
1 0 −5 = −1 · (−5) + 1 · (−5) = 0,
1 2 1

poi con la terza riga e la quarta colonna:

0 1 2
1 0 −1 = −1 · (−1) + 1 · (−1) = 0.
1 2 3

Quindi, grazie al teorema di Kronecker, concludiamo che Rank(A) = 2.


4.1. CALCOLO DEL RANGO COL MEG 39

4.1 Calcolo del rango col MEG


Sia U ∈ Mm,n la matrice a scalini ottenuta con il MEG a partire da una matrice
generica A ∈ Mm,n , non nulla. Si può dimostrare che il rango di A non cambia
trasformando la matrice con le mosse di Gauss, e si ha che

Il rango di A è uguale al numero r di pivot della matrice U .

Esempio. Per la matrice dell’esempio precedente


 
0 1 3 2
A= 1  0 −5 −1 ,
1 2 1 3

la riduzione col MEG porta a:


     
1 0 −5 −1 1 0 −5 −1 1 0 −5 −1
A→ 1  2 1 3  → 0 2 6 4  → 0 2 6 4  := U ,
0 1 3 2 0 1 3 2 0 0 0 0

che ha due pivot, dunque il rango di A è 2.


Esercizio Tipo (Indipendenza lineare e dimensione di uno span). Dati i
vettori
(1, 2, 1), (−1, 3, 0), (3, 1, 2),
stabilire se sono linearmente indipendenti. Determinare poi dimensione e una base
per ( )
V = span (1, 2, 1), (−1, 3, 0), (3, 1, 2) .

Svolgimento. La matrice A associata ai tre vettori è


 
1 −1 3
A = 2 3 1 .
1 0 2

I vettori sono linearmente indipendenti se e solo se il determinante di A è diverso


da zero. Sviluppando secondo l’ultima riga
−1 3 1 −1
DetA = 1 +2 = 0.
3 1 2 3

Dunque i vettori non sono linearmente indipendenti. La dimensione di V è il rango


di A, che risulta essere uguale a 2: infatti la matrice 2X2
[ ]
1 −1
2 3
40 CAPITOLO 4. RANGO

ha determinante diverso da zero. Dunque:

Dim(V ) = Rank(A) = 2,

e una base è data


Base(V ) = {(1, 2, 1), (−1, 3, 0)}.

4.2 Spazio colonna e nucleo di una matrice


Sia A = [aij ] ∈ Mm,n una matrice.
Definizione. Si dice spazio colonna di A l’insieme

Col(A) = span(a1 , . . . , an ) ⊂ Rm

dove ai indica la i-ma colonna di A. Si dice nucleo di A l’insieme

Ker(A) = {x ∈ Rn : Ax = 0} ⊂ Rn .

Entrambi sono sottospazi vettoriali, rispettivamente di Rm e Rn (esercizio).


Ricordando che il rango di A rappresenta il massimo numero di colonne linear-
mente indipendenti di A, abbiamo che:

Dim(Col(A)) = Rank(A).

Vale il seguente importante risultato:

Teorema di nullità più rango per le matrici.


Se A ha n colonne allora

Dim(Ker(A)) + Dim(Col(A)) = n.

Quindi
Dim(Ker(A)) = n − Rank(A).

Dim. Supponiamo che il nucleo abbia dimensione k ≥ 1 e consideriamo


{w1 , . . . , wk }

una base di Ker(A). Scegliamo poi n − k vettori uk+1 , . . . , un ∈ Rn linearmente indipen-


denti tali che
{w1 , . . . , wk , uk+1 , . . . , un }
4.2. SPAZIO COLONNA E NUCLEO DI UNA MATRICE 41

sia una base di Rn .1 Mostriamo ora che gli n − k vettori Auk+1 , . . . , Aun ∈ Rm costitui-
scono una base di Col(A), da cui seguirà che:

Dim(Col(A)) = n − k,

che è la tesi.
Per prima cosa osserviamo che Aui appartiene a Col(A): infatti Aui è la combinazione
lineare delle colonne di A con coefficienti dati dalle componenti di ui . Ne segue che

C := span(Auk+1 , . . . , Aun ) ⊂ Col(A).

Mostriamo che in realtà i due spazi coincidono, ovvero che Col(A) è generato dai vettori
Aui , per i = k+1, . . . , n. A questo scopo sia x ∈ Rn : sappiamo che esistono α1 , . . . , αn ∈ R
tali che
∑k ∑n
x= αj wj + αj uj .
j=1 j=k+1

Per la linearità del prodotto matrice vettore


k ∑
n ∑
n
j j
Ax = αj Aw + αj Au = αj Auj ,
j=1 j=k+1 j=k+1

ovvero Ax ∈ C. Dall’arbitrarietà di x quindi Col(A) ⊂ C.


Resta da dimostrare che Auk+1 , . . . , Aun sono linearmente indipendenti. Per assurdo,
supponiamo che esistano β1 , . . . , βn−k ∈ R non tutti nulli tali che


n−k
βj Auk+j = 0.
j=1

Ma allora per la linearità avremmo:


 

n−k ∑
n−k
A βj uk+j  = 0 ⇐⇒ βj uk+j ∈ Ker(A).
j=1 j=1

Ma questo è assurdo perché i vettori uk+1 , . . . , un (linearmente indipendenti) non appar-


tengono a Ker(A).
Nel caso in cui il nucleo sia lo spazio banale, ovvero Ker(A) = {0}, consideriamo una qua-
lunque base {u1 , ..., un } di Rn e, con ragionamenti analoghi a quelli usati sopra, mostriamo
che {Au1 , ..., Aun } è una base per Col(A). 

1
L’esistenza di tali uk+1 , . . . , un è garantita dal Teorema detto di Completamento. Notiamo
che nessuno dei vettori uk+1 , . . . , un appartiene a Ker(A).
42 CAPITOLO 4. RANGO
Capitolo 5

Sistemi lineari

In generale, un sistema lineare è costituito da m equazioni in n incognite x1 , x2 , . . . , xn


e ha la forma 

 a11 x1 + a12 x2 + · · · + a1n xn = b1


a21 x1 + a22 x2 + · · · + a2n xn = b2
. . . .. (5.1)

 .. .. .. .


a x + a x + · · · + a x = b .
m1 1 m2 2 mn n m

I numeri aij , con i = 1, . . . , m e j = 1, . . . , n, sono detti coefficienti del sistema,


mentre i numeri bi , con i = 1, . . . , m, prendono il nome di termini noti. Nel caso in
cui i termini noti siano tutti nulli, il sistema lineare si dice omogeneo.
Definendo la matrice dei coefficienti A ∈ Mm,n , il vettore dei termini noti b ∈ Rm
e il vettore delle incognite x nel modo seguente:
     
a11 a12 . . . a1n b1 x1
 a21 a22 . . . a2n   b2  
    x2 
A =  .. .. ..  , b =  ..  , x =  
. . . ,
 . . .   . 
am1 am2 . . . amn bm xn

il sistema (5.1) espresso in forma matriciale è

Ax = b. (5.2)

La matrice
[A|b]
si dice matrice completa del sistema (5.2).
Esempio. Il sistema lineare


 x − 3y + 2z − 4t = 2,

2x + 5y + 2t = 8,


 3 x + y + z − t = 5,
2
43
44 CAPITOLO 5. SISTEMI LINEARI

è costituito da 3 equazioni in 4 incognite. Introduciamo la matrice A dei coefficienti,


il vettore b dei termini noti e il vettore delle incognite x:
 
    x
1 −3 2 −4 2  y
A= 2 5 0 2  ∈ M3,4 , b = 8 ∈ R3 , x =  
z  ∈ R .
4

3/2 1 1 −1 5
t
Allora il sistema si può scrivere in forma matriciale come

Ax = b.

Interpretazione geometrica di un sistema lineare. Risolvere Ax = b


significa trovare i coefficienti x1 , . . . , xn (se esistono) che permettono di scrivere
b come combinazione lineare delle colonne di A.

5.1 Struttura dell’insieme delle soluzioni di un


sistema lineare
Sia A ∈ Mm,n e b ∈ Rm . Possiamo ora discutere la risolubilità del sistema lineare

Ax = b,

e la struttura dell’insieme delle soluzioni.

5.1.1 Sistema omogeneo


Le soluzioni del sistema omogeneo Ax = 0 costituiscono lo spazio vettoriale Ker(A),
che contiene sempre il vettore nullo - corrispondente alla soluzione identicamente
nulla. Sappiamo dal Teorema di Nullità più Rango che la dimensione del Ker(A) è
n − r, dove r = Rank(A), dunque:
• se r = n allora l’unica soluzione del sistema omogeneo è x = 0,
• se r < n allora il sistema omogeneo ha infinite soluzioni, date da

x = t1 v 1 + · · · + tn−r v n−r

al variare dei parametri ti ∈ R, dove v i sono n − r soluzioni linearmente


indipendenti del sistema stesso (ovvero una base di Ker(A)).

♢ Scriviamo che il sistema ha ∞n−r soluzioni.


In particolare, per un sistema di n equazioni in n incognite si ha:
5.1. STRUTTURA DELL’INSIEME DELLE SOLUZIONI DI UN SISTEMA LINEARE45

Teorema. Se A ∈ Mn allora il sistema omogeneo

Ax = 0

ammette un’unica soluzione (la soluzione banale x = 0) se e solo se

Det(A) ̸= 0.

5.1.2 Sistema non omogeneo


Dato b ̸= 0 ∈ Rm , il sistema
Ax = b
è risolubile se e solo se
b ∈ Col(A),
ovvero se e solo se
Col(A) = Col([A|b]),
il che è vero se e solo se
Rank(A) = Rank([A|b]).

Teorema di Rouché-Capelli. Il sistema Ax = b ammette soluzioni se e solo


se
Rank(A) = Rank([A|b]).
In tal caso, chiamato r = Rank(A) si ha:

• se r = n il sistema ha un’unica soluzione,

• se r < n il sistema ha infinite soluzioni, che si scrivono come:

x = v p + t1 v 1 + · · · + tn−r v n−r , r = Rank(A) (5.3)

al variare dei parametri ti ∈ R, dove v i sono n − r soluzioni linearmente


indipendenti del sistema omogeneo associato Ax = 0, e v p una soluzione
particolare del sistema.

Dim. Abbiamo già dimostrato la parte del teorema relativa all’esistenza di soluzioni
all’inizio del paragrafo. Sia ora v p ∈ Rn una soluzione di Ax = b. Osserviamo che un
vettore y ∈ Rn soddisfa Ay = b se e solo se

A(y − v p ) = Ay − Av p = b − b = 0.
46 CAPITOLO 5. SISTEMI LINEARI

Quindi, y − v p ∈ Ker(A). Questo significa che l’insieme delle soluzioni è dato da

S = Ker(A) + v p = {y = v + v p : v ∈ Rn , Av = 0}.

Per il Teorema di Nullità più Rango, sappiamo che Dim(Ker(A)) = n − Rank(A), dunque
esistono n − r soluzioni linearmente indipendenti del sistema omogeneo associato, che
indichiamo con v i , tali che

Ker(A) = {t1 v 1 + · · · + tn−r v n−r , ti ∈ R}.

Questo dimostra la formula (5.3). 


In particolare, per un sistema di n equazioni in n incognite la soluzione è unica
se e solo se Det(A) ̸= 0. Essa si può determinare col seguente:
Teorema di Cramer. Se Det(A) ̸= 0, allora il sistema Ax = b ammette una ed
una sola soluzione x = (x1 , x2 , . . . , xn ) data da

Det(B i )
xi = , ∀i = 1, . . . , n,
Det(A)

dove, per ogni i = 1, . . . , n, B i ∈ Mn è la matrice ottenuta sostituendo l’i-esima


colonna di A con il vettore b.

Riassumendo, chiamiamo

r = RankA e r′ = Rank([A|b])

(ricordiamo che n ≥ r′ ≥ r). Allora si ha:

• se r′ ̸= r il sistema non ha soluzioni,

• se r′ = r = n il sistema ammette un’unica soluzione,

• se r′ = r < n il sistema ha infinite soluzioni che dipendono da n − r parametri.


Scriviamo che ha ∞n−r soluzioni.

Esempio Uno. Studiamo la risolubilità del sistema




2x1 + x2 + x3 = 6
x1 + 2x2 + x3 = 6


x1 + x2 + kx3 = 4

al variare di k ∈ R.
La matrice associata è  
2 1 1
A = 1 2 1
1 1 k
5.1. STRUTTURA DELL’INSIEME DELLE SOLUZIONI DI UN SISTEMA LINEARE47

e il termine noto è il vettore b = (6, 6, 4). Calcoliamo il determinante:

2 1 1 1 1 2
Det(A) = 2 − + = 3k − 2.
1 k 1 k 1 1

Quindi, se k ̸= 32 si ha Det(A) ̸= 0 e il sistema Ax = b ha un’unica soluzione.


Per k = 23 abbiamo Rank(A) = 2: il sistema sarà risolubile solo se Rank([A|b]) = 2.
Si ha  
2 1 1 6
[A|b] = 1 2 1 6
1 1 23 4
e si scopre che il suo rango è 2 (perché?). Dunque il sistema è risolubile e ha ∞3−2
soluzioni (ovvero infinite soluzioni dipendenti da un parametro).

5.1.3 Risolvere sistemi lineari col MEG


L’algoritmo di Gauss è quello più usato per la risoluzioni di sistemi lineari, grazie al
fatto che applicando le mosse di Gauss le soluzioni restano invariate:

Teorema. Sia [A|b] la matrice completa del sistema Ax = b. Supponiamo


che [U |b′ ] sia una matrice ottenuta mediante operazioni elementari sulle righe
di [A|b]. Allora:
Ax = b ⇐⇒ U x = b′ .

♢ Ricordiamo che se U ∈ Mm,n è la matrice a scalini ottenuta con il MEG a partire


da una matrice generica A ∈ Mm,n , allora il rango di A è uguale al numero r di
pivot della matrice U .

Come risolvere un sistema con matrice a scalini


Per trovare le soluzioni di
U x = b′
seguiamo questa procedura:
• chiamiamo r il numero di pivot della matrice U ,

• chiamiamo dipendenti le r variabili che corrispondono alle r colonne contenenti


i pivot,

• chiamiamo libere le n − r variabili rimanenti,

• se il numero di pivot di [U |b′ ] è uguale a r possiamo risolvere per backward


substitution, a partire dall’ultima variabile dipendente.
48 CAPITOLO 5. SISTEMI LINEARI

• se il numero di pivot di [U |b′ ] è maggiore di r (cioè uguale a r + 1), allora il


sistema è impossibile.

Esempio. Sia  
1 1 2 3
U = 0 0 4 4
0 0 0 0
e risolviamo U x = 0. Ci sono due pivot: le variabili di pivot (le variabili dipendenti)
sono x1 e x3 , mentre le variabili libere sono x2 e x4 e possono assumere valore
arbitrario. Poniamo
x2 = s, x4 = t ∀s, t ∈ R.
La seconda riga di U da

4x3 + 4t = 0 =⇒ x3 = −t

mentre la prima

x1 + s + 2x3 + 3t = 0 =⇒ x1 = −s − 3t − 2x3

da cui
x1 = −s − 3t + 2t = −s − t.
Le soluzioni sono quindi
     
−s − t −1 −1
 s  1 0
x=     
 −t  = s  0  + t −1
t 0 1

al variare di s e t in R.
Esempio completo. Risolviamo col MEG il sistema


2x1 + x2 + x3 = 6
x1 + 2x2 + x3 = 6


x1 + x2 + 23 x3 = 4

Sappiamo già che il sistema è risolubile e ha ∞1 soluzioni. In forma matriciale

Ax = b

con    
2 1 1 6
A = 1 2 1  , b = 6 .
1 1 23 4
5.1. STRUTTURA DELL’INSIEME DELLE SOLUZIONI DI UN SISTEMA LINEARE49

Riducendo [A|b] col MEG si ha


     
2 1 1 6 2 1 1 6 2 1 1 6

[A|b] = 1 2 1 6 → 0 32 12 3 → 0 32 12 3 := [U |b′ ].
1 1 32 4 0 12 16 1 0 0 0 0

Procedendo ora col sistema a scala poniamo x3 = t; ricaviamo x2 dalla seconda


equazione e poi, sostituendo i valori trovati nella prima, troviamo x1 . La soluzione
è      1
x1 2 −3
x2  = 2 + t − 1  .
3
x3 0 1
50 CAPITOLO 5. SISTEMI LINEARI
Capitolo 6

Diagonalizzazione di una matrice


quadrata

6.1 Autovalori e autovettori


Sia A ∈ Mn una matrice quadrata.
Definizioni. Un vettore u ∈ Rn si dice autovettore di A se
1) u ̸= 0,
2) esiste λ ∈ R tale che Au = λu.
Lo scalare λ si dice autovalore di A relativo all’autovettore u. Si definisce autospazio
relativo all’autovalore λ il sottospazio
Vλ = {u ∈ Rn : Au = λu},
i cui elementi non nulli sono gli autovettori relativi all’autovalore λ.
Osservazione. Non tutte le matrici hanno autovettori. Ad esempio 1 :
[ ]
0 −1
A=
1 0
non ha autovettori. X
♢ Se u e v sono autovettori relativi a due autovalori distinti, allora sono linearmente
indipendenti (esercizio).

Teorema. Uno scalare λ ∈ R è autovalore di A se e solo se

Det(A − λI) = 0. (6.1)

1
Questa matrice rappresenta la rotazione antioraria di centro l’origine e angolo π/2 in R2 .

51
52 CAPITOLO 6. DIAGONALIZZAZIONE DI UNA MATRICE QUADRATA

Dim. Osserviamo che λ è autovalore se e solo se esiste una soluzione non banale u ∈ Rn
del sistema omogeneo
(A − λI)u = 0,
ovvero Det(A − λI) = 0. 
♢ Anche λ = 0 può essere un autovalore. Questo accade se e solo se Det(A) = 0.
♢ L’espressione
P (λ) = Det(A − λI)
è un polinomio di grado n nella variabile λ. P (λ) viene chiamato polinomio
caratteristico.
♢ P (λ) ha n radici in campo complesso, λ1 , λ2 , . . . , λn (eventualmente coincidenti).
Risulta
∑n ∏n
tr(A) = λi e Det(A) = λi .
i=1 i=1

Definizione. Sia λ un autovalore di A.


• la molteplicità algebrica aλ di λ è la sua molteplicità come radice del
polinomio caratteristico.

• La molteplicità geometrica gλ di λ è invece definita come il massimo numero


di autovettori linearmente indipendenti di λ, ovvero

gλ = Dim(Vλ ).

Osserviamo che
Vλ = Ker(A − λI).
Dunque gλ è la dimensione del Ker(A − λI), e grazie al Teorema di Nullità più
Rango si ha la formula:

gλ = n − Rank(A − λI).

Inoltre per ogni autovalore λ vale la relazione:

1 ≤ gλ ≤ aλ .

Definizione. Un autovalore λ si dice regolare se la sua molteplicità geometrica è


uguale alla molteplicità algebrica, ossia quando gλ = aλ .
Si osservi che se un autovalore è semplice (ovvero aλ = 1), allora il relativo
autospazio ha sicuramente dimensione 1 (gλ = 1): quindi gli autovalori semplici
sono regolari.
6.1. AUTOVALORI E AUTOVETTORI 53

Esempio. Calcoliamo gli autovalori e i corrispondenti autovettori della matrice


[ ]
2 0
A= .
2 1

Per il calcolo degli autovalori usiamo l’equazione (6.1):

2−λ 0
Det(A − λI) = = (1 − λ)(2 − λ) = 0,
2 1−λ

pertanto abbiamo gli autovalori λ1 = 1 e λ2 = 2. La molteplicità algebrica di


entrambi gli autovalori è pari a 1, dunque le corrispondenti molteplicità geometriche
sono uguali a 1 (entrambi gli autovalori sono regolari). Per trovare gli autovettori
relativi a λi risolviamo il sistema Au = λi u con u = (u1 , u2 ) ovvero
{
2u1 = λi u1 ,
2u1 + u2 = λi u2 .

Nel caso λ1 = 1 troviamo le soluzioni u1 = 0 e u2 = t per ogni t ∈ R. Quindi gli


autovettori sono
(0, t) = t(0, 1), t ̸= 0
linearmente dipendenti tra loro. Per λ2 = 2 le soluzioni del sistema sono u1 = t e
u2 = 2t per ogni t ∈ R, quindi gli autovettori di λ2 sono

(t, 2t) = t(1, 2), t ̸= 0.

Esempio. Determiniamo autovalori e autovettori della matrice


 
2 1 0
A = 0 1 −1 .
0 2 4

1) Calcoliamo il polinomio caratteristico di A:


 
2−λ 1 0
P (λ) = Det(A − λI) = Det  0 1 − λ −1  .
0 2 4−λ

Si trova

P (λ) = (2 − λ)[(1 − λ)(4 − λ) + 2] = (2 − λ)(λ2 − 5λ + 6).

2) Gli autovalori di A sono gli zeri del suo polinomio caratteristico:

λ1 = 2 (doppio), e λ2 = 3.
54 CAPITOLO 6. DIAGONALIZZAZIONE DI UNA MATRICE QUADRATA

3) Consideriamo prima l’autovalore doppio λ1 = 2. Il relativo autospazio è dato


dalle soluzioni del sistema omogeneo associato alla matrice A − λ1 I, che è
 
0 1 0
A − λ1 I = 0 −1 −1 .
0 2 2
Questa matrice ha rango pari a 2: dunque la molteplicità geometrica di λ1 è gλ1 =
3 − 2 = 1, e l’autovalore non è regolare. Per trovare gli autovettori corrispondenti
risolviamo il sistema omogeneo (A − λ1 I)u = 0. Si trova u = (t, 0, 0) per ogni
t ∈ R, dunque l’autospazio di dimensione 1 è
Vλ1 = span((1, 0, 0)),
e gli autovettori sono u = t(1, 0, 0) con t ̸= 0.
4) Consideriamo ora l’autovalore semplice λ2 = 3. Il relativo autospazio ha per forza
dimensione 1, ed è dato dalle soluzioni del sistema omogeneo associato alla matrice
A − λ2 I, che è  
−1 1 0
 0 −2 −1 .
0 2 1
Risolvendo si trova Vλ2 = span((1, 1, −2)), e gli autovettori sono u = t(1, 1, −2) con
t ̸= 0.

6.2 Criteri di Diagonalizzazione


Definizione. Una matrice A ∈ Mn si dice diagonalizzabile (su R) se esistono una
matrice invertibile P ∈ Mn ed una matrice diagonale D ∈ Mn tali che
P −1 AP = D.
La matrice P si chiama matrice di passaggio e la matrice D forma diagonale di A.

Teorema. Sia A ∈ Mn con n autovettori linearmente indipendenti u1 , . . . , un .


Allora, detta
P = [u1 | . . . |un ],
la matrice P −1 AP è una matrice diagonale e vale
 
λ1
 λ2 
P −1 AP = 


...
λn

dove λi è l’autovalore di A relativo all’autovettore ui , per ogni i = 1, . . . , n.


6.2. CRITERI DI DIAGONALIZZAZIONE 55

Dim. Calcoliamo il prodotto AP


AP = A[u1 | . . . |un ] = [Au1 | . . . |Aun ] = [λ1 u1 | . . . |λn un ].

Osserviamo ora che si puo’ scrivere


 
λ1
 λ2 
[λ1 u1 | . . . |λn un ] = [u1 | . . . |un ] 

 = P Λ,

...
λn

dove chiamiamo Λ la matrice diagonale degli autovalori. Abbiamo appena dimostrato che:

AP = P Λ ovvero P −1 AP = Λ.

Si noti che P è invertibile perchè le sue colonne sono linearmente indipendenti. 


In realtà è facile vedere che vale il viceversa: ovvero che se A è diagonalizzabile (in
R) con matrice di passaggio P , allora le colonne di P sono n autovettori linearmente
indipendenti di A. Si può quindi riformulare la teoria dicendo che:

Primo criterio di diagonalizzabilità. Una matrice A ∈ Mn è diago-


nalizzabile (in R) se e solo se Rn ha una base formata da autovettori di
A.

Secondo criterio di diagonalizzabilità. Una matrice A ∈ Mn è diagonaliz-


zabile (in R) se e solo se ha n autovalori reali (contati con la loro molteplicità)
e ogni autovalore di A è regolare.

In particolare, se A ha n autovalori distinti, allora i corrispondenti n autovettori


sono linearmente indipendenti, e il primo criterio garantisce la diagonalizzabilità di
A.

Una matrice A ∈ Mn con n autovalori tutti distinti è diagonalizzabile.

Esempio. Stabiliamo se è diagonalizzabile la matrice


 
1 −1 0
A = −1 0 1 .
0 1 1
Calcoliamo il polinomio caratteristico:
−λ 1 −1 1
P (λ) = Det(A − λI) = (1 − λ) +1 ,
1 1−λ 0 1−λ
56 CAPITOLO 6. DIAGONALIZZAZIONE DI UNA MATRICE QUADRATA

dunque

P (λ) = (1 − λ)[λ(λ − 1) − 1] + (λ − 1) = (1 − λ)(λ + 1)(λ − 2).

Pertanto gli autovalori di A sono 3:

λ1 = −1, λ2 = 1, λ3 = 2

tutti distinti tra loro, e la matrice è diagonalizzabile.

6.3 Diagonalizzabilità delle matrici simmetriche


Concludiamo riportando un importante risultato di Algebra Lineare, dal quale si
ottiene in particolare che ogni matrice simmetrica è diagonalizzabile.

Teorema Spettrale. Sia A ∈ Mn una matrice (reale) simmetrica. Allora


valgono i fatti seguenti:

• A ha n autovalori reali (contati con la loro molteplicità),

• Rn ammette una base ortonormale formata da autovettori di A.

Esempio Uno. Data la matrice simmetrica appartenente a M3


 
1 −1 0
A = −1 0 1 ,
0 1 1

determiniamo una base ortonormale di R3 formata da autovettori di A.


Dall’esempio precedente sappiamo che gli autovalori sono

λ1 = −1, λ2 = 1, λ3 = 2.

Risolviamo, per i = 1, . . . , 3, i sistemi lineari omogenei

Au − λi u = 0.

Ovvero, per λ1 = −1:


  
2 −1 0 
2u1 − u2 = 0
 
A − λ1 I = −1 1 1 =⇒ −u1 + u2 + u3 = 0


0 1 2 u2 + 2u3 = 0.
6.3. DIAGONALIZZABILITÀ DELLE MATRICI SIMMETRICHE 57

Per λ2 = 1:
  
0 −1 0 
−u2 = 0
A − λ2 I = −1 −1 1 =⇒ −u1 − u2 + u3 = 0


0 1 0 u2 = 0,

e, per λ3 = 2:
  
−1 −1 0 
−u1 − u2 = 0
A − λ3 I = −1 −2 1  =⇒ −u1 − 2u2 + u3 = 0


0 1 −1 u2 − u3 = 0.

Otteniamo
Vλ1 = span(v 1 ), Vλ2 = span(v 2 ), Vλ3 = span(v 3 ),
dove
v 1 = (1, 2, −1), v 2 = (1, 0, 1), v 3 = (1, −1, −1)
sono tre autovettori relativi agli autovalori λ1 , λ2 , λ3 .
Possiamo verificare che, per ogni i, j = 1, 2, 3 tali che i ̸= j,

⟨v, w⟩ = 0, ∀v ∈ Vλi , ∀w ∈ Vλj ,

ovvero gli autovettori corrispondenti ad autovalori distinti sono ortogonali tra loro.
Determiniamo ora

uj ∈ R3 tale che uj ∈ Vλj e ∥uj ∥ = 1.

Si ha:
√ √ √
v1 6 v2 2 v3 3
1
u = 1 = (1, 2, −1), 2
u = 2 = (1, 0, 1), 3
u = 3 = (1, −1, −1).
∥v ∥ 6 ∥v ∥ 2 ∥v ∥ 3

L’insieme {u1 , u2 , u3 } è una base ortonormale di R3 formata da autovettori di A.


X

Definizione. Una matrice U ∈ Mn si dice ortogonale (o unitaria) se

U ⊤ U = I.

(ricordiamo che ⊤ indica la trasposta).


Si osservi che:

• ogni matrice ortogonale è invertibile e U −1 = U ⊤ ,

• il determinante di una matrice ortogonale è uguale a 1 o −1,


58 CAPITOLO 6. DIAGONALIZZAZIONE DI UNA MATRICE QUADRATA

• una matrice U ∈ Mn è ortogonale se e solo se le sue colonne formano una base


ortonormale di Rn .

Esempio. La matrice di rotazione


[ ]
cos α − sin α
Uα = con α ∈ [0, 2π)
sin α cos α

è ortogonale. Infatti, per ogni α ∈ [0, 2π) i vettori u1α = (cos α, sin α) e u2α =
(− sin α, cos α) formano una base ortonormale di R2 . Inoltre,

Det(U α ) = (cos α)2 + (sin α)2 = 1.

Definizione. Una matrice A ∈ Mn si dice diagonalizzabile ortogonalmente se è


diagonalizzabile con matrice di passaggio ortogonale.
Possiamo allora concludere che:

Ogni matrice reale simmetrica è diagonalizzabile ortogonalmente.

Esempio. Consideriamo l’Esempio Uno. La matrice di passaggio


√ √ √ 
√6/6 2/2 √ 3/3
U = [u1 | u2 | u3 ] =  √6/3 √ 0 −√3/3
− 6/6 2/2 − 3/3

che ha per colonne gli autovettori normalizzati di A soddisfa AU = U D, dove


D = Diag(λ1 , λ2 , λ3 ), ed è una matrice ortogonale.
♢ Vale anche il viceversa: se una matrice è digonalizzabile ortogonalmente, allora è
simmetrica (esercizio).
Capitolo 7

Applicazioni lineari

Definizione. Siano X e Y due spazi vettoriali. Una funzione L : X → Y si


dice applicazione lineare se

• L è additiva:

L(x + y) = L(x) + L(y), ∀ x, y ∈ X,

• L è omogenea:
L(tx) = tL(x), ∀ t ∈ R, ∀x ∈ X.

Le due proprietà si riassumono in

L(sx + ty) = sL(x) + tL(y), ∀ x, y ∈ X, ∀s, t ∈ R.

♢ Osserviamo che, per omogeneità, L(0X ) = 0Y .


Esempio. Data una matrice A ∈ Mm,n , la mappa L : Rn → Rm definita da

x 7→ L(x) = Ax

è un’ applicazione lineare da Rn a Rm . Infatti per le proprietà del prodotto matrice-


vettore,
A(sx + ty) = sAx + tAy, ∀ x, y ∈ Rn , ∀s, t ∈ R.

Esercizio. Verificare che la funzione L : R3 → R2 che agisce come

x = (x1 , x2 , x3 ) 7→ L(x) = (2x1 + x2 − x3 , −x1 + 3x2 + x3 ),

59
60 CAPITOLO 7. APPLICAZIONI LINEARI

è un’applicazione lineare. Calcolare L((1, 4, 2)). X


Definizione (Immagine). Si dice immagine di L, e si indica con Im(L), l’insieme
dei vettori appartenenti a Y che sono i trasformati di qualche vettore di X, ovvero

Im(L) = {y ∈ Y t.c. ∃x ∈ X : y = L(x)} .

Definizione (Nucleo). Si dice nucleo di L, e si indica con Ker(L), l’insieme dei


vettori appartenenti a X che hanno come immagine il vettore 0Y ∈ Y , cioè

Ker(L) = {x ∈ X : L(x) = 0Y }.

Sia L : X → Y un’applicazione lineare. Valgono le seguenti proprietà

Teorema.
• Im(L) è un sottospazio di Y .

• Ker(L) è un sottospazio di X.

• Se U = {u1 , . . . , un } è una base di X, Allora il sottospazio Im(L) ⊂ Y è


generato dall’immagine di U, ovvero

Im(L) = span(L(u1 ), . . . , L(un )).

• L’applicazione lineare L è iniettiva se e solo se

Ker(L) = {0}.

Dim. Le prime due sono esercizi semplici. Mostriamo la terza: essendo U una base, ogni
vettore x ∈ X si scrive in modo unico come

n
x= α i ui .
i=1

Per la linearità di L, abbiamo


( )

n ∑
n
L(x) = L α i ui = αi L(ui ).
i=1 i=1

Questo mostra che Im(L) ⊂ span(L(u1 ), . . . , L(un )), e ragionando analogamente si ha


anche l’altra inclusione.
Dimostriamo ora l’ultima affermazione. Ricordiamo che L(0) = 0, dunque se L è iniettiva
per ogni x ̸= 0 risulta Lx ̸= 0, il che significa x ̸∈ Ker(L): quindi Ker(L) = {0}.
Viceversa, sia Ker(L) = {0} e supponiamo per assurdo che L non sia iniettiva, cioè
esistano x1 ̸= x2 ∈ X tali che L(x1 ) = L(x2 ). Per linearità si ha:

L(x1 − x2 ) = 0
7.1. APPLICAZIONI LINEARI E MATRICI 61

e quindi x1 − x2 ∈ Ker(L). Ma l’unico elemento di Ker(L) è 0, da cui x1 − x2 = 0. 

Definizione (Controimmagine). Sia L : X → Y un’applicazione lineare e y ∈ Y .


L’insieme delle controimmagini di y è un sottoinsieme1 di X e si indica col simbolo
L−1 (y):
L−1 (y) = {x ∈ X : L(x) = y}.

Si può dimostrare il seguente (esercizio): supponiamo che esista x̃ ∈ L−1 (y). Allora
L−1 (y) è formato da tutti e soli i vettori della forma

x̃ + v 0 dove v 0 ∈ Ker(L).

Esempio. Data l’applicazione lineare da R2 a R2 definita come

L(x1 , x2 ) = (3x1 + x2 , 0),

troviamo L−1 (2, 0). Si tratta di cercare tutti i vettori x ∈ R2 tali che

L(x1 , x2 ) = (2, 0),

ovvero di risolvere il sistema {


3x1 + x2 = 2
0 = 0.
Si trova x = tv + x0 al variare di t ∈ R, dove x0 = (0, 2) e v = (1, −3) (retta
parallela a v passante per (0, 2)). Notiamo che v è soluzione del sistema omogeneo
associato, ovvero è un elemento di Ker(L).

7.1 Applicazioni lineari e matrici


Sia A = [aij ] ∈ Mm,n una matrice. Possiamo associare ad A l’applicazione lineare

L : Rn → Rm definita da L(x) = Ax.

Ci chiediamo se vale il viceversa: data un’applicazione lineare L : Rn → Rm , esiste


una matrice A ∈ Mm,n tale che

L(x) = Ax ∀x ∈ Rn ?

La risposta ci viene data dal seguente teorema.

1
Non un sottospazio se y ̸= 0.
62 CAPITOLO 7. APPLICAZIONI LINEARI

Teorema di Rappresentazione. Sia L : Rn → Rm un’applicazione lineare.


Allora esiste un’unica matrice A ∈ Mm,n tale che

L(x) = Ax, ∀x ∈ Rn .

Inoltre, la matrice di rappresentazione A è data da


[ ]
A = a1 | a2 | . . . | an dove aj = L(ej ).

♢ Nell’enunciato del teorema si intendono fissate le basi canoniche in Rn e Rm .


Risultato analogo vale se fissiamo basi diverse dalle basi canoniche2 .
∑n
Dim. Sia x = (x1 , . . . , xn ) = j=1 xj e
j ∈ Rn . Per la linearità di L, abbiamo
 

n ∑
n
L(x) = L  xj e j
= xj L(ej ).
j=1 j=1

Osserviamo ora che il termine a destra si puo’ scrivere come


n
xj L(ej ) = Ax,
j=1

per A data dalla formula:


[ ]
A = L(e1 )| L(e2 )| . . . | L(en ) ∈ Mm,n ,

e la dimostrazione è conclusa. 

Osservazione. Per le proprietà generali delle applicazioni lineari si ha

Im(L) = span(L(e1 ), . . . , L(en )).

Quindi
Im(L) = span(a1 , . . . , an )
e i vettori linearmente indipendenti appartenenti a {a1 , . . . , an } formano una base
per Im(L). In particolare:

Dim(Im(L)) = Rank(A).

2
Ovviamente la matrice associata sarà diversa.
7.1. APPLICAZIONI LINEARI E MATRICI 63

Osserviamo poi che per definizione si ha:

Ker(L) = Ker(A).

Dal Teorema di nullità più rango delle matrici otteniamo cosi il

Teorema. Sia L : Rn → Rm un’applicazione lineare. Allora

Dim(Ker(L)) = n − Dim(Im(L)).

Esempio. Data l’applicazione lineare

L : R3 → R2

definita come
L(x, y, z) = (x + 2y + z, y + z),
troviamo la sua immagine e il suo nucleo. Determiniamo prima la matrice di
rappresentazione: [ ]
A = L(e1 )| L(e2 )| L(e3 )
dove

L(e1 ) = L(1, 0, 0) = (1, 0),


L(e2 ) = L(0, 1, 0) = (2, 1),
L(e3 ) = L(0, 0, 1) = (1, 1).

Si trova quindi: [ ]
1 2 1
A=
0 1 1
e
L(x) = Ax.
La dimensione dello spazio immagine di L è pari al rango di A, cioè 2. L’unico
sottospazio di R2 con dimensione 2 è proprio l’intero spazio. Quindi

Im(L) = R2 .

Il nucleo di L ha dimensione 3-2=1, e si trova risolvendo il sistema omogeneo

Ax = 0.

Si trova:
Ker(L) = {tv, t ∈ R} dove v = (1, −1, 1).
64 CAPITOLO 7. APPLICAZIONI LINEARI

7.1.1 Applicazioni lineari iniettive e suriettive


Un’applicazione lineare L : X → Y tra due spazi vettoriali che è sia iniettiva che
suriettiva (ImL = Y ) si dice isomorfismo. Diciamo che uno spazio vettoriale X è
isomorfo a Y se esiste un isomorfismo L da X a Y . Ovviamente un isomorfismo L
è invertibile: si può mostrare che l’inversa L−1 : Y → X è lineare, dunque anch’essa
un isomorfismo, e Dim(X) = Dim(Y ).
Un’applicazione lineare L : Rn → Rm è suriettiva (cioè Im(L) = Rm ) se e solo se

Dim(Im(L)) = Rank(A) = m.

Ricordiamo ora che un’applicazione lineare è iniettiva se e solo se

Ker(L) = {0} ⇐⇒ Dim(Ker(A)) = 0.

Per il Teorema di nullità più rango questo è vero se e solo se

Rank(A) = n.

In particolare,

L : Rn → Rn è iniettiva se e solo se è suriettiva.

7.1.2 Matrici simili


Consideriamo due matrici quadrate simili secondo la seguente definizione:
Definizione. Due matrici A, B ∈ Mn si dicono simili (o equivalenti) se esiste una
matrice invertibile S ∈ Mn tale che B = S −1 AS.
Indichiamo S come
S = [w1 |w2 |...|wn ].
Essendo S invertibile, si ha Det(S) ̸= 0 dunque le colonne di S sono linearmente
indipendenti e costituiscono una base di Rn , che indichiamo con

B = {w1 , . . . , wn }.

Ricordiamo (sezione 3.2.1) che dato un vettore v ∈ Rn , le sue coordinate x =


(x1 , . . . , xn ) rispetto alla base canonica e le sue coordinate x̂ = (x̂1 , . . . , x̂n ) rispetto
alla base B soddisfano la relazione

x̂ = S −1 x.

Consideriamo ora L : Rn → Rn , l’applicazione lineare che ha A come matrice di


rappresentazione rispetto alla base canonica. È facile dimostrare che B = S −1 AS
è la matrice di rappresentazione di L rispetto alla base B.
7.1. APPLICAZIONI LINEARI E MATRICI 65

Infatti, si ha A = SBS −1 e quindi

y = Ax ⇐⇒ y = SBS −1 x ⇐⇒ y = SB x̂,

da cui
S −1 y = B x̂ ⇐⇒ ŷ = B x̂.

Vale anche il viceversa, dunque abbiamo:

Due matrici di Mn sono simili se e solo se rappresentano la stessa applicazione


lineare rispetto a due basi diverse.

Osservazione. Data una matrice diagonalizzabile A con matrice di passaggio P


e forma diagonale D, si osserva che A e D sono matrici simili. Chiamata L la
trasformazione lineare che ha A come matrice di rappresentazione rispetto alla base
canonica di Rn , la matrice diagonale D rappresenta L rispetto alla base di Rn
formata dagli autovettori di A.
Osservazione. Due matrici simili hanno lo stesso rango, determinante e traccia. Si
dice quindi che rango, determinante e traccia sono invarianti per similitudine. Due
matrici simili hanno inoltre lo stesso polinomio caratteristico. Questo fatto comporta
che due matrici simili abbiano anche gli stessi autovalori (esercizio). Non hanno in
generale gli stessi autovettori! Infatti se u è autovettore di A e B = S −1 AS, allora
S −1 u è autovettore di B.
Esempio. Le matrici [ ] [ ]
1 1 1 0
A= e B=
0 2 0 2
[ ]
1 1
sono simili, con matrice S = . Gli autovettori della prima sono t(1, 0) e
0 1
t(1, 1), mentre gli autovettori di B sono t(1, 0) e t(0, 1), al variare di t ∈ R, t ̸= 0.

Potrebbero piacerti anche