Sei sulla pagina 1di 56

Elementi di Algebra Lineare

Appunti (versione beta) per il corso di


Analisi e Geometria 2
A.A. 2019-2020
M. Boella

11 marzo 2020

Indice
1 Spazi vettoriali 4
1.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Combinazioni lineari – Dipendenza e indipendenza lineare . . . . . . . . . . . . 5
1.3 Basi e dimensione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.1 Gli spazi Rn , basi e basi canoniche . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.2 Coordinate di un vettore rispetto ad una base . . . . . . . . . . . . . . . . 9
1.4 Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.1 Sottospazi generati da vettori . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.2 Sottospazi individuati da equazioni . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.3 Sottospazi, dimensione e basi . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5 Intersezione e somma di sottospazi . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2 Matrici 16
2.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2 Matrici particolari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3 Operazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3.1 L’insieme M(n, m) come spazio vettoriale . . . . . . . . . . . . . . . . . . 18
2.3.2 Trasposizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.3 Prodotto tra matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4 Invertibilità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5 Riduzione a scala, il MEG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.6 Rango, spazio riga e spazio colonna . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Appunti di Algebra Lineare — c b Marco Boella 2

3 Determinante di una matrice 24


3.1 Definizione “operativa” di determinante . . . . . . . . . . . . . . . . . . . . . . . . 24
3.2 Proprietà del determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3 Legame tra determinante e rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.4 Determinante e matrice inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

4 Sistemi lineari 28
4.1 Introduzione e terminologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.2 Le soluzioni di un sistema lineare – Sistemi equivalenti . . . . . . . . . . . . . . 29
4.3 Sistemi omogenei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.3.1 Sottospazi, generatori ed equazioni . . . . . . . . . . . . . . . . . . . . . . . 32
4.4 Sistemi completi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.5 Soluzione di un sistema completo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.6 L’algoritmo di Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

5 Trasformazioni lineari 37
5.1 Definizioni preliminari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.2 Nucleo e immagine di una trasformazione lineare . . . . . . . . . . . . . . . . . 38
5.3 Il teorema di “nullità più rango” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5.4 Il teorema di rappresentazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
5.5 Composizione di trasformazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . 42
5.6 La matrice cambiamento di base . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

6 Prodotti scalari — Ortogonalità e distanze 43


6.1 Definizioni preliminari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
6.1.1 Prodotto scalare in termini degli elementi di una base . . . . . . . . . . 45
6.2 Norme, distanze e angoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
6.3 Basi ortogonali e basi ortonormali — Ortogonalizzazione . . . . . . . . . . . . . 47
6.4 Caratteristiche peculiari delle basi ortonormali . . . . . . . . . . . . . . . . . . . 49
6.5 Matrici ortogonali o unitarie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

7 Autovalori e autovettori — Diagonalizzazione 51


7.1 Introduzione e definizioni preliminari . . . . . . . . . . . . . . . . . . . . . . . . . 51
7.2 Ricerca di autovalori e autovettori . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
7.2.1 Il caso complesso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
7.3 Autospazi, molteplicità geometrica e algebrica . . . . . . . . . . . . . . . . . . . . 52
7.4 Similitudine e diagonalizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
7.5 Il caso delle matrici simmetriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
7.6 Forme quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
Avvertenza: Questi appunti non sono un’esposizione esauriente riguardo l’Algebra Lineare, costi-
tuiscono solo un sintetico quadro dei concetti principali.
Appunti di Algebra Lineare — c b Marco Boella 3

c b e d Rilasciata con licenza CreativeCommons Attribution-NonCommercial-ShareAlike 3.0 Italy.


Appunti di Algebra Lineare — c b Marco Boella 4

1 Spazi vettoriali
1.1 Introduzione

Con K intendiamo un generico campo numerico, in generale sarà K = R, ma all’occorrenza


potremo anche incontrare situazioni in cui K = Q, oppure K = C. In questo ambito, gli
elementi di K, cioè i numeri (reali, razionali, complessi. . . ) prendono il nome1 di scalari,
di solito li indicheremo con lettere greche.
Sia V un insieme di oggetti, che denoteremo con u, v, w, . . . Su V siano definite due
operazioni:

• somma, che ad ogni coppia v, w di elementi di V associa l’elemento v + w, ancora


appartenente a V;

• prodotto per uno scalare, che a α ∈ K e a v ∈ V associa l’elemento αv, ancora


appartenente a V.

La circostanza che, dati v, w ∈ V e α ∈ K, anche v + w ∈ V e αv ∈ V si esprime dicendo


che “V è chiuso rispetto alla somma e rispetto al prodotto per uno scalare”.

Definizione 1.1. L’insieme V è detto spazio vettoriale (sul campo K) se è chiuso rispetto
alle operazioni di somma e prodotto per uno scalare, ed inoltre esse verificano le seguenti
proprietà:

S1 proprietà commutativa: per ogni coppia v, w ∈ V si ha v + w = w + v;

S2 proprietà associativa: per ogni terna u, v, w ∈ V si ha u + (v + w) = (u + v) + w;

S3 esistenza dell’elemento neutro: esiste un solo elemento ω ∈ V tale che per ogni
v ∈ V si ha v + ω = v, lo indichiamo con 0 (il vettore nullo);

S4 esistenza dell’opposto: per ogni v ∈ V esiste un solo elemento w ∈ V tale che


v + w = 0, (w si dice opposto di v, lo indichiamo con −v);

P1 proprietà associativa del prodotto: per ogni α, β ∈ K e per ogni v ∈ V si ha (αβ)v =


α(βv);

P2 proprietà distributiva del prodotto rispetto alla somma di vettori: per ogni α ∈ K e
per ogni v, w ∈ V si ha α(v + w) = αv + αw;

P3 proprietà distributiva del prodotto rispetto alla somma di scalari: per ogni α, β ∈ K e
per ogni v ∈ V si ha (α + β)v = αv + βv;

P4 normalizzazzione del prodotto con l’unità di K: per ogni v ∈ V si ha 1v = v.

Osservazione 1.1.Se V è uno spazio vettoriale, dalle proprietà S-P discendono le seguenti

• proprietà di annullamento:
da αv = 0 segue α = 0 oppure v = 0;
1
Che sarà giustificato in seguito
Appunti di Algebra Lineare — c b Marco Boella 5

• proprietà di cancellazione:
1) da v + w = v + u segue w = u,
2) da αv = αw, α 6= 0 segue v = w,
3) da αv = βv, v 6= 0 segue α = β.

Esempio 1.2. 1) Gli insiemi dei vettori del piano e dello spazio, noti dalla Geometria analitica, sono
evidentemente spazi vettoriali (su R).
2) Per ogni n ∈ N, l’insieme Pn [x] dei polinomi di grado minore o uguale a n nell’indeterminata
x a coefficienti reali è uno spazio vettoriale (su R), una volta definiti nel modo usuale la somma di
due polinomi (il polinomio che ha per coefficienti la somma dei coefficienti corrispondenti) ed il
prodotto di un polinomio per un numero α ∈ R (è il polinomio di partenza, con tutti i coefficienti
ordinatamente moltiplicati per α).
3) L’insieme P[x] dei polinomi di grado qualsiasi nell’indeterminata x a coefficienti reali è anch’esso
uno spazio vettoriale (su R).
4) Per ogni n ∈ N, l’insieme dei polinomi di grado n nell’indeterminata x non è uno spazio vettoriale,
perché non è chiuso rispetto alla somma: se due polinomi di grado n hanno il coefficiente di x n
opposto, la loro somma è un polinomio di grado inferiore.
5) Sia I un intervallo chiuso contenuto in R, l’insieme C(I) delle funzioni continue su I è uno spazio
vettoriale (su R); le operazioni sulle funzioni sono definite nel modo consueto:

{f + g}(x) = f(x) + g(x), {αf}(x) = αf(x), ∀x ∈ I.

6) L’insieme delle funzioni R → R periodiche di periodo τ fissato è uno spazio vettoriale (su R). ♦

Esempio 1.3. — Molto importante!


Per ogni n ∈ N, l’insieme Rn delle n-ple di numeri reali:


Rn = x = (x1 , x2 , . . . , xn ), xi ∈ R

è uno spazio vettoriale su R, una volta posto (molto intuitivamente. . . )

x + y = (x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn )

e, per α ∈ R,
αx = α(x1 , x2 , . . . , xn ) = (αx1 , αx2 , . . . , αxn ).

D’ora in avanti, se V è uno spazio vettoriale, chiameremo vettori i suoi elementi. Qualora
usassimo la stessa lettera per indicare diversi vettori, useremo un apice per indicarli (non
si può generare confusione: è impossibile “elevare a potenza” un vettore); ad esempio: tre
diversi vettori di V sono i vettori v1 , v2 , v3 . Inoltre, senza più ripeterlo, assumeremo che
K = R: se vi saranno eccezioni le segnaleremo.

1.2 Combinazioni lineari – Dipendenza e indipendenza lineare

Le operazioni di somma tra vettori e di prodotto per uno scalare, che caratterizzano uno
spazio vettoriale V, permettono di combinare fra loro gli elementi di V.
Appunti di Algebra Lineare — c b Marco Boella 6

Definizione 1.2. È detta combinazione lineare di alcuni vettori v1 , . . . , vk appartenenti a


V una qualsiasi espressione

X
k
α1 v1 + . . . + αk vk = αj vj .
j=1

Allo stesso modo, si chiama “combinazione lineare” anche il risultato dell’operazione:


Definizione 1.3. Si dice che il vettore w ∈ V è combinazione lineare dei k vettori
v1 , . . . , vk ∈ V se esistono k scalari α1 , . . . , αk , tali che w = α1 v1 + . . . + αk vk .

Un concetto cardine di tutta l’Algebra lineare è quello di dipendenza/indipendenza lineare,


argomento delle prossime definizioni.
Definizione 1.4. I vettori v1 , . . . , vk ∈ V si dicono linearmente indipendenti se

α1 v1 + . . . + αk vk = 0 Ñ α1 = . . . = αk = 0.

Definizione 1.5. I vettori v1 , . . . , vk ∈ V si dicono linearmente dipendenti se esistono k


scalari α1 , . . . , αk non tutti nulli tali che

α1 v1 + . . . + αk vk = 0.

Proprietà 1.1. Se k vettori v1 , . . . , vk sono linearmente dipendenti, allora ve n’è (almeno)


uno che può essere scritto come combinazione lineare degli altri.

Dimostrazione: Se v1 , . . . , vk sono linearmente dipendenti, allora vi è almeno


uno scalare ai 6= 0, senza perdere di generalità possiamo pensare che si tratti di
α1 , da α1 v1 + . . . + αk vk = 0 si ricava immediatamente, mettendo in evidenza v1 :
   
α2 αk
v1 = − v2 + . . . + − vk ,
α1 α1

dunque v1 è combinazione lineare dei restanti vettori v2 , . . . , vk . n

Proprietà 1.2. Se il vettore nullo 0 fa parte dell’insieme {v1 , . . . , vk }, allora tali vettori
sono linearmente dipendenti.

Dimostrazione: Esercizio.

L’insieme delle possibili combinazioni lineari di alcuni vettori assegnati prende il nome di
span:
Definizione 1.6. Dati k vettori v1 , . . . , vk , elementi dello spazio vettoriale V, si chiama
span di v1 , . . . , vk l’insieme di tutte le loro combinazioni lineari, in simboli:

span{v1 , . . . , vk } = {v ∈ V|v = α1 v1 + . . . + αk vk };

i vettori v1 , . . . , vk prendono il nome di generatori.

Osserviamo che span{v1 , . . . , vk } è a sua volta uno spazio vettoriale, essendo (la verifica è
immediata) chiuso rispetto alla somma e al prodotto per uno scalare.
Appunti di Algebra Lineare — c b Marco Boella 7

1.3 Basi e dimensione

Definizione 1.7. Sia V uno spazio vettoriale, un insieme di generatori di V che siano
linearmente indipendenti è detto base.

Esempio 1.4. Nell’ambito delle funzioni f : R → R, sia V = span {ex , e−x } lo spazio vettoriale
generato da ex e da e−x , ovviamente {ex , e−x } è una base, così come {Ch x, Sh x}, infatti

αex + βe−x = (α + β) Ch x + (α − β) Sh x.

Proprietà 1.3. Se B = {v1 , . . . , vr } è una base per V, allora ogni vettore w di V può essere
espresso in uno e un solo modo come combinazione lineare degli elementi di B.

Dimostrazione: Che esista almeno una combinazione lineare dei vi che produca
w, è diretta conseguenza del fatto che v1 , . . . , vr generano V.
Che tale combinazione sia unica, discende dal fatto che i vi sono indipendenti,
per assurdo: se ne esistessero due distinte

w = α1 v1 + α2 v2 + . . . + αr vr
w = β1 v1 + β2 v2 + . . . + βr vr ,

sottraendo membro a membro otterremmo

0 = (α1 − β1 )v1 + (α2 − β2 )v2 + . . . + (αr − βr )vr ,

ossia una combinazione lineare dei vi , con coefficienti non tutti nulli, che dà il
vettore nullo, contro l’ipotesi che i vi siano indipendenti. n

Definizione 1.8. Sia {v1 , v2 , . . . , vn } un insieme di elementi di uno spazio vettoriale V, sia
r un intero positivo, con r ≤ n; diremo che {v1 , v2 , . . . , vr } ⊂ {v1 , v2 , . . . , vn } è un sottoin-
sieme massimale di elementi indipendenti se i vettori {v1 , v2 , . . . , vr } sono linearmente
indipendenti, e inoltre per ogni j con r < j ≤ n si ha che i vettori {v1 , v2 , . . . , vr , vj } sono
linearmente dipendenti.

Il concetto di sottoinsieme massimale di elementi è il protagonista dei prossimi due teoremi,


che non dimostreremo. Il primo mostra che un sottoinsieme massimale di generatori
costituisce una base.

Teorema 1.1. Sia V = span v1 , v2 , . . . , vn , se {v1 , v2 , . . . , vr } ⊂ {v1 , v2 , . . . , vn } è un sot-
toinsieme massimale di elementi indipendenti, allora {v1 , v2 , . . . , vr } è una base per
V.

Il seconda afferma che se uno spazio vettoriale ha una base composta da r elementi, allora
il massimo numero di vettori che possono essere presi linearmente indipendenti è r.

Teorema 1.2. Sia V uno spazio vettoriale, e sia B = {v1 , . . . , vr } una base di V. Siano
w1 , . . . , wn n elementi di V con n > r, allora i wi sono linearmente dipendenti.
Appunti di Algebra Lineare — c b Marco Boella 8

L’effetto del teorema precedente consiste nell’affermare che tutte le basi di uno spazio
vettoriale devono avere la stessa numerosità.

Teorema 1.3. Sia V uno spazio vettoriale, siano inoltre Bv = {v1 , . . . , vr } e Bw = {w1 , . . . , ws }
due basi per V. Allora r = s.

Dimostrazione: Applichiamo il teorema precedente alternativamente a ciascuna


delle due basi (considerando l’altra come un insieme qualsiasi di vettori): si
conclude che non può essere né r < s né s < r, dunque r = s. n

Definizione 1.9. Sia V uno spazio vettoriale, si dice che V ha dimensione r (in simboli:
dim V = r) se una (qualsiasi) base di V è costituita da r elementi.
Per definizione, dim{0} = 0.

Alla luce del Teorema 1.2, è immediato mostrare che

In uno spazio vettoriale di dimensione r, qualsiasi insieme


composto da più di r vettori è formato da vettori linearmente
dipendenti.

Osservazione 1.5. Vi sono spazi vettoriali per i quali vale la seguente circostanza: co-
munque presi n vettori v1 , . . . , vn , è sempre possibile trovare un vettore v che non è
combinazione lineare dei vi ; questi spazi vettoriali si dicono avere dimensione infinita.

Esempio 1.6. Un esempio di spazio vettoriale avente dimensione infinita è P[x] (cfr. Esempio
1.2,3). ♦

D’ora in avanti, quando parleremo di spazi vettoriali, ci riferiremo in genere a spazi vettoriali
di dimensione finita.
Una conseguenza dei teoremi precedenti è il seguente: in uno spazio vettoriale di dimen-
sione n una qualsiasi n-pla di vettori può costituire una base.

Teorema 1.4. Sia V uno spazio vettoriale di dimensione n; se v1 , . . . , vn sono linearmente


indipendenti, allora costituiscono una base per V.

Dimostrazione: Sappiamo (Teorema 1.2) che se il numero dei vettori supera la


dimensione di V, i vettori sono linearmente dipendenti, e dunque {v1 , . . . , vn } è
un sottoinsieme massimale, e pertanto è una base per V. n

Infine, abbiamo un teorema che ci autorizza a “completare” un insieme di vettori linear-


mente indipendenti, fino a ottenere una base per il loro spazio vettoriale.

Teorema 1.5. Sia V uno spazio vettoriale con dim V = n. Siano v1 , . . . , vr (con r < n)
vettori linearmente indipendenti. Allora è possibile scegliere in V dei vettori vr+1 , . . . , vn
tali che {v1 , . . . , vn } sia una base per V.
Appunti di Algebra Lineare — c b Marco Boella 9

Dimostrazione: Poiché r < n, per definizione di dimensione,  l’insieme {v1 , . . . , vr }



non è una base di V. Dunque esiste vr+1 6∈ span v1 , . . . , vr , e pertanto i vet-
tori v1 , . . . , vr , vr+1 sono indipendenti, se r + 1 < n, ripetiamo il ragionamento:
{v1 , . . . , vr , vr+1 } non sono una base: esisterà vr+2 . . .
Arriveremo quindi a determinare un insieme {v1 , . . . , vm } di vettori linearmente
indipendenti, per il Teorema 1.2 necessariamente m 6> n, se massimizziamo m
arriveremo a m = n, e pertanto per il Teorema 1.5 {v1 , . . . , vn } è una base per
V.

1.3.1 Gli spazi Rn , basi e basi canoniche

Consideriamo lo spazio vettoriale Rn : in base a quanto abbiamo visto dim Rn = n, e dunque


qualsiasi insieme formato da n vettori linearmente indipendenti è una base per Rn .

Definizione 1.10. Se V = Rn , i vettori


     
1 0 0
0 1 0
e1 =  .  , e2 =  .  , . . . en =  . 
     
..  ..   .. 
0 0 1

costituiscono la base canonica C = {e1 , e2 , . . . , en }.

Osservazione 1.7. In R3 , inteso come ambiente della geometria analitica, e1 = i, e2 = j,


e3 = k, e dunque C = {i, j, k}.

1.3.2 Coordinate di un vettore rispetto ad una base

Sia V uno spazio vettoriale, e sia B = {v1 , . . . , vr } una sua base; possiamo esprimere il
generico vettore w in termini dei vi :

w = α1 v1 + α2 v2 + . . . + αr vr

gli scalari α1 , . . . , αr si dicono coordinate di w rispetto alla base B. In simboli, scriveremo


le coordinate in un “vettore colonna”:
 
α1
   α
 2

w B =  . .
 .. 
αr

Ovviamente, le coordinate cambiano, non solo al cambiare della base, ma anche al cambiare
dell’ordine con cui i vettori vi compaiono in B.
Esempio 1.8. Ritorniamo all’Esempio 1.4: sia V = span {ex , e−x }, e consideriamo le tre basi

B1 = {ex , e−x }, B2 = {e−x , ex } e B3 = {Ch x, Sh x},


Appunti di Algebra Lineare — c b Marco Boella 10

preso l’elemento v = 4ex + e−x , osserviamo che 4ex + e−x = 5 Ch x + 3 Sh x, dunque


     
  4   1   5
v B = , v B = e v B = .
1 1 2 4 3 3

Una volta fissata la base B, le operazioni sui vettori si riconducono a operazioni sui coeffi-
cienti.
Esempio 1.9. Sia V = P2 [x] con B = {x 2 , x, 1}, v = 2x 2 + 3x + 1 e w = x 2 − 5, dunque:
   
  2   1
v B = 3 w B =  0 ,
1 −5

consideriamo la somma: v + w = 3x 2 + 3x − 4, è immediato rendersi conto che


     
3       2 1
 3  = v + w = v + w = 3 +  0  .
B B B
−4 1 −5

In termini più spiccatamente matematici, è possibile affermare che

Ogni spazio vettoriale di dimensione n è (una volta fissata la


base) isomorfo a Rn .

In altre parole: la descrizione di quello che avviene all’interno di un generico spazio vetto-
riale V avente dimensione n è, a patto di fissare una base B, formalmente identica a quello
che accade dentro a Rn .

1.4 Sottospazi vettoriali

Sia V uno spazio vettoriale. Ricordiamo innanzitutto che V è un insieme, è lecito chiedersi
se un sottoinsieme di V ricalchi in sé la struttura di spazio vettoriale.

Definizione 1.11. Dato lo spazio vettoriale V, un suo sottoinsieme W è detto sottospazio


vettoriale (di V) se

• W è non vuoto, cioè W =


6 ∅,

• W è chiuso rispetto alla somma tra vettori,

• W è chiuso rispetto al prodotto per uno scalare.

Osservazione 1.10. In accordo con la definizione, ogni spazio vettoriale V ha perlomeno


due sottospazi: uno è V stesso, l’altro è il sottoinsieme {0} composto dal solo vettore nullo.

Proprietà 1.4. Se W è un sottospazio di V, allora 0 ∈ W.


Appunti di Algebra Lineare — c b Marco Boella 11

Dimostrazione: Se W = {0}, si ha la tesi. Se W =


6 {0}, allora vi è perlomeno
un altro elemento, chiamiamolo w; poiché W è chiuso rispetto al prodotto per
uno scalare, anche −w = (−1)w ∈ W, poiché è chiuso rispetto alla somma,
w + (−1)w = 0 ∈ W. n

La Proprietà 1.4 fornisce un criterio (spesso utile) per stabilire che un dato sottoinsieme
W ⊂ V non è un sottospazio vettoriale: se 0 6∈ W, allora senz’altro W non è un sottospazio
vettoriale di V.

1.4.1 Sottospazi generati da vettori

Abbiamo visto che, presi alcuni vettori v1 , . . . vk di uno spazio vettoriale V, il loro “span”
è a sua volta uno spazio vettoriale, in effetti possiamo dire di più: esso è un sottospazio
vettoriale di V.

Proprietà 1.5. Se i vettori v1 , . . . vk appartengono allo spazio vettoriale V, span{v1 , . . . vk }


è un sottospazio vettoriale di V.

Dimostrazione: Posto W = span{v1 , . . . vk }, osserviamo che W non è vuoto,


poiché contiene perlomeno ciascun vi ; inoltre, W è chiuso rispetto alla somma:
dati w1 , w2 ∈ W, abbiamo per ipotesi w1 = α1 v1 +. . .+αk vk e w2 = β1 v1 +. . .+βk vk ,
e raccogliendo i vettori si vede che la somma w1 + w2 ∈ W, difatti

w1 + w2 = (α1 + β1 )v1 + . . . + (αk + βk )vk ;

infine, W è chiuso rispetto al prodotto per uno scalare: dato w = α1 v1 +. . .+αk vk ,


abbiamo βw = (βα1 )v1 + . . . + (βαk )vk . n

Definizione 1.12. span{v1 , . . . vk } è detto sottospazio vettoriale generato da v1 , . . . , vk . I


vettori v1 , . . . , vk sono i generatori di span{v1 , . . . vk }.

Osservazione 1.11. span{v1 , . . . vk } è il più piccolo sottospazio vettoriale di V contenente


v1 , . . . , vk , nel senso che, se W ⊆ V è un altro sottospazio vettoriale di V che contiene i
vettori v1 , . . . , vk , allora span{v1 , . . . vk } ⊆ W.
Elenchiamo, senza dimostrazione (che potrebbe costituire un utile esercizio!), alcune pro-
prietà utili dei sottospazi generati da vettori.

• Se W è un sottospazio vettoriale di V, e w1 , . . . , wk ∈ W, allora span{w1 , . . . , wk } ⊆ W.

• Se W e U sono sottospazi vettoriali di V, e U contiene un insieme di generatori di


W, allora U contiene W.

1.4.2 Sottospazi individuati da equazioni

Abbiamo visto che, una volta fissata una base, ogni spazio vettoriale di dimensione finita,
diciamo: n, è isomorfo a Rn . Dunque in questo paragrafo ci limiteremo a parlare di Rn .
Appunti di Algebra Lineare — c b Marco Boella 12

Abbiamo già visto che un modo di descrivere un sottospazio è attraverso un insieme di


generatori. Ve n’è anche un altro, ossia usare una o più equazioni lineari omogenee che
legano le componenti dei vettori.
Esempio 1.12. In V = R3 , consideriamo


W = (x, y, z) ∈ R3 : x + 2y − z = 0 ,

per mostrare che W è un sottospazio è sufficiente mostrare che, se


 
x
w = y 
z

è un elemento di V, allora z = x + 2y e quindi


       
x x 1 0
w = y  =  y  = x 0 + y  1 
z x + 2y 1 2

si vede dunque che ogni elemento w di W può essere scritto come combinazione lineare di due
vettori, ossia    
 1 0 
W = span 0 ,  1  ,
 
1 2
e pertanto W è un sottospazio di V. ♦

In generale, è possibile passare da una forma all’altra, ossia (come abbiamo appena fatto)
trovare dei generatori per un sottospazio definito tramite equazioni, oppure l’opposto: asse-
gnati i generatori, trovare l’equazione (o le equazioni) che individuano lo span. Torneremo
nella Sezione 4 su questo fatto.

1.4.3 Sottospazi, dimensione e basi

Quanto abbiamo visto relativamente alle basi e alla dimensione di un generico spazio vetto-
riale V si adatta immediatamente anche ad un suo sottospazio W: un insieme {w1 , . . . , wh } di
generatori di W che siano linearmente indipendenti costituisce una base per W, e dunque
dim W = h.
Ovviamente, tra la dimensione di uno spazio vettoriale e quella di un suo sottospazio vi
sono dei legami. La prima proprietà che vediamo è diretta conseguenza del teorema 1.5.
Proprietà 1.6. Sia V uno spazio vettoriale e W un suo sottospazio, se dim W = dim V
allora W e V coincidono.

Dimostrazione: Sia B = {w1 , . . . , wn } una base di W, poiché n = dim V per il


Teorema 1.5 B è anche una base di V. n

Pertanto, l’unico sottospazio di V avente la stessa dimensione è V stesso.


Conseguenza del Teorema 1.4 è il fatto che, dato qualsiasi sottospazio W di uno spazio
vettoriale V (a dimensione finita), è possibile trovare una base per W.
Appunti di Algebra Lineare — c b Marco Boella 13

Teorema 1.6. Sia V uno spazio vettoriale con dim V = n. Sia W un sottospazio non
composto dal solo vettore nullo, allora W ha una base, e dim W ≤ n.

Dimostrazione: Sia w1 ∈ W, i casi sono due: o {w1 } è massimale (e quindi co-


stituisce una base per W), oppure non lo è; in questo secondo caso esiste un
vettore w2 , indipendente da w1 ; ripetiamo il ragionamento: o {w1 , w2 } è massi-
male (e quindi costituisce una base per W), oppure non lo è; in questo secondo
caso esiste w3 . . .
Grazie al Teorema 1.2, osservato che dim V = n, sappiamo che questo ragio-
namento non può continuare indefinitamente, si arriva pertanto a trovare un
insieme massimale {w1 , . . . , wm } (con m ≤ n).
Per il Teorema 1.4 {w1 , . . . , wm } è una base di W.

1.5 Intersezione e somma di sottospazi

Nel seguito, V è uno spazio vettoriale, U e W sono due suoi sottospazi.


Poiché U e W sono due sottospazi di V, sono anche suoi sottoinsiemi, per le proprietà
degli insiemi la loro intersezione U ∩ W è, ovviamente, anch’essa un sottoinsieme di V. È
lecito porsi la domanda “l’intersezione U ∩ W è anche un sottospazio di V?”, la risposta è
affermativa, come mostrato dalla seguente proprietà.

Proprietà 1.7. U ∩ W, oltre a essere sottoinsieme di V, è un sottospazio vettoriale di V.

Dimostrazione: È sufficiente dimostrare che U∩W è nonvuoto e chiuso rispetto


alla somma ed al prodotto per uno scalare.
Innanzitutto, poiché 0 ∈ U e 0 ∈ W, 0 ∈ U ∩ W, pertanto U ∩ W non è vuoto.
Per quanto riguarda la somma, presi v1 , v2 ∈ U ∩ W:
 
v1 , v2 ∈ U v1 + v2 ∈ U
Ñ Ñ v1 + v2 ∈ U ∩ W,
v1 , v2 ∈ W v1 + v2 ∈ W

e dunque U ∩ W è chiuso rispetto alla somma; per quanto riguarda il prodotto


per uno scalare α ∈ K (R):
 
v∈U αv ∈ U
v∈U∩WÑ Ñ Ñ αv ∈ U ∩ W
v∈W αv ∈ W

quindi U ∩ W è chiuso anche rispetto al prodotto. n

Alla luce di quanto visto, è lecito chiedersi se anche l’unione di sottospazi sia un sottospazio,
la risposta è in genere negativa, basta un esempio.
Esempio 1.13. In V = R2 prendiamo
   
α 2β
U= ,α ∈ R W= ,β ∈ R ,
2α β
Appunti di Algebra Lineare — c b Marco Boella 14

dunque U ∪W è l’insieme di tutti i “vettori del piano” con una delle due componenti uguale al doppio
dell’altra, ma non è chiuso rispetto alla somma:
         
1 2 1 2 3
, ∈ U ∪ W, + = 6∈ U ∪ W.
2 1 2 1 3
ma

Nell’ambito dei sottospazi vettoriali, al posto dell’unione è più importante la somma.


Definizione 1.13. Si chiama somma di U e W il sottoinsieme di V

U + W = {v ∈ V | ∃u ∈ U, w ∈ W tali che v = u + w}.

Proprietà 1.8. Il sottoinsieme U + W è un sottospazio vettoriale di V.

Dimostrazione: Esercizio. . .

Osservazione 1.14. In generale, la decomposizione di un elemento di U + W non è unica:


per ogni v ∈ U + W esistono infinite coppie (u, w) di elementi appartenenti rispettivamente
a U e a W tali che v = u + w.
Esempio 1.15. Sia V = R4 , dati i due spazi vettoriali
U = {(x, y, z, t)|x = y, z = t} W = {(x, y, z, t)|t = −x, z = −y}

osserviamo che (2, 3, 0, 1) ∈ U + W, e

(2, 3, 0, 1) = (1, 1, 2, 2) + (1, 2, −2, −1) = (2, 2, 1, 1) + (0, 1, −1, 0)


∈U ∈W ∈U ∈W

Definizione 1.14. Dato uno spazio vettoriale V e due sottospazi U e W, se per ogni
v ∈ U + W la decomposizione v = u + w è unica, si dice che U + W è somma diretta di
U e W, tale circostanza si indica con

U ⊕ W.

Un’importane proprietà lega somma diretta e intersezione:


Teorema 1.7. Sia V uno spazio vettoriale, U eW due sottospazi di V. Allora

U + W è somma diretta ⇔ U ∩ W = {0}.

Dimostrazione: Ñ – Prendiamo v ∈ U ∩ W, e mostriamo che necessariamente


v = 0:
dal fatto che v ∈ U + W, si ricava che esso dev’essere somma di un elemento
di U e di un elemento di W, possiamo allora scrivere
v = v + 0 = 0 + v,
∈U ∈W ∈U ∈W
Appunti di Algebra Lineare — c b Marco Boella 15

ma la decomposizione è unica, e quindi v = 0. q


⇐ – Preso v ∈ U + W, supponiamo per assurdo che esistano due coppie u ∈
1

U, w1 ∈ W e u2 ∈ U, w2 ∈ W che diano v:

u1 + w1 = v = u2 + w2 ,

dall’uguaglianza u1 + w1 = u2 + w2 si ricava u1 − u2 = w2 − w1 , e dunque i due


vettori u1 −u2 e w2 −w1 devono appartenere all’intersezione U ∩W, che coincide
con {0}, e pertanto u1 = u2 e w1 = w2 , quindi la decomposizione è unica. n

Il prossimo teorema afferma che, se prendiamo un sottospazio U di uno spazio V (di


dimensione finita), esiste un altro sottospazio W che, assieme a U, ricrea tutto V, e la
somma di W e U è una somma diretta.

Teorema 1.8. Sia V uno spazio vettoriale (con dim V = n), e sia U un sottospazio di
V non costituito dal solo vettore nullo; allora esiste un sottospazio W tale che V = U⊕W.

Dimostrazione: Per il Teorema 1.6, è possibile costruire una base {u1 , . . . , um }


per U; grazie al Teorema 1.7 possiamo completarla, ottenendo una base

{u1 , . . . , um , vm+1 , . . . , vn }

per V, ponendo ora W = span vm+1 , . . . , vn abbiamo la tesi. n

La formula di Grassmann2 costituisce un legame tra le dimensioni dei sottospazi

U W U∩W U + W.

Teorema 1.9 (Formula di Grassmann). Dato uno spazio vettoriale V di dimensione finita
e due sottospazi U e W, vale la seguente formula:

dim(U + W) = dim U + dim W − dim(U ∩ W).

Dimostrazione: Caso 1 — dim(U ∩ W) = 0


In virtù del il Teorema 1.8, la somma di U e Wè una somma diretta: U ⊕ W;
prendiamo due basi, rispettivamente di U e di W:

BU = {u1 , . . . , ur } e BW = {w1 , . . . , ws };

ogni elemento v ∈ U + W può essere scritto come

v = u + w = α1 u1 + . . . + αr ur + β1 w1 + . . . + βs ws ,

tale scrittura è unica, perché U + W è somma diretta, pertanto

{u1 , . . . , ur , w1 , . . . , ws }
2
H. G. Grassmann, matematico e linguista tedesco; noto agli studenti del Liceo Classico per la legge di
Grassmann, sulla presenza di due aspirate in due sillabe consecutive di una parola greca.
Appunti di Algebra Lineare — c b Marco Boella 16

è una base per U + W, la cui dimensione è dunque

dim(U + W) = r + s = dim U + dim W,

e in questo caso il teorema è provato q


Caso 2 — dim(U ∩ W) = k > 0
Prendiamo una base per U ∩ W:

BU∩W = {v1 , . . . , vk },

per il Teorema 1.7 possiamo completare BU∩W e ottenere una base per U:

BU = {v1 , . . . , vk , uk+1 , . . . , ur }

ovvero completarla nuovamente ed ottenere una base per W:

BW = {v1 , . . . , vk , wk+1 , . . . , ws };

osserviamo che, per ogni j, wj 6∈ U, pertanto tutti i vettori wj sono indipendenti


dai vettori di BU , analogamente, uj 6∈ W, e quindi tutti i vettori uj sono indipen-
denti dai vettori di BW ; in definitiva, i vettori {v1 , . . . , vk , uk+1 , . . . , ur , wk+1 , . . . , ws },
oltre a generare U + W, sono anche linearmente indipendenti, e dunque for-
mano una base per U + W, quest’ultimo pertanto ha dimensione

r + s − k = dim U + dim W − dim(U ∩ W),

ed il teorema è dimostrato. n

2 Matrici
2.1 Introduzione

Chiamiamo matrice a n righe e m colonne, o anche “matrice n × m” una tabella composta


da n · m numeri (reali, nella quasi totalità dei casi), indicheremo le matrici con le lettere
maiuscole e in grassetto, i corrispondenti elementi con la medesima lettera minuscola,
seguita dai due indici, quello corrispondente alla riga e quello corrispondente alla colonna.
Ad esempio, se  
  1 4 7
A = aij i=1...2,j=1...3 =
0 −1 π
allora a21 = 0, a12 = 4 e così via.
Indichiamo con MK (n, m) l’insieme delle matrici a n righe e m colonne con elementi in un
campo numerico K, poiché in generale useremo numeri reali, sottintendiamo R e scriviamo
semplicemente M(n, m)
Appunti di Algebra Lineare — c b Marco Boella 17

2.2 Matrici particolari

Vettori riga e vettori colonna

Casi particolari di matrici sono quelle formate da una sola riga (e da m colonne), oppure
quelle formate da una sola colonna (e da n righe); sovente ci si riferisce ad esse come a
“vettori riga” e “vettori colonna”. Per esempio, le matrici
 
1
  0
A= 1 2 0 B= 3

−4

sono rispettivamente un “vettore riga” (a 3 componenti) e un “vettore colonna” (a 4 compo-


nenti); ossia A ∈ M(1, 3) e B ∈ M(4, 1).
 
In casi eccezionali, il singolo elemento (per esempio: 5 ) può essere visto come una matrice
a una riga e una colonna.
Data una matrice A, le sue righe/colonne costituiscono altrettanti vettori riga/colonna; indi-
cheremo le righe/colonne di una matrice usando la stessa lettera, aggiungendo tra parentesi
numero della riga/colonna cui facciamo riferimento, in basso per le righe in alto per le
colonne.
Esempio 2.1.Se
 
1 4 7
A= ,
0 −1 π
allora le due righe A(1) e A(2) , e le tre colonne A(1) , A(2) e A(3) sono:
     
1 4 7
A(1) = , A(2) = A(3) =
   
A(1) = 1 4 7 , A(2) = 0 −1 π ; , .
0 −1 π

Matrici quadrate

Se A ∈ M(n, n), si dice che A è una matrice quadrata.


Vi sono casi particolari di matrici quadrate:

• se aij = aji , A è simmetrica,

• se aij = −aji , A è antisimmetrica (e pertanto aii = 0),

• se aij = 0 per ogni i > j, A è triangolare superiore,

• se aij = 0 per ogni i < j, A è triangolare inferiore,

• se aij = 0 per ogni i 6= j, A è diagonale.


Appunti di Algebra Lineare — c b Marco Boella 18

Matrici a scala

Definizione 2.1. La matrice A è detta matrice a scala se verifica due circostanze:

• il primo elemento non nullo di ciascuna riga (il pivot) si trova più a destra del
pivot della riga precedente;

• eventuali righe formate interamente da zeri sono le ultime della matrice.

Esempio 2.2.Date le matrici


     
1 0 0 0 0 0 1 1 0 1 2 0
A = 0 0 −4 5 , B = 0 0 0 0 , C = 1 3 1 1 ,
0 0 0 1 0 0 0 0 0 0 1 0

si nota che A e B sono a scala, mentre C non lo è. ♦

2.3 Operazioni
2.3.1 L’insieme M(n, m) come spazio vettoriale

Definizione 2.2. Date due matrici A, B ∈ M(n, m) (cioè due matrici aventi le medesime
dimensioni) è detta somma la matrice C ∈ M(n, m), ciascun elemento della quale è la
somma dei due corrispondenti elementi di A e B:

cij = aij + bij ∀i = 1 . . . n, j = 1 . . . m.

Definizione 2.3. Data una matrice A ∈ M(n, m) e uno scalare λ, la matrice λA è la


matrice formata da elementi che sono, ciascuno, il prodotto del corrispondente elemento
di A con lo scalare λ:
   
a11 a12 · · · a1m λa11 λa12 · · · λa1m
 a21 a22 · · · a2m   λa21 λa22 · · · λa2m 
λ . .. ..  =  .. .. ..  .
   
. . . . .
 . . . .   . . . . 
an1 an2 · · · anm λan1 λan2 · · · λanm

Osservazione 2.3. Poiché si ripercuotono sulla somma tra numeri reali, la somma di ma-
trici gode delle proprietà S1-S4 della somma tra elementi di uno spazio vettoriale: associa-
tività e commutatività; l’elemento neutro è costituito dalla matrice 0 ∈ M(n, m), composta
interamente da zeri; l’opposto della matrice A è costituito dalla matrice (−1)A = −A, i cui
elementi sono, ciascuno, l’opposto del corrispondente elemento di A.
Il prodotto di uno scalare e una matrice gode delle proprietà P1-P4 del prodotto tra uno
scalare ed un elemento di uno spazio vettoriale: associatività, distributività rispetto alla
somma di scalari e alla somma di matrici, normalizzazione rispetto a 1.
In definitiva:

Per ogni n, m ∈ N, l’insieme M(n, m) è uno spazio vettoriale


(su R), di dimensione dim M(n, m) = n · m.
Appunti di Algebra Lineare — c b Marco Boella 19

Esercizio 2.1.

• Posto V = M(n, n), mostrare che

W1 = {A ∈ M(n, n)|A è triangolare superiore},


W2 = MS (n, n) = {A ∈ M(n, n)|A è simmetrica},
W3 = MA (n, n) = {A ∈ M(n, n)|A è antisimmetrica}

sono sottospazi di V, e indicarne la dimensione.

• Mostrare che ogni matrice quadrata M può essere scritta (in modo univoco) come
M = S + A, con S simmetrica e A antisimmetrica. In altre parole, con i simboli
dell’esercizio precedente, mostrare1 che

M(n, n) = MS (n, n) ⊕ MA (n, n)

• Determinare una base per gli spazi vettoriali M(2, 2) e M(2, 3).

2.3.2 Trasposizione

Definizione 2.4. Sia A ∈ M(n, m), si dice trasposta della matrice A la matrice AT ∈
M(m, n), ottenuta scambiando le righe e colonne di A.
In simboli: se B = AT , allora bij = aji .
 
   T 1 0
1 2 3 1 2 3
Esempio 2.4. Se A = , allora AT = = 2 2 . ♦
0 2 −1 0 2 −1
3 −1

Osservazione 2.5. È immediato rendersi conto che:

• A è simmetrica se e solo se AT = A;

• (AT )T = A;

• la trasposta di un vettore riga è un vettore colonna, e viceversa.

2.3.3 Prodotto tra matrici

Per poter moltiplicare tra loro due matrici A e B, occorre che il numero di colonne del
primo fattore corrisponda al numero di righe del secondo fattore.

Definizione 2.5. Le matrici A ∈ M(m, h) e B ∈ M(k, n) si dicono conformabili se h = k.


1
Notare l’analogia con il fatto che ogni funzione f : R → R può essere scritta come f(x) = fP (x) + fD (x) con
fP , fD : R → R, fP pari (matrici simmetriche) e fD dispari (matrici antisimmetriche).
Appunti di Algebra Lineare — c b Marco Boella 20

Definizione 2.6. Date due matrici conformabili A ∈ M(m, h) e B ∈ M(h, n), la matrice
C ∈ M(m, n) tale che

X
h
cij = aik bkj , i = 1, . . . , m; j = 1, . . . , n
k=1

è detta prodotto di A ∈ M(m, h) per B ∈ M(h, n), in simboli

C = AB.

Prendiamo ora in esame come il prodotto tra matrici agisce sulle righe e colonne dei
suoi fattori, osserviamo innanzitutto che il prodotto di un vettore riga A ∈ M(1, h) per un
vettore colonna B ∈ M(h, 1) (notare che entrambi hanno lo stesso numero di componenti!)
dà come risultato una matrice C = AB ∈ M(1, 1):
 
b1
    .   
c = a1 · · · ah  ..  = a1 b1 + . . . + ah bh .
bh

Se adesso prendiamo due matrici generiche (purché conformabili!), il loro prodotto non è
altro che la matrice i cui elementi sono i prodotti “singola riga” per “singola colonna”:

A(1)
   A B(1) · · · A B(n) 
(1) (1)
  (1) (n)
··· B = .
 ..  . .. 
 .  B  .. . .. .
A(m) A(m) B(1) · · · A(m) B(n)

Il prodotto tra matrici gode di alcune proprietà, di facile dimostrazione.


Proprietà 2.1. Siano A, B e C matrici opportunamente conformabili (secondo le equa-
zioni in cui compaiono), il prodotto tra matrici gode delle proprietà:

• associativa:
(AB)C = A(BC);

• distributiva rispetto alla somma:

(A + B)C = AC + BC e A(B + C) = AB + AC;

• omogeneità rispetto al prodotto per un numero:

A(αB) = (αA)B = α(AB).

Dimostrazione: Esercizio.

Esiste anche un legame tra prodotto e trasposizione:


Proprietà 2.2. Il prodotto delle trasposte di due matrici è la trasposta del prodotto,
effettuato in ordine inverso, in simboli:

(AB)T = BT AT .
Appunti di Algebra Lineare — c b Marco Boella 21

Dimostrazione: Esercizio.

Infine, un posto importante è occupato dalle matrici identità:

Definizione 2.7. È detta matrice identità (a n righe) la matrice In ∈ M(n, n), i cui elementi
sulla diagonale sono tutti uguali a 1, e fuori dalla diagonale tutti nulli:
 
1 0 ··· 0
0 1 · · · 0
In =  . . . .
. . ... 
 
 .. .. 
0 0 ··· 1

Si dimostra infatti che

Proprietà 2.3. Se A ∈ M(n, m) è una generica matrice n × m, allora

In A = AIm = A.

Dimostrazione: Esercizio.

Osserviamo una importantissima circostanza:

Il prodotto tra matrici non è commutativo.

Esempio 2.6. Date le matrici


   
1 2 1 −1 0
A= B= ,
3 4 1 0 1
e

il loro prodotto AB è  
3 −1 2
AB = ,
7 −3 4
mentre B e A non sono neppure conformabili. ♦
Si potrebbe essere indotti a pensare che in un caso come quello appena esposto la “mancata
commutatività” sia dovuta al fatto che B e A non erano conformabili, ma anche tra matrici
quadrate, conformabili per forza, non è garantita la commutatività:
         
1 2 1 −2 3 4 1 −2 1 2 −5 −6
= = .
3 4 1 3 7 6 1 3 3 4 10 14
mentre

2.4 Invertibilità

Immediatamente collegato con l’idea di prodotto, ci si può chiedere se, e in quale modo,
esista l’inversa di una matrice; innanzitutto, il concetto di inversa si applica esclusivamente
a matrici quadrate, non ha senso dunque parlare di inversa di una matrice non quadrata,
vedremo più sotto che, anche tra le matrici quadrate, possedere un’inversa non è garantito.
Appunti di Algebra Lineare — c b Marco Boella 22

Definizione 2.8. La matrice quadrata A ∈ M(n, n) si dice invertibile se esiste una


matrice B ∈ M(n, n) tale che
AB = BA = In .
La matrice B si dice inversa di A.

Osservazione 2.7. Non è detto che una matrice quadrata sia invertibile.
 
1 −2
Esercizio 2.2. Verificare che la matrice
−3 6
non è invertibile.

Dimostriamo innanzitutto la seguente importante proprietà:


Proprietà 2.4. L’inversa di una matrice A, se esiste, è unica.

Dimostrazione: Supponiamo, per assurdo, che esistano due matrici B e C,


entrambe “inverse” di A, poiché C è l’inversa di A, sappiamo che AC = I, dunque

B = BI = B(AC) = BAC,

d’altra parte anche B è l’inversa di A, quindi BA = I, e dunque

C = IC = (BA)C = BAC,

riunendo le due catene di uguaglianze si ha B = C. n

D’ora in avanti, se A è invertibile, indicheremo la sua (unica) inversa con A−1 .


L’inversione gode di due proprietà, che enunciamo senza dimostrarle:
Proprietà 2.5. Se A è invertibile, anche AT è invertibile; inoltre l’inversa della sua
trasposta è la trasposta della sua inversa, in simboli:

(AT )−1 = (A−1 )T .

Proprietà 2.6. Se A, B ∈ M(n, n) sono entrambe invertibili, allora anche il loro pro-
dotto AB è invertibile; inoltre l’inversa del prodotto è il prodotto delle inverse a fattori
scambiati, in simboli:
(AB)−1 = B−1 A−1 .

2.5 Riduzione a scala, il MEG


Definizione 2.9. Chiamiamo operazioni di Gauss, o mosse di Gauss, le due tipologie di
operazioni seguenti:

• sommare a una riga il multiplo di un’altra riga,

• scambiare tra loro due righe.

Chiamiamo Metodo di Eliminazione di Gauss, o MEG, l’applicazione ripetuta alla matrice


A delle operazioni di Gauss.
Vale il seguente importante teorema
Appunti di Algebra Lineare — c b Marco Boella 23

Teorema 2.1 (Metodo di Eliminazione di Gauss). Qualsiasi matrice può essere ridotta a
scala attraverso il MEG, (ossia con l’applicazione delle operazioni di Gauss) in un numero
finito di passi.

Osservazione 2.8. Qualora la riduzione a scala di una matrice sia effettuata con carta
e penna, oltre alle mosse di Gauss, è lecito anche moltiplicare tutti gli elementi di una
stessa riga per una costante. Chiamiamo questa operazione “mossa di comodo”, e qualora
occorra, la consideriamo come se si trattasse di una mossa di Gauss.
Esercizio 2.3. Ridurre a scala la seguente matrice:
 
1 2 −1 0 3 2
 2 4 −2 2 8 5
 .
3 6 −2 4 8 1 
2 4 −1 2 3 −2

Osserviamo che la riduzione a scala non è univoca; si dimostra tuttavia il seguente risultato.
Teorema 2.2. Il numero e la posizione dei pivot di una matrice ridotta a scala sono
indipendenti dalla particolare riduzione ottenuta.
D’ora in avanti, indicheremo con A
e l’effetto del MEG su A, cioè una sua generica riduzione
a scala, in simboli:
MEG
A ÊÏ A. e

2.6 Rango, spazio riga e spazio colonna


Nel paragrafo precedente, affrontando la riduzione a scala, abbiamo visto che il numero
e la posizione dei pivot di una matrice ridotta a scala sono indipendenti dalla particolare
riduzione ottenuta. Da questa circostanza discende un’importante definizione:
Definizione 2.10. È detto rango della matrice A (in simboli: rk A) il numero di pivot
presenti nella riduzione a scala di A.
Il rango di una matrice A è legato a due spazi vettoriali creati partendo da A: lo spazio
riga e lo spazio colonna:
Definizione 2.11. Data A ∈ M(m, n), allora


Row A = span A(1) , . . . , A(m) Col A = span A(1) , . . . , A(n)

sono detti rispettivamente spazio riga e spazio colonna di A.


Osserviamo che Row A è un sottospazio vettoriale di Rn , mentre Col A è un sottospazio
vettoriale di Rm .
Osserviamo inoltre che lo spazio riga di A e lo spazio riga di A
e coincidono, mentre ciò è
falso per quanto riguarda gli spazi colonna, in simboli:
Row A = Row A,
e Col A 6= Col A.
e

Vale il seguente fondamentale teorema, che non dimostriamo:


Appunti di Algebra Lineare — c b Marco Boella 24

Teorema 2.3. Per ogni matrice A,

dim(Row A) = dim(Col A) = rk A.

Conseguenza immediata di esso è il

Corollario 2.1. Per ogni matrice A, si ha

rk A = rk AT .

3 Determinante di una matrice


Del determinante di una matrice quadrata A, esistono diverse definizioni, più o meno astrat-
te. Noi ne daremo una definizione “operativa”: si chiama determinante una cosa che si
calcola così.

3.1 Definizione “operativa” di determinante

Definizione 3.1 (Determinante di una matrice 2 × 2). Data la matrice 2 × 2 A, si chiama


determinante di A il valore
 
a b a b
= ad − bc.
det A = det =
c d c d

Per procedere con matrici di ordine più elevato, introduciamo una apposita terminologia.

Definizione 3.2. Data una generica matrice A, è detto minore il determinante di una
qualsiasi sottomatrice quadrata di A.

Definizione 3.3. Data una matrice quadrata A, è detto minore complementare di un


elemento aij (lo indicheremo con Mij ) il determinante della matrice che si ottiene can-
cellando la riga i-esima e la colonna j-esima della matrice A,
È detto complemento algebrico di aij il numero

Aij = (−1)i+j Mij .

Per passare alla definizione di determinante di una generica matrice quadrata, abbiamo
bisogno del seguente teorema, che ci consente (dimostrato per una matrice 3 × 3) di definire
il determinante di una matrice 3 × 3; una volta definito il determinante di una matrice 3 × 3
questo teorema acquisterà validità anche per le matrici 4 × 4, e coi consentirà di definire il
determinante di una matrice 4 × 4, e così via, in un’alternanza teorema-definizione. . .

Teorema 3.1 (di Laplace). Data A, matrice quadrata n × n, per ogni i, j compresi tra 1 e
n si ha
ai1 Ai1 + ai2 Ai2 + . . . + ain Ain = a1j A1j + a2j A2j + . . . + anj Anj .
Appunti di Algebra Lineare — c b Marco Boella 25

Definizione 3.4. Data una matrice quadrata n × n A, è detto determinante di A il valore


ottenuto da una qualsiasi delle seguenti espressioni2 :
X

 aij Aij = ai1 Ai1 + ai2 Ai2 + . . . + ain Ain ∀i = 1, . . . , n;



 j
det A = oppure

X



 aij Aij = a1j A1j + a2j A2j + . . . + anj Anj ∀j = 1, . . . , n.
i

L’annullarsi o meno del determinante suddivide le matrici in singolari e nonsingolari.


Definizione 3.5. Se det A 6= 0, A si dice nonsingolare; se det A = 0, A si dice singolare.

3.2 Proprietà del determinante


Le proprietà del determinante sono numerose, le elenchiamo (dimostrandole quasi tutte).
Proprietà 3.1. Se A ha una riga/colonna di zeri, det A = 0.

Dimostrazione: È sufficiente calcolare det A rispetto a tale riga/colonna. n

Proprietà 3.2. Scambiando tra loro due righe/colonne di A, det A cambia segno.

Dimostrazione: Agiamo in maniera ricorsiva: per le matrici 2 × 2 è immediato.


Per le matrici 3 × 3, basta calcolare det A rispetto alla riga che non è stata
scambiata.
Analogamente per le 4 × 4, e così via. . . n

Proprietà 3.3. Se A ha due righe/colonne uguali, det A = 0.

Dimostrazione: Scambiando tra loro le due righe/colonne, il determinante


dovrebbe cambiare segno; d’altra parte la matrice non è cambiata e dunque
det A = − det A, pertanto det A = 0. n

Proprietà 3.4. Il determinante è una funzione lineare di ciascuna riga/colonna di A.


Enunciato in dettaglio per la prima riga:
A(1) + A(01)
         0 
λA(1) A(1) A(1) A(1)
 A(2)   A(2)   A   A(2)  A 
(2)  (2) 
det  .  = λ det  .  ,  = det  ..  + det  .  .
       
 ..   .. 
det  ..  .. 
 .   . 
A(n) A(n) A(n) A(n) A(n)

Dimostrazione: Per il prodotto:


   
λA(1) A(1)
 A(2)  Xn X
n  A(2) 
det  .  = (λa1j )A1j = λ a1j A1j = λ det  .  ;
   
 ..   .. 
j=1 j=1
A(n) A(n)
2
Che coincidono, per il teorema di Laplace.
Appunti di Algebra Lineare — c b Marco Boella 26

per la somma:

A(1) + A(01)
 
 A  P
(2) n
 = j=1 (a1j + a10j )A1j
 
det  ..
 . 
A(n)
   0 
A(1) A(1)
Pn Pn 0  A(2) 
 
 A(2) 
 
= j=1 a1j A1j + j=1 a1j A1j = det  .  + det  .  .
 ..   .. 
A(n) A(n)

Proprietà 3.5. Se a una riga/colonna si aggiunge una combinazione lineare delle altre
righe/colonne, il determinante non cambia.

Dimostrazione: Se fissiamo la nostra attenzione sulla prima riga (per le altre


righe e per le colonne il discorso è analogo) e usiamo la linearità:
 P       
A(1) + λi A(i) A(1) A(i) A(1)
 A(2)   A(2)  Xn  A(2)   A(2) 
 = det  ..  + λi det  .  = det  .  .
       
det  ..
   .  .
 .  .
 . 
. i=2
A(n) A(n) A(n) A(n)
| {z }
=0

Proprietà 3.6. det(λA) = λ n det A.

Dimostrazione: È sufficiente applicare la linearità a ciascuna delle righe di A.

Proprietà 3.7. Se una riga/colonna è combinazione lineare delle altre, allora det A = 0.
P
Dimostrazione: Supponiamo che A(1) = λi A(i) , allora
P   
λi A(i) A(i)
 A(2)  X n  A(2) 
det A = det  = λ  ..  = 0.
   
..  i det
   . 
. i=2
A(n) A(n)

Proprietà 3.8. Se A è triangolare, allora det A = a11 · a22 · . . . · ann .

Dimostrazione: Basta usare ricorsivamente le righe/colonne dove compaiono


gli zeri.

Infine, merita di essere citato (senza dimostrazione) il seguente teorema, che lega determi-
nante e prodotto tra matrici.
Teorema 3.2 (di Binet). Se A e B sono entrambe matrici n × n, allora

det AB = det A · det B.


Appunti di Algebra Lineare — c b Marco Boella 27

3.3 Legame tra determinante e rango

Applichiamo il MEG a una matrice quadrata A, trasformandola nella sua “ridotta a scala” A:
e

MEG
A ÊÏ A.
e

Per le proprietà viste, ciascuna mossa di Gauss ha un effetto peculiare sul legame tra det A
e det Ã:

• sommare a una riga il multiplo di un’altra:


lascia invariato il determinante,

• scambiare tra loro due righe:


cambia di segno il determinante.

Per calcolare det A è allora sufficiente ridurla a scala, tenendo traccia di quante volte (siano
esse v) si sono scambiate le righe, e

det A = (−1)v det A.


e

A questo punto, siamo in grado di stabilire il legame tra determinante di A e rango.

Teorema 3.3. Sia A una matrice n × n, allora

det A 6= 0 ⇔ rk A = n.

Dimostrazione: Osserviamo in via preliminare che, se A è quadrata, allora à è


triangolare superiore, e dunque per la Proprietà 3.8

det A = a11 · a22 · . . . · ann .

⇐ — Se il rango di A è n, tutti gli elementi della diagonale sono diversi da zero,


e dunque il loro prodotto (che coincide con il determinante) è diverso da zero.q
Ñ — Per assurdo: se il rango di A fosse inferiore a n, l’ultima riga di A
e sarebbe
necessariamente composta da zeri. n

Sulla base del legame tra determinante e rango di una matrice, possiamo allora enunciare
i due seguenti teoremi:

Teorema 3.4. Sia M ∈ M(m, n), se rk M = r allora

• si può estrarre da M una sottomatrice quadrata r × r con determinante diverso


da zero;

• ogni sottomatrice quadrata estratta da M con più di r righe/colonne avrà determi-


nante nullo.

Teorema 3.5 (di Kronecker). Condizione necessaria e sufficiente affinché M abbia rango
r è che esista una sottomatrice quadrata A di ordine r con det A 6= 0, e che tutte le matrici
di ordine r + 1 ottenute orlando A abbiano determinante nullo.
Appunti di Algebra Lineare — c b Marco Boella 28

3.4 Determinante e matrice inversa

Teorema 3.6. La matrice A è invertibile se e solo se è nonsingolare, in simboli:

A invertibile ⇔ det A 6= 0.

Dimostrazione: Ñ — Se A è invertibile, esiste A−1 e A−1 A = I, per il Teorema


di Binet
det(A−1 ) det A = det I = 1,
per assurdo: se det A = 0 l’uguaglianza qui sopra non ha significato, e pertanto
det A 6= 0. q
⇐ — Se A è nonsingolare, ricordando che Aij è il complemento algebrico
dell’elemento aij , poniamo
 T
A11 A12 . . . A 1n
1  A21
 A22 . . . A2n 
B= ..  ,

 . ..
det A  .. . . 
An1 An2 . . . Ann

e mostriamo che AB = I: sia C = AB, allora


X
n X
n 
1

1 X
n
cij = aik bkj = aik Ajk = aik Ajk ;
det A det A
k=1 k=1 k=1

• se i = j, allora la sommatoria dà det A, e quindi cii = 1;


• se i 6= j, la sommatoria rappresenta il determinante di una matrice con due
righe uguali, e quindi cij = 0. n

4 Sistemi lineari
4.1 Introduzione e terminologia

Dato un sistema lineare di m equazioni in n incognite:




 a11 x1 + a12 x2 + . . . + a1n xn = b1


a21 x1 + a22 x2 + . . . + a2n xn = b2
,


..



.
am1 x1 + am2 x2 + . . . + amn xn = bm

ponendo   
a11 a12 ... a1n   b1
 a21 x1
a22 ... a2n   b2 
A= . ..  , x =  ...  , b= . 
     
..
 .. .   .. 
xn
.
am1 am2 . . . amn bm
Appunti di Algebra Lineare — c b Marco Boella 29

lo stesso sistema si riscrive in forma matriciale:

Ax = b.

Nel seguito, useremo la seguente terminologia

• A ∈ M(m, n) è la matrice dei coefficienti,

• x ∈ M(n, 1) il vettore delle incognite,

• b ∈ M(m, 1) è il vettore dei termini noti;

e chiameremo matrice completa la matrice


 
A|b ∈ M(m, n + 1)

ottenuta orlando la matrice dei coefficienti con il vettore dei termini noti:
 
a11 a12 . . . a1n b1
  a21 a22 . . . a2n b2 
 
A|b =  . .
 ..
.
.. .
.. .. 
.

am1 am2 . . . amn bm

Vi è una possibile “rilettura” del prodotto Ax, come combinazione lineare di colonne di A:
Osservazione 4.1. Siano A ∈ M(m, n) e x ∈ M(n, 1), allora il prodotto Ax può essere visto
come una combinazione lineare (con coefficienti le componenti xi ) delle colonne di A:
     
a11 a12 a1n
 a21   a22   a2n 
Ax = x1  .  + x2  .  + · · · + xn  . 
     
 ..   ..   .. 
am 1 am2 amn

cioè
Ax = x1 A(1) + x2 A(2) + . . . + xn A(n) .
Dalla osservazione precedente, vediamo quindi che a ciascuna colonna di A corrisponde
(nel medesimo ordine) una delle incognite di x.

4.2 Le soluzioni di un sistema lineare – Sistemi equivalenti

Dal punto di vista del numero delle soluzioni, vi sono unicamente tre tipologie di sistemi
lineari:

• sistemi impossibili, che non hanno soluzione, come


    
2 1 x 1
= ;
4 2 y 3
Appunti di Algebra Lineare — c b Marco Boella 30

• sistemi determinati, ossia con una e una sola soluzione, come


    
2 1 x 4
= ,
3 2 y 7

che ammette unicamente la soluzione x = 1, y = 2;

• sistemi indeterminati, con infinite soluzioni, come


    
2 1 x 5
= ;
4 2 y 10

che ammette tutte le soluzioni x = t, y = 5 − 2t, con t ∈ R.

Possiamo escludere che vi siano sistemi con un numero finito e diverso da uno di soluzioni
in virtù della seguente
Osservazione 4.2. Se il sistema Ax = b ammette le due soluzioni x1 e x2 , allora ne è
soluzione ogni vettore della forma

x∗ = λx1 + (1 − λ)x2 , λ ∈ R,

infatti
Ax∗ = A(λx1 + (1 − λ)x2 ) = λAx1 + (1 − λ)Ax2 = λb + (1 − λ)b = b.

Osserviamo inoltre che due sistemi possono (ovviamente!) avere le stesse soluzioni, questa
circostanza merita di essere messa in evidenza:
Definizione 4.1. Due sistemi lineari Ax = b e Cx = d si dicono equivalenti se tutte le
soluzioni del primo sono anche soluzioni del secondo, e viceversa.

Riguardo i sistemi equivalenti, vale il seguente risultato:


Teorema 4.1. Dato un qualunque sistema lineare, se

• si scambiano tra di loro due equazioni,

• ad una equazione, si aggiunge il multiplo di un’altra equazione,

• si moltiplica un’equazione per un coefficiente α 6= 0,

l’insieme delle soluzioni non cambia.

Osserviamo che queste operazioni, sulle equazioni di un sistema, si traducono nelle cor-
rispondenti mosse di Gauss (inclusa la “mossa
  di comodo”: moltiplicare per una costante
α 6= 0) effettuate sulla matrice completa A|b .
Dunque:

il sistema Ax = b è equivalente al sistema Ax e = b,e ove Ae ebe


sono il risultato dih avere
i applicato il MEG alla matrice completa
    MEG
A|b : A|b ÊÏ A| ebe .
Appunti di Algebra Lineare — c b Marco Boella 31

4.3 Sistemi omogenei


Definizione 4.2. Il sistema Ax = 0, ove il termine noto è il vettore nullo, si dice omogeneo.

Osserviamo che il vettore x = 0 è sempre soluzione del sistema Ax = 0, viene detto


soluzione banale.
Teorema 4.2. Sia A ∈ M(m, n), se rk A < n il sistema Ax = 0 ammette soluzioni non
banali. Viceversa, se rk A = n il sistema Ax = 0 ammette unicamente la soluzione
banale x = 0.

Dimostrazione: Se rk A < n, allora le n colonne A(j) di A sono linearmente


dipendenti, pertanto l’uguaglianza

x1 A(1) + x2 A(2) + . . . + xn A(n) = 0

sarà verificata anche con (alcuni) coefficienti xi non nulli. q


Se rk A = n le n colonne A(j) di A sono linearmente indipendenti, e pertanto
l’uguaglianza
x1 A(1) + x2 A(2) + . . . + xn A(n) = 0
implica xi = 0 per ogni i. n

Alla luce di questo teorema, è immediato (esercizio. . . ) dimostrare che:

• se A è una matrice non quadrata, e le colonne sono più delle righe, allora il sistema
Ax = 0 ha in ogni caso infinite soluzioni,

• se A è quadrata, il sistema Ax = 0 ha infinite soluzioni se e solo se det A = 0;

• se A è una matrice non quadrata, e le righe sono più delle colonne, allora il sistema
Ax = 0 ha infinite soluzioni se e solo se il rango di A non è massimo.
Definizione 4.3. Si chiama nucleo della matrice A, e lo si indica con ker A, l’insieme
delle soluzioni del sistema omogeneo Ax = 0, in simboli:

ker A = x ∈ Rn Ax = 0 .

Teorema 4.3. Sia A ∈ M(m, n), allora ker A è un sottospazio vettoriale di Rn .

Dimostrazione: Già sappiamo che A0n = 0, dunque 0n ∈ ker A. Occorre


mostrare che ker A è chiuso rispetto alla somma e al prodotto per uno scalare
λ: infatti, presi x1 , x2 ∈ ker A, si ha:

A(x1 + x2 ) = Ax1 + Ax2 = 0 + 0 = 0,


A(λx1 ) = λ(Ax1 ) = λ0 = 0.

ossia la tesi. n

Il seguente teorema lega la dimensione del nucleo di A con il numero di incognite del
sistema omogeneo e con il rango di A.
Appunti di Algebra Lineare — c b Marco Boella 32

Teorema 4.4. Sia A ∈ M(m, n), e r = rk A, allora dim ker A = n − r.

Dimostrazione: Riduciamo a scala A ottenendo A,


e i due sistemi

Ax = 0 e Ax
e =0

sono equivalenti. Chiamiamo ora variabili dipendenti le r incognite xi sulle cui


corrispondenti colonne si trovano i pivot di A, e e variabili libere le restanti n − r
incognite xi .
Risolviamo Axe = 0 per sostituzione all’indietro: se l’ultimo pivot di A e si trova
sull’n-esima colonna, allora xn = 0, altrimenti avremo un’equazione in cui la
corrispondente incognita può essere vista come combinazione delle incognite
successive (tutte variabili libere).
Risalendo al penultimo pivot, anche in questo caso la corrispondente incognita
sarà funzione delle (eventuali) successive variabili libere. Procedendo a ritroso,
arriveremo a scrivere le r incognite xi che corrispondono ai pivot in funzione
delle n − r variabili libere.
Attribuiamo un parametro λi a ciascuna delle n − r variabili libere: ciascuna
variabile dipendente xi può essere scritta in termini delle variabili libere, cioè
nella forma
xi = αi,1 λ1 + . . . + αi,n−r λn−r .
Per quanto riguarda le variabili libere, ciascuna xj può essere scritta nello stesso
modo, però l’unico coefficiente αj,∗ 6= 0 è quello associato al corrispondente
parametro λ∗ .
Indichiamo ora con vi il vettore dei coefficienti di λi nelle espressioni delle
variabili x, allora il vettore x soluzione di Ax
e = 0 si può scrivere nella forma

x = λ1 v1 + λ 2 v2 + . . . + λn−r vn−r ,

 1 2
e i vettori vi sono per costruzione
linearmente
n−r
indipendenti.
Pertanto ker A = span v , v , . . . , v , inoltre i generatori sono indipendenti,
dunque dim ker A = n − r. n

4.3.1 Sottospazi, generatori ed equazioni

Nella Sezione 1, abbiamo visto che era possibile descrivere un sottospazio vettoriale sia attra-
verso un insieme di generatori, sia attraverso equazioni lineari sulle componenti, era rima-
sto l’interrogativo su come “passare” da un modo all’altro; esaminiamolo ora. Supponiamo,
senza perdere di generalità, che V = Rn , e che W è un sottospazio:

dalle equazioni ai generatori le m equazioni che individuano W sono (necessariamente)


equazioni lineari omogenee, che formano un sistema lineare Ax = 0; dunque usando
la simbologia dei sistemi lineari avremo che

w∈W ⇔ Aw = 0,

in altre parole W = ker A, con la “sostituzione all’indietro” descritta nella dimostra-


zione del Teorema 4.4, arriviamo a determinare n − r vettori (r = rk A), linearmente
indipendenti, che generano (anzi, ne costituiscono una base) W;
Appunti di Algebra Lineare — c b Marco Boella 33

dai generatori alle equazioni ogni equazione lineare è del tipo a1 x1 + . . . + an xn = 0, il


nostro scopo è allora trovare i coefficienti delle equazioni che individuano W, osser-
viamo che, ovviamente, se al posto di x1 , . . . , xn inserissimo le componenti di uno
dei generatori, la suddetta equazione diventerà un’equazione lineare le cui incognite
sono i coefficienti ai , se facciamo lo stesso con tutti i generatori, otterremo un siste-
ma lineare omogeneo nelle incognite a1 , . . . , an alle cui soluzioni corrisponderanno
le equazioni cercate.

Esempio 4.3. Sia V = R4 , vogliamo determinare le equazioni che descrivono il seguente sottospa-
zio:      

 1 2 1 
 −2 −3  1 
W = span  , ,  ,
    1  −2
 1 
 
−1 0 5
se chiamiamo x, y, z, t le coordinate del generico elemento di V, allora W sarà individuato da
equazioni del tipo
ax + by + cz + dt = 0,
se al posto di x, y, z, t usiamo le componenti dei tre generatori, otteniamo tre equazioni:
  
 a

 a − 2b + c − d = 0

1 − 2 1 − 1 b 
2a − 3b + c = 0 ⇔ 2 −3 1 0  c  = 0,


 1 1 − 2 5
a + b − 2c + 5d = 0 d

riducendo a scala la matrice dei coefficienti otteniamo


   
1 −2 1 −1 MEG 1 −2 1 −1
2 −3 1 0  ÊÏ 0 1 −1 2  ,
1 1 −2 5 0 0 0 0

l’ultima equazione non ha più importanza (peraltro, ciò significa che i tre generatori non sono
indipendenti, e dunque la dimensione di W è 2 e non 3, la seconda dà b = c − 2d, inserita nella
prima si ottiene a = c − 3d, in definitiva le soluzioni di questo sistema sono (c e d sono parametri
liberi)        
a c − 3d 1 −3
b c − 2d 
 = c  1  + d  −2 
   
 =
c   c  1 0
d d 0 1
le due quaterne trovate corrispondono ciascuna a un’equazione: W è lo spazio individuato da queste
equazioni:   

 x 

  
y 4
W=   ∈ R : x + y + z = 0, −3z − 2y + t = 0 .

 z 

 
 
t

Appunti di Algebra Lineare — c b Marco Boella 34

4.4 Sistemi completi

Definizione 4.4. Sia b 6= 0, il sistema Ax = b è detto sistema completo, il sistema Ax = 0


è detto sistema omogeneo associato.

La struttura dell’insieme delle soluzioni di un sistema lineare completo è descritta dal


seguente teorema:

Teorema 4.5. Se il sistema Ax = b ammette una soluzione x∗ , tutte e sole le soluzioni di


Ax = b si possono scrivere nella forma x = x∗ + x0 , con x0 ∈ ker A.

Dimostrazione: 1) — Mostriamo che, data un’altra soluzione x∗∗ di Ax = b, la


differenza x∗∗ − x∗ è soluzione di Ax = 0:

A(x∗∗ − x∗ ) = Ax∗∗ − Ax∗ = b − b = 0,

dunque tutte le soluzioni di Ax = b sono della forma x = x∗ + x0 . q



2) — Mostriamo che, se aggiungiamo a x una soluzione x0 di Ax = 0, otteniamo
un’altra soluzione di Ax = b:

A(x∗ + x0 ) = Ax∗ + Ax0 = b + 0 = b;

dunque al variare di x0 ∈ ker A, ogni espressione della forma x∗ + x0 è soluzione


di Ax = b. n

Osservazione 4.4. I Teoremi 4.3 e 4.5 non fanno altro che esprimere, nel linguaggio dei
sistemi lineari, il principio di sovrapposizione:

• ogni combinazione lineare di soluzioni di un sistema omogeneo è ancora soluzione


dello stesso sistema omogeneo,

• la differenza tra due qualsiasi soluzioni di un sistema completo è soluzione del sistema
omogeneo associato.

L’esistenza e il numero di soluzioni di un generico sistema lineare dipendono dal rango della
matrice dei coefficienti e dal rango della matrice completa, secondo il seguente teorema:

Teorema 4.6 (di Rouché-Capelli). Siano A ∈ M(m, n), x ∈ M(n, 1), b ∈ M(m, 1). Allora
1) il sistema Ax = b ammette soluzione se e solo se rk A = rk A|b ;
2) in questo caso, posto r = rk A:
• se r = n il sistema ha una e una sola soluzione;
• se r < n il sistema ha infinite soluzioni, che dipendono da n − r parametri liberi.

Dimostrazione: 1) — Abbiamo visto (Osservazione 4.1) che il prodotto Ax dà


una combinazione lineare delle colonne di A; pertanto se (e solo se) b ∈ Col A
esisteranno opportuni coefficienti xi tali che

x1 A(1) + x2 A(2) + . . . + xn A(n) = b,


Appunti di Algebra Lineare — c b Marco Boella 35

 
poiché rk A = dim Col A, b ∈ Col A se e solo se rk A = rk A|b . q
2) — Sappiamo che due soluzioni di Ax = b differiscono per una soluzione di
Ax = 0.
Se r = n, dim ker A = 0, e dunque ker A = {0}, pertanto la soluzione è unica.
Se r < n, ad una soluzione x∗ di Ax = b posso sommare le soluzioni di Ax = 0,
che dipendono da n − r parametri liberi. n

Osserviamo che il teorema di Rouché-Capelli non fornisce informazioni su come deter-


minare le soluzioni di un sistema lineare. Un primo risultato in questo senso è dato dal
teorema di Cramer:
Teorema 4.7 (di Cramer). Siano A ∈ M(n, n), il sistema Ax = b ammette una e una sola
soluzione per ogni b ∈ M(n, 1) se e solo se A è nonsingolare.
In questo caso si ha
det Bj
xj = ,
det A
ove Bj è la matrice che si ottiene dalla matrice A, sostituendo il vettore b alla j-esima
colonna di A.

Dimostrazione: “Se”: — Supponiamo che A sia nonsingolare.


Se A è nonsingolare, per il Teorema 3.6 è invertibile, dunque da Ax = b, molti-
plicando ambo i membri per A−1 , otteniamo x = A−1 b, pertanto, indipendente-
mente da b, x è univocamente determinato. q
“Solo se”: — Supponiamo che Ax = b abbia un’unica soluzione. Ciò accade se
rk A = n, pertanto det A 6= 0 e A è invertibile. q
Sappiamo ora che x = A−1 b. Sia Bj come nell’enunciato del teorema, allora
possiamo calcolare det Bj rispetto alla colonna j-esima, e ottenere:
P
det Bj b1 A1j + b2 A2j + . . . + bn Anj bi Aij
xj = = = i ,
det A det A det A
se adesso scriviamo il prodotto A−1 b, abbiamo:
   P 
A11 A21 . . . An1 b1 P i bi Ai1
1  A12 A22 . . . An2   b2  1  i bi Ai2 
  
 . .. ..   ..  =  . ,
det A  .. . .   .  det A P .. 
A1n A2n . . . Ann bn i bi Ain

notiamo che la j-esima componente del prodotto A−1 b è


P
i bi Aij
,
det A
che corrisponde al valore di xj precedentemente trovato. n

4.5 Soluzione di un sistema completo


 
Abbiamo visto che Ax = b ha soluzione se e solo se rk A = rk A|b .
Per determinare una soluzione di Ax = b, applichiamo il MEG alla matrice completa
Appunti di Algebra Lineare — c b Marco Boella 36

 
A|b ; attribuendo un generico valore λi alle (eventuali) variabili libere e risolvendo con
sostituzione all’indietro rispetto alle variabili dipendenti si perviene ad un’espressione del
tipo
x = x∗ + λ1 v1 + λ2 v2 + . . . + λn−r vn−r ,
che (come ormai sappiamo) è la somma di una soluzione x∗ di Ax = b e delle (eventuali)
soluzioni x0 = λ1 v1 + λ2 v2 + . . . + λn−r vn−r del sistema omogeneo associato.

4.6 L’algoritmo di Gauss-Jordan


Sia A ∈ M(n, n) una matrice invertibile. Sappiamo che per ogni b ∈ Rn il sistema Ax = b
ammette (un’unica) soluzione.
  h i
Applicando il MEG alla matrice A|b si perviene ad una matrice A|eb
e della forma
 
ã11 ã12 . . . ã1n b̃1
 0 ã22 . . . ã2n b̃2 
..  ,
 
 . .. ..
 .. . . . 
0 0 . . . ãnn b̃n

ove gli elementi ãii sono tutti diversi da zero.


Per determinare la soluzione del sistema, è allora possibile anche dividere ciascuna riga
per il corrispondente ãii , ottenendo dunque una nuova matrice
 
1 ã12 /ã11 . . . ã1n /ã11 b̃1 /ã11
0 1 . . . ã2n /ã22 b̃2 /ã22 
..  .
 
. .. ..
 .. . . . 
0 0 ... 1 b̃n /ãnn

Se a questo punto applichiamo il MEG all’insù, allo scopo di eliminare gli elementi che
si trovano al di sopra dei pivot, arriveremo ad una nuova matrice “completa”, in cui gli
elementi sulla diagonale saranno uguali a 1, e al di fuori della diagonale saranno uguali a
0. A questo punto, al posto del vettore dei termini noti, vi sarà il vettore x, soluzione del
sistema  
1 0 . . . 0 x1
0 1 . . . 0 x2 
..  .
 
 .. .. ..
. . . . 
0 0 . . . 1 xn
In definitiva, sfruttiamo la catena di sistemi equivalenti
MEG MEG all’indietro
Ax = b ÊÏ e =b
Ax e ÊÏ I x = x.

Applichiamo quest’idea al calcolo dell’inversa di A: sia bi ∈ Rn il vettore composto da zeri,


eccetto l’i-esima componente, che vale 1. La soluzione di Ax = bi è data dal vettore colonna
xi che, moltiplicato per A, dà il vettore bi . Costruendo la matrice X data da:
h i
X = x1 x2 . . . xn ,

Appunti di Algebra Lineare — c b Marco Boella 37

ottengo una matrice tale che AX = I, dunque X = A−1 .


Per determinare l’inversa della matrice A, si procede così:
 
• si crea una matrice A|I ∈ M(n, 2n),

• prima applicando
  il MEG, poi applicando il MEG all’indietro, si arriva ad una matrice
della forma I|X ,
• la seconda parte di questa matrice, ossia X, è l’inversa di A.

5 Trasformazioni lineari
5.1 Definizioni preliminari
Definizione 5.1. Siano V e W due spazi vettoriali, la funzione F : V → W è detta
trasformazione lineare o applicazione lineare se verifica due proprietà:

• ∀v1 , v2 ∈ V, si ha F(v1 + v2 ) = F(v1 ) + F(v2 );

• ∀v ∈ V e ∀α ∈ K, si ha F(αv) = αF(v).

Osservazione 5.1. Le due richieste della definizione possono essere compendiate in


un’unica affermazione:

F : V → W è lineare se ∀v1 , v2 ∈ V e ∀α1 , α2 ∈ K, si ha


F(α1 v1 + α2 v2 ) = α1 F(v1 ) + α2 F(v2 ).

Esempio 5.2. Vediamo qualche esempio:


1) Siano V = R3 e W = R2 , la funzione F tale che
 
x  
x + 2y
F(v) = F y  =
3x − y + 2z
z
è una trasformazione lineare (mostrarlo per esercizio. . . ).
2) Siano V = W = R2 , la funzione F tale che
   
x 2xy
F(v) = F =
y 3x − y
non è una trasformazione lineare, infatti
       
3 18 6 1
F = 6= = 3F .
3 6 2 1

3) Siano V = W = R2 , la funzione F tale che


   
x x−y
F(v) = F =
y 2x + y + 1
non è una trasformazione lineare, infatti
       
2 0 0 1
F = 6= = 2F .
2 7 4 1
Appunti di Algebra Lineare — c b Marco Boella 38

4) Siano V = W = C∞ (R), la funzione F che associa ad ogni g(x) ∈ C∞ (R) la sua derivata pri-
ma g 0 (x), ossia: F(g) = g 0 è una trasformazione lineare, per la linearità dell’operazione di
derivazione.

Vale la seguente proprietà, di immediata dimostrazione:

Proprietà 5.1. Se F : V → W è lineare, allora F(0V ) = 0W .

Dimostrazione: Esercizio. . .

Osservazione 5.3. Questa proprietà fornisce un immediato test per escludere che la
funzione F sia lineare: se come nel precedente Esempio 5.2,3) F(0V ) 6= 0W , allora F non
può essere lineare.
D’ora in avanti, indicheremo con L la generica trasformazione lineare. Essendo essa, in
ogni caso, una funzione, è possibile discuterne infettività e suriettività.

Definizione 5.2. La trasformazione lineare L si dice iniettiva se

∀v1 , v2 ∈ V v1 6= v2 ÍÑ L(v1 ) 6= L(v2 ).

La trasformazione lineare L si dice suriettiva se

∀w ∈ W ∃v ∈ V tale che L(v) = w.

Definizione 5.3. Una trasformazione lineare L che è contemporaneamente iniettiva e


suriettiva si dice biiettiva.

Esercizio 5.1. La trasformazione L : C∞ (R) → C∞ (R) tale che L(g) = g 0 è iniettiva? È


suriettiva?

5.2 Nucleo e immagine di una trasformazione lineare

Definizione 5.4. Data L : V → W, è detto nucleo di L l’insieme ker L di tutti i vettori


v ∈ V la cui immagine è il vettore nullo, in simboli


ker L = v ∈ V : L(v) = 0 .

Definizione 5.5. Data L : V → W, è detto immagine di L l’insieme im L di tutti i vettori


w ∈ W che sono immagine di (almeno) un elemento v ∈ V, in simboli


im L = w ∈ W : ∃v ∈ V, L(v) = w .

Osserviamo che
Appunti di Algebra Lineare — c b Marco Boella 39

1) ker L è un sottoinsieme di V: ker L ⊆ V;

2) im L è un sottoinsieme di W: im L ⊆ W.

Nucleo e immagine di una trasformazione lineare godono di alcune importanti proprietà.

Proprietà 5.2. im L è un sottospazio vettoriale di W.

Dimostrazione: 1) — im L non è vuoto: si ha L(0V ) = 0W , dunque 0W ∈ im L.


q
2) im L è chiuso rispetto alla somma: infatti, siano w1 , w2 ∈ im L, allora ∃v1 , v2 ∈
V tali che L(v1 ) = w1 e L(v2 ) = w2 , pertanto

L(v1 + v2 ) = L(v1 ) + L(v2 ) = w1 + w2 ,

e quindi [w1 + w2 ] ∈ im L. q
3) — im L è chiuso rispetto al prodotto per uno scalare: infatti, se w ∈ im L,
∃v ∈ V tale che L(v) = w, dunque

L(αv) = αL(v) = αw,

e quindi αw ∈ im L. n

Proprietà 5.3. ker L è un sottospazio vettoriale di V.

Dimostrazione: 1) — ker L non è vuoto: 0V ∈ ker L. q


2) ker L è chiuso rispetto alla somma: difatti, se v1 , v2 ∈ ker L,

L(v1 + v2 ) = L(v1 ) + L(v2 ) = 0W + 0W = 0W ,

e quindi [v1 + v2 ] ∈ ker L. q


3) — ker L è chiuso rispetto al prodotto per uno scalare: se v ∈ ker L,

L(αv) = αL(v) = α0W = 0W ,

e quindi αv ∈ ker L. n

Proprietà 5.4. L è iniettiva se e solo se dim ker L = 0.

Dimostrazione: Osserviamo che dim ker L = 0 equivale a ker L = {0}.


Se: — Siano v1 , v2 ∈ V tali che L(v1 ) = L(v2 ), allora

L(v1 − v2 ) = L(v1 ) − L(v2 ) = 0W ,

ma, per ipotesi, v1 − v2 = 0V , dunque v1 = v2 e L è iniettiva. q


Solo se: — Sia v ∈ V un vettore tale che L(v) = 0W poiché L(0V ) = 0W per
l’iniettività si ottiene v = 0V . n
Appunti di Algebra Lineare — c b Marco Boella 40

5.3 Il teorema di “nullità più rango”


Teorema 5.1 (di “nullità più rango”). Data una trasformazione lineare L : V → W (con
dimensione finita),
dim V = dim ker L + dim im L.

Dimostrazione: Se l’immagine di L ha dimensione 0 (dim im L = 0), ciò signi-


fica che im L = {0}, pertanto ker L = V, e dim ker L = dim V da cui la tesi, dato
che dim im L = 0. q
Supponiamo ora che l’immagine di L non sia costituita dal solo 0, dunque essen-
do im L un sottospazio di W si avrà dim im L = k, supponiamo che {w1 , w2 , . . . , wk }
sia una base di im L, ciascun wi ∈ im L, dunque per ogni i ∃vi tale che L(vi ) = wi .
Rivolgiamo ora la nostra attenzione a ker L: o dim ker L = h > 0, oppure
dim ker L = 0.
Caso 1: — dim ker L = h > 0, allora esiste {u1 , . . . , uh } base di ker L, per
dimostrare il teorema dobbiamo mostrare che gli h + k vettori

u1 , . . . , uh , v1 , . . . , vk

formano una base per V, e dunque

dim V = h + k = dim ker L + dim im L.

1): i vettori u1 , . . . , uh , v1 , . . . , vk generano V, infatti sia v∗ ∈ V, L(v∗ ) ∈ im L, e


dunque esistono αi tali che

L(v∗ ) = α1 w1 + . . . + αk wk = L(α1 v1 + . . . + αk vk ),

dunque L v∗ − [α1 v1 + . . . + αk vk ] = 0W , e quindi




v∗ − [α1 v1 + . . . + αk vk ] ∈ ker L,

e quindi esistono βj tali che v∗ − [α1 v1 + . . . + αk vk ] = β1 u1 + . . . + βh uh , e


pertanto ∀v∗ ∈ V possiamo scrivere

v∗ = α1 v1 + . . . + αk vk + β1 u1 + . . . + βh uh ,

cioè: u1 , . . . , uh , v1 , . . . , vk generano V.
2) i vettori u1 , . . . , uh , v1 , . . . , vk sono linearmente indipendenti: supponiamo
innanzitutto che

α1 v1 + . . . + αk vk + β1 u1 + . . . + βh uh = 0V ,

trasformando tramite L otteniamo

L(α1 v1 + . . . + αk vk ) = 0W ,

ossia, per linearità, α1 v1 + . . . + αk vk = 0W , ma i vettori vi formano una


base, pertanto sono linearmente indipendenti, e dunque αi = 0 per ogni i,
e la relazione

α1 v1 + . . . + αk vk + β1 u1 + . . . + βh uh = 0V ,
Appunti di Algebra Lineare — c b Marco Boella 41

si riduce a
β1 u1 + . . . + βh uh = 0V ,
ma anche i vettori ui formano una base, dunque si ha anche βj = 0 per
ogni j.

Riassumendo: l’insieme {u1 , . . . , uh , v1 , . . . , vk } è una base per V, che quindi ha


dimensione h + k, in formule

dim V = h + k = dim ker L + dim im L,

che è quanto volevamo dimostrare. q


Caso 2: — dim ker L = 0, si procede allo stesso modo del Caso 1, e si dimostra
che {v1 , . . . , vk } formano una base per V, onde dim V = dim im L. n

Una conseguenza del teorema di nullità più rango riguarda l’iniettività e la suriettività della
trasformazione L:

Corollario 5.1 (del teorema di nullità più rango). Sia L : V → W, allora

• se dim V < dim W, L non può essere suriettiva;

• se dim V > dim W, L non può essere iniettiva;

• se dim V = dim W, L è iniettiva se e solo se è suriettiva.

5.4 Il teorema di rappresentazione

Teorema 5.2 (di rappresentazione). Dati due spazi vettoriali V e W su K, con dim V = n
e dim W = m. Data la trasformazione lineare L : V → W, fissate le basi

BV = {v1 , . . . , vn } BW = {w1 , . . . , wm },

esiste un’unica matrice AL ∈ MK (m, n) tale che: se L(v∗ ) = w∗ allora

AL v∗ B = w∗ B .
   
V W

Definizione 5.6. La matrice AL si dice matrice rappresentativa di L (rispetto alle basi


BV e BW ).

Dimostreremo il teorema di rappresentazione nel caso K = R, il caso K = C è analogo.

Dimostrazione: Per ciascun vj ∈ BV esistono e sono univocamente determi-


nati opportuni coefficienti aij tali che

L(vj ) = a1j w1 + a2j w2 + . . . + amj wm ;


Appunti di Algebra Lineare — c b Marco Boella 42

 
poniamo AL = aij con i = 1, . . . , m e j = 1, . . . , n.
P
Preso il generico v∗ ∈ V, avremo v∗ = αj vj , e dunque
 
X
n Xn X
n X
m
w∗ = L(v∗ ) = L  αj vj  = αj L(vj ) = αj aij wi
j=1 j=1 j=1 i=1
 
X
n X
m X
m X
n X
m
= aij αj wi =  aij αj  wi = βi wi ,
j=1 i=1 i=1 j=1 i=1
P
pertanto ∀i = 1, . . . , m abbiamo βi = aij αj ; posto
   
α1 β1
α= .  β =  . ,
 ..   .. 

αn βm
si ha β = AL α, osservato che α = v B e β = w∗ B
 ∗  
abbiamo la tesi. n
V W

Il teorema di rappresentazione ha conseguenze in termini di caratterizzazione del nucleo


e dell’immagine di L.
Corollario 5.2 (del teorema di rappresentazione). Con i simboli del teorema, si hanno i
seguenti fatti:
• il nucleo di L è formato da tutti e soli i vettori di V le cui coordinate nella base BV
appartengono al nucleo della matrice AL , in simboli:

 
ker L = v ∈ V v B ∈ ker AL ;

V

• l’immagine di L è formata da tutti e soli i vettori di W le cui coordinate nella base


BW appartengono allo spazio colonna della matrice AL , in simboli:

 
im L = w ∈ W w B ∈ Col AL .

W

Osserviamo che quanto abbiamo detto su nucleo e immagine in questo corollario de-
ve in realtà prescindere dalla scelta di BV e BW , ingrediente essenziale del teorema di
rappresentazione.

5.5 Composizione di trasformazioni lineari


Sulla composizione di trasformazioni lineari, valgono i teoremi seguenti, che non dimo-
striamo.
Teorema 5.3. Siano U, V e W tre spazi vettoriali.
Date le trasformazioni lineari L1 : U → V e L2 : V → W, la loro composta
L2 ◦ L1 : U → W
è una trasformazione lineare.
Teorema 5.4. Siano U, V e W tre spazi vettoriali di dimensione finita.
Date le trasformazioni lineari L1 : U → V e L2 : V → W, e fissate BU , BV e BW si ha
AL2 ◦L1 = AL2 AL1 .
Appunti di Algebra Lineare — c b Marco Boella 43

5.6 La matrice cambiamento di base

Sia V uno spazio vettoriale di dimensione n, supponiamo di avere due basi

B = {b1 , . . . , bn } U = {u1 , . . . , un },

preso il generico v ∈ V, ci chiediamo che relazione sussista tra le sue componenti in termini
della base B e in termini della base U, ossia tra i vettori
   
v B e v U.

Esprimiamo ogni vettore della base B in termini di quelli di U:

bj = c1j u1 + c2j u2 + . . . + cnj un

posto CB
 
U = cij con i, j = 1, . . . , n, avremo

v U = CB
   
U v B.

Definizione 5.7. CB
U è detta matrice cambiamento di base, dalla base B alla base U.

Si dimostra il seguente
 −1
Teorema 5.5. La matrice CB B
U è invertibile, e CU = CU
B.

6 Prodotti scalari — Ortogonalità e distanze


6.1 Definizioni preliminari

Definizione 6.1. Dato uno spazio vettoriale V su R, è detto prodotto scalare una regola
che permette di associare ad ogni coppia v, w ∈ V uno scalare, denotato con hv, wi
oppure con v w, in modo che siano soddisfatte le seguenti proprietà:

• commutatività — ∀v, w ∈ V
hv, wi = hw, vi ;

• distributività rispetto alla somma — ∀u, v, w ∈ V

hu + v, wi = hu, wi + hv, wi [e hu, v + wi = hu, vi + hu, wi];

• omogeneità rispetto al prodotto per uno scalare — ∀λ ∈ R; v, w ∈ V

hλv, wi = λ hv, wi [e hv, λwi = λ hv, wi];

• positività — ∀v ∈ V

hv, vi ≥ 0 e hv, vi = 0 ⇔ v = 0.
Appunti di Algebra Lineare — c b Marco Boella 44

Osservazione 6.1. Le condizioni messe tra parentesi nelle proprietà di distributività e di


omogeneità sono ridondanti: possono essere ottenute dalle altre servendosi della commu-
tatività (passaggi segnati con una stella):
F F
hu, v + wi = hv + w, ui = hv, ui + hw, ui = hu, vi + hu, wi ,

e
F F
hv, λwi = hλw, vi = λ hw, vi = λ hv, wi .

Definizione 6.2. Uno spazio vettoriale su R su cui è definito un prodotto scalare si dice
spazio euclideo.

Esempio 6.2.
• Sia V = Rn , posti    
v1 w1
v =  ...  w =  ...  ,
   

vn wn
hv, wi = vT w = v1 w1 + v2 w2 + . . . + vn wn è un prodotto scalare.
• Sia ancora V = Rn , con v e w definiti come sopra; fissati n numeri γ1 , . . . , γn ∈ R, tutti positivi,
anche
hv, wi = γ1 v1 w1 + γ2 v2 w2 + . . . + γn vn wn
è un prodotto scalare.
• Sia V = P2 [x], presi due polinomi di (massimo) secondo grado v(x) e w(x) e presi tre numeri
reali distinti x1 , x2 , x3 , l’espressione

hv, wi = v(x1 )w(x1 ) + v(x2 )w(x2 ) + v(x3 )w(x3 )

è un prodotto scalare.
• Sia V = C[a, b], l’espressione
Zb
hf, gi = f(x)g(x) dx
a

è un prodotto scalare.

Esercizio 6.1. Dimostrare che i prodotti scalari presentati nell’esempio precedente sono
realmente tali.
Appunti di Algebra Lineare — c b Marco Boella 45

6.1.1 Prodotto scalare in termini degli elementi di una base

Grazie alle proprietà del prodotto scalare, è possibile osservare che, se nello spazio euclideo
V è fissata una base B = {u1 , u2 , . . . , un }, il prodotto scalare
P trai due elementi P v e v di Vsi
traduce in un prodotto matriciale. Innanzitutto, posti v = αi u e w = βj uj , osserviamo
DX X E Xn X
che
n D E
i j i j
hv, wi = α i u , β j u = α β
i j u , u ,
i=1 j=1

l’ultima espressione può essere riletta sottoforma di prodotto “righe per colonne”, se co-
struiamo i vettori delle coordinate di v e di w in termini della base B:
   
α1 β1
  α
 2
     β
 2

v B= .  w B =  . ,
 ..   .. 
αn βn

e creiamo la matrice (quadrata e simmetrica) A i cui elementi aij sono i prodotti scalari tra
gli elementi della base:

1 1
1 2
1 n 

u 2, u 1
u2, u 2 · · ·
u2, u n
 u ,u u ,u ··· u ,u 
A=
 
.. .. . . .. 
 . 

n . 1
n . 2 n
.
n
u ,u u ,u · · · hu , u i

X
n X
allora
n D E  
T
αi βj ui , uj = v B A w B .
 
hv, wi =
i=1 j=1

6.2 Norme, distanze e angoli

L’esistenza, su uno spazio vettoriale, di un prodotto scalare porta con sé i concetti di norma,
distanza e angolo.

Definizione 6.3. Sia V uno spazio euclideo, è detta norma (o modulo) del vettore v ∈ V
la quantità q
kvk = hv, vi.

Proprietà 6.1. La norma di un vettore soddisfa le seguenti proprietà:

1) kvk ≥ 0 per ogni v ∈ V, inoltre kvk = 0 ⇔ v = 0;

2) ∀α ∈ R e ∀v ∈ V, kαvk = |α| kvk;

3) disuguaglianza di Cauchy-Schwartz: ∀v, w ∈ V

|hv, wi| ≤ kvk kwk ;


Appunti di Algebra Lineare — c b Marco Boella 46

4) disuguaglianza triangolare ∀v, w ∈ V

kv + wk ≤ kvk + kwk .

Dimostrazione:

1) Immediata, segue dalla positività del prodotto scalare. q


2) Ricordando l’omogeneità del prodotto scalare, abbiamo
q q
kαvk = hαv, αvi = α2 hv, vi = |α| kvk ,

ossia la test. q
3) Prendiamo il vettore v + tw, con t ∈ R, abbiamo

0 ≤ hv + tw, v + twi = hv, vi + 2t hv, wi + t 2 hw, wi ,

questo è un polinomio di secondo grado in t, affinché (rispettando la pro-


prietà 1) debba essere sempre maggiore o uguale a zero è necessario che
il suo discriminante ∆ sia negativo o nullo, ossia

∆ = hv, wi2 − hv, vi hw, wi ≤ 0

da cui q
|hv, wi| ≤ hv, vi hw, wi = kvk kwk ,
ossia la tesi. q
4) Si ha

kv + wk2 = hv + w, v + wi = hv, vi + 2 hv, wi + hw, wi


2
≤ kvk2 + 2 kvk kwk + kwk2 = kvk + kwk ,

da cui la tesi. n

Una volta definita la norma, possiamo farne uso per definire la distanza:
Definizione 6.4. Sia V uno spazio euclideo, la distanza tra elementi di V è

dist(v, w) = kv − wk .

Osservazione 6.3. Si possono definire norme e distanze che non provengono da un pro-
dotto scalare. Si può tuttavia dimostrare che, se la norma proviene da un prodotto scalare,
allora vale l’uguaglianza del parallelogramma:

kv + wk2 + kv − wk2 = 2 kvk2 + 2 kwk2 .

Per ciò che riguarda gli angoli, ricordiamo quanto affermato dalla disuguaglianza di Cauchy-
Schwartz:
∀v, w ∈ V |hv, wi| ≤ kvk kwk .
Appunti di Algebra Lineare — c b Marco Boella 47

Definizione 6.5. In V, spazio euclideo, si definisce angolo compreso tra v e w il valore


θ ∈ [0, π] tale che
hv, wi
c = cos θ =
cos(vw) .
kvk kwk
Immediatamente, ne discende la definizione di ortogonalità:
Definizione 6.6. Due elementi v e w non nulli di V si dicono ortogonali se hv, wi = 0.

Osservazione 6.4. Con una costruzione analoga a quella ottenuta nell’ambito della geome-
tria analitica, si vede che: dati v e w, la proiezione ortogonale di v nella direzione individuata
da w è data da  
hv, wi
vw = w.
hw, wi

6.3 Basi ortogonali e basi ortonormali — Ortogonalizzazione


L’idea di ortogonalità tra vettori risulta particolarmente proficua nell’ambito dell’uso di una
base.
Definizione 6.7. Sia V uno spazio euclideo, la base

B = {b1 , b2 , . . . , bn }

si dice ortogonale se D E
bi , bj = 0 ∀i 6= j.

Definizione 6.8. Sia V uno spazio euclideo, la base

B = {b1 , b2 , . . . , bn }

si dice ortonormale se
D E
bi , bj = 0 ∀i 6= j
i
e b = 1 ∀i.

Ora ci poniamo la seguente domanda: dato un insieme qualsiasi di vettori {v1 , . . . , vn },


è possibile ricavare da esso un altro insieme {w1 , . . . , wm }, tali che i sottospazi generati1
dai due insiemi coincidano? La risposta è affermativa, ed è data dal seguente teorema,
che (nella dimostrazione) fornisce anche un metodo per trovare i vettori w1 , . . . , wm , il
cosiddetto metodo di ortogonalizzazione di Gram-Schmidt.
Teorema 6.1 (Metodo di ortogonalizzazione di Gram-Schmidt). Sia V uno spazio euclideo,
dati n vettori v1 , . . . , vn ∈ V, è possibile ricavare da essi m vettori
w1 , . . . , wm ∈ V tali
che B = {w , . . . , w } è una base ortogonale per span v , . . . , v .
1 m 1 n

Se i vettori v1 , . . . , vn sono linearmente indipendenti, allora m = n; in caso contrario


m < n.
1
A ben vedere, non sussistendo alcuna ipotesi sui vettori vi , può darsi che essi formino un insieme di vettori
non indipendenti, dunque generano span{v1 , . . . , vn }, ma non è detto che ne costituiscano una base, mentre
(si dimostra che) i vettori {w1 , . . . , wm }, in quanto reciprocamente ortogonali, sono indipendenti, e dunque
formeranno una base per span{v1 , . . . , vn }.
Appunti di Algebra Lineare — c b Marco Boella 48

Dimostrazione (non rigorosa): La dimostrazione consiste nel metodo di Gram-


Schmidt. Sia v1 6= 0, poniamo w1 = v1 .
Preso v2 , poniamo
2 1
v ,w
c2,1 = ,
hw1 , w1 i
la differenza v2 − c2,1 w1 può essere o meno nulla, se v2 − c2,1 w1 6= 0, allora
poniamo w2 = v2 − c2,1 w1 , se invece v2 − c2,1 w1 = 0, allora v2 è parallelo a v1 , e
pertanto lo scartiamo.
Procediamo prendendo un vettore vj alla volta.
Al passo k-esimo prendiamo vk , in corrispondenza di tutti i wi già determinati
(siano essi h), poniamo

k i
v ,w
ck,i = , i = 1, . . . , h
hwi , wi i

la differenza
X
h
vk − ck,i wi
i=1
P P
può essere oP meno nulla: se vk − ck,i wi 6= 0, poniamo wh+1 = vk − ck,i wi , se
invece vk − ck,i wi = 0, allora vk è linearmente dipendente dai vj precedenti,
e lo scartiamo.
La procedura termina dopo aver preso vn , calcolato i coefficienti cn,i e (secondo
che vn fosse o meno linearmente indipendente dai precedenti, aggiunto l’ultimo
elemento all’insieme dei wi ; in ogni caso ora abbiamo m vettori w1 , . . . , wm .
Osserviamo che:

1) se i vj erano indipendenti, a ciascun passo abbiamo “creato” un nuovo


vettore wi , dunque m = n;
P
2) se per qualche k è accaduto che vk − i ck,i wi = 0, abbiamo “perso” il
corrispondente vettore, e pertanto m < n.
 
Si dimostra che span w1 , . . . , wm = span v1 , . . . , vn , inoltre i wi sono tra
costruzione, dunque {w , . . . , w } è una base
1 m
 1
loro indipendenti e ortogonali
n
per
ortogonale per span v , . . . , v . n

È immediato passare da una base semplicemente ortogonale ad una base ortonormale:


se a ciascun passo del procedimento di ortogonalizzazione, una volta determinato wi , lo
dividiamo per la sua norma w , la base B = {w1 , . . . , wm } sarà una base ortonormale.
i

Due importanti conseguenze del metodo di Gram-Schmidt

Corollario 6.1. Sia V uno spazio euclideo, data una generica base Bv = {v1 , . . . , vn } è
possibile ricavare una base ortogonale (ortonormale) Bw = {w1 , . . . , wn }.

Corollario 6.2. Sia V uno spazio euclideo, se {w1 , . . . , wh } è una base ortogonale (ortonor-
male) per il sottospazio W, esistono k vettori vh+1 , . . . , vh+k ∈ V tali che {w1 , . . . , wh , vh+1 , . . . , vh+k }
è una base ortogonale (ortonormale) per V.
Appunti di Algebra Lineare — c b Marco Boella 49

Definizione 6.9. Sia W un sottospazio vettoriale di V (spazio euclideo), l’insieme



v ∈ V : hv, wi = 0 ∀w ∈ W
è detto sottospazio ortogonale a W e si indica con W⊥ .
Osserviamo che, con i simboli del Corollario 6.2, il sottospazio di V generato da vh+1 , . . . , vh+k
coincide con W⊥ .
Vale inoltre la seguente (immediata) proprietà:
Proprietà 6.2. V = W ⊕ W⊥ .

Dimostrazione: Esercizio. . .

6.4 Caratteristiche peculiari delle basi ortonormali


Sia V uno spazio euclideo e sia B = {b1 , . . . , bn } una sua generica base, per ogni v ∈ V,
sappiamo che esistono e sono univocamente determinati n scalari tali che
v = α1 b1 + α2 b2 + . . . + αn bn .
Sappiamo però che (nel caso generale) determinare i coefficienti αi non è affatto agevole,
mentre il compito risulta più facile se la base è ortogonale, o addirittura ortonormale, vale
infatti la seguente proprietà:
Proprietà 6.3. Se B è ortogonale, allora
v, bi


αi = i i ;
hb , b i
Se B è ortonormale, allora αi = v, bi .

Se la base B è una base ortonormale, i valori αi = P i




v, b

sono detti coefficienti di Fourier
del vettore v rispetto alla base B. Si ha quindi v = i v, bi bi .
La possibilità di avere una base ortonormale si rivela proficua anche avendo a che fare con
sottospazi: si definisce infatti la proiezione ortogonale di un elemento v su un sottospazio.
Definizione 6.10. Se W è un sottospazio di V, Bw = {w1 , . . . , wk } è una base ortonormale
di W, preso un generico v ∈ V il vettore
XD E
vW = v, wj wj
j

è la proiezione ortogonale di v sul sottospazio W.


Si possono poi dimostrare le seguenti proprietà:
Proprietà 6.4. vW è l’elemento di W a minima distanza da v.
Proprietà 6.5. (v − vW ) è la proiezione ortogonale di v sul sottospazio W⊥ .
Infine, abbiamo osservato (Paragrafo 6.1.1) che l’espressione del prodotto scalare tra due
generici elementi di uno spazio euclideo, una volta fissata una base, può essere vista come
prodotto righe per colonne, se B è ortogonale, allora la matrice A è una matrice diagonale,
se B è ortonormale, allora la matrice A diventa la matrice identità, e dunque
 T  
B ortogonale Ñ hv, wi = v B w B .
Appunti di Algebra Lineare — c b Marco Boella 50

6.5 Matrici ortogonali o unitarie


Definizione 6.11. La matrice U si dice ortogonale (o unitaria) se
UT U = UUT = I.

Le matrici ortogonali godono di alcune propietà importanti, che enunciamo e dimostriamo.


Proprietà 6.6. Se U è una matrice ortogonale, allora:

1) le colonne U(i) di U sono versori, tra loro ortogonali;


2) le righe U(i) di U sono versori, tra loro ortogonali.

Dimostrazione: 1) L’elemento UT U ij è dato dal prodotto U(i)T U(j) = U(i) , U(j) .


 

T
Per ipotesi
sappiamo
(i) (i)
che U U = I, (i)
pertanto:

• se j = i, U , U = 1, quindi U = 1;
• se j 6= i, U(i) , U(j) = 0, e quindi U(i) ⊥ U(j) .


 q
2) La dimostrazione procede in maniera analoga, basta considerare UUT ij . n


Proprietà 6.7. Se U e V sono ortogonali, anche UV lo è.

Dimostrazione: Basta ricordare che la trasposta del prodotto è il prodotto delle


trasposte, in ordine ribaltato, dunque:
(UV)(UV)T = (UV)(VT UT ) = U(VVT )UT = UIUT = UUT = I.

Proprietà 6.8. Se U è ortogonale, allora det U = 1 oppure det U = −1.

Dimostrazione: Sappiamo che det UT = det U; allora usando il teorema di Binet


abbiamo che
1 = det I = det(UT U) = (det UT )(det U) = (det U)2 ,
quindi (det U)2 = 1, e cioè la tesi. n

Proprietà 6.9. Sia U una matrice ortogonale di ordine n, allora

1) ∀x ∈ Rn si ha kUxk = kxk,
2) ∀x, y ∈ Rn , si ha hUx, Uyi = hx, yi.

Dimostrazione: 1) kUxk2 = hUx, Uxi = (Ux)T Ux = xT UT Ux = xT x = kxk2 . q


2) hUx, Uyi = (Ux)T Uy = xT UT Uy = xT y = hx, yi. n

Esercizio 6.2. Mostrare che le matrici unitarie di ordine n = 2 sono necessariamente di


una delle due tipologie
   
cos θ sin θ cos θ sin θ
;
sin θ − cos θ − sin θ cos θ
oppure

come agiscono sul generico vettore (x, y)?


Appunti di Algebra Lineare — c b Marco Boella 51

7 Autovalori e autovettori — Diagonalizzazione


In questa sezione, le matrici di cui ci occuperemo saranno unicamente matrici quadrate.

7.1 Introduzione e definizioni preliminari

La matrice quadrata A può essere vista coma matrice rappresentativa di una trasformazione
lineare Rn → Rn , provvisto (per comodità) della base canonica. Sappiamo che l’effetto di
una trasformazione lineare su un vettore v, ossia v 7Ï Av, è in generale la combinazione di
una rotazione e di una omotetia.
Ci chiediamo: data la generica trasformazione A, esistono vettori che non vengono ruo-
tati da essa? In altre parole, ci chiediamo se, data A, esistano vettori v tali che Av sia
proporzionale a v, cioè in simboli
Av = λv.

Definizione 7.1. Sia A una matrice quadrata di ordine n, se v 6= 0 è un vettore di Rn


per il quale
Av = λv,
v è detto autovettore di A, e λ ne è il corrispondente autovalore.

Osserviamo che, poiché, se v è un autovettore relativo a λ, anche un suo qualsiasi multiplo


kv lo è, con la locuzione “un autovettore” in genere non si indica il singolo vettore, ma
piuttosto la classe di tutti i vettori paralleli a v.

7.2 Ricerca di autovalori e autovettori

Data la generica matrice A, ci chiediamo: come determinare gli autovettori e gli autovalori
di A? Cominciamo con l’osservare che l’uguaglianza Av = λv diventa immediatamente
Av − λv = 0, per poter raccogliere v tra i due addendi occorre notare che λv = λIv, e
dunque ottenere (A − λI)v = 0, dunque

Av = λv ⇔ (A − λI)v = 0.

Dunque, gli autovettori di A saranno le soluzioni nonbanali del sistema lineare omogeneo
(A − λI)v = 0, questa circostanza ci fornisce innanzitutto un metodo per determinare gli
autovalori di A.

Proprietà 7.1. λ è un autovalore per la matrice A se e solo se det(A − λI) = 0.

Dimostrazione: Affinché il sistema omogeneo (A − λI)v = 0 abbia soluzione


v 6= 0, occorre che la soluzione non sia unica, dunque A−λI dev’essere singolare.
n

Definizione 7.2. L’espressione pA (λ) = det(λI − A) è detta polinomio caratteristico di A.


Le radici (reali o complesse) di pA (λ) sono gli autovalori di A.

Si può dimostrare che


Appunti di Algebra Lineare — c b Marco Boella 52

Proprietà 7.2. Per ogni matrice A,


Q P P
λi = det A e λi = aii .

Definizione 7.3. La somma degli elementi della diagonale di A è detta traccia di A, in


simboli X
tr A = aij .

Ricordando la Proprietà 4.8, è immediato provare che


Proprietà 7.3. Se A è triangolare (superiore o inferiore), oppure se A è diagonale, gli
autovalori corrispondono agli elementi della diagonale.

Dimostrazione: Esercizio. . .

Una volta determinati gli autovalori di A, risolvendo i sistemi corrispondenti trovo gli
autovettori associati.
Si dimostra la seguente importante proprietà:
Proprietà 7.4. Autovettori associati ad autovalori distinti sono linearmente indipendenti.

7.2.1 Il caso complesso

Qualora vi siano autovalori complessi, vale la pena di osservare che, poiché si tratta di radici
di un polinomio a coefficienti reali, questi dovranno essere necessariamente complesse
coniugate; si può dimostrare che

se v ∈ Cn è autovettore relativo a λ ∈ C, allora v è un


autovettore relativo a λ.

7.3 Autospazi, molteplicità geometrica e algebrica


Definizione 7.4. È detto autospazio relativo all’autovalore λ ∗ l’insieme

Vλ∗ = v ∈ Rn : Av = λ ∗ v .

Proprietà 7.5. Vλ∗ è un sottospazio vettoriale di Rn .

Dimostrazione: Esercizio. . .

Definizione 7.5. Dato l’autovalore λ ∗ , è detta molteplicità geometrica di λ ∗ la dimensione


del corrispondente autospazio, in simboli:

mg (λ ∗ ) = dim Vλ∗ .

Definizione 7.6. È detta molteplicità algebrica dell’autovalore λ l’ordine con cui λ è radice
del polinomio caratteristico, in simboli:

ma (λ ∗ ) = k se e solo se pA (λ ∗ ) = (λ − λ ∗ )k q(λ),

con q(λ ∗ ) 6= 0.
Appunti di Algebra Lineare — c b Marco Boella 53

Tra molteplicità geometrica e algebrica sussiste un importante legame:


Teorema 7.1. Per ogni autovalore λ ∗ di A,

1 ≤ mg (λ ∗ ) ≤ ma (λ ∗ ).

Definizione 7.7. Un autovalore λ ∗ per cui molteplicità algebrica e geometrica coincidono


è detto regolare.

Pertanto, ogni autovalore che sia radice semplice del polinomio caratteristico, avendo ma =
1, è senz’altro regolare

7.4 Similitudine e diagonalizzazione


Tra le matrici quadrate, esiste una relazione di equivalenza, la cosiddetta similitudine.
Definizione 7.8. Le matrici A e B sono dette simili se esiste una “matrice di passaggio”
invertibile P tale che
P−1 AP = B.
Scriveremo A ∼ B.
Proprietà 7.6. La relazione di similitudine tra matrici è una relazione di equivalenza,
in altre parole essa verifica tre proprietà:
1) [proprietà riflessiva] ogni matrice è simile a sé stessa, ∀A, A ∼ A;
2) [proprietà simmetrica] se A è simile a B, allora B è simile ad A,

A∼B ⇔ B ∼ A;

3) [proprietà transitiva] se A è simile a B, e B è simile a C, allora A è simile a C,



A∼B
Ñ A ∼ C.
B∼C

Dimostrazione: Esercizio. . .

Il fatto che due matrici siano simili, ha effetto sugli autovalori:


Proprietà 7.7. Se A e B sono simili, allora

pA (λ) = pB (λ).

Dimostrazione: Supponiamo che A ∼ B, cioè esiste P nonsingolare tale che


B = P−1 AP, e osserviamo che poiché P−1 P = I allora λI = P−1 λIP, a questo
punto, grazie al teorema di Binet

pB (λ) = det(B − λI) = det(P−1 AP − λI)


= det(P−1 AP − P−1 λIP) = det P−1 (A − λI)P


= det(P−1 ) det(A − λI) det(P) = det(A − λI) = pA (λ)

e dunque i polinomi caratteristici coincidono.


Appunti di Algebra Lineare — c b Marco Boella 54

Particolare interesse per noi rivestono le matrici simili ad una matrice diagonale.
Definizione 7.9. La matrice A è diagonalizzabile se è simile a una matrice diagonale D.

Osserviamo che, in virtù della Proprietà 7.7, se A ∼ D sulla diagonale di D compaiono gli
autovalori di A.
La teoria fornisce una condizione di facile impiego, per stabilire se una matrice sia dia-
gonalizzabile oppure no; inoltre la relativa dimostrazione fornisce anche una regola per
costruire la matrice di passaggio.
Teorema 7.2. La matrice A è diagonalizzabile se e solo se possiede tutti autovalori rego-
lari. In tal caso, detta P la matrice formata da n autovettori linearmente indipendenti,
si ha
P−1 AP = D.

Dimostrazione: Mostriamo che la matrice P, le cui colonne sono gli autovettori


di A, diagonalizza A.
Sia λi l’autovalore relativo a vi , abbiamo
A[v1 |v2 | · · · |vn ] = [λ1 v1 |λ2 v2 | · · · |λn vn ] = [v1 |v2 | · · · |vn ]D = PD,
moltiplicando ambo i membri a sinistra per P−1 , si ottiene la tesi. n

7.5 Il caso delle matrici simmetriche


Nel precedente paragrafo, abbiamo visto che una matrice è diagonalizzabile solo se i suoi
autovalori sono regolari; è però necessaria una ulteriore precisazione: se una matrice
A è una matrice reale (cioè: i suoi elementi sono numeri reali), pur avendo autovalori
regolari, potrebbe non essere diagonalizzabile, se non si specifica l’ambiente nel quale ci
si muove: se una matrice reale ha autovalori complessi (coniugati), essa sicuramente non
sarà diagonalizzabile in R (cioè: se il “terreno di gioco” è R), ma lo sarà in C (ossia in un
altro ambito, nel quale non ci inoltriamo).
Un caso favorevole, e importante!, è dato dalle matrici simmetriche: il teorema spettrale2
fornisce la spiegazione.
Teorema 7.3 (spettrale). Se A è (reale e) simmetrica, allora

• gli autovalori sono tutti reali;

• ogni autovalore è regolare;

• autovettori relativi ad autovalori distinti sono tra loro perpendicolari.

Da esso discende un’immediata conseguenza:


Corollario 7.1 (del teorema spettrale). Se A è (reale e) simmetrica, allora è senz’altro
diagonalizzabile, inoltre la matrice di passaggio può essere scelta ortogonale.
In simboli: se A è (reale e) simmetrica, esiste una matrice ortogonale U (formata da
autovettori di A) tale che
UT AU = D.
2
Spettro è il termine con cui si denota l’insieme degli autovalori di una matrice.
Appunti di Algebra Lineare — c b Marco Boella 55

7.6 Forme quadratiche

Definizione 7.10. Si chiama forma quadratica nelle variabili x1 , . . . , xn un qualsiasi


polinomio omogeneo di secondo grado nelle xi :
X
Q(x) = Q(x1 , . . . , xn ) = cij xi xj

Esempio 7.1. In due sole variabili, la più generica forma quadratica Q(x1 , x2 ) è
  
[x1 x2 ] a b x1
Q(x) = Q(x1 , x2 ) = ax12 + 2bx1 x2 + cx22 = .
b c x2

Esempio 7.2.In tre variabili, la più generica forma quadratica Q(x1 , x2 , x3 ) è


Q(x) = Q(x1 , x2 , x3 ) = ax12 + 2bx1 x2 + cx22 + 2dx1 x3 + 2ex2 x3 + fx32
  
[x1 x2 x3 ] a b d x1 .
= b c e  x2 
d e f x3

Osserviamo che, ad ogni forma quadratica Q in n variabili corrisponde una matrice Q


simmetrica di ordine n; gli elementi qii della diagonale corrispondono ai coefficienti di xi2 ,
gli elementi qij corrispondono alla metà dei coefficienti dei “prodotti misti” xi xj .
Da ora in avanti, il vettore x delle variabili è un vettore colonna. Dunque la generica forma
quadratica può essere scritta come prodotto tra matrici:

Q(x) = Q(x1 , . . . , xn ) = xT Qx.

Siamo interessati al segno di Q; ovviamente Q(0) = 0, cosa si può dire del segno del
polinomio Q(x), quando x 6= 0?

Definizione 7.11. La forma quadratica Q(x) si dice:

• definita positiva se Q(x) > 0 per ogni x 6= 0;

• definita negativa se Q(x) < 0 per ogni x 6= 0;

• semidefinita positiva se Q(x) ≥ 0 per ogni x 6= 0 ed esiste un vettore x∗ 6= 0 tale che


Q(x∗ ) = 0;

• semidefinita negativa se Q(x) ≤ 0 per ogni x 6= 0 ed esiste un vettore x∗ 6= 0 tale che


Q(x∗ ) = 0;

• indefinita se esiste un vettore x∗ tale che Q(x∗ ) > 0 ed esiste un vettore x∗∗ tale che
Q(x∗∗ ) < 0.

Si può dimostrare il seguente, importantissimo


Appunti di Algebra Lineare — c b Marco Boella 56

Teorema 7.4. Il segno della forma quadratica Q(x) dipende dal segno degli autovalori
di Q:

• se λi > 0 per ogni i, Q è definita positiva;

• se λi < 0 per ogni i, Q è definita negativa;

• se λi ≥ 0 per ogni i, e vi è (almeno) un autovalore nullo, Q è semidefinita positiva;

• se λi ≤ 0 per ogni i, e vi è (almeno) un autovalore nullo, Q è semidefinita negativa;

• se esistono due autovalori discordi, Q è indefinita.

Ci poniamo la seguente domanda: è possibile determinare il segno degli autovalori di Q


senza determinare le radici del polinomio caratteristico? (Ossia, senza calcolare effettiva-
mente gli autovalori)
In (parziale) aiuto, ci viene il prossimo teorema, cui, per problemi di terminologia, premet-
tiano una definizione:

Definizione 7.12. Data una matrice quadrata A, chiamiamo minore di Nord-Ovest di


ordine k il determinante Ak della sottomatrice quadrata di ordine k formata dalle prime
k righe e k colonne.

Teorema 7.5. Sia A una matrice quadrata,

• gli autovalori di A sono tutti positivi se ogni minore di Nord-Ovest Ak è positivo;

• gli autovalori di A sono tutti negativi se ogni minore di Nord-Ovest Ak di ordine pari
(k = 2h) è positivo, ed ogni minore di Nord-Ovest Ak di ordine dispari (k = 2h + 1)
è negativo.