Sei sulla pagina 1di 311

Queste note sono prese direttamente dagli appunti delle mie lezio-

ni. Ciò significa che, pur avendo la pretesa di essere rigorose quanto
occorre, ogni tanto sottintendono qualcosa. Per esempio può essere
scritto “data una matrice ad elementi in K” e qui è inteso, anche se
non è esplicitato, che K è un campo.

1
2
Indice

1 Funzioni 7

2 Campi e matrici 15
2.1 Campi . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3 Proprietà delle matrici 25

4 Il campo complesso 33

5 Radici n-esime 41

6 Polinomi a coefficienti reali 49

7 Esercitazione sui numeri complessi 57

8 Spazi vettoriali 67
8.1 Relazioni d’equivalenza . . . . . . . . . . . . . . . . . . 67
8.1.1 Similitudine tra matrici . . . . . . . . . . . . . . 69

3
8.1.2 Equipollenza tra segmenti orientati . . . . . . . 70
8.2 Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . 72
8.2.1 Esempi di spazio vettoriale . . . . . . . . . . . . 74

9 Sottospazi 77

10 Somma di due sottospazi 83

11 Dipendenza lineare 89

12 Basi di uno spazio vettoriale 95

13 Concetto di dimensione 103

14 Ancora su basi e dimensione 109

15 Funzioni lineari 121

16 Funzioni lineari e matrici 129

17 Il teorema delle dimensioni 137


17.1 Ancora su funzioni lineari e matrici . . . . . . . . . . . 137
17.2 Il teorema delle dimensioni . . . . . . . . . . . . . . . . 141

18 Funzioni lineari e dipendenza 147

19 Teoria dei sistemi lineari 155


19.1 Rango di una matrice . . . . . . . . . . . . . . . . . . . 155
19.2 Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . 158

20 Procedimento di eliminazione Gaussiana 165


20.1 Applicazioni . . . . . . . . . . . . . . . . . . . . . . . . 169

21 Esercizi su eliminazione Gaussiana 173

4
22 Forma canonica speciale 181
22.1 Applicazioni . . . . . . . . . . . . . . . . . . . . . . . . 182
22.2 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . 185

23 Determinante 189

24 Proprietà del determinante 197

25 Autovalori ed autovettori 205

26 Il teorema di diagonalizzabilità 213

27 Diagonalizzabilità di matrici 221

28 Esercitazione sulla diagonalizzabilità 229

29 Geometria 239

30 Parallelismo - forme bilineari 249


30.1 Parallelismo . . . . . . . . . . . . . . . . . . . . . . . . 249
30.2 Forme bilineari simmetriche . . . . . . . . . . . . . . . 252

31 Ortogonalità 257

32 Procedimento di Gram-Schmidt 265

33 Distanza 275

34 Il teorema spettrale 285

35 Altre proprietà metriche 293


35.1 Cambiamenti di riferimento cartesiano . . . . . . . . . 295
35.2 Esercizi di geometria . . . . . . . . . . . . . . . . . . . 296

5
Appendice A Soluzioni dei compiti 303

6
Lezione 1

Funzioni

Se α : A → B è una funzione e b ∈ B, cosa s’intende per α−1 (b)?

Insiemi numerici:

• insieme dei numeri naturali N = {0, 1, 2, . . .};

• insieme dei numeri interi Z = {0, 1, −1, 2, −2, . . .};

• insieme dei numeri razionali Q = {x | ∃m, n ∈ Z : n 6= 0, x =


m
n };

• insieme dei numeri reali R;

• insieme dei numeri irrazionali R \ Q;

• insieme dei numeri complessi C (vedremo in seguito).

Vale N ⊆ Z ⊆ Q ⊆ R ⊆ C.

7
Notazioni 1.1. • N∗ = N \ {0} = {1, 2, 3, . . .};
• Z∗ = Z \ {0}; Q∗ , R∗ , C∗ sono definiti analogamente;
• Z+ = {n ∈ Z | n > 0} = N∗ ;
• Q+ , R+ sono definiti analogamente;
• non esiste nessun C+ !
Alcuni sottoinsiemi di R sono gli intervalli.
Notazioni 1.2. Siano a, b ∈ R tali che a < b.
• Intervallo chiuso [a, b] = {x ∈ R | a ≤ x ≤ b}.
• Intervallo aperto ]a, b[= {x ∈ R | a < x < b}. (Anche denotato
con (a, b).)
• Intervallo chiuso a sinistra e aperto a destra [a, b[= {x ∈ R | a ≤
x < b}. (Anche denotato con [a, b).)
• ]a, b] si definisce similmente.
• Intervallo chiuso [a, +∞] = {x ∈ R | x ≥ a}.
• Intervallo aperto ]a, +∞] = {x ∈ R | x > a}. (Anche denotato
con (a, +∞).)
• ] − ∞, b], ] − ∞, b[ si definiscono in modo simile. Infine,
] − ∞, +∞[= R.
Definizione 1.3. Siano A e B due insiemi. Una funzione (o applica-
zione) di A in B è individuata da una legge che ad ogni elemento di A
associa un ben determinato elemento di B.
Notazione 1.4. α : A → B.
A si dice dominio della funzione α, B si dice codominio di α.

8
 La parola “codominio” può avere significato diverso da quello che
conoscete.

Osservazione 1.5. Una funzione consiste di tre oggetti: dominio,


codominio, legge.

Per descrivere una funzione (ad esempio: la funzione di R in R che


ad ogni x ∈ R associa il suo quadrato) abbiamo due possibilità, come
segue:

• f : R → R def. da f (x) = x2 , oppure

• f : R → R : x 7→ x2 .

Definizione 1.6. Data una funzione α : A → B, l’elemento associato


da α ad x ∈ A si chiama immagine di x mediante α e si denota con
α(x).

Le definizioni che seguono si riferiscono ad una generica funzione


α : A → B.

Definizione 1.7. Dato I ⊆ A, l’immagine di I mediante α è α(I) =


{α(x) | x ∈ I}.

Definizione 1.8. L’immagine della funzione α : A → B è

im α = α(A) = {α(x) | x ∈ A}.

Definizione 1.9. Dato J ⊆ B l’antiimmagine (o controimmagine) di


J mediante α è
α−1 (J) = {x ∈ A | α(x) ∈ J}.

9
Definizione 1.10. Dato b ∈ B, l’antiimmagine di b mediante la fun-
zione α : A → B è

α−1 (b) = α−1 ({b}) = {x ∈ A | α(x) = b}.

Risposta alla domanda iniziale. α−1 (b) è l’insieme  di tutti gli


x ∈ A tali che α(x) = b.

Esempi 1.11. Con riferimento a f : R → R : x 7→ x2 ,


• f (7) = 49;
• f (] − 1, 3[) = {f (x) | −1 < x < 3} = [0, 9[;
• im f = [0, +∞[;
• f −1 (] − 4, 9]) = [−3, 3];
• f −1 (25) = {−5, 5};
• f −1 (−9) = ∅.

Definizione 1.12. Una funzione α : A → B si dice iniettiva se

∀x, y ∈ A : (α(x) = α(y) ⇒ x = y).

Si legge: “Per ogni x e y in A, se α di x è uguale ad α di y, allora


x = y.”
Esempio 1.13. Dimostriamo che la funzione g : R → R : x 7→ x3 + 1
è iniettiva. Infatti, consideriamo x, y ∈ R tali che g(x) = g(y). Segue:

x3 + 1 = y 3 + 1 ⇒ x3 − y 3 = 0 ⇒ (x − y)(x2 + xy + y 2 ) = 0.

10
Il secondo fattore è un polinomio in x con ∆ = −3y 2 e quindi si annulla
solo per y = 0 = x. Se tale caso non si presenta, allora è nullo il primo
fattore x − y e se ne deduce x = y. In ciascun caso da g(x) = g(y)
segue x = y. Quindi g è iniettiva.

Esempio 1.14. f : R → R : x 7→ x2 non è iniettiva, perché f (1) =


f (−1) ma 1 6= −1.

Osservazione 1.15. Come principio, se voglio dimostrare un’affer-


mazione (proposizione/teorema) che comincia con “per ogni . . .” (ad
es.: g è iniettiva), devo procedere in generale; se voglio confutarla (f
non è iniettiva) basta fare un controesempio.

Definizione 1.16. Una funzione α : A → B si dice suriettiva se


im α = B.

Esempi 1.17. f non è suriettiva perché im f = [0, +∞[6= R. È invece


suriettiva h : R → [0, +∞[: x 7→ x2 . Poi im g = R, quindi anche g è
suriettiva.

Definizione 1.18. α : A → B si dice funzione biiettiva (o biiezione)


se è sia iniettiva che suriettiva.

Esempi 1.19. f non è biiettiva, h non è biiettiva, g è biiettiva.

Osservazione 1.20. Se α : A → B è iniettiva, allora ogni y ∈ B


è immagine di al più un elemento del dominio. Se α : A → B è
suriettiva, allora ogni y ∈ B è immagine di almeno un elemento del
dominio. Quindi se α : A → B è biiettiva, allora ogni y ∈ B è
immagine di esattamente un x ∈ A. Allora, se α è biiettiva, associando
ad ogni y ∈ B l’unico x ∈ A tale che α(x) = b si ottiene una nuova
funzione, detta inversa di α, denotata con α−1 : B → A.

11
Osservazione 1.21. Se α : A → B è biiettiva e b ∈ B, allora α−1 (b),
ovverosia l’immagine di b mediante α−1 , è un elemento di A. In base
però alla definizione 1.10, α−1 (b) è l’insieme {x ∈ A | α(x) = b},
formato da un solo elemento. Trascureremo questa contraddizione di
notazioni.

Osservazione 1.22. Se α : A → B è biiettiva, allora vale:

∀x ∈ A : ∀y ∈ B : (y = α(x) ⇔ x = α−1 (y)). (1.1)

Definizione 1.23. Date α : A → B e β : C → D tali che im α ⊆ C,


la funzione composta di α e β è

β ◦ α : A → D : x 7→ β(α(x)) (1 ).

Esempi 1.24. Con riferimento a g : R → R : x 7→ x3 + 1 e h : R →


[0, +∞[: x 7→ x2 si ha

g ◦ h : R → R : x 7→ (x2 )3 + 1 = x6 + 1,

h ◦ g : R → [0, +∞[: x 7→ (x3 + 1)2 = x6 + 2x3 + 1.

Osservazione 1.25. In questo caso g ◦ h 6= h ◦ g.

Definizione 1.26. La funzione identica nell’insieme A è idA : A →


A : x 7→ x.

Proposizione 1.27. Se α : A → B è una funzione biiettiva, allora


α−1 ◦ α = idA e α ◦ α−1 = idB .
1
β ◦ α si legge “beta tondino alfa”.

12
Dimostrazione. 1) Dobbiamo dimostrare che le funzioni α−1 ◦ α e idA
hanno uguali dominio, codominio, legge. Il dominio di α−1 ◦ α è uguale
al dominio di α, cioè A. Il codominio di α−1 ◦ α è uguale al codominio
di α−1 : B → A, cioè A. Consideriamo x ∈ A qualsiasi e poniamo
y = α(x). Vale:
(1.1)
[α−1 ◦ α](x) = α−1 (α(x)) = α−1 (y) = x = idA (x).

Quindi α−1 ◦ α e idA hanno anche la stessa legge.


2) Dobbiamo dimostrare che le funzioni α ◦ α−1 e idB hanno uguali
dominio, codominio, legge. Il dominio di α ◦ α−1 è uguale al dominio
di α−1 , cioè B. Il codominio di α ◦ α−1 è uguale al codominio di α, cioè
B. Consideriamo y 0 ∈ B qualsiasi e poniamo x0 = α−1 (y 0 ). Vale:
(1.1)
[α ◦ α−1 ](y 0 ) = α(α−1 (y 0 )) = α(x0 ) = y 0 = idB (y 0 ).

Ne segue la tesi, come prima.


Proposizione 1.28. Se α : A → B e β : B → A sono due funzioni
tali che β ◦ α = idA e α ◦ β = idB , allora α è biiettiva e β = α−1 .
Definizione 1.29. Data una funzione α : A → B e I ⊆ A, la
restrizione di α ad I è la funzione

α I : I → B : x 7→ α(x).

Esempio 1.30. f : R → R : x 7→ x2 non è iniettiva, ma f [0,+∞[ lo è.

Compito 1.31. Si consideri l’affermazione: Comunque date due fun-


zioni α : A → B e β : B → A, se vale β ◦ α = idA , allora α è biiettiva.
(a) Dire se l’affermazione è vera o falsa. (b) Dimostrare o confutare
l’affermazione, a seconda del caso.

13
14
Lezione 2

Campi e matrici

AB = O implica A = O o B = O? (Una domanda vaga, volutamente.)

2.1 Campi
Definizione 2.1. Un’operazione binaria in un insieme A è una fun-
zione ω : A × A → A.
Esempio 2.2. Un’operazione binaria in Z è ω : Z × Z → Z : (x, y) 7→
x + y.
Notazione 2.3. Se ω è un’operazione binaria in A, si usa scrivere xωy
in luogo di ω((x, y)), cosı̀ come si usa scrivere 2 + 3 anziché +((2, 3)).
Definizione 2.4. Un campo è una terna ordinata (K, +, ·), dove K è
un insieme e “+”, “·” sono operazioni binarie in K, soddisfacenti le
seguenti proprietà (scriveremo xy invece di x · y).

15
(i) Esistono due elementi distinti in K, denotati con “0” e “1”, tali
che ∀x ∈ K valgono

x+0=x (2.1)
x1 = x (2.2)

(ii) Per ogni x, y, z ∈ K valgono:

(x + y) + z = x + (y + z) (2.3)
∃x0 ∈ K : x + x0 = 0 (2.4)
x+y =y+x (2.5)
(xy)z = x(yz) (2.6)
x(y + z) = (xy) + (xz) (2.7)
xy = yx (2.8)
x 6= 0 ⇒ ∃x00 ∈ K : xx00 = 1. (2.9)

Esempi 2.5. (R, +, ·), dove “+” e “·” sono le normali operazioni di
somma e prodotto, è un campo. Anche (Q, +, ·) è un campo, ma
(Z, +, ·) non lo è (non vale la 2.9), e nemmeno (N, +, ·) è un campo.

Esempio 2.6. Consideriamo l’insieme K = {B, R}, con le operazioni


descritte dalle seguenti tabelle:

+ B R · B R
B B R B B B
R R B R B R

Ad esempio R + B si calcola guardando nella riga di R e nella colonna


di B, R + B = R.
Si verifica che (K, +, ·) soddisfa tutti gli assiomi nella def. 2.4, quin-
di è un campo. In esso 0 = B, 1 = R. Per verificare ad esempio la

16
(2.7) procedo riempiendo la tabella

x y z y+z xy xz x(y + z) (xy) + (xz)


B B B B B B B B
B B R R B B B B
B R B R B B B B
B R R ...
R B B ...
R B R R B R R R
R R B ...
R R R ...

e verifico che le ultime due colonne siano uguali.

Osservazione 2.7. La “maggior parte” delle proprietà algebriche che


avete studiato a scuola (ad es. i prodotti notevoli, il quadrato di un
binomio, le formule per le equazioni di secondo grado, il teorema di
Ruffini, ecc.) si dimostra a partire dalle proprietà presenti nella defi-
nizione di campo. Quindi le suddette proprietà algebriche sono valide
in ogni campo.

Seguono alcuni esempi di tali proprietà.

Proposizione 2.8. Sia (K, +, ·) un campo. Allora per ogni x ∈ K


vale x0 = 0.

Dimostrazione. Osserviamo che


(2.2) (2.7) (2.5) (2.1) (2.2)
x0 + x = x0 + x1 = x(0 + 1) = x(1 + 0) = x1 = x.

Per la (2.4) esiste x0 ∈ K tale che x + x0 = 0 e quindi dalle equazioni


sopra
(x0 + x) + x0 = x + x0 = 0. (2.10)

17
Vale poi
(2.3) (2.1)
(x0 + x) + x0 = x0 + (x + x0 ) = x0 + 0 = x0. (2.11)

Combinando (2.10) e (2.11) si ottiene x0 = 0.

Proposizione 2.9. Sia (K, +, ·) un campo e A, B ∈ K. Allora AB =


0 implica A = 0 o B = 0.

Dimostrazione. Se A = 0 vale la tesi e la dimostrazione è finita. Con-


sideriamo ora il caso A 6= 0. Per (2.9), (2.8) esiste A00 ∈ K tale che
AA00 = 1 e A00 A = 1. Sfruttando quest’ultima equazione si ottiene

(2.2) (2.8) (2.6) Hp prop. 2.8


B = B1 = 1B = (A00 A)B = A00 (AB) = A00 0 = 0.

2.2 Matrici
Ecco la generica matrice ad m righe ed n colonne ad elementi in un
campo1 K (per es. K = R), altrimenti detta matrice m×n ad elementi
in K:  
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A=  ...
.
 (2.12)
am1 am2 . . . amn

• aij ∈ K è l’elemento generico di A, in cui

• i è l’indice di riga;
1
Anche se per definizione un campo è una terna formata da un insieme e da due operazioni, in
seguito esso verrà denotato solo col simbolo dell’insieme: K anzichè (K, +, ·).

18
• j è l’indice di colonna;
• M(m × n, K) denota l’insieme di tutte le matrici m × n ad
elementi in K;
• ogni A ∈ M(m × n, R) si dice matrice reale;
• ogni A ∈ M(m × n, C) si dice matrice complessa.
La matrice in (2.12) si rappresenta anche con la seguente notazione:

A = (aij ) ∈ M(m × n, K).

Esercizio 2.10. Scrivere per esteso la matrice A = (aij ) ∈ M(2×3, R)


definita ponendo aij = 2i − j per ogni i = 1, 2, j = 1, 2, 3.
Svolgimento.  
1 0 −1
A= (2.13)
3 2 1
dove per es. il valore “0” in riga 1 e colonna 2 è stato ottenuto calco-
lando 2i − j con i = 1, j = 2.
Definizione 2.11. La matrice nulla m×n è la matrice Om×n = (zij ) ∈
M(m × n, K) definita ponendo zij = 0 per ogni i = 1, 2, . . . , m, j =
1, 2, . . . , n.
Talora potremo scrivere semplicemente O in luogo di Om×n .
Definizione 2.12. La matrice opposta di A = (aij ) ∈ M(m × n, K) è
la matrice −A = (bij ) ∈ M(m × n, K) definita ponendo bij = −aij per
ogni i = 1, 2, . . . , m, j = 1, 2, . . . , n.
Esempio 2.13. L’opposta della (2.13) è
 
−1 0 1
−A = .
−3 −2 −1
19
Definizione 2.14. La somma di A = (aij ) ∈ M(m × n, K) e B =
(bij ) ∈ M(m × n, K) è la matrice A + B = (cij ) ∈ M(m × n) definita
ponendo cij = aij + bij , per ogni i, j.
Esempio 2.15.
     
1 0 −1 1 2 3 2 2 2
+ = .
3 2 1 −1 −2 −3 2 0 −2
Osservazioni 2.16. 1) Se A ∈ M(m × n, K), allora A + Om×n = A.
2) Se A ∈ M(m × n, K), allora A + (−A) = Om×n .
In seguito la differenza di due matrici è definita tramite A − B =
A + (−B).
Proposizione 2.17. Se A, B, C ∈ M(m × n, K), allora
(A + B) + C = A + (B + C) (propr. associativa della somma)
A+B =B+A (propr. commutativa della somma).
Notazione 2.18 (Il simbolo di sommatoria). Se aj , j = 1, 2, . . . , n,
denota un elemento di K dipendente dall’indice j, allora
n
X
aj = a1 + a2 + · · · + an .
j=1

Esempio:
3
X
j 2 = 12 + 22 + 32 = 14.
j=1

Definizione 2.19. Il prodotto delle matrici A = (aij ) ∈ M(m × n, K)


e B = (bjh ) ∈ M(n × p, K) è la matrice AB = (cih ) ∈ M(m × p, K)
definita ponendo
Xn
cih = aij bjh
j=1

20
per ogni i = 1, 2, . . . , m, h = 1, 2, . . . , p.

Esempio 2.20. Verifichiamo il prodotto:


 
  0 4 4 4  
1 0 −1  0 3 −3 7
1 2 0 2 = .
3 2 1 2 17 19 13
0 1 7 −3
Secondo la definizione, moltiplicando una matrice 2 × 3 per una 3 × 4
si ottiene una 2 × 4. I suoi elementi sono calcolati come segue:
3
X
c11 = a1j bj1 = a11 b11 + a12 b21 + a13 b31 = 1 · 0 + 0 · 1 + (−1) · 0 = 0;
j=1
3
X
c12 = a1j bj2 = a11 b12 + a12 b22 + a13 b32 = 1 · 4 + 0 · 2 + (−1) · 1 = 3;
j=1
3
X
c13 = a1j bj3 = a11 b13 + a12 b23 + a13 b33 = 1 · 4 + 0 · 0 + (−1) · 7 = −3;
j=1
..
.
3
X
c24 = a2j bj4 = a21 b14 + a22 b24 + a23 b34 = 3 · 4 + 2 · 2 + 1(−3) = 13.
j=1

Vedremo più avanti che tale definizione si motiva con il fatto che il
prodotto tra matrici corrisponde alla composizione di funzioni lineari.
Proposizione 2.21. Se A, A0 ∈ M(m × n, K), B, B 0 ∈ M(n × p, K),
C ∈ M(p × q, K), allora valgono:
(AB)C = A(BC) (propr. associativa del prodotto)
0 0
A(B + B ) = AB + AB (distributiva del prodotto risp. alla somma)
(A + A0 )B = AB + A0 B (altra propr. distributiva).
21
Problema. Vale AB = BA?
Intanto, se A e B non sono quadrate (cioè m = n) delle stesse
dimensioni, risulta o che BA non è proprio definita, o ha dimensioni
diverse da AB. Quindi il problema si pone solo nel caso A, B ∈ M(n×
n, K).
Esercizio 2.22. Date le matrici reali
   
0 1 1 0
A= , B= ,
0 0 0 0
calcolare AB e BA.
Svolgimento.
   
0·1+1·0 0·0+1·0 0 0
AB = = = O2×2 ;
0·1+0·0 0·0+0·0 0 0
    
1 0 0 1 0 1
BA = = .
0 0 0 0 0 0
Due conseguenze:
1) Il prodotto tra matrici non gode della proprietà commutativa.
2) Se A, B sono matrici quadrate, AB = O non implica A = O o
B = O.
Definizione 2.23. Se A, B ∈ M(n×n, K) e AB = On×n , A 6= On×n 6=
B, allora A e B si dicono divisori dello zero o anche zerodivisori.
Esempio 2.24. Le matrici A e B nell’esercizio 2.22 sono zerodivisori.
Definizione 2.25. Le righe di A = (aij ) ∈ M(m × n, K) sono le
seguenti matrici 1 × n:
A1 = (a11 a12 . . . a1n ),
A2 = (a21 a22 . . . a2n ),
..
.
Am = (am1 am2 . . . amn ).

22
Le colonne di A sono le seguenti matrici m × 1:
     
a11 a12 a1n
 a21 
A1 =   , A2 =  a.22  , . . . , An =  a2n
   
.  ..  .
. 
 ..   .. 
am1 am2 amn

Compito 2.26. Sia data una matrice A = (aij ) ∈ M(m × n, K) e la


colonna n × 1  
0
0 
 .. 
 
.
B =  ,
1 
 .. 
.
0
formata da tutti zeri tranne un “1” in r-esima posizione (1 ≤ r ≤ n).
Determinare AB.

23
24
Lezione 3

Proprietà delle matrici

Supponendo ad − bc 6= 0, risolvere:

ax + by = r
cx + dy = s.

Definizione 3.1. La diagonale principale di una matrice quadrata


A = (aij ) ∈ M(n × n, K) è l’n-pla degli elementi a11 , a22 , . . ., ann .

Definizione 3.2. La matrice identica d’ordine n è la matrice In =


(δij ) ∈ M(n × n, K) definita ponendo

1 se i = j,
δij =
0 6 j.
se i =
25
Esempio 3.3.  
1 0 0
I3 = 0 1 0
0 0 1
ha tutti “1” sulla diagonale principale, “0” altrove.
Esercizio 3.4. Calcolare I2 A, dove
 
0 −1 −2
A= .
1 0 7
Svolgimento.   
1 0 0 −1 −2
I2 A = =
0 1 1 0 7
   
1 · 0 + 0 · 1 1(−1) + 0 · 0 1(−2) + 0 · 7 0 −1 −2
= = = A.
0 · 0 + 1 · 1 0(−1) + 1 · 0 0(−2) + 1 · 7 1 0 7
Proposizione 3.5. Se A ∈ M(m × n, K), allora Im A = A = AIn .
Definizione 3.6. Una matrice A ∈ M(n × n, K) si dice invertibile se
esiste B ∈ M(n × n, K) tale che
AB = In = BA. (3.1)
Se ciò si verifica, B prende il nome di matrice inversa di A e si denota
con B = A−1 .
Definizione 3.7. Una matrice quadrata non invertibile si dice matrice
singolare (o degenere).
Esempio 3.8. On×n è singolare.
Esercizio 3.9. Date le seguenti matrici reali, stabilire se sono inver-
tibili e in caso affermativo trovarne le inverse:
   
1 2 1 −2
A= , C= .
3 0 −2 4
26
Svolgimento. Si tratta di
 risolvere
 le equazioni (3.1) in cui B è una
x y
matrice incognita: B = .
z t

    
1 2 x y 1 0
=
 

AB = I2 3 0  z t  0 1 

⇔  ⇔
BA = I2 x y 1 2 1 0
=


z t 3 0 0 1

   
x + 2z y + 2t 1 0
=


 3x 3y  0 1 


x + 3y 2x 1 0
=


z + 3t 2z 0 1


 x + 2z = 1
⇒ t = − y2 = − 16

y + 2t = 0




3x = 0 ⇒ x=0




3y = 1 ⇒ y = 13


 x + 3y = 1
2x = 0






 z + 3t = 0
z = 12

 2z = 1 ⇒

Occorre sostituire i valori trovati dalle quattro equazioni scelte nelle


altre quattro (ad es. x + 2z = 0 + 2 21 = 1) per verificare che diano delle
identità, come effettivamente accade. Conclusione: A è invertibile e

 
−1 0 1/3
A = .
1/2 −1/6

(Verificare che AA−1 = I2 = A−1 A.) Svolgiamo lo stesso procedimento

27
per C:
    
1 −2 x y 1 0
=
 

CB = I2 −2 4 z t  0 1 

⇔  ⇔
BC = I2 x y 1 −2 1 0
=


z t −2 4 0 1

   
x − 2z y − 2t 1 0
=


−2x + 4z −2y + 4t 0 1

  ⇔
x − 2y −2x + 4y 1 0
=


z − 2t −2z + 4t 0 1



 x − 2z = 1
y − 2t = 0




−2x + 4z = 0




−2y + 4t = 1


 x − 2y = 1
−2x + 4y = 0







 z − 2t = 0
 −2z + 4t = 1.

Notiamo subito che il sistema non ha soluzioni: ad esempio, dalla


seconda equazione si ottiene y = 2t e sostituendo nella quarta si ha
−2(2t)+4t = 1, cioè 0 = 1, assurdo. Quindi C è una matrice singolare.

Osservazione 3.10. È possibile dimostrare che se A e B sono due


matrici quadrate d’ordine n ad elementi in K tali che AB = In , allora
necessariamente BA = In . Ciò implica che nello studio dell’invertibi-
lità di A, anziché 2n2 equazioni come sopra, è sufficiente impostarne
n2 . Sono comunque troppe e avremo metodi più efficaci per risolvere
questo tipo di problema.

Proposizione 3.11. Se una matrice A ∈ M(n × n, K) è invertibile,


allora non è zerodivisore.

28
Dimostrazione. Innanzitutto A 6= On×n perché On×n è singolare. Sup-
poniamo che valga AB = On×n con B ∈ M(n × n, K). Ne se-
gue: A−1 (AB) = A−1 On×n ⇒ (A−1 A)B = On×n ⇒ In B = On×n ⇒
B = On×n . Abbiamo quindi escluso la possibilità che valga AB = On×n
con B 6= On×n . Analogamente si esclude che possa valere CA = On×n
con C 6= On×n . Allora A non è zerodivisore.
Osservazione 3.12. Si può dimostrare il viceversa, cioè che se la ma-
trice A 6= On×n non è invertibile, allora è zerodivisore. (Non è ovvio!)
Ad esempio la matrice C nell’eserc. 3.9 è zerodivisore.
Definizione 3.13. Dati h ∈ K e A = (aij ) ∈ M(m×n, K), il prodotto
esterno di h per A è la matrice hA = (bij ) ∈ M(m × n, K) definita
ponendo bij = haij per ogni i, j.
Esempio 3.14.
   
0 −1 −2 0 −7 −14
7 = .
1 0 7 7 0 49

Proposizione 3.15. Se h, h0 ∈ K, A, A0 ∈ M(m × n, K), B ∈ M(n ×


p, K), valgono:
h(A + A0 ) = hA + hA0 , (h + h0 )A = hA + h0 A,
h(AB) = (hA)B = A(hB).
 
a b
Proposizione 3.16. Data una matrice A = ∈ M(2 × 2, K),
c d
(i) se ad − bc 6= 0, allora A è invertibile e
 
1 d −b
A−1 = . (3.2)
ad − bc −c a

(ii) se ad − bc = 0, allora A è singolare.

29
Dimostrazione. Vale:
   
d −b ad − bc 0
A = ;
−c a 0 ad − bc
      
d −b d −b a b ad − bc 0
A= = .
−c a −c a c d 0 ad − bc
Se A = O2×2 , allora ad − bc = 0 e A non è invertibile. Se A 6=
O2×2 e ad − bc = 0, le equazioni sopra implicano che A è zerodivisore,
quindi singolare. Infine, se ad − bc 6= 0, da tali equazioni si ricava,
moltiplicando per 1/(ad − bc):
  
1 d −b
A = I2 ;
ad − bc −c a
  
1 d −b
A = I2 ,
ad − bc −c a
cioè A è invertibile e la sua inversa è la matrice descritta in (i).
Osservazione 3.17. Con riferimento
  all’eserc. 3.9 la dimostrazione
4 2
precedente suggerisce che C = O2×2 , a conferma di quanto si è
2 1
detto sul fatto che C sia zerodivisore.

Risposta alla domanda iniziale. Il sistema assegnato si può esprimere


in forma cosiddetta matriciale AX = B, dove
     
a b x r
A= X= , B= .
c d y s
 
ax + by
Infatti, AX = . Visto che per la prop. precedente A è
cx + dy
invertibile, vale:
AX = B ⇔ A−1 (AX) = A−1 B ⇔ (A−1 A)X = A−1 B ⇔ X = A−1 B.

30
Quindi l’equazione AX = B ha soluzione unica X = A−1 B, da cui
     dr−bs 
1 d −b r ad−bc
X= = −cr+as ,
ad − bc −c a s ad−bc

cioè x = (dr −bs)/(ad−bc), y = (−cr +as)/(ad−bc). In generale, ogni


sistema di m equazioni di primo grado in n incognite si può esprimere
in forma matriciale AX = B, dove A è una matrice m × n.

Teorema 3.18. Se le matrici A, B ∈ M(n × n, K) sono invertibili,


allora anche AB è invertibile e (AB)−1 = B −1 A−1 .

Dimostrazione. Poniamo X = AB, Y = B −1 A−1 e calcoliamo:

XY = A(BB −1 )A−1 = AIn A−1 = AA−1 = In ,


Y X = B −1 (A−1 A)B = B −1 In B = B −1 B = In .

Resta dimostrato che X = AB è invertibile e Y = B −1 A−1 è la sua


inversa.
“L’inversa del prodotto di due matrici invertibili è il prodotto delle
inverse, prese in ordine contrario.”

Compito 3.19. Siano α, β ∈ R soddisfacenti la condizione α2 +β 2 6= 0.


Calcolare l’inversa della matrice
 
α −β
A= .
β α

31
32
Lezione 4

Il campo complesso


Calcolare (1 − i 3)100

Definizione 4.1. L’insieme dei numeri complessi è

C = R2 = {(a, b) | a, b ∈ R};

le operazioni ⊕, tra numeri complessi si definiscono come segue:

somma (a, b) ⊕ (c, d) = (a + c, b + d),


prodotto (a, b) (c, d) = (ac − bd, ad + bc), ∀a, b, c, d ∈ R.
(4.1)

Teorema 4.2. (C, ⊕, ) è un campo.

Ricordiamo che un campo è una terna (K, +, ·), dove K è un insieme


e “+”, “·” sono operazioni binarie soddisfacenti le proprietà algebriche
da (2.1) a (2.9) descritte a pag. 16.

33
Dimostrazione. (Parte.) Cerchiamo gli elementi neutri. Per la somma,
cerchiamo (c, d) ∈ C tale che ∀(a, b) ∈ C valga (a, b) ⊕ (c, d) = (a, b).
Chiaramente ciò si ottiene con (c, d) = (0, 0). Cerchiamo poi (c0 , d0 ) ∈
C tale che ∀(a, b) ∈ C valga (a, b) (c0 , d0 ) = (a, b). Sfruttando la
(4.1): (ac0 − bd0 , ad0 + bc0 ) = (a, b), si ottiene il risultato con c0 = 1,
d0 = 0. Le proprietà da (2.3) a (2.9) sono di verifica elementare, a parte
l’ultima, che si riformula come segue: se (α, β) ∈ C, (α, β) 6= (0, 0),
esiste (x, y) ∈ C tale che (α, β) (x, y) = (1, 0). Usiamo la (4.1):
(αx − βy, αy + βx) = (1, 0) ⇔
     
αx − βy = 1 α −β x 1
⇔ = .
βx + αy = 0 β α y 0

Siccome ad − bc = α2 + β 2 6= 0, la matrice a sinistra è invertibile e il


sistema ha soluzione unica:
   −1     
x α −β 1 1 α β 1
= = 2 =
y β α 0 α + β 2 −β α 0
 
1 α
= 2 .
α + β −β
2

L’inverso cercato è
 
α −β
(x, y) = , 2 .
α + β α + β2
2 2

Conseguenza: “in C valgono usuali regole dall’algebra”, in partico-


lare quadrati e potenze di binomi, formule per le equazioni di secondo
grado, teorema di Ruffini, ecc.
Osservazione 4.3. La funzione F : R → C : x 7→ (x, 0) è iniettiva.
Conveniamo di identificare ogni x ∈ R con F (x) ∈ C, cioè “x = (x, 0)”.
Quindi R ⊆ C.

34
Siccome allora ogni numero reale è anche un numero complesso, si
pongono problemi del tipo: vale 2 + 5 = 2 ⊕ 5? Consideriamo x, y ∈ R.
Vale:

x ⊕ y = (x, 0) ⊕ (y, 0) = (x + y, 0) = x + y,
(4.1)
x y = (x, 0) (y, 0) = (xy − 0, 0 + 0) = xy.

Quindi le operazioni ⊕ e sono estensioni a tutto C delle normali


operazioni di somma e prodotto di numeri reali. Non essendo possibili
ambiguità, d’ora in poi scriveremo “+” e “·” al posto di ”⊕” e ” ”.
Definizione 4.4. L’unità immaginaria è i = (0, 1) ∈ C.
Osservazione 4.5. Siano a, b ∈ R. Vale:
(4.1)
a + ib = (a, 0) + (0, 1)(b, 0) = (a, 0) + (0, b) = (a, b).

Definizione 4.6. La forma algebrica del numero complesso α = (a, b)



α = a + ib, a, b ∈ R. (4.2)
Ogni numero complesso ha un’unica forma algebrica. Con riferi-
mento ad α in (4.2), il numero reale <(α) = a si dice parte reale di α
e =(α) = b si dice coefficiente dell’immaginario in α.
Esercizio 4.7. Esprimere in forma algebrica i2 .
Svolgimento.
(4.1)
i2 = i · i = (0, 1)(0, 1) = (−1, 0) = −1.

Esercizio
√ 2 4.8. Esprimere in forma algebrica i numeri complessi α =
1
(1 − i 3) , β = 1+2i .

35
Svolgimento. Usando la formula del quadrato di un binomio:
√ √ √ √ √
α = 1 + (i 3)2 − 2i 3 = 1 + 3i2 − 2i 3 = 1 − 3 − 2i 3 = −2 − i2 3.

1 1 − 2i 1 − 2i 1 − 2i 1 − 2i 1 2
β= · = = = = − i .
1 + 2i 1 − 2i 1 − (2i)2 1 − 4i2 5 5 5
Quella moltiplicazione in colore blu è un metodo standard che funziona
sempre.

√ √ 100 √ 2 100 √ 3
   
100
(1 − i 3) = 1 − 100i 3 + (i 3) − (i 3) + · · ·??
2 3

Definizione 4.9. Dato α = a + ib (a, b ∈ R), il modulo di α è


p
ρ = |α| = a2 + b2 (4.3)

e l’argomento (o anomalia) è un qualsiasi θ ∈ R tale che valgano

a = ρ cos θ, b = ρ sin θ. (4.4)

Il modulo di α è unico. Per α 6= 0 l’argomento è definito a meno


di multipli di 2π, cioè se θ è argomento di α, allora anche θ0 lo è se, e
solo se, θ0 = θ + 2kπ per un k ∈ Z.

• Il piano cartesiano, quando viene identificato con C, si chiama


piano di Gauss.

• L’asse delle x è l’asse reale.

• L’asse y è l’asse immaginario.

36
Figura 4.1: Modulo e argomento

Sostituendo (4.4) in (4.2), otteniamo la forma trigonometrica di α:

α = ρ(cos θ + i sin θ), ρ, θ ∈ R, ρ ≥ 0. (4.5)


Esercizio 4.10. Esprimere in forma trigonometrica α = 1 − i 3.
(4.3)
q √
Svolgimento. Il modulo è ρ = 1 + (− 3)2 = 2, l’argomento si
deduce dalle (4.4):

1 = 2 cos θ, − 3 = 2 sin θ ⇒ θ = −π/3

(cfr. fig. 4.1). Quindi


  π  π 
α = 2 cos − + i sin − . (4.6)
3 3
37
Proposizione 4.11. Il prodotto di due numeri complessi α e β è un
numero complesso il cui modulo è il prodotto dei moduli |α| e |β| e il
cui argomento è la somma degli argomenti.
Dimostrazione. Consideriamo α in (4.5) e β = σ(cos ϕ+i sin ϕ), σ, ϕ ∈
R, σ ≥ 0. Vale

αβ = ρσ(cos θ + i sin θ)(cos ϕ + i sin ϕ) =


= ρσ[(cos θ cos ϕ − sin θ sin ϕ) + i(cos θ sin ϕ + sin θ cos ϕ)] =
= ρσ[cos(θ + ϕ) + i sin(θ + ϕ)].

Quest’ultimo è proprio il numero complesso di modulo ρσ e argomento


θ + ϕ.
Corollario 4.12. Se α è il numero complesso in (4.5) e n ∈ N, allora

αn = ρn [cos(nθ) + i sin(nθ)]. (4.7)

Esercizio 4.13. Definendo α−n = 1/αn per α ∈ C∗ e n ∈ N∗ , dimo-


strare che la (4.7) vale per ogni n ∈ Z.


Risposta alla domanda iniziale. Abbiamo visto che α = 1 − i 3 ha
forma trigonometrica (4.6). Applico la (4.7) con n = 100:
    
100 100 100 100
α = 2 cos − π + i sin − π =
3 3
    
100 100
= 2100 cos 34π − π + i sin 34π − π =
3 3
     √ !
2 2 1 3
= 2100 cos π + i sin π = 2100 − + i =
3 3 2 2

= −299 + i299 3.

38
Proprietà algebriche del modulo. Per ogni α, β ∈ C valgono:
(i) |αβ| = |α| |β|.

(ii) Se β 6= 0, αβ = |α|
|β| . (4.8)

(iii) ||α| − |β|| ≤ |α + β| ≤ |α| + |β|.


L’ultima relazione è la disuguaglianza triangolare.
Dimostrazione. (Parte.) (i) sta nella prop. 4.11. Per (ii), poniamo
γ = α/β, vale:
α
|α| = |βγ| = |β| |γ| = |β| ,
β
che è la tesi. Per la disuguaglianza triangolare vedi in figura 4.2.

Figura 4.2: Disuguaglianza triangolare.

39
Definizione 4.14. Il coniugato del numero complesso α = a+ib (a, b ∈
R) è α = a − ib.

Osservazione 4.15. Un numero complesso α risulta reale se, e solo


se, α = α.

Compito 4.16. Dato α ∈ C, a quale insieme numerico appartengono


α + α e αα?

Sfida: trovare un argomento del numero complesso α = − cos θ +


i sin θ dove θ ∈ R. (Cfr. eserc. 6.7.)

40
Lezione 5

Radici n-esime

Quante e quali sono le soluzioni complesse dell’equazione x3 = −8?

Per trasformare in forma algebrica una frazione complessa basta


moltiplicare numeratore e denominatore per il coniugato del denomi-
natore. Ad es.
1 + 2i 1 + 2i −3 + 4i −3 + 4i − 6i − 8 11 2
= · = =− −i .
−3 − 4i −3 − 4i −3 + 4i 25 25 25
Proposizione 5.1. Per ogni α, β ∈ C valgono: α + β = α + β; αβ =
α β.
Dimostrazione. Lasciamo la verifica della prima equazione per eserci-
zio. Poniamo α = a + ib, β = c + id, a, b, c, d ∈ R. Vale:

αβ = [(ac − bd) + i(bc + ad)] = ac − bd − i(bc + ad),


α β = (a − ib)(c − id) = ac − iad − ibc − bd = ac − bd − i(bc + ad).

41
Osservazione 5.2. Come conseguenza della proposizione precedente,
(αn ) = (α)n per ogni α ∈ C e ogni n ∈ N.

Definizione 5.3. L’esponenziale di x + iy (x, y ∈ R) è il numero


complesso
ex+iy = ex (cos y + i sin y). (5.1)
Quindi ex+iy è il numero complesso di modulo ex e argomento y.
La motivazione della definizione (5.1) risiede nella rappresentazione
delle funzioni coinvolte come serie di potenze e supera i limiti di questa
esposizione.
Combiniamo le equazioni eiy = cos y + i sin y ed e−iy = cos y −
i sin y (y ∈ R) ottenute dalla (5.1). Sommandole e dividendo per due
otteniamo
eiy + e−iy
cos y = . (5.2)
2
Sottraendo la seconda dalla prima e dividendo per 2i otteniamo
eiy − e−iy
sin y = . (5.3)
2i
Le (5.1), (5.2) e (5.3) sono le formule di Eulero.
Esercizio 5.4. Esprimere in forma algebrica il numero complesso eiπ .
Svolgimento. Dalla (5.1): eiπ = cos π + i sin π = −1.
Osservazione 5.5. eiπ + 1 = 0.
La forma esponenziale del numero complesso α di modulo ρ e
argomento θ è
α = ρeiθ , ρ, θ ∈ R, ρ ≥ 0. (5.4)

42
Esercizio 5.6. Esprimere
√ in forma esponenziale i numeri complessi
α = −8, β = 1 − i 3, γ = α/β 4 .
Svolgimento. Occorre calcolare modulo e argomento di α e β. Vale

|α| = 8, l’argomento
√ di α è π, quindi α = 8eiπ .
Poi |β| = 1 + 3 = 2, dalla formula a = ρ cos θ deduco che
l’argomento θ di β soddisfa cos θ = a/ρ = 1/2 ⇒ β = 2e−iπ/3 .

α 8eiπ 8eiπ
γ= 4= 4 = 4 −i 4 π =
β 2e−iπ/3 2e 3
1 4 1 7 1 π
= eiπ+i 3 π = ei 3 π = ei 3 .
2 2 2
Per togliere la frazione ho usato la regola sugli esponenti, che in base
alla definizione di esponenziale complesso si motiva con il fatto che la
divisione tra numeri complessi dà luogo alla differenza degli argomenti.

43
Problema: risolvere l’equazione z n = α, dove α ∈ C∗ , n ∈ N∗ e
l’incognita z è complessa.
Le soluzioni di tale equazione si chiamano radici n-esime di α.
Esprimiamo α e l’incognita z in forma esponenziale:
α = ρeiθ , z = σeiϕ , ρ, θ, σ, ϕ ∈ R, ρ, σ > 0.
Vale:
z n = α ⇔ (σeiϕ )n = ρeiθ ⇔ σ n einϕ = ρeiθ ;
l’ultima è un’equazione in due incognite reali σ, ϕ, equivalente a
 n  √
σ = ρ σ = nρ

nϕ = θ+2kπ, k ∈ Z ϕ = nθ + 2kπ n , k ∈ Z.

L’equazione di partenza ha come soluzioni i numeri complessi di mo-



dulo n ρ e argomenti
θ θ 2π θ 4π θ 2(n − 1)π
, + , + , ..., + .
n n n n n n n
Abbiamo sostituito k = 0, 1, . . . , n−1. Gli altri valori di k danno luogo
a ripetizioni degli stessi numeri complessi: ad es. k = n dà nθ + 2π che
come argomento equivale a nθ ; k = n+1 dà nθ + 2(n+1)π n = nθ + 2π
n +2π che
θ 2π
equivale a n + n ; eccetera. Concludendo le soluzioni sono esattamente
n:
√ i θ
+ 2kπ

zk = ρe n
n n , k = 0, 1, . . . , n − 1. (5.5)

Esercizio 5.7. Quante e quali sono le soluzioni complesse dell’equa-


zione x3 = −8?
Svolgimento. Le soluzioni sono tre e si ottengono dalla (5.5) ponendovi
n = 3, ρ = | − 8| = 8, θ = π (cfr. eserc. 5.6). Otteniamo:

3 i π
+ 2kπ

zk = 8e 3 3 , k = 0, 1, 2.

44
Esercizio 5.8. Esprimere in forma algebrica le soluzioni trovate e
rappresentarle nel piano di Gauss.
Svolgimento.
√ !
π
 π π 1 3 √
z0 = 2ei 3 = 2 cos + i sin =2 +i = 1 + i 3;
3 3 2 2
z1 = 2eiπ = 2 (cos π + i sin π) = −2;
√ !

 
5 5 5 1 3
z2 = 2ei 3 π = 2 cos( π) + i sin( π) = 2 −i = 1 − i 3.
3 3 2 2

Esiste un procedimento “algebrico” per risolvere l’equazione x3 = −8?


La risposta è affermativa. Vale
x3 = −8 ⇔ x3 + 8 = 0 ⇔ (x + 2)(x2 − 2x + 4) = 0.
L’equazione x + 2 = 0 ha soluzione x = −2. Risolvo x2 − 2x + 4 = 0
con la formula per le equazioni di secondo grado:
√ √
2± −12 2 ± 2i 3 √
= = 1 ± i 3.
2 2
√ √
Il simbolo −12 non ha significato da solo, mentre ± −12 rappresenta
l’insieme
√ √ numeri complessi il cui quadrato è −12, ed essi sono
dei due
±i 12 = ±2i 3.
Dalla (5.5) deduciamo che le soluzioni di z n = α hanno tutte lo
stesso modulo (che nel piano complesso è la distanza da O) e argomenti
uguali a θ/n, più multipli di un n-esimo di angolo giro. Quindi le
soluzioni di z n = α si dispongono nel piano di Gauss come i vertici di
un poligono regolare con n lati e centro in O.
Abbiamo visto che l’equazione complessa z n −α = 0 ha sempre solu-
zioni; anzi, ne ha precisamente n. Vedremo che questa proprietà si ge-
neralizza ad ogni equazione algebrica (un’equazione algebrica consiste
in un polinomio uguagliato a zero) come conseguenza del

45
Teorema 5.9 (Teorema fondamentale dell’Algebra). Data l’equazione
di grado n nell’incognita complessa z:
an z n + an−1 z n−1 + · · · + a1 z + a0 = 0,
dove an , an−1 , . . ., a0 ∈ C, an 6= 0, n > 0, essa ha almeno una soluzione
nel campo complesso.

Esercizio 5.10. Esprimere


√ in forma algebrica le soluzioni dell’equa-
2
zione iz + 2z − 2 2 = 0.
Svolgimento. p √
−1 ± 1 + i2 2
z= .
i
46
√ √
A parte calcolo ± ∆, cioè risolvo l’equazione w2 = 1 + i2 2. Pongo
w = x + iy (x, y ∈ R), quindi ottengo
√ √
(x + iy)2 = 1 + i2 2 ⇔ x2 − y 2 + i2xy = 1 + i2 2
 2
x − y 2 = 1√
 2
x − y 2 = 1√
⇔ ⇔ ⇔
2xy = 2 2 y = x2
x − x22 = 1√
 4
x − x2 − 2 = 0√
 2

y = x2 y = x2 .

Dalla prima equazione x2 = (1 ± 3)/2, da cui x2 = 2 o x2 = −1.


Siccome
√ x è reale la seconda equazione non è accettabile,
√ quindi x =
± 2, sostituendo si ottiene y = ±1 e infine w = ±( 2 + i). Le
soluzioni dell’esercizio sono

−1 ± ( 2 + i)
z= ;
i
la prima è √
−1 + 2 + i −i √
z1 = · = 1 + i(1 − 2);
i −i
la seconda è

−1 − 2 − i −i √
z2 = · = −1 + i(1 + 2).
i −i

Compito 5.11. Esprimere in forma algebrica le soluzioni dell’equa-


zione complessa z 4 = −1.

47
48
Lezione 6

Polinomi a coefficienti reali

Il polinomio P (x) = x4 + 1 può essere scomposto nel prodotto di due


polinomi a coefficienti reali e di grado minore di quattro?

Teorema 6.1 (Ruffini). Sia K un campo e α ∈ K. Se P (x) = an xn +


an−1 xn−1 + · · · + a1 x + a0 è un polinomio di grado n > 0 a coefficienti
an , an−1 , . . . , a0 ∈ K e P (α) = 0, allora esiste un polinomio Q(x) a
coefficienti in K di grado n − 1 tale che P (x) = (x − α)Q(x).

Corollario 6.2 (corollario del Teorema fondamentale dell’Algebra).


Ogni polinomio di grado n > 0 a coefficienti complessi si scompone nel
prodotto di n polinomi di primo grado a coefficienti complessi.

Dimostrazione. Sia P (z) il polinomio in questione. Per il Teorema fon-


damentale dell’Algebra, esiste α1 ∈ C tale che P (α1 ) = 0. Per il teo-
rema di Ruffini, esiste un polinomio Q1 (z) di grado n − 1 a coefficienti

49
complessi tale che
P (z) = (z − α1 )Q1 (z). (6.1)
Se n > 1, si applica ancora il Teorema fondamentale dell’Algebra al-
l’equazione Q1 (z) = 0, da cui esiste α2 ∈ C tale che Q1 (α2 ) = 0, poi
(Ruffini)
Q1 (z) = (z − α2 )Q2 (z), (6.2)
dove Q2 (z) ha grado n − 2. Si prosegue in questo modo ottenendo altre
n − 2 equazioni analoghe alle (6.1) e (6.2,) delle quali l’ultima è

Qn−1 (z) = (z − αn )Qn (z), (6.3)

dove Qn (z) è un polinomio di grado n − n = 0, cioè Qn (z) = c 6= 0


costante. Combinando tutte le n equazioni si deduce

P (z) = (z − α1 )(z − α2 ) · . . . · (z − αn )c. (6.4)

Dalla (6.4) otteniamo che le soluzioni dell’equazione P (z) = 0 sono


α1 , α2 , . . . , αn . Diremo radice (o zero) di un polinomio P (x) ogni α tale
che P (α) = 0; chiameremo poi molteplicità della radice α di P (x), o
anche molteplicità della soluzione α dell’equazione P (x) = 0, il numero
naturale m tale che P (x) = (x − α)m Q(x) dove Q(x) è un polinomio
tale che Q(α) 6= 0. Con queste definizioni si ha

Corollario 6.3. Ogni equazione algebrica di grado n > 0 a coefficien-


ti in C ammette precisamente n soluzioni in C, purché ciascuna sia
contata con la propria molteplicità.

Proposizione 6.4. Se α ∈ C è una radice del polinomio P (z) =


an z n + an−1 z n−1 + · · · + a1 z + a0 a coefficienti reali (cioè an , an−1 , . . .,
a0 ∈ R), allora anche α è una radice di P (z).

50
Dimostrazione. Per ipotesi, P (α) = 0. Ricordiamo le proprietà α + β =
α + β, αβ = α β, da cui αn = (α)n per n ∈ N, e l’equivalenza
α ∈ R ⇔ α = α. Vale allora

0 = 0 = P (α) = an αn + an−1 αn−1 + · · · + a1 α + a0 =


= an αn + an−1 αn−1 + · · · + a1 α + a0 =
= an · αn + an−1 · αn−1 + · · · + a1 · α + a0 =
= an (α)n + an−1 (α)n−1 + · · · + a1 · α + a0 =
(sfruttando ai ∈ R per i = 0, 1, . . . , n)
= an (α)n + an−1 (α)n−1 + · · · + a1 α + a0 = P (α).

Teorema 6.5. Se un polinomio P (z) a coefficienti reali di grado n > 0


non è divisibile per alcun polinomio di grado uno a coefficienti reali,
allora esso è divisibile per un polinomio di grado due a coefficienti reali.

Dimostrazione. Sia P (z) un polinomio soddisfacente l’ipotesi di cui


sopra. Per il Teorema fondamentale dell’Algebra, esiste α ∈ C tale
che P (α) = 0. Se fosse α ∈ R, per il teorema di Ruffini P (z) sarebbe
divisibile per z − α, a coefficienti reali, e ciò non è. Quindi α 6∈ R.
Applicando il teorema di Ruffini si ottiene un’equazione nella forma

P (z) = (z − α)Q(z) (6.5)

con Q(z) polinomio di grado n−1. Sostituiamo z = α in tale equazione:


P (α) = (α−α)Q(α) da cui, per la prop. 6.4, 0 = (α−α)Q(α). Siccome
α 6∈ R, vale α 6= α; ne deduciamo Q(α) = 0. Riapplicando il teor. di
Ruffini,
Q(z) = (z − α)R(z), (6.6)

51
Figura 6.1: Le radici di un polinomio di quarto grado, privo di radici
reali, sono a coppie complesse coniugate.

con R(z) di grado n − 2. Combinando le due scomposizioni (6.5) e


(6.6):

P (z) = (z − α)(z − α)R(z) ⇒ P (z) = [z 2 − (α + α)z + α α]R(z) ⇒


(cfr. (A.1), (A.2)) ⇒ P (z) = [z 2 − 2<(α)z + |α|2 ]R(z).
(6.7)
Siccome il polinomio tra parentesi quadre è a coefficienti reali si ha la
tesi.

Per il teor. 6.5, ogni scomposizione di un polinomio a coefficienti

52
reali che contenga fattori di grado superiore a due può essere ulterior-
mente raffinata. Quindi vale il seguente:

Teorema 6.6. Ogni polinomio a coefficienti reali si può esprimere


come prodotto di polinomi a coefficienti reali, ciascuno di grado non
superiore a due.

Risposta alla domanda iniziale. Il teorema 6.6 dà risposta affermativa


alla domanda.

Troviamo esplicitamente la scomposizione; nell’equazione (6.7) ab-


biamo visto che se P (α) = 0, allora un polinomio divisore a coefficienti
reali è (z − α)(z − α). Risolviamo x4 + 1 = 0, cioè x4 = −1. Il numero
−1 in forma esponenziale è eiπ . Applichiamo la (5.5) con n = 4, ρ = 1,
θ = π:
π 2kπ

zk = ei 4 + 4 , k = 0, 1, 2, 3.

√ √
π π π 2 2
z0 = ei 4 = cos + i sin = +i ,
4  4 2  2 √
 √
3 3 3 2 2
z1 = ei 4 π = cos π + i sin π =− +i ,
4 4 2 2
    √ √
5 5 5 2 2
z2 = ei 4 π = cos π + i sin π =− −i = z1 ,
4 4 2 2
    √ √
7 7 7 2 2
z3 = ei 4 π = cos π + i sin π = −i = z0 .
4 4 2 2
53
La scomposizione in polinomi a coefficienti reali si ottiene aggregando
le radici coniugate:
x4 + 1 = (x − z0 )(x − z1 )(x − z1 )(x − z0 ) =
= [(x − z0 )(x − z0 )][(x − z1 )(x − z1 )] =
" √ √ ! √ √ !#
2 2 2 2
= x− −i x− +i ·
2 2 2 2
" √ √ ! √ √ !#
2 2 2 2
· x+ −i x+ +i =
2 2 2 2
√ !2 √ !2 √ !2 √ !2
  
2 2  2 2 
=  x− − i x+ − i =
2 2 2 2
√ √
  
1 1 1 1
= x2 + − 2x + x2 + + 2x + =
2 2 2 2
√ √
= (x2 − 2x + 1)(x2 + 2x + 1).
Esercizio 6.7. Esprimere in forma esponenziale α = 1/(−eiθ ), θ ∈ R.
Svolgimento.
1

= −e−iθ = −(cos(−θ) + i sin(−θ)) = − cos θ + i sin θ.
−e
p
Questo è un numero complesso di modulo (− cos θ)2 + (sin θ)2 = 1.
Il suo argomento ϕ soddisfa a = ρ cos ϕ, b = ρ sin ϕ, cioè

cos ϕ = − cos θ
sin ϕ = sin θ.
Ora
cos(π − θ) = cos π cos θ + sin π sin θ = − cos θ,
sin(π − θ) = sin π cos θ − cos π sin θ = sin θ,

54
da cui un argomento è ϕ = π − θ e α = −e−iθ = ei(π − θ) .

Osservazione 6.8. Si poteva raggiungere subito il risultato sfruttando


eiπ = −1:
−e−iθ = (−1)e−iθ = eiπ e−iθ = ei(π − θ) .

Esercizio 6.9. Esprimere in forma algebrica il numero complesso


 π   π 12
α = − cos + i sin .
8 8
Svolgimento.
h  π   π i12
α = − cos − i sin =
h   π 8 8  π i12
= − cos − + i sin − =

 π 12 8 8
3 π
= e−i 8 = e−i 2 π = ei 2 =
π π
= cos + i sin = i.
2 2
Esercizio 6.10. Esprimere in forma algebrica la somma √ e il prodotto
2
delle due soluzioni della seguente equazione: iz + 2z − 2 2 = 0

Primo svolgimento (sconsigliato). Si risolve l’equazione (cfr. eserc.


5.10). Le soluzioni sono
√ √
z1 = 1 + i(1 − 2), z2 = −1 + i(1 + 2).

Sommando e moltiplicando, z1 + z2 = 2i e
√ √ 2
√ 2
z1 z2 = [i + (1 − i 2)][i − (1 − i 2)] = i − (1 − i 2) =
√ √
= −1 − 1 + 2 + i2 2 = i2 2.

55
Secondo svolgimento (consigliato). Per ogni equazione az 2 + bz + c = 0
le due radici soddisfano
b c
z1 + z2 = − , z1 z2 = ,
a a
quindi
2 −i
z1 + z2 = − · = 2i,
i √ −i
−2 2 −i √
z1 z2 = · = i2 2.
i −i

Compito 6.11. È dato il sistema:



x + y = cos θ
(θ ∈ R).
ix − iy = − sin θ,

Trasformare il sistema in equazione matriciale AX = B e ricavarne


le soluzioni, usando il metodo appreso nella lezione 3. Facoltativo:
trasformare le soluzioni in forma esponenziale.

56
Lezione 7

Esercitazione sui numeri


complessi

Esercizio 7.1. Esprimere in forma algebrica il numero complesso


( 3 − i)13
α= .
(−1 + i)25


Svolgimento. Il numero complesso 3 − i√ha modulo 2, argomento θ
soddisfacente l’equazione a = ρ cos θ ⇔ 3 = 2 cos θ√ed è nel quarto
√ −π/6. Invece −1+i ha modulo 2, argomento ϕ
quadrante, quindi θ =
soddisfacente −1 = 2 cos ϕ nel secondo quadrante, quindi ϕ = 3π/4.

57
Ne segue
13
√ −i π √ √
 π
2e−i 6 2 13
13
e−i 6 π 2e 6 3
2( − 2i )
2
α = √ 3 25 = 25 75 = 3 = = √ √
i π 2 e i 4 π ei 4 π − 22 + i 22
2e 4 2

√ √ √ √ √ √
6 − i 2 − 2 − i 2 −2 3 − 2 + i(−2 3 + 2)
= √ √ · √ √ = =
−√2 + i 2 −√ 2 − i 2 √ 4

− 3 − 1 + i(− 3 + 1) − 3 − 1 − 3+1
= = +i .
2 2 2
Esercizio 7.2. Esprimere in forma algebrica le soluzioni della seguente
equazione nell’incognita complessa z:
iz + 1
z= .
iz − 1
Svolgimento. Sotto la condizione iz−1 6= 0, equivalente a z 6= 1/i = −i,
eliminiamo il denominatore:

iz 2 − z − iz − 1 = 0 ⇔ iz 2 − (1 + i)z − 1 = 0.

La formula risolutiva dà


√ √ √
1 + i ± 2i + 4i 1 + i ± 3(1 + i) −2i −2i + 2 ± 3(−2i + 2)
= · = ,
2i 2i −2i 4
quindi le soluzioni sono
√ √ √ √
1+ 3 1+ 3 1− 3 −1 + 3
−i , +i ,
2 2 2 2
entrambe accettabili.
Esercizio 7.3. Esprimere in forma algebrica√
le soluzioni
√ 3 della seguente
3
equazione nell’incognita complessa z: z = ( 2 − i 2) .

58
√ √ √
Svolgimento. Il modulo di α = 2−i √ 2 è ρ = 2 + 2 = 2, l’argomento
è determinato da a = ρ cos
√ θ √⇔ 2 = 2 cos θ con la considerazione
aggiuntiva che il punto ( 2, − 2) è nel quarto quadrante. Si ottiene
θ = −π/4. L’equazione da risolvere è quindi
π 3
  3
z = 2e −i 4 = 8e−i 4 π .

Dalla formula (5.5), sostituendovi n = 3, ρ = 8, θ = −3π/4 otteniamo


le tre soluzioni
π 2kπ

zk = 2e−i 4 + 3 , k = 0, 1, 2.
Otteniamo:
√ √ !
−i π4 2 2 √ √
z0 = 2e =2 −i = 2 − i 2,
2 2
    
π 2π
 π 2π π 2π
z1 = 2ei − 4 + 3 = 2 cos − + + i sin − + =
4 3 4 3
" √ √ √ √ √ √ !#
2 1 2 3 2 1 2 3
= 2 − · + · +i · + · =
2 2 2 2 2 2 2 2
√ √ √ √
− 2+ 6 2+ 6
= +i ,
2  2   
π 4π
 π 4π π 4π
z2 = 2ei − 4 + 3 = 2 cos − + + i sin − + =
4 3 4 3
" √ √ √ √ √ √ !#
2 1 2 3 2 1 2 3
= 2 − · − · +i · − · =
2 2 2 2 2 2 2 2
√ √ √ √
− 2− 6 2− 6
= +i .
2 2
Esercizio 7.4. Esprimere in forma algebrica le soluzioni della seguente
equazione nell’incognita complessa z: z 3 = (1 + 2i)3 .

59
Siccome in questo caso l’argomento non è un arco noto, applichiamo
la seguente proposizione:

Proposizione 7.5. Si indichino con u0 , u1 , . . ., un−1 le soluzioni com-


plesse dell’equazione un = 1. Se w è una qualsiasi soluzione dell’equa-
zione z n = α, allora tutte le soluzioni di z n = α sono wu0 , wu1 , . . .,
wun−1 .

Nel caso dell’esercizio si ha n = 3, quindi


√ √
1 3 1 3
u0 = 1, u1 = ei2π/3 = − + i , u2 = ei4π/3 = − − i .
2 2 2 2

È poi evidente che una soluzione dell’equazione assegnata è w = 1 + 2i.


Applicando quindi la prop. 7.5 otteniamo che le soluzioni sono:

wu0 = 1 + 2i,
√ √ √
−1 + i 3 −1 + i 3 − 2i − 2 3
wu1 = (1 + 2i) = =
√ 2 √ 2
−1 − 2 3 3−2
= +i ,
2 √ 2 √ √
−1 − i 3 −1 − i 3 − 2i + 2 3
wu2 = (1 + 2i) = =
√ 2 √ 2
−1 + 2 3 − 3−2
= +i .
2 2
Esercizio 7.6. Risolvere l’esercizio 7.3 con il metodo dell’esercizio 7.4.

Esercizio 7.7. Esprimere in forma algebrica la somma e il prodotto


delle soluzioni della seguente equazione nell’incognita complessa z:
2 π
2ei 3 π z 2 − z − 2ei 3 = 0.

60
Svolgimento. La somma e il prodotto delle soluzioni dell’equazione
az 2 + bz + c = 0 (a 6= 0) sono, rispettivamente, −b/a e c/a. Quindi la
somma delle soluzioni è
2
e−i 3 π
    
1 1 2 2
2 = = cos − π + i sin − π =
2e i 3 π 2 2 3 3
√ ! √
1 1 3 1 3
= − −i =− −i .
2 2 2 4 4

Il prodotto è
π
−2ei 3 π
  π  π 
2 = −e−i 3 = − cos − + i sin − =
2ei 3 π 3 3
√ ! √
1 3 1 3
=− −i =− +i .
2 2 2 2

Esercizio 7.8. (a) Esprimere in forma algebrica le soluzioni dell’e-


quazione z 3 = i nell’incognita complessa z. (b) Esprimere in forma
algebrica le soluzioni dell’equazione (x − 2)3 = i(x + i)3 nell’incognita
complessa x.
Svolgimento. (a) Esprimendo i in forma esponenziale, l’equazione equi-
vale a z 3 = eiπ/2 . Dalla formula (5.5) con n = 3, ρ = 1 e θ = π/2
risulta π 2kπ

i
zk = e 6 + 3 , k = 0, 1, 2,
da cui

i π6 3 i
z0 = e = + ;
2√ 2
5 3 i
z1 = ei 6 π = − + ;
2 2
3
z2 i π
= e 2 = −i.

61
(b) x = −i non è una soluzione, quindi si può dividere per (x + i)3
e l’equazione equivale a
 3
x−2
= i,
x+i
ponendo z = (x − 2)/(x + i) essa si trasforma in z 3 = i, risolta al punto
precedente. Quindi le soluzioni si ottengono da
x−2
= zk , k = 0, 1, 2.
x+i
Per k = 0,

x−2 3 i √
= + ⇔ 2x − 4 = (x + i)( 3 + i)
x+i 2 2√ √
⇔ (2 − 3 − i)x = 4 + i 3 − 1.
Ricaviamo dunque
√ √ √ √ √
3+i 3 2 − 3 + i 6 − 3 3 − 3 + i(3 + 2 3 − 3)
x = √ · √ = √ =
2 − √3 − i 2 −√ 3 + i 8 − 4 3
3−2 3 3
= √ +i √ . (7.1)
4−2 3 4−2 3
Stesso procedimento con k = 1:

x−2 3 i √
=− + ⇔ 2x − 4 = (x + i)(− 3 + i)
x+i 2 2√ √
⇔ (2 + 3 − i)x = 4 − i 3 − 1.
Ricaviamo
√ √ √ √ √
3 − i 3 2 + 3 + i 6 + 3 3 + 3 + i(3 − 2 3 − 3)
x = √ · √ = √ =
2 + √3 − i 2 +
√ 3 + i 8 + 4 3
3+2 3 3
= √ −i √ . (7.2)
4+2 3 4+2 3
62
Infine, con k = 2,
x−2
= −i ⇔ x − 2 = −ix + 1 ⇔ (1 + i)x = 3
x+i
3 1−i 3 3
⇔ x= · = −i . (7.3)
1+i 1−i 2 2
Le soluzioni cercate sono (7.1), (7.2) e (7.3).

Esercizio 7.9. È dato il polinomio P (z) = z 4 + z 3 + z 2 + 2. (a) Espri-


√ 3
mere in forma algebrica P ( 2e−i 4 π ). (b) Trovare un polinomio a
coefficienti reali, divisore di P (z) e di grado minore di quattro.
Svolgimento. (a)
√ 3 √ 9 3
P ( 2e−i 4 π ) = 4e−i3π + 2 2e−i 4 π + 2e−i 2 π + 2 =
√ √ !
√ π π √ 2 2
4e−iπ + 2 2e−i 4 + 2ei 2 + 2 = 4(−1) + 2 2 −i + 2i + 2
2 2
= −4 + 2 − 2i + 2i + 2 = 0.

(b) Ricordiamo che se α ∈ C \ R è una radice del polinomio a


coefficienti reali P (z), allora P (z) è divisibile per z 2 − (α + α)z + αα,
√ 3
che è a coefficienti reali. Sappiamo che α = 2e−i 4 π è radice di P (z).
In forma algebrica,
√ √ !
√ 2 2
α= 2 − −i = −1 − i.
2 2

Un polinomio divisore di P (z) è:

Q(z) = z 2 − (−1 − i − 1 + i)z + (−1 − i)(−1 + i) =


= z 2 + 2z + 2.

63
Osservazione 7.10. Volendo proprio trovare la scomposizione di P (z),
si può dividere P (z) per z − α, poi il quoziente ancora per z − α. La
divisione per z − (−1 − i) si rappresenta come segue:
1 1 1 0 2
−1 − i −1 − i −1 + i 1 − i −2
1 −i i 1 − i //
da cui (z 4 + z 3 + z 2 + 2) : [z − (−1 − i)] = z 3 − iz 2 + iz + 1 − i. Ora
dividiamo il quoziente z 3 − iz 2 + iz + 1 − i per z − (−1 + i):
−i1 i 1−i
−1 + i −1 + i 1 − i −1 + i
1 −1 1 //
Quindi (z 3 − iz 2 + iz + 1 − i) : [z − (−1 + i)] = z 2 − z + 1. Concludendo,
P (z) = (z 2 + 2z + 2)(z 2 − z + 1).
Esercizio 7.11. (a) Trovare il valore del numero complesso α tale che
il polinomio P (z) = z 4 − 4z 3 + 11z 2 − 14z + α ammetta 1 − 2i come
radice. (b) Per tale valore di α esprimere in forma algebrica le altre
radici di P (z).
Svolgimento. (a) Supponiamo che β = 1 − 2i sia una radice: quindi
P (z) è divisibile per z − β. Calcoliamo il quoziente della divisione:
1 −4 11 −14 α
1 − 2i 1 − 2i −7 + 4i 12 − 4i −10
1 −3 − 2i 4 + 4i −2 − 4i //
Quindi α = 10.
(b) Essendo il polinomio a coefficienti reali, un’altra radice è β =
1 + 2i. Dividendo il quoziente della precedente divisione:
1 −3 − 2i 4 + 4i −2 − 4i
1 + 2i 1 + 2i −2 − 4i 2 + 4i
1 −2 2 //
64
Vale quindi P (z) = (z − 1√+ 2i)(z − 1 − 2i)(z 2 − 2z + 2). Il polinomio
z 2 − 2z + 2 ha radici 1 ± −1 = 1 ± i. Concludendo, le quattro radici
sono 1 ± 2i e 1 ± i.
Esercizio 7.12. Scomporre il polinomio P (z) = z 4 − 2z 2 + 4 nel
prodotto di polinomi a coefficienti reali irriducibili.
Esercizio 7.13. Esprimere in forma algebrica le soluzioni della se-
guente equazione nell’incognita complessa z:
 3
1 + i
z3 = √ .
3+i
Esercizio 7.14. Esprimere in forma algebrica il numero complesso
1
α= 100 .
π π

− cos 12 + i sin 12

Esercizio 7.15. Esprimere in forma algebrica le soluzioni della se-


guente equazione nell’incognita complessa z:
 2
1
i+ = 3 + 4i.
z
Esercizio 7.16. (a) Determinare i numeri complessi a + ib, a, b ∈ R,
tali che (a + ib)3 − i3 = 0. (b) Esprimere in forma algebrica le soluzioni
della seguente equazione nell’incognita complessa z:
 3
1
i− − i3 = 0.
z
Esercizio 7.17. Trovare a ∈ C rale che z = −i sia radice del polinomio
P (z) = z 3 − z 2 + z + 1 + a. Per tale valore di a scomporre P (z) nel
prodotto di polinomi irriducibili a coefficienti reali e nel prodotto di
polinomi irriducibili a coefficienti complessi.

65
66
Lezione 8

Spazi vettoriali

Cos’è un vettore?

8.1 Relazioni d’equivalenza


Definizione 8.1. Una relazione in un insieme A è un sottoinsieme ∼
(1 ) di A × A.
Notazioni 8.2. Anziché (x, y) ∈∼ si scrive x ∼ y (si legge “x è in
relazione tilde con y”) e se invece (x, y) 6∈∼ si scrive x 6∼ y.
Esempio 8.3. Una relazione in Z è

≈ = {(x, y) ∈ Z × Z | ∃k ∈ Z : x − y = 2k}.

Risulta: 13 ≈ 7, 18 6≈ 7, −1 ≈ 7, . . .
1
Si legge “tilde”.

67
Definizione 8.4. Una relazione ∼ in un insieme A si dice relazione
d’equivalenza se soddisfa le seguenti proprietà:

(i) riflessiva, ∀x ∈ A : x ∼ x,

(ii) simmetrica, ∀x, y ∈ A : (x ∼ y ⇒ y ∼ x),

(iii) transitiva ∀x, y, z ∈ A : (x ∼ y ∧ y ∼ z ⇒ x ∼ z).

Esempio 8.5. La relazione “≤” in R è riflessiva e transitiva, ma non


simmetrica, quindi “≤” non è una relazione d’equivalenza.

Esempio 8.6. La relazione “≈” sopra definita è d’equivalenza, infatti:


(i) ∀x ∈ Z vale x − x = 2 · 0, quindi x ≈ x.
(ii) Supponiamo x ≈ y, x, y ∈ Z. Ciò implica x − y = 2k con k ∈ Z.
Ne segue y − x = 2(−k) e siccome −k ∈ Z vale y ≈ x.
(iii) Supponiamo x ≈ y, y ≈ z, x, y, z ∈ Z. Quindi ∃k1 , k2 ∈ Z tali
che x − y = 2k1 , y − z = 2k2 . Sommando le due equazioni si ricava
x − z = 2(k1 + k2 ) e siccome k1 + k2 ∈ Z vale x ≈ z.

Definizione 8.7. Data una relazione d’equivalenza “∼” in A e x ∈ A,


la classe d’equivalenza di x rispetto a ∼ è

[x]∼ = {y ∈ A | y ∼ x}.

Esempio 8.8. Descriviamo gli elementi di [7]≈ per tentativi:

0 6≈ 7, 1 ≈ 7, 2 6≈ 7, 3 ≈ 7, . . . , −1 ≈ 7, −2 6≈ 7, . . .

quindi [7]≈ = {1, −1, 3, −3, . . .} è l’insieme dei numeri dispari.

Osservazione 8.9. [7]≈ = [1]≈ .

Osservazione 8.10. L’osservazione precedente si generalizza nella se-


guente:

68
Proposizione 8.11. Sia ∼ una relazione d’equivalenza in un insieme
A e x, y ∈ A. Se x ∼ y, allora [x]∼ = [y]∼ ; se invece x ∼
6 y, allora
[x]∼ ∩ [y]∼ = ∅.

Dunque, le classi d’equivalenza rispetto a una relazione d’equiva-


lenza in A formano una partizione di A, cioè una collezione di insiemi
a due a due disgiunti, la cui unione è A stesso.

Osservazione 8.12. Ogni insieme A ha due relazioni d’equivalenza


banali :

1) la relazione identica ∼I , definita da x ∼I y se, e solo se, x = y;

2) la relazione totale ∼T , definita da x ∼T y ∀x, y ∈ A.

8.1.1 Similitudine tra matrici


Definizione 8.13. Date due matrici A, B ∈ M(n × n, K), si dice che
A è simile a B se esiste C ∈ M(n × n, K) invertibile tale che

C −1 AC = B. (8.1)

Proposizione 8.14. La relazione di similitudine in M(n × n, K) è


una relazione d’equivalenza.

Dimostrazione. Denotiamo l’affermazione “A è simile a B” con A ∼ B.


(i) In è invertibile e In−1 = In ; ponendo C = In , si ottiene C −1 AC =
In AIn = A, da cui A ∼ A per ogni A ∈ M(n × n, K).
(ii) Consideriamo A, B ∈ M(n × n, K) tali che A ∼ B; cioè vale
la (8.1). Poniamo D = C −1 , moltiplichiamo la (8.1) a sinistra per
D−1 = C e a destra per D, ottenendo (D−1 C −1 )A(CD) = D−1 BD
⇒ In AIn = D−1 BD ⇒ D−1 BD = A, da cui B ∼ A.

69
(iii) Consideriamo A, B, D ∈ M(n × n, K) tali che A ∼ B e B ∼ D;
cioè valgono la (8.1) e
E −1 BE = D, (8.2)
dove E ∈ M(n × n, K) è invertibile. Sostituiamo B = C −1 AC nella
(8.2):
E −1 C −1 ACE = D ⇒ (CE)−1 A(CE) = D
da cui A ∼ D.

Esercizio 8.15. Stabilire se le due matrici reali seguenti sono simili:


   
1 1 1 0
A= , B=
0 0 2 0

Suggerimento. 
Applicare
 la def. (8.1) nella sua forma equivalente: AC =
x y
CB dove C = è invertibile.
z t

8.1.2 Equipollenza tra segmenti orientati


Definizione 8.16. Un segmento orientato nello spazio è una coppia
ordinata di punti (P, Q).

Figura 8.1: Rappresentazione del segmento orientato (P, Q).

70
 Un segmento orientato è anche detto vettore applicato, ma non si
tratta di un vettore nel senso che preciseremo.
Osservazione 8.17. (P, Q) = (Q, P ) se, e solo se, P = Q.

Definizione 8.18. Due segmenti orientati (P, Q) e (R, S) si dicono


equipollenti se P QSR è un parallelogramma (eventualmente degenere).

Figura 8.2: I segmenti orientati (A, B) e (C, D) sono equipollenti.

Proposizione 8.19. L’equipollenza è una relazione d’equivalenza.

Definizione 8.20. Un vettore geometrico (o vettore libero) è una classe


d’equivalenza rispetto alla relazione di equipollenza.

Notazione 8.21. Il vettore geometrico individuato da (P, Q) si denota


−→
con P Q.
−→
Per definizione di classe di equivalenza, P Q è l’unione di tutti i
segmenti orientati equipollenti a (P, Q).
 Nella fig. 8.2, i segmenti orientati (A, B) sono (C, D) sono equi-
−→ −−→
pollenti (ma diversi), mentre AB e CD sono lo stesso vettore.
Proposizione 8.22. Per ogni vettore geometrico v e ogni punto P ,
−→
esiste un unico punto Q tale che v = P Q.
Notazione 8.23. V denota l’insieme di tutti i vettori geometrici dello
spazio.

71
Figura 8.3: Un vettore è un insieme di infiniti segmenti orientati
equipollenti.

8.2 Spazi vettoriali


Nel seguito avremo a che fare con la nozione di n-pla ordinata di numeri
reali (dove n ∈ N∗ ):

(x1 , x2 , . . . , xn ), xi ∈ R, i = 1, 2, . . . , n. (8.3)

Si tratta di una lista di n numeri reali presi in ordine. Ad esempio, per


n = 3, vale (1, 1, 2) 6= (1, 2, 1). x1 , x2 , . . ., xn si chiamano componenti
della n-pla (8.3).
 Usiamo il termine componenti e non coordinate, che avrà un altro
significato.
Per n = 2, 3, 4 si parla rispettivamente di coppie, terne, quaterne
ordinate di numeri reali.

Definizione 8.24. Rn = {(x1 , x2 , . . . , xn ) | x1 , . . . , xn ∈ R} è l’insieme


di tutte le n-ple ordinate di numeri reali.

Definizione 8.25. Un vettore di Rn è un qualsiasi elemento di Rn .

72
Definiamo ora delle operazioni in Rn . Fissiamo

v = (x1 , x2 , . . . , xn ), w = (y1 , y2 , . . . , yn ) ∈ Rn .

Definizione 8.26. La somma di v e w è v + w = (x1 + y1 , x2 +


y2 , . . . , xn + yn ).
Definizione 8.27. Il vettore nullo di Rn è 0 = (0, 0, . . . , 0).
Definizione 8.28. Il vettore opposto di v è −v = (−x1 , −x2 , . . . , −xn ).
Definizione 8.29. La differenza di w e v è w − v = w + (−v), quindi
w − v = (y1 − x1 , y2 − x2 , . . . , yn − xn ).
Definizione 8.30. Chiameremo scalare ogni elemento di R.
Definizione 8.31. Il prodotto esterno di uno scalare h per il vettore
v è il vettore hv = (hx1 , hx2 , . . . , hxn ).
Proposizione 8.32. Per ogni scelta dei vettori e degli scalari coinvolti
valgono le equazioni:

(v + w) + u = v + (w + u); v + (−v) = 0; h(v + w) = hv + hw;


(−h)v = −(hv); h0 = 0; v + 0 = v; v + w = w + v;
(h + k)v = hv + kv; 1v = v; 0v = 0; (hk)v = h(kv).
(8.4)

Definizione 8.33. Uno spazio vettoriale costruito su K è una quaterna


ordinata (V, K, +, ω), dove
1) V è un insieme non vuoto, i cui elementi si diranno vettori ;

2) K è un campo, i cui elementi si diranno scalari ;

3) “+” è un’operazione binaria in V , detta somma di vettori ;

73
4) ω : K × V → V è una funzione detta prodotto esterno; useremo la
notazione hv per ω(h, v);

5) sono fissati un vettore nullo 0 e per ogni v ∈ V un vettore opposto


−v;

6) valgono tutte le proprietà (8.4).

Notazione 8.34. Uno spazio vettoriale costruito su K si denota anche


con VK (sottintendendo + e ω).

Definizione 8.35. Ogni VR si dice spazio vettoriale reale. Ogni VC si


dice spazio vettoriale complesso.

8.2.1 Esempi di spazio vettoriale


Per definire un nuovo spazio vettoriale occorre dare gli oggetti numerati
da 1) a 5) nella definizione e verificare la validità di tutte le proprietà
(8.4).

Esempio 8.36. Posto V = Rn e K = R, con le operazioni definite


nelle definizioni 8.26 e 8.31 le proprietà (8.4) sono soddisfatte, quindi
otteniamo uno spazio vettoriale reale.

Esempio 8.37. Definiamo V = RR , che è l’insieme di tutte le funzioni


di R in R e K = R. (2 ) Somma e prodotto esterno sono definite come
segue:

f + g : R → R : x 7→ f (x) + g(x), ∀f, g ∈ RR ;


cf : R → R : x 7→ cf (x), ∀c ∈ R, ∀f ∈ RR .
2
Se A e B sono insiemi, con B A si denota l’insieme di tutte le funzioni A → B. Questa
rappresentazione si accorda con il fatto che se A e B sono insiemi finiti con risp. a e b elementi, il
numero di possibili funzioni A → B è proprio ba .

74
Come vettore nullo definiamo la funzione costante

0 : R → R : x 7→ 0

e il vettore opposto di f ∈ RR è

−f : R → R : x 7→ −f (x).

Valgono le (8.4). Ne otteniamo uno spazio vettoriale in cui i vettori


sono funzioni.

Risposta alla domanda iniziale. La nozione di vettore ha senso nel


contesto di uno spazio vettoriale, che è una quaterna (V, K, +, ω) sod-
disfacente determinati assiomi. Un vettore di un tale spazio vettoriale
è un elemento dell’insieme V . Spazi vettoriali diversi hanno in generale
vettori diversi.

Compito 8.38. Rispetto alla relazione di similitudine, qual è la classe


d’equivalenza individuata dalla matrice identica In ?

75
76
Lezione 9

Sottospazi

Cosa si può dire a priori dell’insieme delle soluzioni del seguente si-
stema di equazioni?

 x+y−z = 0
2x − y − z = 0
−3y + z = 0.

Proseguiamo con altri esempi di spazio vettoriale.

Esempio 9.1. Sia K un campo, m, n ∈ N∗ e V = M(m×n, K). Come


somma e prodotto esterno prendiamo quelli definiti a suo tempo per
le matrici. Come vettore nullo prendiamo 0 = Om×n . Valgono le (8.4).
Otteniamo uno spazio vettoriale.

Il successivo esempio è lo spazio vettoriale dei vettori geometrici.


Poniamo V = V e K = R e definiamo le operazioni.

77
Definizione 9.2. Consideriamo v, w ∈ V e un punto P arbitrario.
−→
Allora esistono e sono unici due punti Q e R tali che v = P Q e w =
−→ −→
P R. Si definisce la somma v + w = P S, dove S è tale che P QSR sia
un parallelogramma.

−→
Osservazione 9.3. Posto 0 = P P , vale v + 0 = v, ∀v ∈ V.
−→
Definizione 9.4. Sia v = P Q ∈ V e h ∈ R. Se v = 0 si pone hv = 0.
−→
Se v 6= 0, si pone hv = P T , dove T è il punto della retta P Q che ha
ascissa h nel sistema di riferimento in cui P è origine e Q ha ascissa 1.

Si dimostra che valgono le (8.4). Quindi è possibile definire:

78
Esempio 9.5. Lo spazio vettoriale dei vettori geometrici ha come in-
sieme di vettori V l’insieme V dei vettori geometrici (cfr. def. 8.20),
come insieme degli scalari R, come operazioni e vettore nullo ciò che è
stato definito sopra.

Esempio 9.6. Come V prendiamo l’insieme dei polinomi in una in-


determinata a coefficienti reali (che si denota con R[x]). Poi K = R.
Come operazioni e vettore nullo gli stessi dell’es. 8.37. Otteniamo un
altro spazio vettoriale reale.

Definizione 9.7. Un sottospazio di uno spazio vettoriale VK è un


insieme W ⊆ V soddisfacente le seguenti proprietà:

(i) 0∈W
(9.1)
(ii) ∀h, k ∈ K : ∀u, v ∈ W : hu + kv ∈ W.

Osservazione 9.8. Se nella (9.1) (ii) si pone h = k = 1 si deduce che


∀u, v ∈ W : u + v ∈ W . Con k = 0 si deduce ∀h ∈ K : ∀u ∈ W :
hu ∈ W . Queste proprietà si esprimono dicendo dicendo che W è
“chiuso” rispetto alle operazioni di spazio vettoriale.
Esempio 9.9. W = R[x] è un sottospazio dello spazio vettoriale RR .
Ogni polinomio è una funzione, quindi R[x] ⊆ RR . Poi (i) il vettore
nullo 0 di RR , che è la funzione nulla, è anche un polinomio e quindi
appartiene a W ; (ii) se c, d ∈ R e f, g ∈ R[x], anche cf + dg è un
polinomio e quindi appartiene a R[x].
Osservazione 9.10. Uno spazio vettoriale VK ha sempre due sotto-
spazi banali : il sottospazio nullo W 0 = {0} e W 00 = V .
Esercizio 9.11. Stabilire se W1 = {(x, 0) | x ∈ R} è un sottospazio di
R2 .

79
Svolgimento. (i) Il vettore nullo di R2 è (0, 0) = (x, 0) per x = 0; quindi
(0, 0) ∈ W1 .
(ii) Consideriamo h, k ∈ R e u, v ∈ W1 . Per definizione di W1 esistono
x, y ∈ R tali che u = (x, 0), v = (y, 0). Ne segue: hu + kv = (hx, 0) +
(ky, 0) = (hx + ky, 0). Tale vettore appartiene a W1 .
Conclusione: per W = W1 valgono le (9.1), quindi W1 è un sottospazio.

Esercizio 9.12. Stabilire se W2 = {(x, y) | x, y ∈ R, x + y = 0} è un


sottospazio di R2 .

Svolgimento. (i) Da 0 + 0 = 0 segue (0, 0) ∈ W2 .


(ii) Consideriamo h, k ∈ R e u, v ∈ W2 . Per definizione di W2 , esistono
x, y, x0 , y 0 ∈ R tali che x + y = 0 = x0 + y 0 e u = (x, y), v = (x0 , y 0 ).
Vale:

hu + kv = h(x, y) + k(x0 , y 0 ) = (hx, hy) + (kx0 , ky 0 ) =


= (hx + kx0 , hy + ky 0 ).

Per decidere se tale vettore è in W2 , calcolo:

(hx + kx0 ) + (hy + ky 0 ) = h


(x+ y) (x0 
+ k +y 0 ) = 0,
 



quindi hu + kv ∈ W2 . Conclusione: W2 è un sottospazio di R2 .

Esercizio 9.13. Stabilire se W3 = {(x, y) ∈ R2 | x, y ∈ R, xy = 0} è


un sottospazio di R2 .

Svolgimento. (i) Da 0 · 0 = 0 segue (0, 0) ∈ W3 .


(ii) Consideriamo h, k ∈ R e u, v ∈ W3 . Per definizione di W3 , esistono
x, y, x0 , y 0 ∈ R tali che xy = 0 = x0 y 0 e u = (x, y), v = (x0 , y 0 ). Vale
(con gli stessi calcoli di sopra):

hu + kv = (hx + kx0 , hy + ky 0 ).

80
Per decidere se tale vettore è in W3 , calcolo

(hx + kx0 )(hy + ky 0 ) = 


h2xy + hkxy 0 + hkx0 y +  0 0
k 2xy = hk(xy 0 + x0 y).
 

Tale espressione risulta diversa da zero per h = k = x = y 0 = 1 e


x0 = y = 0, mentre per tali valori vale xy = 0 = x0 y 0 . Quindi esistono
h, k ∈ R e u, v ∈ W3 tali che hu + kv 6∈ W3 e W3 non è un sottospazio.
Svolgimento alternativo (migliore): W3 non è un sottospazio, perché
(1, 0), (0, 1) ∈ W3 e (1, 0) + (0, 1) 6∈ W3 (W3 non è chiuso rispetto alla
somma di vettori).

Risposta alla domanda iniziale. Il sistema è nella forma AX = O3×1 ,


dove    
1 1 −1 x
A = 2 −1 −1 e X = y  .
0 −3 1 z
L’insieme delle soluzioni è

W = {T ∈ M(3 × 1, R) | AT = O3×1 }

e W è un sottospazio di M(3 × 1, R), infatti:


(i) AO3×1 = O3×1 , quindi O3×1 ∈ W .
(ii) Consideriamo h, k ∈ R e T1 , T2 ∈ W . Per decidere se hT1 +kT2 ∈ W
calcolo:

A(hT1 + kT2 ) = A(hT1 ) + A(kT2 ) = h(AT1 ) + k(AT2 ) =


= hO3×1 + kO3×1 = (perché T1 , T2 ∈ W ) = O3×1 .

La conclusione è che le soluzioni del sistema formano uno spazio vetto-


riale, sottospazio di M(3 × 1, R). Più in generale, le soluzioni di ogni
sistema lineare (cioè di equazioni di primo grado) omogeneo (cioè con
termini costanti uguali a zero) formano uno spazio vettoriale.

81
Proposizione 9.14. Siano W1 e W2 due sottospazi di uno spazio
vettoriale VK . Allora W1 ∩ W2 è un sottospazio di VK .

Dimostrazione. (i) Siccome per ipotesi W1 e W2 sono sottospazi, vale


0 ∈ W1 e 0 ∈ W2 , da cui 0 ∈ W1 ∩ W2 .
(ii) Consideriamo h, k ∈ K e u, v ∈ W1 ∩ W2 , quindi u, v ∈ Wi
per i = 1, 2. Per ipotesi Wi è un sottospazio per i = 1, 2, quindi
hu + kv ∈ Wi per i = 1, 2. Ne segue hu + kv ∈ W1 ∩ W2 .

Osservazione 9.15. In realtà la proposizione si estende all’intersezio-


ne di un numero qualsiasi di sottospazi, anche infinito.

Esempio 9.16. Osserviamo che W1 (cfr. eserc. 9.11) e U = {(0, y) |


y ∈ R} sono sottospazi di R2 . Risulta W1 ∪ U = W3 = {(x, y) ∈
R2 | x, y ∈ R, xy = 0} (cfr. eserc. 9.13), che non è un sottospazio. Ne
deduciamo che non necessariamente l’unione di due sottospazi di uno
spazio vettoriale è un sottospazio.

Compito 9.17. L’insieme W = {(x, y) ∈ R2 | y = x2 } è un sottospazio


di R2 ?

82
Lezione 10

Somma di due sottospazi

Determinare tutti i sottospazi di R3 contenenti entrambi i seguenti:

W1 = {(x, 0, 0) | x ∈ R}, W2 = {(x, y, z) ∈ R3 | x = 0, y = z}.


(10.1)

Proposizione 10.1. Siano W1 e W2 sottospazi di uno spazio vettoriale


VK . Supponiamo che nessuno dei due sia contenuto nell’altro. Allora
W1 ∪ W2 non è un sottospazio di VK .

Dimostrazione. Per ipotesi W1 6⊆ W2 , quindi esiste un vettore u ∈


W1 \ W2 . Sempre per ipotesi W2 6⊆ W1 , quindi esiste v ∈ W2 \ W1 .
Supponiamo che W1 ∪ W2 sia un sottospazio di VK . Tale W1 ∪ W2
contiene u, v e siccome è un sottospazio anche u + v. Quindi u +
v ∈ W1 , oppure u + v ∈ W2 . Se u + v ∈ W1 , dalla definizione di
sottospazio applicata ai vettori u + v, u ∈ W1 e agli scalari h = 1,

83
k = −1 si ha 1(u + v) + (−1)u ∈ W1 , da cui1 u + v − u ∈ W1 quindi
v ∈ W1 : assurdo. Se u + v ∈ W2 , dalla definizione di sottospazio e
da v ∈ W2 segue 1(u + v) + (−1)v ∈ W2 quindi u ∈ W2 : assurdo.
Supponendo che W1 ∪ W2 sia un sottospazio si ottiene in ogni caso una
contraddizione.
Stiamo cercando un sottospazio di VK che contenga l’unione W1 ∪
W2 di due sottospazi e che sia per quanto possibile “piccolo”. La
soluzione proviene dalla seguente:
Definizione 10.2. Siano W1 e W2 sottospazi di uno spazio vettoriale
VK . La somma di W1 e W2 è
W1 + W2 = {w1 + w2 | w1 ∈ W1 , w2 ∈ W2 }. (10.2)
La seguente proposizione esprime il fatto che W1 + W2 è il più
piccolo sottospazio di VK che contiene W1 ∪ W2 .
Proposizione 10.3. Siano W1 e W2 sottospazi di uno spazio vettoriale
VK . Allora
1
In realtà non abbiamo mai dimostrato che (−1)u = −u, ma daremo per scontate questa ed
altre proprietà “intuitive” degli spazi vettoriali, che in un’esposizione completa dovrebbero essere
dimostrate a partire dalla def. 8.33.

84
1) W1 + W2 è un sottospazio di VK ;

2) W1 ∪ W2 ⊆ W1 + W2 ;

3) Se T è un sottospazio di VK e W1 ∪ W2 ⊆ T , allora W1 + W2 ⊆ T .

Dimostrazione. 1) Applichiamo la definizione di sottospazio. (i) 0 ∈


W1 e 0 ∈ W2 perché per ipotesi W1 e W2 sono sottospazi. Dalla
definizione di W1 + W2 (con w1 = 0 = w2 ) otteniamo 0 = w1 + w2 ∈
W1 +W2 . (ii) Consideriamo h, k ∈ K e u, v ∈ W1 +W2 . Per definizione
di somma esistono w1 , w10 ∈ W1 , w2 , w20 ∈ W2 tali che u = w1 + w2 ,
v = w10 + w20 . Vale

hu + kv = (hw1 + kw10 ) + (hw2 + kw20 ).

Poniamo w100 = hw1 +kw10 e w200 = hw2 +kw20 . Vale hu+kv = w100 +w200 ,
inoltre w100 ∈ W1 perché per ipotesi W1 è un sottospazio e analogamente
w200 ∈ W2 . Resta dimostrato che hu + kv ∈ W1 + W2 , quindi W1 + W2
è un sottospazio.
2) Dimostriamo innanzitutto che W1 ⊆ W1 + W2 . Consideriamo un
qualsiasi w1 ∈ W1 . Dalla (10.2), con w2 = 0 ∈ W2 , ricaviamo che
w1 = w1 + w2 ∈ W1 + W2 e questo basta. Analogamente si prova che
W2 ⊆ W1 + W2 . Ne segue la tesi.
3) Consideriamo un qualsiasi v ∈ W1 + W2 . Per def. (10.2) esistono
w1 ∈ W1 , w2 ∈ W2 tali che v = w1 + w2 . Dall’ipotesi W1 ∪ W2 ⊆
T deduciamo w1 , w2 ∈ T . Per ipotesi T è un sottospazio, quindi
w1 + w2 ∈ T , cioè v ∈ T . Resta dimostrato che W1 + W2 ⊆ T .

Risposta alla domanda iniziale. Lasciamo per esercizio la verifica che


W1 e W2 sono sottospazi. Per la prop. 10.3, i sottospazi cercati sono

85
precisamente quelli contenenti

W1 + W2 = {w1 + w2 | w1 ∈ W1 , w2 ∈ W2 } =
= {(x, 0, 0) + (0, y, y) | x, y ∈ R} = (10.3)
= {(x, y, y) | x, y ∈ R}.

Osservazione 10.4. Poniamo

U = {(x, y, z) ∈ R3 | x = 0}, T = {(x, y, z) ∈ R3 | z = 0}. (10.4)

Gli insiemi U e T risultano sottospazi di R3 (verifica per esercizio).


Il vettore v = (1, 2, 3) appartiene a U + T , infatti v = (0, 2, 3) +
(1, 0, 0) e (0, 2, 3) ∈ U , (1, 0, 0) ∈ T . La stessa proprietà si deduce
anche considerando, ad esempio, v = (0, 0, 3) + (1, 2, 0) e (0, 0, 3) ∈ U ,
(1, 2, 0) ∈ T .

Definizione 10.5. Siano W1 e W2 sottospazi di uno spazio vettoriale


VK . La somma W1 + W2 si dice diretta se per ogni u ∈ W1 + W2 sono
unici i vettori w1 ∈ W1 e w2 ∈ W2 tali che u = w1 + w2 .

Esempio 10.6. La somma U + T di cui all’oss. 10.4 non è diretta.

Teorema 10.7. Siano W1 e W2 sottospazi di uno spazio vettoriale VK .


La somma W1 + W2 è diretta se, e solo se, W1 ∩ W2 = {0}.

Dimostrazione. “⇒” Per ipotesi W1 +W2 è diretta, la tesi è W1 ∩W2 =


{0}. In primo luogo 0 ∈ W1 e 0 ∈ W2 , perché W1 e W2 sono sottospazi;
quindi 0 ∈ W1 ∩ W2 . Ora consideriamo v ∈ W1 ∩ W2 . Definiamo
w1 = w20 = v, w2 = w10 = 0. Risulta w1 , w10 ∈ W1 , w2 , w20 ∈ W2

86
e w1 + w2 = w10 + w20 . Siccome per ipotesi la somma è diretta, vale
w1 = w10 da cui v = 0 (2 ). Resta dimostrato che W1 ∩ W2 = {0}.
“⇐” Supponiamo

w1 + w2 = w10 + w20 , dove w1 , w10 ∈ W1 , w2 , w20 ∈ W2 . (10.5)

Definiamo
u = w1 − w10 . (10.6)
Risulta u ∈ W1 . Inoltre da (10.5), (10.6) segue

u = w20 − w2 , (10.7)

da cui u ∈ W2 . Per l’ipotesi W1 ∩ W2 = {0} vale allora u = 0.


Sostituendo tale espressione in (10.6) e in (10.7) si ricava w1 − w10 =
0 = w20 − w2 e infine w1 = w10 , w2 = w20 .
Osservazione 10.8. Se U e T sono ancora i sottospazi dell’oss. 10.4,
vale
U ∩ T = {(0, y, 0) |∈ R3 } =
6 {(0, 0, 0)},
quindi il teor. 10.7 conferma che la somma U + T non è diretta.
Esercizio 10.9. Consideriamo i sottospazi W1 e W2 in (10.1) e i sot-
tospazi U e T in (10.4). Delle seguenti coppie di sottospazi in R3 , dire
se la loro somma è diretta e se la loro somma è R3 : (a) W1 e W2 ;
(b) W1 e U ; (c) U e T .
Svolgimento. (a) Per la (10.3), vale W1 + W2 6= R3 . Poi

W1 ∩ W2 = {(x, 0, 0) | x ∈ R} ∩ {(0, y, y) | y ∈ R} =
= {(0, 0, 0)},

quindi la somma W1 + W2 è diretta.


2
Vale anche w2 = w20 , ma non ci interessa.

87
(b)
U = {(x, y, z) ∈ R3 | x = 0} = {(0, y, z) | y, z ∈ R}.
Vale W1 ∩ U = {(0, 0, 0)}, quindi la somma è diretta. Poi

W1 + U = {(x, 0, 0) + (0, y, z) | x, y, z ∈ R} = {(x, y, z) | x, y, z ∈ R}


= R3 .

(c) Nell’oss. 10.4 si è visto che la somma U + T non è diretta. Ogni


(a, b, c) ∈ R3 è somma di (0, b, c) ∈ U e (a, 0, 0) ∈ T , quindi U +T = R3 .

Sfida: dimostrare che i sottospazi richiesti nella domanda iniziale


sono precisamente due.

Compito 10.10. Se W è un sottospazio dello spazio vettoriale VK ,


cos’è W + W ?

88
Lezione 11

Dipendenza lineare

Qual è il più piccolo sottospazio di R3 contenente i vettori


w1 = (1, 2, 0), w2 = (1, −1, −3), w3 = (−1, −1, 1)?

Nel seguito supporremo fissato uno spazio vettoriale VK . Una “fa-


miglia” di vettori è una collezione F = v1 , v2 , . . . , vr di vettori; non si
escludono ripetizioni1 , ad es. non si esclude v1 = v2 .
Esempio 11.1. Una famiglia importante di vettori in M(1 × n, K) è
quella formata dalle righe di una matrice A ∈ M(m × n, K).
Definizione 11.2. La combinazione lineare della famiglia di vettori
F = v1 , v2 , . . . , vr con coefficienti x1 , x2 , . . . , xr ∈ K è
x1 v1 + x2 v2 + · · · + xr vr . (11.1)
1
Più precisamente una famiglia è un multiinsieme, generalizzazione del concetto di insieme in
cui a ogni elemento è associata la molteplicità di appartenenza all’insieme stesso.

89
Esempio 11.3. La definizione di sottospazio può essere riformulata
come segue: un insieme W di vettori in uno spazio vettoriale VK è un
sottospazio se, e solo se, (i) 0 ∈ W , (ii) comunque presi u, v ∈ W ,
ogni combinazione lineare di u e v appartiene a W .
Problema: è possibile esprimere uno dei tre vettori w1 , w2 e w3
come combinazione lineare degli altri due?
Definizione 11.4. Data una famiglia di vettori F = v1 , v2 , . . . , vr in
uno spazio vettoriale VK , la famiglia F si dice linearmente dipenden-
te (oppure, “i vettori v1 , v2 , . . . , vr sono linearmente dipendenti”) se
esistono scalari x1 , x2 , . . . , xr , non tutti nulli, tali che
x1 v1 + x2 v2 + · · · + xr vr = 0. (11.2)
Se F non è linearmente dipendente, F si dice linearmente indipen-
dente. Quindi una famiglia di vettori linearmente indipendente è una
famiglia F = v1 , v2 , . . . , vr tale che la relazione (11.2) vale solo se
x1 = x2 = . . . = xr = 0.
Esercizio 11.5. Stabilire se la famiglia G = w1 , w2 , w3 è linearmente
dipendente.
Svolgimento. Per definizione, G è linearmente dipendente se, e solo
se, l’equazione x1 w1 + x2 w2 + x3 w3 = 0 nelle incognite x1 , x2 , x3
ha almeno una soluzione diversa da x1 = x2 = x3 = 0. Risolvo:
x1 (1, 2, 0) + x2 (1, −1, −3) + x3 (−1, −1, 1) = (0, 0, 0) ⇔ (x1 + x2 −
x3 , 2x1 − x2 − x3 , −3x2 + x3 ) = (0, 0, 0) ⇔
 
 x1 + x2 − x3 = 0  x1 − 2x2 = 0
2x1 − x2 − x3 = 0 ⇔ 2x1 − 4x2 = 0
−3x2 + x3 = 0 x3 = 3x2 .
 

Tale sistema ha infinite soluzioni (es. x1 = 2, x2 = 1, x3 = 3) quindi


G è linearmente dipendente. Esplicitamente, una combinazione lineare
di G che ne implica la dipendenza lineare è 2w1 + w2 + 3w3 = 0.

90
Definizione 11.6. Data una famiglia F = v1 , v2 , . . . , vr (finita, non
vuota) di vettori in uno spazio vettoriale VK , il sottospazio generato da
F è

hFi = {x1 v1 + x2 v2 + · · · + xr vr | x1 , x2 , . . . , xr ∈ K}.

hFi è semplicemente l’insieme di tutte le combinazioni lineari di F.

Osservazione 11.7. Si può dimostrare che hFi è il più piccolo sotto-


spazio di VK contenente F; infatti:
1) hFi è un sottospazio di VK (lasciamo la dimostrazione come impor-
tante esercizio);
2) ogni sottospazio U di VK che contenga F ne contiene pure tutte le
combinazioni lineari, quindi hFi ⊆ U .

Risposta alla domanda iniziale. Il sottospazio cercato è il sottospazio


generato da w1 , w2 , w3 , cioè l’insieme di tutte le combinazioni lineari
dei tre vettori.

Osservazione 11.8. La definizione di hFi si estende ad ogni famiglia


F di vettori, definendolo appunto come il più piccolo sottospazio di
VK che contiene F. In particolare, h∅i = {0}; se invece F è infini-
ta, hFi risulta uguale all’insieme di tutte le combinazioni lineari delle
sottofamiglie finite di F.

Definizione 11.9. Se hFi = W , diremo che F è una famiglia di


generatori del sottospazio W .

Teorema 11.10. Siano F e F 0 due famiglie di vettori in uno spazio


vettoriale VK , tali che F ⊆ F 0 . Allora:

91
(i) hFi ⊆ hF 0 i;

(ii) se F è linearmente dipendente, allora anche F 0 lo è;

(iii) se F 0 è linearmente indipendente, allora anche F lo è.

Dimostrazione. (Nel caso di famiglie finite e non vuote.) Poniamo


F = v1 , v2 , . . . , vr , F 0 = v1 , v2 , . . . , vr , vr+1 , . . . , vs .
(i) Consideriamo un vettore u ∈ hFi. Per definizione di hFi, esi-
stono x1 , x2 , . . . , xr ∈ K tali che u = x1 v1 + x2 v2 + · · · + xr vr . Ciò
implica

u = x1 v1 + x2 v2 + · · · + xr vr + 0vr+1 + · · · + 0vs .

Quindi u è combinazione lineare di F 0 e u ∈ hF 0 i.


(ii) Per definizione di famiglia linearmente dipendente, esistono
x1 , x2 , . . . , xr ∈ K non tutti 0, tali che x1 v1 + x2 v2 + · · · + xr vr = 0.
Ciò implica

x1 v1 + x2 v2 + · · · + xr vr + 0vr+1 + · · · + 0vs = 0.

A sinistra del segno uguale c’è una combinazione lineare di F 0 a coef-


ficienti non tutti 0; quindi F 0 è linearmente dipendente.
(iii) equivale a (ii).

Definizione 11.11. Per definizione ∅ si considera linearmente indi-


pendente; quindi il teorema precedente vale anche per F = ∅. Una
famiglia infinita F si dice linearmente dipendente se contiene almeno
una famiglia finita linearmente dipendente.

Esempi 11.12. 1) Se v ∈ V , v 6= 0, allora l’equazione xv = 0 ha


come unica soluzione x = 0; quindi la famiglia F = v è linearmente
indipendente.
2) F = 0 è linearmente dipendente, infatti 10 = 0.

92
3) Dal teor. 11.10 (ii), facendovi F = 0, si deduce che se una famiglia
F 0 contiene 0, allora F 0 è linearmente dipendente.
4) Consideriamo un qualsiasi v ∈ V e la famiglia F = v1 , v2 definita
ponendo v1 = v2 = v. Siccome 1v1 + (−1)v2 = 0, la famiglia F è
linearmente dipendente.
5) Dal teor. 11.10 (ii) e dall’osservazione precedente otteniamo che se
una famiglia di vettori contiene dei vettori ripetuti, essa è linearmente
dipendente.

Soluzione del problema: Nell’esercizio 11.5 abbiamo visto che

2w1 + w2 + 3w3 = 0

da cui w1 = − 12 w2 − 32 w3 ; quindi w1 è combinazione lineare di w2 ,


w3 .
Generalizzando l’idea, si ottiene:

Teorema 11.13. Se la famiglia di vettori F = v1 , v2 , . . . , vr è linear-


mente dipendente, allora uno di tali vettori è combinazione lineare dei
rimanenti; e viceversa.

Dimostrazione. “⇒” Per ipotesi esistono x1 , x2 , . . . , xr ∈ K, non tutti


zero, tali che x1 v1 + x2 v2 + · · · + xr vr = 0. Consideriamo uno scalare
xj che sia diverso da zero. Dall’equazione precedente si ricava
x1 x2 xj−1 xj+1 xr
vj = − v1 − v2 − · · · − vj−1 − vj+1 − · · · − vr .
xj xj xj xj xj

Resta dimostrato che vj è combinazione lineare di

v1 , v2 , . . . , vj−1 , vj+1 , . . . , vr .

93
“⇐” Esiste per ipotesi un intero s, 1 ≤ s ≤ r, tale che vs sia combi-
nazione lineare dei vettori rimanenti in F; dunque esistono y1 , y2 , . . . , ys ,
ys+1 , . . ., yr ∈ K tali che

vs = y1 v1 + y2 v2 + · · · + ys−1 vs−1 + ys+1 vs+1 + · · · + yr vr .

Se ne deduce

−y1 v1 − y2 v2 − · · · − ys−1 vs−1 + 1vs − ys+1 vs+1 − · · · − yr vr = 0.

A sinistra di “=” c’è una combinazione lineare di F a coefficienti non


tutti zero (almeno quello di vs ), quindi F è linearmente dipendente.

Esempio 11.14. Come applicazione del teorema, consideriamo una


famiglia F = v1 , v2 di due vettori. Abbiamo che F è linearmente
dipendente se, e solo se, v1 = hv2 oppure v2 = hv1 per un opportuno
h ∈ R.

Compito 11.15. I vettori (1, 0, 0), (1, 2, 3) di R3 sono linearmente


dipendenti?

94
Lezione 12

Basi di uno spazio vettoriale

Cosa sono le coordinate di un vettore?

Richiami. Sia F = v1 , v2 , . . . , vr una famiglia di vettori in uno


spazio vettoriale VK .

(a) F si dice linearmente dipendente


Pr se esistono degli scalari x1 , x2 , . . .,
xr , non tutti 0, tali che i=1 xi vi = 0 (def. 11.4).

(b) Il sottospazio generato da F è (def. 11.6)

Xr
hFi = { xi vi | x1 , x2 , . . . , xr ∈ K}.
i=1

(c) Teorema 11.13. Se F è linearmente dipendente, allora esiste j ∈


{1, 2, . . . , r} tale che vj sia combinazione lineare di v1 , v2 , . . .,
vj−1 , vj+1 , . . ., vr ; e viceversa.

95
Esercizio 12.1. Siano dati i seguenti vettori di R3 :

w1 = (1, 2, 0), w2 = (1, −1, −3), w3 = (−1, −1, 1).

Esprimere, se ciò è possibile, il sottospazio

W = hw1 , w2 , w3 i

di R3 come sottospazio generato da due vettori.


Svolgimento. Si è visto nell’esercizio 11.5 che i vettori w1 , w2 , w3 sono
linearmente dipendenti: infatti 2w1 + w2 + 3w3 = 0 da cui w1 =
− 21 w2 − 23 w3 . Per definizione di sottospazio generato da w1 , w2 , w3 ,
vale

W = {xw1 + yw2 + zw3 | x, y, z ∈ R} =


   
1 3
= x − w2 − w3 + yw2 + zw3 | x, y, z ∈ R =
2 2
   
x  3
= − + y w2 + − x + z w3 x, y, z ∈ R =
2 2
= hw2 , w3 i

perché tale insieme contiene precisamente tutte le combinazioni lineari


di w2 , w3 (con ininfluenti ripetizioni). L’idea alla base dell’esercizio si
può generalizzare:
Teorema 12.2. Se una famiglia F = v1 , v2 , . . . , vr di vettori in uno
spazio vettoriale VK è linearmente dipendente, allora tra i vettori di F
ce n’è uno, diciamo vj , che è combinazione lineare dei rimanenti e

hFi = hv1 , v2 , . . . , vj−1 , vj+1 , . . . , vr i.

Definizione 12.3. Una base di uno spazio vettoriale VK è una famiglia


di generatori di V , linearmente indipendente.

96
Esempio 12.4. Verifichiamo che la famiglia N = e1 , e2 , e3 , dove e1 =
(1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1), è una base di R3 . Infatti:
1) Verifichiamo che N è una famiglia di generatori di R3 , il che significa
hN i = R3 :
hN i = {xe1 + ye2 + ze3 | x, y, z ∈ R} =
= {(x, 0, 0) + (0, y, 0) + (0, 0, z) | x, y, z ∈ R} = {(x, y, z) | x, y, z ∈ R}
= R3 .
2) Consideriamo l’equazione xe1 + ye2 + ze3 = 0 che con gli stessi
calcoli equivale a (x, y, z) = (0, 0, 0), ovvero a x = y = z = 0. Ciò
implica che N è linearmente indipendente.
Definizione 12.5. La base naturale (o base canonica) di Rn è Nn =
N = e1 , e2 , . . . , en , dove e1 = (1, 0, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . .,
en = (0, 0, 0, . . . , 1).
Esercizio 12.6. Stabilire se F = (1, 0, 0), (0, 1, 0), (1, 1, 1) è una base
di R3 .
Svolgimento. 1) Stabilisco se hFi = R3 , cioè se ogni (a, b, c) ∈ R3 risulta
combinazione lineare di F, cioè ancora se l’equazione nelle incognite
x, y, z
x(1, 0, 0) + y(0, 1, 0) + z(1, 1, 1) = (a, b, c)
ha soluzione per ogni a, b, c ∈ R. Ottengo (x + z, y + z, z) = (a, b, c)
 
 x+z = a  x = a−c
⇔ y+z = b ⇔ y = b−c
z = c z = c.
 

Il sistema ha soluzioni, quindi hFi = R3 .


2) Studio la dipendenza lineare di F:
x(1, 0, 0) + y(0, 1, 0) + z(1, 1, 1) = (0, 0, 0) ⇔
⇔ (x + z, y + z, z) = (0, 0, 0) ⇔ x = y = z = 0.

97
Quindi F è linearmente indipendente.
Conclusione: F è una base di R3 .
Proposizione 12.7. Se la famiglia B = v1 , v2 , . . . , vn è una base del-
lo spazio vettoriale VK , allora ogni vettore u ∈ V si esprime come
combinazione lineare di B:

u = x1 v1 + x2 v2 + · · · + xn vn . (12.1)

Inoltre gli scalari x1 , x2 , . . . , xn soddisfacenti la (12.1) sono univoca-


mente determinati, cioè u si esprime in un unico modo1 come combi-
nazione lineare di B.
Dimostrazione. La prima affermazione esprime il fatto che hBi = V e
ciò è vero per ipotesi.
Per dimostrare l’unicità supponiamo

x1 v1 + x2 v2 + · · · + xn vn = u = y1 v2 + y2 v2 + · · · + yn vn .

Combinando le due equazioni otteniamo:

(x1 − y1 )v1 + (x2 − y2 )v2 + · · · + (xn − yn )vn = 0.

Siccome per ipotesi B è linearmente indipendente, da tale equazione si


deduce
x1 − y1 = x2 − y2 = . . . = xn − yn = 0
da cui x1 = y1 , x2 = y2 , . . ., xn = yn .

Definizione 12.8. Se u e B = v1 , v2 , . . . , vn sono rispettivamente un


vettore e una base di uno spazio vettoriale VK , gli scalari x1 , x2 , . . . , xn
soddisfacenti la (12.1), univocamente determinati, prendono il nome
di coordinate del vettore u rispetto alla base B.
1
Si intende unico a meno dell’ordine degli addendi.

98
Esercizio 12.9. Trovare le coordinate del vettore u = (1, 2, 3) di R3
(a) rispetto alla base naturale N = e1 , e2 , e3 , (b) rispetto alla base B
dell’esercizio 12.6.

Svolgimento. (a) Le coordinate sono per la (12.1) le soluzioni dell’e-


quazione u = x1 e1 + x2 e2 + x3 e3 , cioè (1, 2, 3) = (x1 , x2 , x3 ) ⇔
x1 = 1, x2 = 2, x3 = 3. Più in generale, le coordinate di ogni
(a1 , a2 , . . . , an ) ∈ Rn rispetto alla base naturale di Rn risultano uguali
alle componenti stesse del vettore a1 , a2 , . . . , an .
(b) Risolvo l’equazione u = y1 v1 + y2 v2 + y3 v3 ⇔

(1, 2, 3) = y1 (1, 0, 0) + y2 (0, 1, 0) + y3 (1, 1, 1) ⇔



 y1 + y 3 = 1
⇔ (1, 2, 3) = (y1 + y2 , y2 + y3 , y3 ) ⇔ y2 + y 3 = 2 ⇔
y3 = 3


 y1 = −2
⇔ y2 = −1
y3 = 3.

Le coordinate di u rispetto a B sono −2, −1, 3.

Proposizione 12.10. Se F = v1 , v2 , . . . , vn è una famiglia di vettori


in VK e ogni vettore di VK si esprime in modo unico come combinazione
lineare di F, allora F è una base di VK .

Dimostrazione. 1) L’affermazione hFi = V è equivalente all’ipotesi che


ogni u ∈ V si esprime come combinazione lineare di F.
2) Considero l’equazione nelle incognite x1 , x2 , . . . , xn ∈ K:

x1 v1 + x2 v2 + · · · + xn vn = 0. (12.2)

Vale:
0v1 + 0v2 + · · · + 0vn = 0. (12.3)

99
Le (12.2) e (12.3) esprimono entrambe 0 come combinazione lineare
di F. Per ipotesi tali combinazioni lineari hanno gli stessi coefficien-
ti, quindi x1 = 0, x2 = 0, . . ., xn = 0. Resta dimostrato che F è
linearmente indipendente.

Osservazione 12.11. Per la prop. 12.10, il punto 2) nello svolgimento


dell’es. 12.6 è superfluo.

Si può dimostrare, e lo dimostreremo in un caso particolare, che

Teorema 12.12. Ogni spazio vettoriale ammette almeno una base.

Osservazione 12.13. {0} ha come unica base la famiglia vuota ∅.

Esercizio 12.14. Trovare una base del sottospazio W = hw1 , w2 , w3 i


di R3 , dove

w1 = (1, 2, 0), w2 = (1, −1, −3), w3 = (−1, −1, 1).

Svolgimento. Essendo w1 combinazione lineare di w2 , w3 , vale

W = hw1 , w2 , w3 i = hw2 , w3 i.

Quindi F = w2 , w3 è una famiglia di generatori di W , è linearmente


indipendente (cfr. es. 11.14), dunque è una base di W .
L’idea alla base dell’esercizio si generalizza:

Proposizione 12.15. Ogni famiglia finita di generatori di uno spazio


vettoriale ne contiene una base.

Dimostrazione. (Cenno.) Supponiamo che F = v1 , v2 , . . . , vr sia una


famiglia di generatori dello spazio vettoriale VK , cioè

hv1 , v2 , . . . , vr i = V.

100
Se F è linearmente indipendente, allora soddisfa la definizione di base
e non c’è altro da dimostrare. Se al contrario F è linearmente dipen-
dente e, per fissare le idee, vr è combinazione lineare degli altri vettori
di F, allora per il teorema 12.2 vale hv1 , v2 , . . . , vr−1 i = V . Se la fa-
miglia v1 , v2 , . . . , vr−1 è linearmente indipendente, allora è una base;
altrimenti si può togliere un ulteriore vettore. Togliendo al massimo
tutti i vettori si arriva a ∅, che è linearmente indipendente; quindi pri-
ma o poi si raggiunge una famiglia linearmente indipendente, che è una
base di VK .
√ √
Compito 12.16. La famiglia B = (1, 2, 0), (3, 4, 0), ( 2, 3, 0) è una
base di R3 ?

101
102
Lezione 13

Concetto di dimensione

Trovare, se esistono, quattro vettori linearmente indipendenti in R3 .

Richiami. Sia F = v1 , v2 , . . . , vr una famiglia di vettori in uno


spazio vettoriale VK .

(a) Se hFi = V e F è linearmente indipendente, allora F si dice base


di VK (def. 12.3).

(b) Teorema 12.2. Se F è linearmente dipendente, allora esiste j ∈


{1, 2, . . . , r} tale che vj sia combinazione lineare di v1 , v2 , . . .,
vj−1 , vj+1 , . . ., vr ; e viceversa. In tal caso hFi = h v1 , v2 , . . .,
vj−1 , vj+1 , . . ., vr i.

(c) Proposizione 12.15. Se hFi = V , allora F contiene una base di V .

Teorema 13.1 (Teorema dello scambio). Sia F = v1 , v2 , . . . , vm


una famiglia di generatori di uno spazio vettoriale VK . Sia poi G =

103
u1 , u2 , . . . , ur una famiglia linearmente indipendente in VK . Allora
r ≤ m. Inoltre in F è possibile scegliere m − r vettori vi1 , vi2 , . . .,
vim−r in modo che
hu1 , u2 , . . . , ur , vi1 , vi2 , . . . , vim−r i = V. (13.1)

Dimostrazione. Essendo F una famiglia di generatori di VK , esistono


degli scalari x1 , x2 , . . . , xm tali che
u1 = x1 v1 + x2 v2 + · · · + xm vm . (13.2)
Se valesse x1 = x2 = . . . = xm = 0, allora u1 = 0, contro l’ipotesi che
G sia linearmente indipendente. Previa un’eventuale permutazione di
v1 , v2 , . . . , vm , possiamo supporre x1 6= 0. Dalla (13.2):
1 x2 x3 xm
v1 = u1 − v2 − v3 − · · · − vm . (13.3)
x1 x1 x1 x1
Ne segue:
V = hFi Vero per ipotesi
Segue dalla proposizione:
= hu1 , v1 , v2 , . . . , vm i
se F ⊆ F 0 , allora hFi ⊆ hF 0 i
Segue dalla (13.3) e
= hu1 , v2 , . . . , vm i
dal teor. 12.2, seconda parte.
Abbiamo fatto il cosiddetto “scambio” di v1 con u1 . Per quanto
sopra dimostrato, esistono degli scalari y1 , y2 , . . . , ym tali che
u2 = y1 u1 + y2 v2 + · · · + ym vm .
Se valesse y2 = y3 = . . . = ym = 0, allora si avrebbe u2 = y1 u1 e
ciò contraddirebbe l’indipendenza di G. Allora, previa un’eventuale
ulteriore permutazione di v2 , . . ., vm , possiamo supporre y2 6= 0. Ne
segue
y1 1 y3 ym
v2 = − u1 + u2 − v3 − · · · − vm
y2 y2 y2 y2
104
e, con argomentazioni simili a quelle di sopra,

V = hu1 , v2 , v3 , . . . , vm i = hu1 , u2 , v2 , v3 , . . . , vm i
= hu1 , u2 , v3 , . . . , vm i.

Abbiamo fatto lo scambio di v2 con u2 . Ripetendo le stesse argomen-


tazioni, è possibile fare lo scambio di v3 con u3 e cosı̀ via, fino a quando
una delle due famiglie si esaurisce.
Supponiamo r > m. Quindi con m scambi si ottiene

V = hu1 , u2 , . . . , um i;

ne segue che ur è combinazione lineare di u1 , u2 , . . . , um , contraddicen-


do l’ipotesi che G sia linearmente indipendente. L’assurdo prova che
r ≤ m e quindi

V = hu1 , u2 , . . . , ur , vr+1 , vr+2 , . . . , vm i.

Riattribuendo a ciascuno dei vettori vr+1 , vr+2 , . . . , vm l’indice che


aveva in origine, prima delle permutazioni, si ottiene la (13.1).

La disequazione r ≤ m nel teorema dello scambio significa che


ogni famiglia linearmente indipendente in VK ha un numero di vettori
minore o uguale al numero di vettori di ogni famiglia di generatori di
VK .

Risposta alla domanda iniziale. Una base di R3 è N = (1, 0, 0), (0, 1, 0),
(0, 0, 1). Siccome R3 ammette questa famiglia di tre generatori, ogni fa-
miglia linearmente indipendente in R3 ha non più di tre vettori. Quindi
non esiste una famiglia con la proprietà richiesta. (L’idea alla base della
risposta verrà generalizzata nella prop. 13.4.)

105
Teorema 13.2. Sia B = v1 , v2 , . . . , vm una base finita di uno spazio
vettoriale VK . Allora ogni altra base di VK è composta dallo stesso
numero, m, di vettori.

Dimostrazione. Consideriamo un’altra base B 0 di VK . Se B 0 ha più


vettori di B, allora consideriamone un numero r > m, formanti una
famiglia G, che risulta linearmente indipendente. Dal teorema dello
scambio, con F = B, segue r ≤ m, assurdo. Ne segue che B 0 è una fa-
miglia finita il cui numero di vettori, diciamo s, soddisfa la disequazione
s ≤ m.
Considerando ora il fatto che B 0 è una famiglia di generatori di VK e
che B è una famiglia linearmente indipendente, dal teorema dello scam-
bio otteniamo m ≤ s. Combinando ciò con la disequazione precedente
otteniamo s = m.

Definizione 13.3. Se uno spazio vettoriale VK ha una base finita com-


posta da n vettori, si dirà che n è la dimensione di VK , dim VK = n.
Se VK non ha una base finita, allora si pone dim VK = ∞.

Proposizione 13.4. In uno spazio vettoriale VK di dimensione n ∈ N:

(i) ogni famiglia H con più di n vettori è linearmente dipendente;

(ii) ogni famiglia H con meno di n vettori non è una famiglia di


generatori di VK .

Dimostrazione. Per ipotesi VK ha una base B composta da n vettori.


(i) Se H è linearmente indipendente, allora dal teorema dello scam-
bio (facendovi G = H e F = B) si deduce che H ha un numero minore
o uguale a n di vettori.
(ii) Se H0 è una famiglia di generatori di VK , allora dal teorema
dello scambio (facendovi G = B e F = H0 ) si deduce che H ha un
numero maggiore o uguale a n di vettori.

106
Teorema 13.5 (Teorema di completamento della base). Sia B =
v1 , v2 , . . . , vn una base di uno spazio vettoriale VK e G = u1 , u2 , . . . , ur
una famiglia linearmente indipendente di vettori in VK . Allora in B si
possono prendere n − r vettori che, aggregati a G, formino una base di
VK .

Dimostrazione. Ponendo F = B, m = n, sono soddisfatte le ipotesi


del teorema dello scambio. Quindi esistono n − r vettori vi1 , vi2 , . . .,
vin−r in B, tali che
hu1 , u2 , . . . , ur , vi1 , vi2 , . . . , vin−r i = V.
Consideriamo la famiglia H = u1 , u2 , . . . , ur , vi1 , vi2 , . . . , vin−r di cui
sopra. La famiglia H è una famiglia di generatori di VK , composta da
n vettori. Per la prop. 12.15, H contiene una base, che per il teorema
13.2 deve contenere lo stesso numero di vettori di B, quindi n. Ne
segue che H è già una base di VK .
Proposizione 13.6. Sia VK uno spazio vettoriale di dimensione finita
n. Allora (i) ogni famiglia di generatori di VK composta da n vettori è
una base; (ii) ogni famiglia linearmente indipendente in VK , composta
da n vettori, è una base.
Dimostrazione. (i) Consideriamo una famiglia F composta da n vet-
tori e tale che hFi = V . Per la prop. 12.15, F contiene una base e ogni
base è composta da n vettori. Ne segue che F è una base.
(ii) Per ipotesi esiste una base B di VK formata da n vettori. Con-
sideriamo una famiglia F 0 , linearmente indipendente, composta da n
vettori. Per il teorema di completamento della base (facendo in esso
G = F 0 e quindi r = n), è possibile aggregare ad F 0 , n − r = 0 vettori
in modo da ottenere una base. Questo significa che F 0 è una base.
Esercizio 13.7. (a) Esiste una base di R3 contenente i vettori v1 =
(1, 1, 1), v2 = (1, 2, 2)? (b) Se esiste una tale base, trovarla.

107
Svolgimento. (a) La famiglia F = v1 , v2 è linearmente indipendente.
Per il teorema di completamento della base, da ogni base di R3 è pos-
sibile estrarre n − r = 3 − 2 = 1 vettore v tale che v1 , v2 , v sia una
base di R3 . La risposta è quindi affermativa.
(b) Il vettore v può essere scelto in
N = e1 , e2 , e3 = (1, 0, 0), (0, 1, 0), (0, 0, 1).
Stabilisco se F1 = v1 , v2 , e1 è una base di R3 . Studio la dipendenza
lineare di F1 , risolvendo:
xv1 + yv2 + ze1 = 0 ⇔ x(1, 1, 1) + y(1, 2, 2) + z(1, 0, 0) = (0, 0, 0)

x+y+z = 0
⇔ (x + y + z, x + 2y, x + 2y) = (0, 0, 0) ⇔
x + 2y = 0.
Tra le soluzioni, il sistema ha anche x = −2, y = 1, z = 1, quindi F1
è linearmente dipendente e non è una base.
Stabilisco allora se F1 = v1 , v2 , e2 è una base di R3 . Studio la
dipendenza lineare di F2 , risolvendo:
xv1 + yv2 + ze2 = 0 ⇔ x(1, 1, 1) + y(1, 2, 2) + z(0, 1, 0) = (0, 0, 0)

 x+y = 0
⇔ (x + y, x + 2y + z, x + 2y) = (0, 0, 0) ⇔ x + 2y + z = 0
x + 2y = 0


 y = −x
⇔ −x + z = 0 ⇔ x = y = z = 0.
−x = 0

Quindi F2 è linearmente indipendente. Per la prop. 13.6 (ii), F2 è una


base1 .
Compito
√ √ 13.8.
√ La famiglia di vettori F = (1, 2, −1), (3, 4, −1),
3
( 2, 3, 2), ( 7, 7, 49) di R è linearmente dipendente?
1
Cioè la prop. 13.6 permette di omettere la verifica di hF2 i = R3 .

108
Lezione 14

Ancora su basi e dimensione

Dati due sottospazi W1 e W2 di uno spazio vettoriale VK , che relazione


esiste tra dim W1 , dim W2 e dim(W1 + W2 )?

Nozioni indispensabili per la comprensione degli argomenti seguen-


ti: definizione di somma di due sottospazi (10.2); di somma diretta
(def. 10.5); caratterizzazione delle somme dirette (prop. 10.7); defini-
zione di base (def. 12.3); di dimensione (def. 13.3); ogni famiglia fini-
ta di generatori di uno spazio vettoriale ne contiene una base (prop.
12.15).

Osservazione 14.1. Come risposta, dim(W1 +W2 ) = dim W1 +dim W2


è sicuramente sbagliata: infatti, se W1 = W2 6= {0}, allora

W1 + W2 = {w1 + w2 | w1 ∈ W1 , w2 ∈ W2 } = W1 = W2 ,

quindi posto dim W1 = r > 0 vale dim(W1 + W2 ) = r mentre dim W1 +


dim W2 = 2r 6= r.

109
Proposizione 14.2. Siano W1 e W2 sottospazi di uno spazio vetto-
riale VK ; siano, inoltre, G1 e G2 due famiglie di generatori di, rispet-
tivamente, W1 e W2 . Allora G1 ∪ G2 è una famiglia di generatori di
W1 + W2 .

Dimostrazione. (Nel caso di famiglie finite non vuote.) Poniamo

G1 = v1 , v2 , . . . , vr , G2 = u1 , u2 , . . . , us .

Per ipotesi e definizione di sottospazio generato

W1 = {x1 v1 + x2 v2 + · · · + xr vr | x1 , x2 , . . . , xr ∈ K},
W2 = {y1 u1 + y2 u2 + · · · + ys us | y1 , y2 , . . . , ys ∈ K}.

Ne segue

W1 + W2 = {w1 + w2 | w1 ∈ W1 , w2 ∈ W2 } =
= {x1 v1 + · · · + xr vr + y1 u1 + · · · + ys us | x1 , . . . , ys ∈ K} =
= hG1 ∪ G2 i.

Proposizione 14.3. Se W1 e W2 sono sottospazi di dimensione finita


in uno spazio vettoriale VK , allora anche dim(W1 + W2 ) è finita e
dim(W1 + W2 ) ≤ dim W1 + dim W2 .

Dimostrazione. Poniamo r = dim W1 , s = dim W2 . Quindi W1 e W2


hanno due basi, chiamiamole G1 e G2 , con, rispettivamente, r ed s
elementi. Per la prop. 14.2, vale hG1 ∪ G2 i = W1 + W2 , quindi G1 ∪
G2 contiene una base B di W1 + W2 , la quale ha allora n ≤ r + s
elementi. La tesi segue osservando n = dim(W1 + W2 ), r = dim W1 ,
s = dim W2 .

110
Una risposta precisa al problema è data dalla seguente formula di
Grassmann valida per due sottospazi qualsiasi W1 e W2 di dimensioni
finite di uno spazio vettoriale VK , che enunciamo senza dimostrazione:

dim(W1 + W2 ) + dim(W1 ∩ W2 ) = dim W1 + dim W2 . (14.1)

Corollario 14.4. Dati due sottospazi W1 e W2 in uno spazio vettoriale


VK , di dimensione finita, risulta dim(W1 + W2 ) = dim W1 + dim W2
se, e solo se, la somma W1 + W2 è diretta.
Dimostrazione.
dim(W1 + W2 ) = dim W1 + dim W2
⇔ dim(W1 ∩ W2 ) = 0 Segue dalla (14.1)
⇔ W1 ∩ W2 = {0} perché h∅i = {0}
Teor. 10.7: W1 ∩ W2 = {0}
⇔ W1 + W2 è diretta
⇔ W1 + W2 è diretta.

Esercizio 14.5. Dati i seguenti sottospazi di R4 :

W1 = {(0, x, y, z) ∈ R4 | x + y + z = 0},
W2 = h(1, 0, 0, 1), (1, 1, −1, 1), (1, 2, −2, 1)i,

(a) trovare una base di W1 , di W2 e di W1 + W2 , (b) stabilire se la


somma W1 + W2 è diretta.
Svolgimento.

(a) W1 = {(0, x, y, −x − y) | x, y ∈ R} =
= {(0, x, 0, −x) + (0, 0, y, −y) | x, y ∈ R} =
= {x(0, 1, 0, −1) + y(0, 0, 1, −1) | x, y ∈ R} =
= h(0, 1, 0, −1), (0, 0, 1, −1)i.

111
Una base di W1 è B = (0, 1, 0, −1), (0, 0, 1, −1).
Ora studio la dipendenza lineare della seguente famiglia di genera-
tori di W2 :
F = (1, 0, 0, 1), (1, 1, −1, 1), (1, 2, −2, 1),
risolvendo
x(1, 0, 0, 1) + y(1, 1, −1, 1) + z(1, 2, −2, 1) = 0
⇔ (x + y + z, y + 2z, −y − 2z, x + y + z) = (0, 0, 0, 0)


 x+y+z = 0 
y + 2z = 0 x = −y − z = z

⇔ ⇔
−y − 2z  = 0 y = −2z
 

   
  ((((  

x(
( +y+z  = 0
che ha come soluzione, per esempio, x = 1, y = −2, z = 1. Quindi F
è linearmente dipendente e (1, 2, −2, 1) = −(1, 0, 0, 1) + 2(1, 1, −1, 1).
Ne deduco W2 = h(1, 0, 0, 1), (1, 1, −1, 1)i. Una base di W2 è B2 =
(1, 0, 0, 1), (1, 1, −1, 1). Per la prop. 14.2, una famiglia di generatori di
W1 + W2 è B1 ∪ B2 . Studio la dipendenza lineare di B1 ∪ B2 , risolvendo:
x(0, 1, 0, −1) + y(0, 0, 1, −1) + z(1, 0, 0, 1) + t(1, 1, −1, 1) = (0, 0, 0, 0)
⇔ (z + t, x + t, y − t, −x − y + z + t) = (0, 0, 0, 0)

z+t = 0 
 z = −t


x+t = 0

⇔ ⇔ x = −t
y − t = 0
y = t.

 
−x − y + z + t = 0

Questo sistema ha come soluzioni anche x = −1, y = 1, z = −1, t = 1,


da cui
−(0, 1, 0, −1) + (0, 0, 1, −1) − (1, 0, 0, 1) + (1, 1, −1, 1) = (0, 0, 0, 0)
⇒ (1, 1, −1, 1) = (0, 1, 0, −1) − (0, 0, 1, −1) + (1, 0, 0, 1).

112
Ne segue W1 + W2 = h(0, 1, 0, −1), (0, 0, 1, −1), (1, 0, 0, 1)i. Studio
ora la dipendenza lineare di G = (0, 1, 0, −1), (0, 0, 1, −1), (1, 0, 0, 1),
risolvendo

x(0, 1, 0, −1) + y(0, 0, 1, −1) + z(1, 0, 0, 1) = (0, 0, 0, 0)


⇔ (z, x, y, −x − y + z) = (0, 0, 0, 0)


 z = 0
x = 0

⇔ ⇔ x = y = z = 0.

 y = 0
−x − y + z = 0

Quindi G è una famiglia linearmente indipendente e una base di W1 +


W2 .
(b) Dal punto precedente, dim W1 = dim W2 = 2 e dim(W1 + W2 ) =
3, quindi dim(W1 + W2 ) 6= dim W1 + dim W2 e per il cor. 14.4 la somma
W1 + W2 non è diretta.
Una base per lo spazio vettoriale V dei vettori geometrici. Consi-
deriamo un sistema di riferimento (un’origine O, tre assi ortogonali,
−−→ −−→ −−→
un’unità di misura). Definiamo i vettori i = OP1 , j = OP2 , k = OP3
(cfr. fig. 14.1).

Proposizione 14.6. (i) Un punto P dello spazio ha coordinate x, y,


z se, e solo se,
−→
OP = xi + yj + zk.
−→
(ii) Per ogni v ∈ V esiste un unico punto P tale che OP = v.

Notazioni 14.7. Scrivendo P (x, y, z) si intenderà che x, y, z sono le


coordinate del punto P , rispetto a un sistema di riferimento sottinteso.

Da (i) e (ii) segue che ogni v ∈ V si esprime in modo unico come


combinazione lineare di B = i, j, k; ne segue che B è una base di V (cfr.
prop. 12.10). In particolare, dim V = 3.

113
Figura 14.1: I vettori i, j, k.

 Esistono basi di V in cui i vettori non sono perpendicolari e non


hanno lunghezze uguali.

Osservazione 14.8. Un sistema di riferimento può essere definito,


in alternativa, assegnando un punto O (detto origine) e tre vettori
i, j, k di lunghezza 1, a due a due perpendicolari. Useremo questo
approccio in futuro e denoteremo tale riferimento con RC(Oijk) (“RC”
= riferimento cartesiano).

Dati due punti P1 (x1 , y1 , z1 ) e P2 (x2 , y2 , z2 ), si ha:


−−→ −−→ −−→ −−→
OP2 = OP1 + P1 P2 , OPi = xi i + yi j + zi k, i = 1, 2, (14.2)

da cui deduciamo
−−→ −−→ −−→
P1 P2 = OP2 − OP1 = (x2 − x1 )i + (y2 − y1 )j + (z2 − z1 )k,

114
Figura 14.2: Equazione (14.2).

vale a dire che fissato il riferimento cartesiano RC(Oijk), le coordinate


−−→
del vettore P1 P2 rispetto alla base i, j, k si ottengono per differenza
dalle coordinate dei due punti in quel riferimento.

Esercizio 14.9. Se B = i, j, k è una base definita come sopra, stabilire


se F = i, i + j, i + k è una base di V.

Svolgimento. Studio la dipendenza lineare di F: risolvo l’equazione

xi + y(i + j) + z(i + k) = 0 ⇔ (x + y + z)i + yj + zk = 0.

Siccome B è linearmente indipendente, l’ultima equazione equivale a



 x+y+z = 0
y = 0 ⇔ x = y = z = 0,
z = 0

quindi F è linearmente indipendente. Siccome dim V = 3 e F è una


famiglia di tre vettori in V linearmente indipendente, F è necessaria-
mente una base (prop. 13.6 (ii)).

115
Esercizio 14.10. Dati i seguenti sottospazi di M(2 × 2, R): W1 =
hA, Bi; W2 = hC, Di dove

     
1 0 1 −1 0 1
A= , B= , C= , D = AB,
2 −1 0 −1 0 0

(a) trovare delle basi di W1 , W2 , W1 + W2 , W1 ∩ W2 ,


(b) verificare la formula di Grassmann in questo caso,
(c) dire se la somma W1 + W2 è diretta,
(d) determinare una base di M(2 × 2, R) che contenga la base di W1 +
W2 trovata al punto (a).

 
1 −1
Svolgimento. In primo luogo D = AB = .
2 −1
(a) A, B sono linearmente indipendenti, quindi una base di W1 è B1 =
A, B. Analogamente una base di W2 è B2 = C, D. Una famiglia di
generatori di W1 + W2 è B1 ∪ B2 . Ne studiamo la dipendenza lineare,
risolvendo l’equazione

   
x + y + t −y + z − t 0 0
xA + yB + zC + tD = O2×2 ⇔ =
2x + 2t −x − y − t 0 0

x+y+t = 0 
z = t


−y + z − t = 0

⇔ x = −t
2x + 2t = 0
y = 0.

 
−x − y − t = 0

La famiglia B1 ∪B2 è linearmente dipendente. Prendendo t = 1 si ricava


−A + C + D = O2×2 , quindi A = C + D; allora hB, C, Di = W1 + W2 .

116
Studiamo ora la dipendenza lineare della famiglia B, C, D:
   
y + t −yz − t 0 0
yB + zC + tD = O2×2 ⇔ =
2t −y − t 0 0


 y+t = 0
−y + z − t = 0

⇔ y = z = t = 0.

 2t = 0
−y − t = 0

Ne segue che B3 = B, C, D è una base di W1 + W2 . Per trovare


l’intersezione consideriamo che
  
x+y −y
W1 = {xA + yB | x, y ∈ R} = x, y ∈ R ,
2x −x − y
  
t z − t
W2 = {zC + tD | z, t ∈ R} = z, t ∈ R .
2t −t
Cerchiamo i vettori comuni ai due sottospazi uguagliandone gli ele-
menti generici:
   
x+y −y t z−t
= .
2x −x − y 2t −t
Ne deriva il sistema

x+y−t = 0 
z = t


−y − z + t = 0

⇔ x = t
2x − 2t = 0
y = 0.

 
−x − y + t = 0

Sostituendo i valori di x e y trovati nell’espressione della generica


matrice in W1 si ha
    
t 0 1 0
W1 ∩ W2 = t∈R = .
2t −t 2 −1
117
 
1 0
Una base di W1 ∩ W2 è B4 = .
2 −1
(b) Abbiamo dim(W1 + W2 ) = 3, dim(W1 ∩ W2 ) = 1, dim W1 =
dim W2 = 2, quindi in questo caso la (14.1) si riformula in 3+1 = 2+2,
che è un’identità.
(c) W1 ∩ W2 non è il sottospazio nullo, quindi la somma non è diretta.
(d) Una base1 di M(2 × 2, R) è B = E1 , E2 , E3 , E4 dove
       
1 0 0 1 0 0 0 0
E1 = , E2 = , E3 = , E4 = ;
0 0 0 0 1 0 0 1
questo perché ogni matrice reale 2 × 2 si esprime in modo unico come
combinazione lineare di B (prop. 12.10). Per il teorema 13.5 di com-
pletamento della base, una di queste quattro matrici può essere aggre-
gata alle tre che compongono B3 per ottenere una base di M(2 × 2, R).
Studiando la dipendenza di B, C, D, E1 , cioè risolvendo
xB + yC + zD + tE1 = O2×2
si ottiene il sistema 

 x+z+t = 0
−x + y − z = 0


 2z = 0
−x − z = 0

che ha come soluzione x = y = z = t = 0. Allora la famiglia B5 = B,


C, D, E1 è linearmente indipendente, quindi (prop. 13.6) una base di
M(2 × 2, R) che come richiesto contiene B3 .
Esercizio 14.11. Con riferimento all’eserc. 14.5,
(c) trovare una base di W1 ∩ W2 ,
(d) verificare la formula di Grassmann in questo caso,
(e) determinare una base di R4 che contenga la base di W1 +W2 trovata
al punto (a).
1
D’ora in avanti chiameremo naturale questa base di matrici.

118
Compito 14.12. Esistono due sottospazi W1 e W2 di R3 aventi cia-
scuno dimensione due e tali che W1 + W2 = R3 ? La loro somma è
diretta?

119
120
Lezione 15

Funzioni lineari

Che relazione esiste tra lo spazio V dei vettori geometrici e R3 ?

Definizione 15.1. Siano VK e WK spazi vettoriali costruiti sul mede-


simo campo K. Una funzione L : V → W si dice funzione lineare (o
applicazione lineare, o omomorfismo di V in W ) se

∀h ∈ K : ∀v, v0 ∈ V : (i) L(hv) = hL(v); (ii) L(v+v0 ) = L(v)+L(v0 ).


(15.1)

Le (15.1) (i) e (ii) si chiamano proprietà di linearità di L.

Esercizio 15.2. Verificare che f : R2 → R3 : (x, y) 7→ (2x, y, x − y) è


una funzione lineare.

121
Svolgimento. Considero h ∈ R, v, v0 ∈ R2 , v = (x, y), v0 = (x0 , y 0 ).
Verifico le (15.1):

f (hv) = f ((hx, hy)) = (2hx, hy, hx − hy);


hf (v) = h(2x, y, x − y) = (2hx, hy, h(x − y)) = f (hv).
f (v + v0 ) = f ((x + x0 , y + y 0 )) =
= (2(x + x0 ), y + y 0 , x + x0 − y − y 0 );
f (v) + f (v0 ) = (2x, y, x − y) + (2x0 , y 0 , x0 − y 0 ) =
= (2x + 2x0 , y + y 0 , x − y + x0 − y 0 ) = f (v + v0 ).

La f soddisfa le due proprietà di linearità, quindi è lineare.

Definizioni 15.3. Sia L : V → W una funzione lineare.

• Se V = W , allora L si dice endomorfismo dello spazio vettoriale


VK .

• Se L è biiettiva, allora L si dice isomorfismo tra gli spazi vettoriali


VK e WK , che si dicono allora isomorfi.

• Se V = W e L è biiettiva, allora L si dice automorfismo dello


spazio vettoriale VK .

Esempio 15.4. La funzione


 
a b
L : M(2 × 2, R) → R4 : 7→ (a, b, c, d)
c d

è un isomorfismo. In primo luogo, L è chiaramente biiettiva; verifi-


chiamo poi le proprietà di linearità. Consideriamo
   0 0
a b a b
h ∈ R, A = , A0 = 0 0 .
c d c d
122
Vale:
 
ha hb
L(hA) = L = (ha, hb, hc, hd);
hc hd
hL(A) = h(a, b, c, d) = L(hA).
a + a0 b + b 0
 
L(A + A0 ) = L 0 0 = (a + a0 , b + b0 , c + c0 , d + d0 );
c+c d+d
L(A) + L(A0 ) = (a, b, c, d) + (a0 , b0 , c0 , d0 ) = L(A + A0 ).

Quindi L è un isomorfismo.
Osservazione 15.5. Due spazi vettoriali isomorfi sono “essenzialmen-
te uguali”. Ciò significa che se si identificano gli elementi di V con gli

elementi di W posti in corrispondenza da L, le due operazioni di somma


(nei rispettivi spazi vettoriali) e le due operazioni di prodotto esterno
coincidono.
Notazione 15.6. D’ora in avanti identificheremo ogni n-pla ordinata
di elementi di K con la matrice colonna avente quegli stessi elementi.

123
Quindi K n = M(n × 1, K). Ad esempio
 
7
(7, 8, 9) = 8 .
9

Il fine della notazione appena introdotta è quello di poter molti-


plicare a destra di una matrice un elemento di K n , come avverrà in
seguito.
 Un vettore di K n è una matrice colonna, non una matrice riga.

Definizione 15.7. Sia VK uno spazio vettoriale di dimensione finita


n > 0 e B = v1 , v2 , . . . , vn una sua base1 . Dato v ∈ V ,

v = x1 v1 + x2 v2 + · · · + xn vn , (15.2)

la colonna delle coordinate di v rispetto a B è


 
x1
 x2  n
Xv =  ...  ∈ K .

xn

Osservazioni 15.8. 1) La colonna delle coordinate di v è la colonna


che i cui elementi sono le coordinate di v.
2) Nella definizione precedente la notazione sottintende la base. Vo-
lendolo evitare, si potrebbe usare una simbologia del tipo [v]B al posto
di Xv .
Definizione 15.9. Sia VK uno spazio vettoriale di dimensione finita
n > 0 e B = v1 , v2 , . . . , vn una sua base. Definiamo la funzione χB :
V → K n ponendo χB (v) = Xv per ogni v ∈ V .
1
Più precisamente, una base ordinata.

124
Proposizione 15.10. La funzione χB è un isomorfismo.

Dimostrazione. 1) χB è biiettiva; infatti, per ogni w = (x1 , x2 , . . . , xn ) ∈


K n esiste un unico v ∈ V tale che χB (v) = w e precisamente il vettore
v definito dalla (15.2).
2) χB soddisfa la (15.1) (i). Infatti, consideriamo h ∈ K e v ∈ V ,
v = x1 v1 + x2 v2 + · · · + xn vn . Vale:

χB (hv) = χB (hx1 v1 + hx2 v2 + · · · + hxn vn ) = (hx1 , hx2 , . . . , hxn );


hχB (v) = h(x1 , x2 , . . . , xn ) = χB (hv).

3) χB soddisfa la (15.1) (ii). Infatti, consideriamo v come sopra e


v0 = x01 v1 + x02 v2 + · · · + x0n vn . Vale

χB (v + v0 ) = χB ((x1 + x01 )v1 + (x2 + x02 )v2 · · · + (xn + x0n )vn )


= (x1 + x01 , x2 + x02 , . . . , xn + x0n );
χB (v) + χB (v0 ) = (x1 , x2 , . . . , xn ) + (x01 , x02 , . . . , x0n ) = χB (v + v0 ).

Risposta alla domanda iniziale. Applicando la proposizione sopra a


V = V e a una base B = i, j, k di V, otteniamo che la risposta è: si
tratta di spazi vettoriali isomorfi (cioè essenzialmente uguali). Più in
generale, K n è essenzialmente l’unico spazio vettoriale di dimensione
n costruito sul campo K, nel senso che tutti gli altri sono isomorfi, e
perciò essenzialmente uguali, a quello.

Notazione 15.11. D’ora in avanti il vettore nullo di uno spazio vet-


toriale VK potrà essere denotato con 0V .

125
Definizione 15.12. Il nucleo di una funzione lineare L : V → W è

ker L = {v ∈ V | L(v) = 0W }. (15.3)

Teorema 15.13. Siano VK e WK spazi vettoriali e L : V → W una


funzione lineare. Allora ker L è un sottospazio di VK .

Dimostrazione. Applichiamo la def. 9.7, cambiandola un po’ per evi-


tare confusione con i simboli. La tesi del teorema è:
(i) 0V ∈ ker L
(ii) ∀h, k ∈ K : ∀u, u0 ∈ ker L : hu + ku0 ∈ ker L.

(15.1)(i)
(i) L(0V ) = L(00V ) = 0L(0V ) = 0W , perché 0w = 0W per ogni
w ∈ W . Resta dimostrato che 0V ∈ ker L.
(ii) Consideriamo h, k ∈ K e u, u0 ∈ ker L. Vale:
(15.1)(ii) (15.1)(i)
L(hu + ku0 ) = L(hu) + kL(u0 ) = hL(u) + kL(u0 ).

Siccome u, u0 ∈ ker L si ha L(u) = L(u0 ) = 0W . Quindi

L(hu + ku0 ) = h0W + k0W = 0W .

Ne segue hu + ku0 ∈ ker L.

Esercizio 15.14. Dando per dimostrato che f : R2 → R3 : (x, y) 7→


(2x, y, x − y) sia lineare, trovare ker f .

Svolgimento.

ker f = {v ∈ R2 | f (v) = (0, 0, 0)} =


= {(x, y) ∈ R2 | f (x, y) = (0, 0, 0)} (1 ) =
= {(x, y) ∈ R2 | (2x, y, x − y) = (0, 0, 0)}.

126
Risolvo il sistema

 2x = 0
y = 0 ⇔ x = y = 0.
x−y = 0

Concludendo, ker f = {(0, 0)}.


Teorema 15.15. Siano VK e WK spazi vettoriali e L : V → W una
funzione lineare. La funzione L risulta iniettiva se, e solo se, ker L =
{0V }.

Dimostrazione. “⇒” L’ipotesi è che L sia iniettiva e la tesi è ker L =


{0V }. Vale 0V ∈ ker L perché L è un sottospazio. Consideriamo
v ∈ ker L; quindi, L(v) = 0W = L(0V ). Siccome per ipotesi L è
iniettiva, ne segue v = 0V .
“⇐” Consideriamo v1 , v2 ∈ V , tali che L(v1 ) = L(v2 ). Ciò implica:
(15.1)(i)
L(v1 ) − L(v2 ) = 0W ⇒ L(v1 ) + (−1)L(v2 ) = 0W ⇒
(15.1)(ii)
⇒ L(v1 ) + L((−1)v2 ) = 0W ⇒ L(v1 + (−1)v2 ) = 0W
⇒ L(v1 − v2 ) = 0W ⇒ v1 − v2 ∈ ker L.
Siccome per ipotesi ker L = {0V }, l’ultima condizione implica v1 −v2 =
0V , da cui v1 = v2 . Quindi L è iniettiva.
Esercizio 15.16. Stabilire se la funzione f dell’eserc. 15.14 è iniettiva.
Svolgimento. ker f = {(0, 0)}, quindi f è iniettiva.
Esercizio 15.17. (a) Trovare tutte le funzioni lineari f : R3 → R2
soddisfacenti le condizioni
f (1, 0, 0) = (1, 2), f (0, 1, 0) = (3, 4), f (0, 0, 1) = (1, 0). (15.4)
(b) Dire quali tra esse sono iniettive.
1
Qui avremmo dovuto scrivere f ((x, y)), ma d’ora in avanti eviteremo le doppie parentesi.

127
Svolgimento. (a) Osservo che se f è lineare e soddisfa (15.4), vale
∀x, y, z ∈ R:
(15.1)(ii)
f (x, y, z) = f (x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1)) =
(15.1)(i)
= f (x(1, 0, 0)) + f (y(0, 1, 0)) + f (z(0, 0, 1)) =
= xf (1, 0, 0) + yf (0, 1, 0) + zf (0, 0, 1) =
= x(1, 2) + y(3, 4) + z(1, 0) =
= (x + 3y + z, 2x + 4y). (15.5)

Ciò significa che se esiste una funzione lineare soddisfacente le (15.4),


allora essa è unica. Con conti del tutto simili all’eserc. 15.2, si verifica
che la funzione f (x, y, z) definita dalla (15.5) è lineare. Concludendo,
esiste un’unica funzione lineare con le proprietà richieste.
(b) Come nell’eserc. 15.14 occorre risolvere l’equazione

(x + 3y + z, 2x + 4y) = (0, 0),

o il sistema che se ne deduce:


  
x + 3y + z = 0 z = −x − 3y z = −y
⇔ ⇔
2x + 4y = 0 x = −2y x = −2y.

La variabile y può assumere un valore arbitrario, quindi

ker f = {(−2y, y, −y) | y ∈ R} =


6 {(0, 0, 0)}.

Per il teorema 15.15, f non è iniettiva.

Sfida: Trovare tutte le f : R3 → R2 soddisfacenti le prime due delle


tre equazioni (15.4).

Compito 15.18. Stabilire se la funzione f dell’eserc. 15.14 è suriettiva.

128
Lezione 16

Funzioni lineari e matrici

Trovare, se esiste, una funzione lineare R2 → R3 che non sia esprimi-


bile nella forma (x, y) 7→ (ax + by, cx + dy, gx + hy) con a, b, c, d, g, h ∈
R.

Teorema 16.1. Siano VK e WK spazi vettoriali. Se B = v1 , v2 , . . . , vn


è una base di VK e w1 , w2 , . . . , wn sono vettori (qualsiasi) in W , allora
esiste un’unica funzione lineare L : V → W tale che
L(vj ) = wj , j = 1, 2, . . . , n. (16.1)
Dimostrazione. Esistenza: definiamo una funzione L : V → W come
segue. Se v ∈ V , allora sono univocamente determinati x1 , x2 , . . . , xn ∈
K tali che v = x1 v1 + x2 v2 + · · · + xn vn . Poniamo per definizione
L(v) = x1 w1 + x2 w2 + · · · + xn wn .
Dimostriamo che L è lineare; consideriamo a tal fine h ∈ K, v, v0 ∈
V,
v = x1 v1 + x2 v2 + · · · + xn vn , v0 = x01 v1 + x02 v2 + · · · + x0n vn .

129
Vale:
def. di L
L(hv) = L(hx1 v1 + hx2 v2 + · · · + hxn vn ) =
= hx1 w1 + hx2 w2 + · · · + hxn wn ,
hL(v) = h(x1 w1 + x2 w2 + · · · + xn wn ) = L(hv);
L(v + v0 ) = L((x1 + x01 )v1 + (x2 + x02 )v2 + · · · + (xn + x0n )vn ) =
= (x1 + x01 )w1 + (x2 + x02 )w2 + · · · + (xn + x0n )wn ,
L(v) + L(v0 ) = (x1 w1 + x2 w2 + · · · + xn wn ) +
+ (x01 w1 + x02 w2 + · · · + x0n wn ) = L(v + v0 ).

Verifichiamo le (16.1). Per ogni j ∈ {1, 2, . . . , n} vale:


def. di L
L(vj ) = L(0v1 + 0v2 + · · · + 1vj + · · · + 0vn ) =
= 0w1 + 0w2 + · · · + 1wj + · · · + 0wn = wj .

Unicità: supponiamo che una funzione lineare M : V → W soddisfi


M (vj ) = wj per j = 1, 2, . . . , n; sia L : V → W la definizione definita
sopra. Consideriamo un qualsiasi vettore v = x1 v1 +x2 v2 +· · ·+xn vn ∈
V . Vale:
(15.1)
M (v) = M (x1 v1 + x2 v2 + · · · + xn vn ) =
= x1 M (v1 ) + x2 M (v2 ) + · · · + xn M (vn ) =
= x1 w1 + x2 w2 + · · · + xn wn =
def. di L
= L(v).

Resta dimostrato che M = L.


Una funzione lineare è completamente individuata dai valori che
essa assume su di una base del dominio.
Esempio 16.2. Nell’eserc. 15.17, applicando il teorema 16.1 con V =
R3 , W = R2 , v1 = (1, 0, 0), v2 = (0, 1, 0), v3 = (0, 0, 1), w1 = (1, 2),

130
w2 = (3, 4), w3 = (1, 0), otteniamo che esiste un’unica f : R3 → R2
lineare tale che f (vi ) = wi , i = 1, 2, 3.
Esercizio 16.3. Quante sono le funzioni lineari f : R3 → R2 soddi-
sfacenti le condizioni f (1, 0, 0) = (1, 2), f (0, 1, 0) = (3, 4)?
Svolgimento. Consideriamo un qualsiasi vettore u ∈ R2 . Dal teorema
16.1 deduco che esiste un’unica funzione lineare fu : R3 → R2 tale che

fu (v1 ) = w1 , fu (v2 ) = w2 , fu (v3 ) = u

(v1 , v2 , v3 , w1 , w2 come nell’esempio precedente). La funzione fu


ha le proprietà richieste; inoltre, se u 6= u0 , allora fu (v3 ) 6= fu0 (v3 ),
quindi fu 6= fu0 . Ne segue che esistono infinite funzioni con le proprietà
richieste.
Definizione 16.4. Per ogni A ∈ M(m × n, K), si definisce la funzione

FA : K n → K m : X 7→ AX. (16.2)

Si osservi che la definizione (16.2) è corretta: a X ∈ K n , la funzione


associa AX, prodotto di una matrice m × n per una n × 1, quindi una
matrice m × 1, quindi un elemento di K m .
Proposizione 16.5. Per ogni A ∈ M(m × n, K) la funzione FA è
lineare.
Dimostrazione. Consideriamo h ∈ K, X, X 0 ∈ K n . Vale:

FA (hX) = A(hX) = h(AX) = hFA (X);


FA (X + X 0 ) = A(X + X 0 ) = AX + AX 0 = FA (X) + FA (X 0 ).

Esercizio 16.6. Risolvere nuovamente l’eserc. 15.2.

131

2 0
Svolgimento. La funzione f è lineare perché f = FA dove A = 0 1 .
1 −1
Infatti
 
    2x
x x
F A : R2 → R3 : 7→ A =  y  = (2x, y, x − y).
y y
x−y

Osservazione 16.7. Se A = (aij ) ∈ M(m×n, K) e N = e1 , e2 , . . . , en


è la base naturale di K n , vale, per ogni j = 1, 2, . . . , n:
 
0  
 ..  a1j
. a 
2j
Aej = A 1 =  = Aj , colonna j-esima di A. (16.3)
 
.. 
 ..   . 
.
amj
0

Quindi
FA (ej ) = Aj , j = 1, 2, . . . , n. (16.4)
Dalla (16.4) discendono due conseguenze notevoli.
1) Se A, B ∈ M(m × n, K) e A 6= B, quindi Aj 6= B j per almeno un
j, allora FA (ej ) 6= FB (ej ), da cui FA 6= FB .
2) Ogni L : K n → K m , lineare, è associata ad una matrice, infatti:
definiamo A ∈ M(m × n, K), ponendo

Aj = L(ej ), j = 1, 2, . . . , n.

(16.4)
Risulta, per ogni j, FA (ej ) = Aj = L(ej ). Le funzioni FA e L
assumono gli stessi valori sulla base N = e1 , e2 , . . . , en . Per il teorema
16.1, FA = L.
Riassumendo, abbiamo dimostrato quanto segue:

132
Teorema 16.8. Associando ad ogni matrice A ∈ M(m × n, K) la
funzione lineare FA : K n → K m : X 7→ AX, si ottiene una corri-
spondenza biunivoca tra M(m × n, K) e l’insieme di tutte le funzioni
lineari K n → K m .

Risposta alla domanda iniziale. Ogni funzione lineare di R2 in R3 è del


tipo X 7→ AX con A matrice 3 × 2, quindi
   
  a b   ax + by
x x
7→  c d =  cx + dy  .
y y
g h gx + hy

Non esistono funzioni lineari che non siano di questo tipo.

Generalizzazione della corrispondenza biunivoca tra funzioni lineari e


matrici a spazi vettoriali di dimensione finita qualsiasi.
Fissiamo due spazi vettoriali VK e WK di dimensioni finite n ed m,
due basi B = v1 , v2 , . . . , vn di VK e B 0 = w1 , w2 , . . . , wm di WK .

Definizione 16.9. Dati due vettori v ∈ V , v = x1 v1 +x2 v2 +· · ·+xn vn


e w = y1 w1 + y2 w2 + · · · + ym wm ∈ W , denotiamo le loro colonne delle
coordinate rispetto a B e B 0 ordinatamente con
   
x1 y1
 x2   y2 
Xv = χB (v) =  .  ∈ K n, Yw = χ B 0 (w) =  .  ∈ K m.
 ..   .. 
xn ym

Ricordando che χB : V → K n è un isomorfismo (e anche χB0 :


W → K m ), e che due spazi vettoriali isomorfi sono essenzialmente
uguali, si possono trasportare i risultati precedenti alle funzioni lineari

133
V → W . Più precisamente, tramite quegli isomorfismi, la funzione FA
definita in (16.2) corrisponde ad L : V → W che rende commutativo
il diagramma
L
V W
χB χB 0
FA
Kn Km
cioè percorrendolo nei due modi diversi si ottiene la stessa funzione.
In altri termini, L = χ−1
B 0 ◦ FA ◦ χB . Quindi L soddisfa l’equazione

χB0 (L(v)) = FA (χB (v)), per ogni v ∈ V ,

che equivale a
YL(v) = AXv , v ∈ V. (16.5)
Ogni vettore vj della base B (j = 1, 2, . . . , n) ha coordinate tutte “0”
a parte la j-esima che vale uno; quindi Xvj = ej e dunque dalle (16.3),
(16.5) si deduce YL(vj ) = Aj . Quest’ultima equazione individua uni-
vocamente la matrice di partenza. Introduciamo una nuova notazione
per enfatizzare il fatto che la matrice A è associata ad L, rispetto alle
basi B e B 0 :

A = AL B B0 = YL(v1 ) YL(v2 ) . . . YL(vn ) ∈ M(m × n, K).



(16.6)

Le barre verticali “|” nella precedente equazione servono solo a separare


le colonne. Con questa nuova notazione la (16.5) si riformula in

YL(v) = AL B B0 Xv , v ∈ V. (16.7)

Osservazione 16.10. Siccome le colonne di AL B B0 contengono le coor-


dinate dei vettori L(v1 ), L(v2 ), . . ., L(vn ), posto AL B B0 = (aij ), l’equa-
zione (16.6) equivale alla seguente:

L(vj ) = a1j w1 + a2j w2 + · · · + amj wm , j = 1, 2, . . . , n. (16.8)

134
Osservazione 16.11. Nel caso particolare in cui VK = K n , WK = K m
e le basi B = N , B 0 = N 0 sono naturali, valgono le equazioni Xv = v e
Yw = w per cui le (16.6) e (16.7) equivalgono alle equazioni precedenti
(16.4) e (16.2).

Esercizio 16.12. Trovare Af B B0 , dove

f : R2 → R3 : (x, y) 7→ (2x, y, x − y)

e B = (1, 1), (1, −1), B 0 = (1, 0, 0), (1, 1, 0), (1, 1, 1).

Svolgimento. In primo luogo Af B B0 ∈ M(3 × 2, R). Dalla (16.6) si


deduce che la prima colonna è Yf (1,1) = Y(2,1,0) . Siccome
  (2, 1, 0) =
1
1(1, 0, 0) + 1(1, 1, 0) + 0(1, 1, 1), la prima colonna è 1. La seconda
0
colonna è Yf (1,−1) = Y(2,−1,2)
 . Siccome
 (2, −1, 2) = 3(1, 0, 0)−3(1, 1, 0)+
3
2(1, 1, 1), tale colonna è −3. Concludendo,

2
 
1 3
Af B B 0 = 1 −3 .
0 2

Esercizio 16.13. Proseguire l’esercizio precedente, usando l’equazione


(16.7) per calcolare f (2, 3).

Svolgimento. Pongo v = (2, 3). Calcolo Xv , risolvendo l’equazione

5 1
(2, 3) = x(1, 1) + y(1, −1) ⇒ x = , y = − .
2 2
135
 
5/2
quindi Xv = . Dalla (16.7):
−1/2
   
1 3   1
5/2
Yf (v) = 1 −3
  =  4 .
−1/2
0 2 −1

I valori 1, 4 e −1 trovati sono le coordinate di f (v), quindi

f (v) = 1(1, 0, 0) + 4(1, 1, 0) − 1(1, 1, 1) = (4, 3, −1),

in accordo con f (x, y) = (2x, y, x − y).

Compito 16.14. E’ sufficiente sapere che una funzione lineare f :


R2 → R3 soddisfa le condizioni

f (1, 0) = (2, 0, 1), f (1, 1) = (2, 1, 0)

per determinare f (x, y) per ogni x, y ∈ R? In caso affermativo, calco-


lare tale espressione.

136
Lezione 17

Il teorema delle dimensioni

Trovare, se esiste, una funzione lineare R3 → R3 che sia iniettiva ma


non suriettiva.

17.1 Ancora su funzioni lineari e matrici


Proposizione 17.1. Se VK , WK e UK sono spazi vettoriali e F : V →
W , G : W → U sono funzioni lineari, allora anche G ◦ F : V → U è
lineare.
La dimostrazione della proposizione precedente è un esercizio facile.
Lasciamo senza dimostrazione anche la seguente:
Proposizione 17.2. Siano VK , WK , UK spazi vettoriali di dimensioni
finite, non nulle, Siano B, B 0 , B 00 basi di, rispettivamente, VK , WK e
UK . Se F : V → W e G : W → U sono lineari, allora
0
AG◦F B B00 = AG B B00 AF B B0 . (17.1)

137
Osservazione 17.3. La (17.1) giustifica la definizione di prodotto
tra matrici. Infatti, essa asserisce che nella corrispondenza biunivo-
ca tra funzioni lineari e matrici, la composizione di funzioni lineari
corrisponde al prodotto di matrici.

Vediamo un caso particolare delle equazioni (16.6) e (16.7); facendo


VK = WK e L = idV (1 ),

Aid B B0 = (Yv1 |Yv2 |. . . |Yvn ) , (17.2)

Yv = Aid B B0 Xv . (17.3)
La (17.3) esprime la relazione tra le colonne delle coordinate di un
medesimo vettore v rispetto a due basi B e B 0 di VK . Per questo motivo
la matrice Aid B B0 si chiama matrice di cambiamento di coordinate (o
di cambiamento di base).

Proposizione 17.4. Siano B e B 0 basi di uno spazio vettoriale VK di


dimensione finita n > 0. Valgono:

(i) Aid B B = In ;
0
(ii) Aid B B0 è invertibile e la sua inversa è Aid B B .

Dimostrazione. Poniamo B = v1 , v2 , . . . , vn .
(i) Per la (17.2),
 
0
 .. 
.
B j

Aid B = Yvj = Xvj = 1 ,
 
 .. 
.
0
1
Scriveremo id invece di idV , per semplicità.

138
dove l’“1” nell’ultima colonna è sulla j-esima riga (j = 1, 2, . . . , n).
(ii) Applichiamo la (17.1) con G = F = id e B = B 00 :
0
Aid B B = Aid B B Aid B B0 ,

quindi
0
In = Aid B B Aid B B0 ,
da cui la tesi.

Esercizio 17.5. Date le seguenti basi di R3 :

B = (0, 0, 2), (1, 2, 1), (1, 1, 2); B 0 = (0, 1, 1), (1, 0, 1), (1, 1, 0),

(a) trovare la matrice del cambiamento di coordinate da B a B 0 . Sia poi


v quel vettore di R3 , le cui coordinate rispetto a B sono 1, 0, −1. Cal-
colare le coordinate di v rispetto a B 0 in due modi diversi: (b) usando
direttamente la definizione di coordinate, (c) usando la (17.3).

Svolgimento. (a) Etichetto i vettori di B = v1 , v2 , v3 e B 0 = w1 , w2 , w3 .


Al fine di trovare la matrice in (17.2), calcolo Yv1 risolvendo l’equazione

v1 = xw1 + yw2 + zw3 ⇔ (0, 0, 2) = x(0, 1, 1) + y(1, 0, 1) + z(1, 1, 0),

da cui il sistema
 
 y+z = 0  y = −z
x+z = 0 ⇔ x = −z
x+y = 2 −2z = 2.
 

Allora le coordinate di v1 sono x = 1, y = 1, z = −1 e


 
1
Yv1 =  1 .
−1
139
Posso seguire lo stesso procedimento per v2 e v3 oppure notare che
v2 = w1 + w3 e v3 = w1 + w2 , da cui
   
1 1
Yv2 = 0 , Yv3 = 1 .
1 0

Assemblando le tre colonne ottengo:


 
1 1 1
Aid B B0 =  1 0 1 .
−1 1 0

Il vettore v che ha coordinate 1, 0 e −1 rispetto a B è

v = 1v1 + 0v2 − 1v3 = (−1, −1, 0).

(b) Uso lo stesso procedimento del punto (a):

v = xw1 +yw2 +zw3 ⇔ (−1, −1, 0) = x(0, 1, 1)+y(1, 0, 1)+z(1, 1, 0),

da cui x = 0, y = 0, z = −1 sono le coordinate di v rispetto a B 0 .


(c) Applico la (17.3) con il dato del problema
 
1
Xv =  0 
−1

e ottengo
    
1 1 1 1 0
(17.3)
Yv =  1 0 1  0  =  0 .
−1 1 0 −1 −1
140
17.2 Il teorema delle dimensioni

Richiami. Siano VK e WK spazi vettoriali e L : V → W lineare.

(a) Il nucleo di L è ker L = {v ∈ V | L(v) = 0W }.

(b) ker L è un sottospazio di VK .

(c) L è iniettiva se, e solo se, ker L = {0V }.

Osservazione 17.6. Se si omette la condizione “lineare” è sempli-


ce trovare funzioni come quelle richieste nella domanda iniziale, ad
esempio f (x, y, z) = (ex , y, z) è iniettiva, ma non suriettiva, perché
per esempio (0, 0, 0) 6∈ im f . Tale funzione non è lineare perché il suo
nucleo è vuoto.

Teorema 17.7. Siano VK e WK spazi vettoriali e L : V → W una


funzione lineare. Allora l’immagine di L è un sottospazio di WK .

Dimostrazione. Un sottospazio di WK è un insieme U ⊆ W soddi-


sfacente (i) 0W ∈ U , (ii) ∀h, k ∈ K : ∀u, u0 ∈ U : hu + ku0 ∈ U ;
verifichiamo dunque queste proprietà con U = im L = {L(v) | v ∈ V }.
(i) Siccome L(0V ) = 0W vale 0W ∈ im L.
(ii) Consideriamo h, k ∈ K e u, u0 ∈ im L. Per definizione di im L,
esistono v, v0 ∈ V tali che L(v) = u, L(v0 ) = u0 . Ne segue

hu + ku0 = hL(v) + kL(v0 ) = L(hv) + L(kv0 ) =


= L(hv + kv0 ),

quindi hu + ku0 ∈ im L.

141
Teorema 17.8. Siano VK e WK spazi vettoriali e L : V → W una
funzione lineare. Se hv1 , v2 , . . . , vr i = V , allora
hL(v1 ), L(v2 ), . . . , L(vr )i = im L.
Dimostrazione. Per ipotesi
V = {x1 v1 + x2 v2 + · · · + xr vr | x1 , x2 , . . . , xr ∈ K}.
Per definizione,
im L = {L(x1 v1 + x2 v2 + · · · + xr vr ) | x1 , x2 , . . . , xr ∈ K} =
= {x1 L(v1 ) + x2 L(v2 ) + · · · + xr L(vr ) | x1 , x2 , . . . , xr ∈ K} =
= hL(v1 ), L(v2 ), . . . , L(vr )i.

Corollario 17.9. Se L : V → W è lineare e F = v1 , v2 , . . . , vr è una


base di VK , allora la famiglia L(F) = L(v1 ), L(v2 ), . . . , L(vr ) contiene
una base di im L.
Esercizio 17.10. Trovare una base di im f dove
f : R3 → R3 : (x, y, z) 7→ (x + y, y + z, 0).
Svolgimento. Applico il teorema 17.8 a F = N = e1 , e2 , e3 . Ottengo
im f = hf (e1 ), f (e2 ), f (e3 )i = h(1, 0, 0), (1, 1, 0), (0, 1, 0)i. La famiglia
f (N ) è linearmente dipendente e il secondo vettore è uguale alla somma
del primo e del terzo. Si può togliere tale vettore, ottenendo im f =
h(1, 0, 0), (0, 1, 0)i. Una base di im f è B = (1, 0, 0), (0, 1, 0).
Teorema 17.11 (Teorema delle dimensioni). Siano VK e WK spazi
vettoriali e L : V → W una funzione lineare. Se dim VK è finita,
allora anche dim ker L e dim imL sono finite e
dim ker L + dim im L = dim VK . (17.4)

142
Dimostrazione. Poniamo n = dim VK . Una base di ker L è una fami-
glia linearmente indipendente di vettori in VK , quindi è composta da
r ≤ n vettori. Denotiamo con G = u1 , u2 , . . . , ur una base di ker L.
Per il teorema di completamento della base, esistono n − r vettori
v1 , v2 , . . . , vn−r ∈ V tali che B = u1 , u2 , . . . , ur , v1 , v2 , . . . , vn−r sia
una base di VK . Ci proponiamo di dimostrare che F = L(v1 ), L(v2 ),
. . ., L(vn−r ) è una base di im L; ne seguirà

dim ker L + dim im L = r + (n − r) = n = dim V

che è la tesi.
1) La famiglia F è una famiglia di generatori di im L, infatti:

im L = {L(v) | v ∈ V } =
= {L(x1 u1 + x2 u2 + · · · + xr ur + y1 v1 + · · · + yn−r vn−r ) |
x1 , x2 , . . . , xr , y1 , y2 , . . . , yn−r ∈ K} =
= {x1 L(u1 ) + · · · + xr L(ur ) + y1 L(v1 ) + · · · + yn−r L(vn−r ) |
x1 , x2 , . . . , xr , y1 , y2 , . . . , yn−r ∈ K}.

Siccome i vettori della famiglia G appartengono a ker L, vale L(u1 ) =


L(u2 ) = . . . = L(ur ) = 0W . Quindi

im L = {y1 L(v1 ) + · · · + yn−r L(vn−r ) | y1 , . . . , yn−r ∈ K} =


= hL(v1 ), L(v2 ), . . . , L(vn−r )i = hFi.

2) La famiglia F è linearmente indipendente, infatti, consideriamo la

143
seguente equazione nelle incognite z1 , z2 , . . . , zn−r :
z1 L(v1 ) + z2 L(v2 ) + · · · + zn−r L(vn−r ) = 0W
⇔ L(z1 v1 + z2 v2 + · · · + zn−r vn−r ) = 0W
⇔ z1 v1 + z2 v2 + · · · + zn−r vn−r ∈ ker L
⇔ ∃a1 , a2 , . . . , ar ∈ K :
z1 v1 + z2 v2 + · · · + zn−r vn−r = a1 u1 + a2 u2 + · · · + ar ur
⇔ ∃a1 , a2 , . . . , ar ∈ K :
−a1 u1 − a2 u2 − · · · − ar ur + z1 v1 + z2 v2 + · · · + zn−r vn−r = 0V
⇔ (sfruttando l’indipendenza di B) z1 = z2 = . . . = zn−r = 0.

Risposta alla domanda iniziale. Supponiamo che una tale f esista. Es-
sendo f iniettiva, vale ker f = {0V }, che implica dim ker f = 0. Per il
teorema delle dimensioni, dim im f = dim R3 − dim ker f = 3. Quindi
una base di im f ha tre vettori, diciamo v1 , v2 , v3 . Ma in R3 ogni
famiglia linearmente indipendente di tre vettori è necessariamente una
base; quindi im f = hv1 , v2 , v3 i = R3 e f è suriettiva. Se ne deduce
che non esistono funzioni con le proprietà richieste.

Osservazioni 17.12. Alcune delle argomentazioni precedenti hanno


validità generale:
1) uno spazio vettoriale VK di dimensione n < ∞ non ha sottospazi
propri (cioè diversi da V ) di dimensione n.
2) Se L : V → W è lineare e dim V = dim W < ∞, allora L è iniettiva
se, e solo se, L è suriettiva.
Corollario 17.13. Se L : V → W è lineare iniettiva e
F = v1 , v2 , . . . , vn

144
è una base di VK , allora L(F) = L(v1 ), L(v2 ), . . ., L(vn ) è una base
di im L.

Dimostrazione. Per il cor. 17.9, L(F) contiene una base di im L. Per


il teorema delle dimensioni,

dim im L = dim V − dim ker L = n − 0 = n.

Quindi L(F) è già una base di im L.

Compito 17.14. Esiste una funzione lineare f : R2 → R3 suriettiva?

145
146
Lezione 18

Funzioni lineari e dipendenza

L’immagine tramite una funzione lineare di una famiglia linearmente


dipendente [o linearmente indipendente] è ancora una famiglia linear-
mente dipendente [o linearmente indipendente]?

La prima domanda ha risposta affermativa:

Teorema 18.1. Siano VK e WK spazi vettoriali e L : V → W una fun-


zione lineare. Se F = v1 , v2 , . . . , vr è una famiglia linearmente dipen-
dente di vettori in VK , allora la famiglia L(F) = L(v1 ), L(v2 ), . . . , L(vr )
è linearmente dipendente.

Dimostrazione. Per l’ipotesi su F, esistono x1 , x2 , . . . , xr ∈ K, non


tutti 0, tali che x1 v1 + x2 v2 + · · · + xr vr = 0V . Applichiamo L alla
precedente equazione: usando la linearità e L(0V ) = 0W , si deduce
x1 L(v1 ) + x2 L(v2 ) + · · · + xr L(vr ) = 0W . Siccome gli scalari sono non
tutti nulli, L(F) è linearmente dipendente.

147
La risposta alla seconda domanda è no; per confutarla, consideria-
mo il seguente controesempio. Siano VK e WK due spazi vettoriali tali
che V 6= {0V } e N : V → W : v 7→ 0W . Tale N risulta lineare e per
ogni famiglia F = v1 , v2 , . . . , vr di vettori in VK (non importa se li-
nearmente dipendente o indipendente) risulta N (F) = 0W , 0W , . . . , 0W
che è linearmente dipendente.
In generale, quindi, le funzioni lineari conservano la dipendenza
lineare ma non l’indipendenza. Però le funzioni lineari iniettive le
conservano entrambe.
Proposizione 18.2. Siano VK e WK spazi vettoriali e L : V → W
una funzione lineare iniettiva. Se F = v1 , v2 , . . . , vr è una famiglia
linearmente indipendente di vettori in VK , allora la famiglia L(F) =
L(v1 ), L(v2 ), . . . , L(vr ) è linearmente indipendente.
Dimostrazione. Consideriamo la seguente equazione nelle incognite x1 ,
x2 , . . ., xr ∈ K:

x1 L(v1 ) + x2 L(v2 ) + · · · + xr L(vr ) = 0W

che per linearità equivale a

L(x1 v1 + x2 v2 + · · · + xr vr ) = 0W ⇔ x1 v1 + x2 v2 + · · · + xr vr ∈ ker L.
(18.1)
Per ipotesi L è iniettiva e ciò implica ker L = {0V }. Quindi la (18.1)
equivale a x1 v1 + x2 v2 + · · · + xr vr = 0V e quest’ultima per l’indipen-
denza di F equivale a x1 = x2 = . . . = xr = 0.
Resta dimostrato che L(F) è linearmente indipendente.
Esercizio 18.3. Si consideri l’affermazione: Se VK e WK sono spazi
vettoriali di dimensione finita, L : V → W è una funzione lineare non
iniettiva e F = v1 , v2 , . . . , vr è una famiglia linearmente indipendente
di vettori di VK , allora L(F) = L(v1 ), L(v2 ), . . . , L(vr ) è una famiglia
linearmente dipendente.

148
(a) Dire se l’affermazione è vera o falsa. (b) Dimostrare o confutare
l’affermazione, a seconda del caso.
Svolgimento. L’affermazione è falsa e la confuto con un controesempio.
Considero L : R2 → R2 : (x, y) 7→ (x, 0). Tale L è lineare perché è
nella forma     
x 1 0 x
7→
y 0 0 y
e non è iniettiva perché L(1, 0) = L(1, 1). La famiglia F = (1, 0)
è linearmente indipendente e L(F) = L(1, 0) = (1, 0) è linearmente
indipendente.
Esercizio 18.4. Si consideri l’affermazione: Se VK e WK sono spazi
vettoriali di dimensione finita, L : V → W è una funzione lineare
non iniettiva e F = v1 , v2 , . . . , vr è una base di VK , allora L(F) =
L(v1 ), L(v2 ), . . . , L(vr ) è una famiglia linearmente dipendente.
(a) Dire se l’affermazione è vera o falsa. (b) Dimostrare o confutare
l’affermazione, a seconda del caso.
Svolgimento. L’affermazione è vera e la dimostro. Siccome L non è
iniettiva, esiste un vettore v 6= 0V , v ∈ ker L. Tale vettore si può
esprimere come combinazione lineare di F:

v = x1 v1 + x2 v2 + · · · + xr vr .

In tale equazione non tutti gli scalari sono nulli, perché altrimenti
risulterebbe v = 0V e ciò è escluso. Calcolando l’immagine tramite L
di entrambe le espressioni a sinistra e a destra del segno di uguale si
ottiene, siccome L(v) = 0W ,

0W = x1 L(v1 ) + x2 L(v2 ) + · · · + xr L(vr ).

Una combinazione lineare di L(F) a coefficienti non tutti zero risulta


uguale al vettore nullo. Quindi L(F) è linearmente dipendente.

149
Seguono due risultati che riguardano, anche se non sembra, i sistemi
di equazioni lineari.

Definizioni 18.5. (i) Dati, in uno spazio vettoriale VK , un vettore


v0 e un sottospazio U , la varietà lineare individuata da v0 e U è
l’insieme
v0 + U = {v0 + u | u ∈ U }.

(ii) La dimensione di tale varietà lineare è la dimensione di U .

Esempio 18.6. In R3 , dati v0 = (1, 0, −1) e U = h(1, 2, 3), (0, 0, 1)i,


risulta

v0 + U = {(1, 0, −1) + x(1, 2, 3) + y(0, 0, 1) | x, y ∈ R} =


= {(1 + x, 2x, −1 + 3x + y) | x, y ∈ R}.

Tale v0 + U è una varietà lineare di dimensione 2.

Ricordiamo che dati α : A → B e b ∈ B, l’antiimmagine di b


mediante α è
α−1 (b) = {x ∈ A | α(x) = b}.

Proposizione 18.7. Sia L : V → W una funzione lineare e v0 ∈ V .


Posto L(v0 ) = b, vale L−1 (b) = v0 + ker L.

Dimostrazione. Svolgiamo un procedimento di doppia inclusione.


1) Dimostriamo che L−1 (b) ⊆ v0 + ker L. Consideriamo v ∈ L−1 (b) e
poniamo y = v − v0 . Vale:
(15.1)
L(y) = L(v − v0 ) = L(v) − L(v0 ) = b − b = 0W .

150
Ne segue y ∈ ker L, inoltre v = v0 + y ∈ v0 + ker L.
2) Dimostriamo che v0 +ker L ⊆ L−1 (b). Consideriamo v0 ∈ v0 +ker L;
quindi esiste y0 ∈ ker L tale che v0 = v0 + y0 . Vale
L(v0 ) = L(v0 + y0 ) = L(v0 ) + L(y0 ) = b + 0W = b.
Ne segue v0 ∈ L−1 (b).

Proposizione 18.8. Siano v1 , v2 , . . . , vn , u vettori in uno spazio vet-


toriale VK . Vale u ∈ hv1 , v2 , . . . , vn i se, e solo se,
dimhv1 , v2 , . . . , vn i = dimhv1 , v2 , . . . , vn , ui. (18.2)

Dimostrazione. Dimostreremo che sono equivalenti le tre proprietà se-


guenti:
(a) u ∈ hv1 , v2 , . . . , vn i;
(b) hv1 , v2 , . . . , vn i = hv1 , v2 , . . . , vn , ui;
(c) dimhv1 , v2 , . . . , vn i = dimhv1 , v2 , . . . , vn , ui.
(a) ⇒ (b) Per ipotesi u è combinazione lineare di v1 , v2 , . . . , vn e ciò
implica (b) per il teorema 12.2.
(b) ⇒ (a) Vale u ∈ hv1 , v2 , . . . , vn , ui e per ipotesi quest’ultimo sotto-
spazio è uguale a hv1 , v2 , . . . , vn i.
(b) ⇒ (c) Questa implicazione è ovvia.
(c) ⇒ (b) Poniamo:
W1 = hv1 , v2 , . . . , vn i; W2 = hv1 , v2 , . . . , vn , ui; r = dim W1 = dim W2 .
La famiglia v1 , v2 , . . . , vn contiene una base di W1 ; cambiamo, se ne-
cessario, l’ordine dei vettori in modo che B = v1 , v2 , . . . , vr sia una
base di W1 . In particolare
hBi = W1 . (18.3)

151
Inoltre B è una famiglia linearmente indipendente nello spazio vetto-
riale W2 , che ha per ipotesi dimensione r. Ne segue (cfr. prop. 13.6)
che B è una base di W2 e in particolare

hBi = W2 . (18.4)

Da (18.3) e (18.4) segue la (b).

Esercizio 18.9. La famiglia B = v1 , v2 , v3 , dove v1 = (1, 2, 3), v2 =


(4, 5, 6), v3 = (7, 8, 10), è una base di R3 . Poniamo poi w1 = (1, 2),
w2 = (3, 4) w3 = (1, 0). Trovare una base del nucleo della funzione
f : R3 → R2 definita da f (vj ) = wj per j = 1, 2, 3.

Svolgimento. Ogni vettore v ∈ R3 è combinazione lineare della famiglia


B, quindi

ker f = {v ∈ R3 | f (v) = (0, 0)} =


= {av1 + bv2 + cv3 ∈ R3 | f (av1 + bv2 + cv3 ) = (0, 0)} =
= {av1 + bv2 + cv3 ∈ R3 | af (v1 ) + bf (v2 ) + cf (v3 ) = (0, 0)}
= {av1 + bv2 + cv3 ∈ R3 | a(1, 2) + b(3, 4) + c(1, 0) = (0, 0)}
= {av1 + bv2 + cv3 ∈ R3 | (a + 3b + c, 2a + 4b) = (0, 0)}.

Risolvo allora il sistema lineare


 
a + 3b + c = 0 c = −b

2a + 4b = 0 a = −2b.

Allora

ker f = {−2bv1 + bv2 − bv3 | b ∈ R} = {b(−2v1 + v2 − v3 ) | b ∈ R}


= h−2v1 + v2 − v3 i.

Una base di ker f è B 0 = −2v1 + v2 − v3 = (−5, −7, −10).

152
Compito 18.10. Trovare una base dell’immagine della funzione linea-
re f : R2 → R3 la cui matrice rispetto alle basi B = (7, 8), (9, 10) di
R2 e B 0 = (1, 0, 0), (0, 1, 0), (1, 1, 1) di R3 è
 
1 2
Af B B 0 =  0 0  .
−1 −1

153
154
Lezione 19

Teoria dei sistemi lineari

Un sistema di equazioni di primo grado in tre incognite x, y, z ha, tra


le sue soluzioni, x = 1, y = 1, z = 1 e x = 1, y = 0, z = 3. Trovare,
se esiste, una soluzione per cui z = 0.

19.1 Rango di una matrice


Definizione 19.1. Il rango di una matrice A ∈ M(m × n, K) è la
dimensione del sottospazio di K m generato dalle colonne di A.

Notazione 19.2. Il rango di A si denota con rk A (rank ). Quindi

rk A = dimhA1 , A2 , . . . , An i. (19.1)

155
Esercizio 19.3. Calcolare il rango della seguente matrice reale:
 √ √ 
1 2 3
A= √ .
2 π 7

Svolgimento.
√ √ √
rk A = dimh(1, 2), ( 2, π), ( 3, 7)i = dim R2 = 2
√ √
in quanto, essendo (1, 2), ( 2, π) linearmente indipendenti, essi ge-
nerano R2 .

Osservazione 19.4. Il rango di A ∈ M(m × n, K), essendo la di-


mensione di un sottospazio W di K m , non può superare m. D’altra
parte, dalla definizione vediamo che W è generato da n vettori, quindi
dim W ≤ n. Concludendo,

rk A ≤ min{m, n}.

Osservazione 19.5. La funzione lineare FA : K n → K m definita


ponendo FA (X) = AX soddisfa FA (ej ) = Aj per j = 1, 2, . . . , n (16.4)
e inoltre per il teorema 17.8 vale

im FA = hFA (e1 ), FA (e2 ), . . . , FA (en )i = hA1 , A2 , . . . , An i.

Combinando tutto ciò con la (19.1) si ottiene:

dim im FA = rk A. (19.2)

Proposizione 19.6. Per ogni A ∈ M(m × n, K), rk A è uguale anche


alla dimensione del sottospazio di M(1 × n, K) generato dalle righe
di A.

Sarebbe difficile dimostrare ora la prop. 19.6.

156
Esempio 19.7.
√ √ 
√ √ √

1 2 3
rk √ = dimh(1 2 3), ( 2 π 7)i = 2.
2 π 7

Proposizione 19.8 (Proprietà del rango). Valgono le seguenti:

(i) Se si può fare il prodotto delle matrici A e B, allora

rk(AB) ≤ rk A; rk(AB) ≤ rk B.

(ii) Se A è una matrice m × n, B è invertibile d’ordine m e C è


invertibile d’ordine n, allora

rk(BA) = rk A = rk(AC).

(iii) Data una funzione lineare L : V → W , B e B 0 basi finite di,


rispettivamente, VK e WK , vale

rk AL B B0 = dim im L.

(iv) Per ogni A ∈ M(n × n, K), A risulta invertibile se, e solo se,
rk A = n.

Da (iv) segue che una A ∈ M(n × n, K) è invertibile ⇔ A1 , A2 , . . .,


An sono linearmente indipendenti ⇔ A1 , A2 , . . . , An sono linearmente
indipendenti.

157
19.2 Sistemi lineari
Un sistema lineare di m equazioni in n incognite a coefficienti nel
campo K ha la forma:


 a11 x1 + a12 x2 + · · · + a1n xn = b1
 a x + a x + ··· + a x = b2
21 1 22 2 2n n
.. .. (19.3)

 . .
am1 x1 + am2 x2 + · · · + amn xn = bm .

Al sistema lineare si associano:


  A = (aij ) ∈ M(m × n, K);
1) La matrice (incompleta) dei coefficienti:
x1
 x2 
 ... ;
2) la colonna delle incognite X =  

x
n 
b1
 b2  m
3) la colonna dei termini noti B =  ...  ∈ K ;

bm
4) la matrice completa del sistema lineare C = (A|B) ∈ M(m × (n +
1), K).
Osservazione 19.9.
   
a11 a12
 a21   a22 
x1 A1 + x2 A2 + · · · + xn An = x1  ... 
 + x 2  ..  + · · · +
 
.
am1 am2
a11 x1 + a12 x2 + · · · + a1n xn
   
a1n
 a2n   a21 x1 + a22 x2 + · · · + a2n xn 
+xn  ...  = 
  .. ,
. 
amn am1 x1 + am2 x2 + · · · + amn xn

158
quindi il sistema lineare (19.3) si può riformulare come segue:

x1 A1 + x2 A2 + · · · + xn An = B. (19.4)

Osservazione 19.10.
a11 x1 + a12 x2 + · · · + a1n xn
 
 a21 x1 + a22 x2 + · · · + a2n xn 
AX =  .. ,
 . 
am1 x1 + am2 x2 + · · · + amn xn

quindi il sistema lineare (19.3) si può riformulare come segue:

AX = B. (19.5)

La (19.5) è la forma matriciale del sistema lineare.

Definizione 19.11. Il sistema lineare (19.5) si dice omogeneo se B =


Om×1 .

Definizione 19.12. Una soluzione del sistema lineare (19.5) è una


X0 ∈ K n tale che AX0 = B.

Definizione 19.13. Il sistema lineare (19.5) si dice compatibile se ha


almeno una soluzione, incompatibile altrimenti.

Teorema 19.14 (Rouché-Capelli). Un sistema lineare è compatibile


se, e solo se, il rango della sua matrice incompleta è uguale al rango
della sua matrice completa.

Dimostrazione. Con riferimento alla forma (19.4) del sistema lineare,


si vede che esso è compatibile se, e solo se, esistono a1 , a2 , . . . , an ∈

159
K tali che a1 A1 + a2 A2 + · · · + an An = B, cioè se, e solo se, B ∈
hA1 , A2 , . . . , An i. Per la prop. 18.8, ciò equivale a

dimhA1 , A2 , . . . , An i = dimhA1 , A2 , . . . , An , Bi

e vista le definizioni di rango, di matrice incompleta A e di matrice


completa C, equivale a rk A = rk C.

Definizione 19.15. Il sistema lineare omogeneo associato a (19.5) è


AX = Om×1 .

Proposizione 19.16. Sia A ∈ M(m×n, K). L’insieme delle soluzioni


del sistema lineare omogeneo AX = Om×1 è un sottospazio di K n .

Dimostrazione. È sufficiente osservare che le soluzioni di tale sistema


sono precisamente gli elementi del nucleo della funzione lineare

FA : K n → K m : X 7→ AX,

e ricordare che ker FA è un sottospazio di K n .

Definizione 19.17. Il sottospazio di cui alla proposizione precedente


si chiama spazio delle soluzioni del sistema lineare omogeneo.

Teorema 19.18. Sia AX = B un sistema lineare compatibile e X0


una sua soluzione. Allora l’insieme di tutte le soluzioni è la varietà
lineare X0 + W , dove W è lo spazio delle soluzioni del sistema lineare
omogeneo associato.

Dimostrazione. Ricordiamo la prop. 18.7: se L : V → W è lineare e


L(v0 ) = b, vale

L−1 (b) = v0 + ker L = {v0 + u | u ∈ ker L}.

160
Considerata la funzione lineare
FA : K n → K m : X 7→ AX,
l’insieme delle soluzioni del sistema lineare è
{T ∈ K n | AT = B} = {T ∈ K n | FA (T ) = B} = FA−1 (B).
Applicando la prop. 18.7 con L = FA , v0 = X0 , b = B, si ottiene
appunto FA−1 (B) = X0 + ker FA = X0 + W .

Risposta alla domanda iniziale. L’insieme delle soluzioni è nella forma


X0 + W , dove X0 è una soluzione fissata e W è un sottospazio (più
precisamente, lo spazio delle
  soluzioni del sistema lineare omogeneo
1
associato). Poniamo X0 = 1 che è una delle soluzioni. Quindi per
1
il teorema 19.18
       
1 1 1 1
0 ∈ 1 + W ⇒ ∃T ∈ W : 0 = 1 + T
3 1 3 1
     
1 1 0
⇒ T = 0 − 1 = −1 ∈ W.
3 1 2
 
0
Siccome W è un sottospazio vale h −1 ∈ W per ogni h ∈ R. Ne

2
segue che tra le soluzioni ci sono almeno tutti i vettori del tipo
     
1 0 1
1 + h −1 =  1 − h  .
1 2 1 + 2h
161
La soluzione cercata si ottiene ponendo 1 + 2h = 0 da cui h = −1/2:
3
x = 1, y = , z = 0.
2

Il prossimo obiettivo è quello di ottenere un teorema di struttura


più dettagliato. Supponiamo che
• sia dato il sistema lineare compatibile AX = B, dove A ∈
M(m × n, K),
• X0 sia una soluzione,
• rk A = r,
• W = ker FA sia lo spazio delle soluzioni del sistema lineare
omogeneo associato.
Per il teorema delle dimensioni vale W = n−dim im FA , quindi, tenuto
conto della (19.2) vale

dim W = n − dim im FA = n − rk A = n − r.

Quindi W ha una base formata da n − r vettori:

X1 , X2 , . . . , Xn−r .

Concludendo, l’insieme delle soluzioni è

X0 + W = {X0 + h1 X1 + h2 X2 + · · · + hn−r Xn−r | h1 , h2 , . . . , hn−r ∈ K}.

Abbiamo dimostrato che:


Teorema 19.19. Le soluzioni di un sistema lineare compatibile si
esprimono in termini di n − r parametri, dove n è il numero delle
incognite e r è il rango della matrice dei coefficienti.

162
Esprimiamo ciò dicendo che “il sistema lineare ha ∞n−r soluzioni”,
e “∞0 soluzioni” significa soluzione unica.

Esempio 19.20. Troviamo n, r, X0 , X1 , X2 , . . . , Xn−r e l’insieme delle


soluzioni per il seguente:

 x+y−z = 1
2x − y − z = 2
−3y + z = 0.

Svolgimento. n è il numero delle incognite, n = 3. Poi


 
1 1 −1
r = rk A = rk 2 −1 −1 = dimh(1, 2, 0), (1, −1, −3), (−1, −1, 1)i
0 −3 1

e siccome (cfr. es. 11.5) (1, −1, −3) = −2(1, 2, 0) − 3(−1, −1, 1) vale

r = dimh(1, 2, 0), (−1, −1, 1)i = 2.


 
1
Una soluzione è data da x = 1, y = 0, z = 0, quindi X0 = 0.

0
Cerchiamo W :
 
 x + y − z = 0  x − 2y = 0
2x − y − z = 0 ⇔ 2x − 4y = 0
−3y + z = 0 z = 3y
 

x = 2y

z = 3y.

163
Quindi W = {(2y, y, 3y) | y∈ R} = h(2, 1, 3)i. Vale n − r = 3 − 2 = 1
2
e possiamo prendere X1 = 1. L’insieme delle soluzioni è

3
    
 1 2

{X0 + hX1 | h ∈ R} =  0 +h 1 h∈R =
  
0 3
 
  
 1 + 2h 
=  h  h ∈ R .
3h
 

Abbiamo ∞1 soluzioni, date da x = 1 + 2h, y = h, z = 3h, al variare


del parametro reale h.

Compito 19.21. Si consideri l’affermazione: Sia AX = B un sistema


lineare di n + 1 equazioni in n incognite (n > 1) a coefficienti reali.
Sia C ∈ M((n + 1) × (n + 1), R) la matrice completa del sistema. Se
la matrice C è invertibile, allora il sistema lineare è compatibile.
(a) Dire se l’affermazione è vera o falsa. (b) Dimostrare o confutare
l’affermazione, a seconda del caso.

164
Lezione 20

Procedimento di
eliminazione Gaussiana

Trovare una base del seguente sottospazio di R4 :


W = h(0, 1, 2, 3), (−1, 1, 1, 4), (2, 1, 4, 1), (3, −1, 1, −6)i.

Il procedimento consente di
• calcolare dimensioni,
• trovare basi,
• calcolare il rango,
• decidere se una matrice è invertibile,
• decidere se un vettore appartiene a un sottospazio,

165
• risolvere sistemi lineari.

Definiamo le operazioni elementari sulle righe di una matrice A ∈


M(m × n, K). Esse sono di tre tipi.
Tipo 1 : “Hii (r)”, r ∈ K, r 6= 0: consiste nel moltiplicare la riga i-
esima per r.
Tipo 2 : “Hij (r)”, r ∈ K, i 6= j: sostituire la riga Ai con Ai + rAj .
Tipo 3 : “Hij : scambiare i-esima e j-esima riga.

Proposizione 20.1. Le operazioni elementari sulle righe di una ma-


trice lasciano invariati

(i) il sottospazio generato dalle righe;

(ii) il rango;

(iii) le soluzioni del sistema lineare avente quella matrice come ma-
trice completa.

Definizione 20.2. Il pivot (o termine direttore) di una riga non nulla


di una matrice è il primo elemento non nullo partendo da sinistra.

Esempio 20.3. Sono evidenziati con un riquadro i pivot:


 
2 4 −1 7 0
M= 0 0 0
 0 0 . (20.1)
0 1 1 0 3

Definizione 20.4. Una matrice A è a scala (in echelon form) se


soddisfa entrambe le seguenti condizioni:

(i) le eventuali righe nulle sono in fondo;

(ii) se Ai è una riga non nulla, l’eventuale pivot di Ai+1 è (stretta-


mente) più a destra del pivot di Ai .

166
Esempio 20.5. La matrice M in (20.1) non è a scala. Lo è invece
 
0 2 4 7 0
B= 0  0 0 1 3 .
0 0 0 0 5

Proposizione 20.6. Attraverso operazioni elementari di tipo 2 e 3 è


possibile trasformare ogni matrice in matrice a scala.

Esercizio 20.7. Trasformare con operazioni elementari sulle righe la


seguente matrice in matrice a scala:
 
0 1 2 3
−1 1 1 4 
A=  2 1 4 1 .
 (20.2)
3 −1 1 −6

Svolgimento.
   
−1 1 1 4 −1 1 1 4
 0 1 2 3  0 1 2 3
A −→
H12   H−→ 31 (2)
 
 2 1 4 1  0 3 6 9
3 −1 1 −6 3 −1 1 −6
 
−1 1 1 4
 
−1 1 1 4
0 1 2 3

H41 (3) 
 H32 (−3)
−→  0 1 2 3  = A0 .

−→  (20.3)
0 0 0 0

 0 3 6 9 H42 (−2) 
0 2 4 6 0 0 0 0

Abbiamo fatto in modo da avere un pivot il più in alto e a sinistra


possibile, poi sotto di esso soltanto zeri e abbiamo riapplicato il pro-
cedimento su di una matrice più piccola, quella evidenziata in basso a
destra.

167
Proposizione 20.8. (i) In una matrice a scala, le righe non nulle
sono linearmente indipendenti.

(ii) Il rango di una matrice a scala è pari al numero di righe non


nulle.

Esercizio 20.9. Calcolare il rango della matrice A in (20.2).

Svolgimento. Trasformandola in matrice a scala si ottiene la matrice


A0 in (20.3). Vale rk A = rk A0 = 2.
Ricordiamo che una matrice A ∈ M(n × n, K) è invertibile se, e
solo se, rk A = n.

Esercizio 20.10. Decidere se la matrice A in (20.2) è invertibile.

Svolgimento. rk A 6= 4, quindi A non è invertibile.

Risposta alla domanda iniziale. Gli elementi della famiglia di generatori


di W assegnata sono le righe di A in (20.2). Siccome le operazioni
elementari sulle righe non cambiano il sottospazio generato dalle righe,
W è anche il sottospazio generato dalle righe di A0 :

W = h(−1, 1, 1, 4), (0, 1, 2, 3), (0, 0, 0, 0), (0, 0, 0, 0)i.

Una base di W è B = (−1, 1, 1, 4), (0, 1, 2, 3).

Esercizio 20.11. Decidere se la seguente famiglia di vettori in R4 è


linearmente dipendente:

F = (0, 1, 2, 3), (−1, 1, 1, 4), (2, 1, 4, 1), (3, −1, 1, −6).

Svolgimento. Il sottospazio W di cui sopra è per definizione W = hFi.


Siccome dim W = 2 e F ha 4 > 2 vettori, F è linearmente dipendente.

168
20.1 Applicazioni

1) Trovare una base per un sottospazio W = hv1 , v2 , . . . , vr i di K n (e


quindi, anche, calcolare dim W ).
Procedura: (Cfr. domanda iniziale.) Costruisco la matrice r × n A le
cui righe sono v1 , v2 , . . . , vr e la trasformo in matrice a scala, A0 . Una
base di W è data dalla famiglia delle righe non nulle di A0 .
2) Decidere se la famiglia F = v1 , v2 , . . . , vr di vettori in K n è linear-
mente dipendente.
Procedura: (Cfr. eserc. 20.11.) Costruisco la matrice A r × n le cui
righe sono v1 , v2 , . . . , vr e la trasformo in matrice a scala, A0 . La fa-
miglia F è linearmente dipendente se, e solo se, A0 ha almeno una riga
nulla.
3) Risolvere un sistema lineare.
Procedura: Si trasforma la matrice completa C del sistema in matrice
a scala, C 0 .
Il sistema lineare è compatibile se, e solo se, nessun pivot di C 0 è
nell’ultima colonna.
Poi, se è compatibile, le incognite che corrispondono a colonne di
0
C prive di pivot si considerano parametri. Il sistema lineare di matrice
C 0 si risolve in funzione dei parametri a partire dall’ultima equazione
e risalendo fino alla prima.

Esercizio 20.12. Risolvere:


 x+y−z = 1
2x − y − z = 2
−3y + z = 0.

169
Svolgimento. Trasformo in matrice a scala:
   
1 1 −1 1 1 1 −1 1
H21 (−2)
C =  2 −1 −1 2 −→ 0 −3 1 0
0 −3 1 0 0 −3 1 0
 
1 1 −1 1
H32 (−1)
−→  0 −3 1 0 = C 0 .
0 0 0 0
Nessun pivot è in ultima colonna, quindi il sistema lineare è compa-
tibile. Noto che le colonne senza pivot sono la terza e la quarta. La
quarta è quella dei termini noti, la terza contiene i coefficienti di z.
Quindi considero z come parametro e calcolo x, y in termini di z:
  x
x+y−z = 1 x+y = z+1 
⇔ 
−3y + z = 0 −3y = −z 
x = −y + z + 1 = 32 z + 1

y = z3 .
Esprimo l’insieme S delle soluzioni del sistema lineare come varietà
lineare:
      
2 z 2 1
S = z + 1, , z | z ∈ R = (1, 0, 0) + z , ,1 | z ∈ R =
3 3 3 3
 
2 1
= (1, 0, 0) + , ,1 = (1, 0, 0) + h(2, 1, 3)i.
3 3
Ricordiamo che l’insieme delle soluzioni di un sistema lineare ha la
forma X0 + W dove X0 è una soluzione e W è l’insieme delle soluzioni
del sistema omogeneo associato. Verificare per esercizio che x = 1,
y = 0, z = 0 è una soluzione del sistema assegnato e che x = 2, y = 1,
z = 3 è una soluzione del sistema omogeneo associato.
4) Stabilire se il vettore u appartiene al sottospazio W = hv1 , v2 , . . . , vr i
di K n .

170
Procedura: Si costruisce la matrice C n × (r + 1) le cui colonne sono
v1 , v2 , . . . , vr , u e la si trasforma in matrice a scala, C 0 . Vale u ∈ W
se, e solo se, nessun pivot di C 0 è nell’ultima colonna.
 L’ordine delle colonne v1 , v2 , . . . , vr , u è essenziale.

Esercizio 20.13. Sono dati in R4 i vettori u = (0, 0, 5, 4), v1 =


(1, 0, −1, 2), v2 = (0, 1, 3, 1), v3 = (1, 2, 0, 0) e il sottospazio W =
hv1 , v2 , v3 i.
(a) Risolvere la seguente equazione nelle incognite x, y, z:

xv1 + yv2 + zv3 = u.

(b) Stabilire se u ∈ W .
Svolgimento. (a) L’equazione x(1, 0, −1, 2)+y(0, 1, 3, 1)+z(1, 2, 0, 0) =
u equivale a:

(x + z, y + 2z, −x + 3y, 2x + y) = (0, 0, 5, 4)




 x+z = 0
y + 2z = 0

e al sistema lineare . Lo risolvo, trasformando a

 −x + 3y = 5
2x + y = 4

scala la matrice completa:
   
1 0 1 0 1 0 1 0
 0 1 2 0 H31 (1) 0 1 2 0 H32 (−3)
−1 3 0 5 H−→
C=    −→
41 (−2)  0 3 1 5  H42 (−1)
2 1 0 4 0 1 −2 4
   
1 0 1 0 1 0 1 0
0 1 2 0 H43 (− 45 ) 0 1 2 0 0
0 0 −5 5 −→ 0 0 −5 5 = C .
   

0 0 −4 4 0 0 0 0

171
Per decidere l’ultima operazione elementare H43 (r), r deve essere tale
da annullare il pivot della riga 4 e colonna 3, quindi −5r − 4 = 0 da
cui r = −4/5. Il sistema lineare è compatibile e ciò implica u ∈ W .

Osservazione 20.14. L’argomentazione per cui vale u ∈ W se, e solo


se, il sistema lineare è compatibile, giustifica il procedimento esposto
in 4).

La sola colonna priva di pivot è quella dei termini noti, quindi non
ci sono parametri e la soluzione è unica.
 x 
 x+z = 0   x = 1
y + 2z = 0  ⇔  y = 2
−5z = 5 z = −1.
  

Vediamo la corrispondenza con i risultati della precedente lezione:


un sistema lineare compatibile ha ∞n−r soluzioni, dove n è il numero
delle incognite e r = rk A = rk C. Nel sistema dell’eserc. 20.12, n = 3,
r = 2, ∞1 soluzioni cioè un parametro. Nel sistema dell’eserc. 20.13,
n = 3, r = 3, ∞0 soluzioni, cioè soluzione unica.

172
Lezione 21

Esercizi su eliminazione
Gaussiana

Esercizio 21.1. (Cfr. esercizi 14.5 e 14.11.) Dati i seguenti sottospazi


di R4 :

W1 = {(0, x, y, z) ∈ R4 | x + y + z = 0},
W2 = h(1, 0, 0, 1), (1, 1, −1, 1), (1, 2, −2, 1)i,

(a) trovare una base di W1 , di W2 e di W1 + W2 , (b) stabilire se la


somma W1 +W2 è diretta, (c) trovare una base di W1 ∩W2 , (d) verificare
la formula di Grassmann in questo caso, (e) determinare una base di
R4 che contenga la base di W1 + W2 trovata al punto (a).

Svolgimento. (a)

W1 = {(0, x, y, −x − y) | x, y ∈ R} = h(0, 1, 0, −1), (0, 0, 1, −1)i.

173
Una base di W1 è B1 = (0, 1, 0, −1), (0, 0, 1, −1); dim W1 = 2. Per
trovare una base di W2 trasformo la matrice

   
1 0 0 1 1 0 0 1
H21 (−1)
 1 1 −1 1 −→ 0 1 −1 0
H31 (−1)
1 2 −2 1 0 2 −2 0
 
1 0 0 1
H32 (−2)
−→ 0 1 −1 0 .
0 0 0 0

Una base di W2 è B2 = (1, 0, 0, 1), (0, 1, −1, 0). Una famiglia di gene-
ratori di W1 + W2 si ottiene unendo una famiglia di generatori di W1
e una di W2 ; prendo B1 e B2 . Trasformo

   
0 1 0 −1 1 0 0 1
 0 0 1 −1 H13 0 0 1 −1 H23
 1 0 0 1  −→ 0 1
    −→
0 −1 
0 1 −1 0 0 1 −1 0
   
1 0 0 1 1 0 0 1
0 1 0 −1 H42 (−1) 0 1 0 −1 H−→
43 (1)
0 0 1 −1 −→ 0 0
  
1 −1
0 1 −1 0 0 0 −1 1
 
1 0 0 1
0 1 0 −1
0 0 1 −1 .
 

0 0 0 0

Una base di W1 + W2 è B3 = (1, 0, 0, 1), (0, 1, 0, −1), (0, 0, 1, −1) e


dim(W1 + W2 ) = 3.

174
(c) Vale W1 = {(0, x, y, −x − y) | x, y ∈ R} e

W2 = h(1, 0, 0, 1), (0, 1, −1, 0)i =


= {z(1, 0, 0, 1) + t(0, 1, −1, 0) | t, z ∈ R} =
= {(z, t, −t, z) | t, z ∈ R}.

 Cerco W1 ∩ W2 uguagliando gli elementi generici di W1 e W2 e per


questo motivo è indipensabile usare lettere diverse per i parametri.

Risolvo l’equazione


 −z = 0
x−t = 0

(0, x, y, −x − y) = (z, t, −t, z) ⇔ (21.1)

 y+t = 0
−x − y − z = 0.

Risolvo il sistema lineare trasformando la matrice completa:


   
0 0 −1 0 0 1 0 0 −1 0
1
 0 0 −1 0  0 0 −1 0 0 H−→
H12 
 −→
 41 (1)
0 1 0 1 0  0 1 0 1 0
−1 −1 −1 0 0 −1 −1 −1 0 0
   
1 0 0 −1 0 1 0 0 −1 0
0
 0 −1 0 0 0 1 0 1 0 H−→
H23 
 −→
 42 (1)
0 1 0 1 0 0 0 −1 0 0
0 −1 −1 −1 0 0 −1 −1 −1 0
   
1 0 0 −1 0 1 0 0 −1 0
0 1 0 1 0 H43 (−1)  0 1 0 1 0
 −→ 
 0 0 −1 0 0 .
 
0 0 −1 0 0
0 0 −1 0 0 0 0 0 0 0

175
È priva di pivot la quarta colonna, quella di t. Ricavo le soluzioni del
sistema lineare in funzione di t:
 
 x−t = 0 x = t
y+t = 0 ⇔ y = −t
−z = 0 z = 0.
 

Sostituendo in (21.1) ottengo (0, t, −t, 0) cioè


W1 ∩ W2 = {(0, t, −t, 0) | t ∈ R} = h(0, 1, −1, 0)i.
Una base di W1 ∩ W2 è B4 = (0, 1, −1, 0) e dim(W1 ∩ W2 ) = 1.
(b) Il teor. 10.7 stabilisce che, comunque dati due sottospazi W1 e W2
di uno spazio vettoriale VK , la somma W1 + W2 è diretta se, e solo
se, W1 ∩ W2 = {0V }. Nel caso dell’esercizio W1 ∩ W2 6= {(0, 0, 0, 0)},
quindi la somma non è diretta.
(d) La formula di Grassmann (14.1) è la seguente:
dim(W1 + W2 ) + dim(W1 ∩ W2 ) = dim W1 + dim W2 ,
nel nostro caso 3 + 1 = 2 + 2, vero.
(e) Prendo un vettore ej della base naturale in modo che la matrice che
ha come righe gli elementi di B3 ed ej abbia rango quattro. Siccome
 
1 0 0 1
0 1 0 −1
 
0 0 1 −1
0 0 0 1
è a scala ed ha rango quattro, una base con le proprietà richieste è
B3 ∪ {e4 }.
Esercizio 21.2. Risolvere il seguente sistema lineare ad incognite reali
x, y, z e t, esprimendone la soluzione come varietà lineare:

 x + y + 2t = 3
3x − y + z − t = 1
5x − 3y + 2z − 4t = −1.

176
Svolgimento.
   
1 1 0 2 3 1 1 0 2 3
3 −1 1 −1 1  H−→
21 (−3)
0 −4 1 −7 −8  H32 (−2)
−→
5 −3 2 −4 −1 H31 (−5) 0 −8 2 −14 −16
 
1 1 0 2 3
0 −4 1 −7 −8 .
0 0 0 0 0

Il sistema è compatibile con ∞4−2 = ∞2 soluzioni, che esprimo in


funzione dei parametri z e t:
x = −y − 2t + 3
 (
x + y = −2t + 3
⇔ z − 7t + 8 ⇔
−4y = −z + 7t − 8 y =
4

 x = −z − t + 4

4
z − 7t + 8
y =
 .
4
L’insieme delle soluzioni è
  
−z − t + 4 z − 7t + 8
I = , , z, t z, t ∈ R =
4 4
     
1 1 1 7
= (1, 2, 0, 0) + z − , , 1, 0 + t − , − , 0, 1 z, t ∈ R =
4 4 4 4
   
1 1 1 7
= (1, 2, 0, 0) + − , , 1, 0 , − , − , 0, 1 =
4 4 4 4
= (1, 2, 0, 0) + h(−1, 1, 4, 0), (−1, −7, 0, 4)i.

Verifica. Sostituisco nelle quattro equazioni e verifico che x = 1, y = 2,


z = t = 0 è una soluzione del sistema (es. x + y + 2t = 1 + 3 + 2 · 0 = 3)
e che x = −1, y = 1, z = 4, t = 0 e anche x = −1, y = −7,

177
z = 0, t = 4 sono soluzioni del sistema lineare omogeneo associato (es.
x + y + 2t = −1 + 1 + 21 · 0 = 0).
Esercizio 21.3. Discutere il seguente sistema lineare ad incognite rea-
li, dipendente dal parametro reale a:

 x+y+z = 0
x + y + az = 1
ax + (4 − a)y + az = 1.

Discutere un sistema lineare contenente un parametro a significa


trovarne il numero di soluzioni, in funzione di a.
Svolgimento. Trasformo la matrice completa del sistema lineare:
   
1 1 1 0 1 1 1 0
H21 (−1)
1 1 a 1 −→ 0 0 a − 1 1 .
H31 (−a)
a 4−a a 1 0 4 − 2a 0 1
Gli elementi evidenziati sono pivot o meno, a seconda del valore di a.
1o caso: se 4 − 2a = 0, cioè a = 2, allora la matrice è
 
1 1 1 0
0 0 1 1 
0 0 0 1
e il sistema lineare è incompatibile.
2o caso: se a 6= 2, proseguo:
 
1 1 1 0
H23
−→ 0 4 − 2a 0 1
0 0 a−1 1
che è una matrice a scala. Se a = 1 c’è un pivot in ultima colonna,
quindi il sistema lineare è incompatibile. Se a 6= 1, 2 il sistema lineare
è compatibile con ∞3−3 = ∞0 soluzioni, cioè soluzione unica.
Riassumendo, per a = 1, 2 il sistema lineare è incompatibile, per
a 6= 1, 2 ha soluzione unica.

178
Esercizio 21.4. Stabilire se le seguenti matrici in M(2 × 2, R) sono
linearmente dipendenti:
       
1 2 2 0 1 0 0 1
, , , .
0 0 −1 0 0 3 1 3

Con riferimento all’applicazione numero 2) del paragrafo 20.1, visto


che lo spazio vettoriale M(2 × 2, R) è isomorfo a R4 , si può applica-
re quel procedimento alle quaterne delle coordinate di quelle matrici
rispetto ad una certa base. Per esempio, rispetto alla base
       
1 0 0 1 0 0 0 0
N = , , , ,
0 0 0 0 1 0 0 1
 
a b
le coordinate di A = sono proprio a, b, c, d.
c d
Svolgimento. Formo una matrice 4 × 4 le cui righe sono le coordinate
delle quattro matrici rispetto alla base N di cui sopra. Trasformando,
     
1 2 0 0 1 2 0 0 1 2 0 0
2 0 −1 0 H21 (−2) 0 −4 −1 0 H32 (−1/2) 0 −4 −1 0
1 0 0 3 H−→
    −→  1

31 (−1)
 0 −2 0 3 H42 (1/4)  0 0 2 3 
3
0 1 1 3 0 1 1 3 0 0 4 3
 
1 2 0 0
H43 (−3/2) 0 −4 −1 0 
−→  0 0 1

2 3 
0 0 0 − 32

si ottiene una matrice a scala che non ha righe nulle, quindi la famiglia
assegnata è linearmente indipendente.

179
180
Lezione 22

Forma canonica speciale

Stabilire se la seguente matrice è invertibile e in caso affermativo cal-


colarne l’inversa.  
1 2 3
M = 4 5 6  .
7 8 10

Ricordiamo che data A ∈ M(n × n, K), A risulta invertibile se, e


solo se, rk A = n.
Definizione 22.1. Una matrice A è in forma canonica speciale se è a
scala e inoltre valgono le seguenti condizioni:
(i) tutti i pivot valgono 1;
(ii) sopra ogni pivot ci sono soltanto zeri.
Proposizione 22.2. Ogni matrice può essere trasformata in un’uni-
ca matrice in forma canonica speciale con operazioni elementari sulle
righe.

181
Esercizio
 22.3.
 Trasformare in forma canonica speciale la matrice
1 1 1
A= .
1 3 2

Svolgimento.

1
     
H21 (−1) 1 1 1 H22 (1/2) 1 1 1 H12 (−1) 1 0
A −→ −→ −→ 2 .
0 2 1 0 1 12 0 1 1
2

22.1 Applicazioni
1) Stabilire se due sottospazi

U = hu1 , u2 , . . . , ur i e W = hw1 , w2 , . . . , ws i

di K n sono uguali.
Procedura: Costruisco le matrici r × n AU e s × n AW disponendo quei
vettori in righe; trasformo in forma canonica speciale, ottenendo A0U ,
A0W . Risulta U = W se, e solo se, trascurando le eventuali righe nulle,
le matrici A0U e A0W sono uguali.

Esercizio 22.4. Stabilire se i due seguenti sottospazi di R3 sono uguali:

U = h(1, 1, 1), (1, 3, 2)i e W = h(1, −1, 0), (1, 5, 3), (2, 0, 1)i.
 
1 1 1
Svolgimento. Trasformo in forma canonica speciale AU = .
1 3 2
1
 
1 0
Questo è già stato fatto sopra, A0U = 2 . Trasformo in forma
0 1 12
182
canonica speciale
     
1 −1 0 1 −1 0 1 −1 0
H21 (−1) H32 (−1/3)
AW = 1 5 3
  −→  0 6 3 −→ 0 6 3
H31 (−2)
2 0 1 0 2 1 0 0 0
1 0 12
   
1 −1 0
H22 (1/6) H12 (1)
−→  0 1 12  −→ 0 1 1  = A0W .
2
0 0 0 0 0 0

Ne concludo U = W .
2) Stabilire se A ∈ M(n × n, K) è invertibile e nel caso calcolare A−1 .
Procedura: Costruisco la matrice n × (2n) (A | In ) e la trasformo in
forma canonica speciale (B | C).

(i) Se B 6= In , allora A non è invertibile.

(ii) Se B = In , allora A è invertibile e A−1 = C.

Risposta alla domanda iniziale. Trasformo in forma canonica speciale


   
1 2 3 1 0 0 1 2 3 1 0 0
4 5 6 0 1 0 H−→ 21 (−4)
0 −3 −6 −4 1 0 H−→ 32 (−2)

7 8 10 0 0 1 H31 (−7) 0 −6 −11 −7 0 1


   
1 2 3 1 0 0 1 2 3 1 0 0
0 −3 −6 −4 1 0 H22−→ (−1/3)
0 1 2 4 − 1 0 H−→ 13 (−3)
3 3
0 0 1 1 −2 1 0 0 1 1 −2 1 H23 (−2)
1 0 0 − 32 − 43 1
   
1 2 0 −2 6 −3
0 1 0 − 2 11 −2 H−→ 12 (−2)
0 1 0 − 2 11 −2 = (B | C).
3 3 3 3
0 0 1 1 −2 1 0 0 1 1 −2 1

183
Siccome B = I3 , M è invertibile e
 2
− 3 − 43 1

M −1 = − 23 113 −2 .
1 −2 1

(Verificare per esercizio che M M −1 = I3 .)


Perché la procedura funziona? Evitiamo una dimostrazione detta-
gliata; ci sono sostanzialmente due argomenti:
1) Le (catene di) operazioni elementari sulle righe si ottengono molti-
plicando a sinistra per matrici invertibili. Ad esempio se A è 3 × n,
H21 (r) si ottiene moltiplicando a sinistra per
 
1 0 0
 r 1 0 .
0 0 1

(1 ) Quindi se da A si ottiene A0 , allora esiste una matrice invertibile


H tale che A0 = HA.
2) Se H, M , N sono matrici n × n, allora

H(M | N ) = (HM | HN ).

Nel caso (ii) della procedura si ottiene allora

(B = In | C) = H(A | In ) = (HA | H),

da cui
H = A−1
 
In = HA

C = H C = H
e quindi C = A−1 .
1
In generale Hij (r) si ottiene dalla matrice identica cambiando l’elemento di riga i e colonna j
in r.

184
22.2 Esercizi
Esercizio 22.5. Discutere il seguente sistema lineare al variare del
parametro a ∈ R e trovare l’insieme Ia delle soluzioni per i valori di a
per cui tali soluzioni sono infinite:


 x + (a − 1)y = −1
x + ay + z + (a − 4)t = a2 − 3a + 2
2


 2y + (a2 − 4)t = a2 − 3a + 2
−x − ay + 2z = 3.

Svolgimento. Trasformo la matrice completa del sistema lineare:


 
1 a−1 0 0 −1
1
 a 1 a2 − 4 a2 − 3a + 2  H−→21 (−1)
2 2
0 2 0 a − 4 a − 3a + 2 H41 (1)
−1 −a 2 0 3
 
1 a−1 0 0 −1
0
 1 1 a2 − 4 a2 − 3a + 3  H−→ 32 (−2)
2 2
0 2 0 a − 4 a − 3a + 2 H42 (1)
0 −1 2 0 2
 
1 a−1 0 0 −1
0
 1 1 a2 − 4 a2 − 3a + 3   H−→ 43 (3/2)
2 2
0 0 −2 −a + 4 −a + 3a − 4
0 0 3 a2 − 4 a2 − 3a + 5
 
1 a−1 0 0 −1
0 1 1 a2 − 4 a2 − 3a + 3  .
−2 −a2 + 4 −a2 + 3a − 4

0 0
−a2 +3a−2
0 0 0 − 21 (a2 − 4) 2

L’ultima matrice è a scala.


1o caso: a2 − 4 6= 0, cioè a 6= ±2. Il sistema lineare è compatibile con

185
∞4−4 = ∞0 soluzioni, cioè soluzione unica.
2o caso: a = 2. La matrice è
 
1 1 0 0 −1
0 1 1 0 1 
0 0 −2 0 −2 .
 

0 0 0 0 0
Il sistema lineare è compatibile con ∞4−3 = ∞1 soluzioni.
3o caso: a = −2. L’ultima riga della matrice è (0 0 0 0 − 6). Essa ha
un pivot in ultima colonna, quindi il sistema lineare è incompatibile.
Riassumo la discussione: il sistema ha 0 soluzioni per a = −2, ∞1
soluzioni per a = 2, soluzione unica per a 6= ±2.
Risolvo il sistema per a = 2 in funzione del parametro t (2 ):
 
 x + y = −1  x = −1
y+z = 1 ⇔ y = 0
−2z = −2 z = 1.
 

L’insieme delle soluzioni è


{(−1, 0, 1, t) | t ∈ R} = (−1, 0, 1, 0) + h(0, 0, 0, 1)i.
Esercizio 22.6. Sia La (a ∈ R) l’endomorfismo di R3 soddisfacente le
equazioni
La (1, a, a2 ) = (a, −1, 1), La (0, 1, a) = (1, −a, 1),
(22.1)
La (0, a, −1) = (1, −1, a).
Al variare del parametro reale a determinare una base di im La .
Svolgimento. Studio la dipendenza dei tre vettori del dominio assegna-
ti:    
1 a a2 1 a a2
0 1 a  H−→ 32 (−a)
0 1 a .
0 a −1 0 0 −1 − a2
2
t non compare nel sistema, quindi può assumere ogni valore.

186
Per a reale l’ultima riga non è mai nulla, quindi esiste un unico endo-
morfismo di R3 soddisfacente le (22.1). L’immagine di un endomorfi-
smo è generata dall’immagine di una base del dominio, quindi

im La = h(a, −1, 1), (1, −a, 1), (1, −1, a)i.

Trovo una base di im La trasformando


     
a −1 1 1 −a 1 1 −a 1
1 −a 1 −→ H12
a −1 1 H−→ 21 (−a)
 0 a2 − 1 1 − a .
1 −1 a 1 −1 a H31 (−1) 0 a − 1 a − 1
(22.2)

1o caso: a2 − 1 6= 0, cioè a 6= ±1. In tal caso l’elemento in riga 2 e


colonna 2 è un pivot e si può proseguire con l’operazione H32 (r) dove
r è tale che r(a2 − 1) + a − 1 = 0, da cui r = −1/(a + 1):

1 −a
   
1 −a 1 1
H32 (−1/(a+1))
−→  0 a2 − 1 1 − a  = 0 a2 − 1 1 − a  .
a−1 (a+2)(a−1)
0 0 a+1 + a − 1 0 0 a+1

L’ultima riga si annulla per a = −2 (3 ) e corrispondentemente una


base è formata dalle prime due righe, altrimenti una base è formata
dalle tre righe della matrice4 .  
1 −1 1
2o caso: a = 1. Sostituendo in (22.2) si ottiene 0 0 0, una base
0 0 0
di im La è formata dal solo vettore
 (1, −1,
1).
1 1 1
o
3 caso: a = −1. Si ottiene 0 0 2  che con l’operazione H23 si
0 −2 −2
3
a = 1 è escluso in questo caso.
4
In questo caso im La = R3 e allora qualunque base di R3 è una base di im La .

187
trasforma in matrice a scala. In questo caso quindi abbiamo una base
con tre vettori.
2
 Conclusione.  Per a 6= ±1, −2, una base è (1, −a, 1), (0, a −1, 1−a),
0, 0, (a+2)(a−1)
a+1 ;
per a = −1, una base è (1, 1, 1), (0, −2, −2), (0, 0, 2);
per a = −2, una base è (1, 2, 1), (0, 3, 3);
per a = 1, una base è (1, −1, 1).

188
Lezione 23

Determinante

Anagrammare, se possibile, “ROMA” in “AMOR” con esattamente


sette scambi di lettere.

Definizione 23.1. Un gruppo è una coppia ordinata (G, ω), dove G è


un insieme e ω è un’operazione binaria in G tale che
(i) ∀x, y, z ∈ G : (xωy)ωz = xω(yωz) (proprietà associativa),
(ii) ∃u ∈ G : ∀x ∈ G : xωu = x = uωx (esistenza dell’elemento
neutro),
(iii) ∀x ∈ G : ∃x0 ∈ G : xωx0 = u = x0 ωx (esistenza dell’elemento
simmetrico).
Esempi 23.2. (R, +), (R∗ , ·) sono gruppi, (R, ·) no perché non esiste
il simmetrico dell’elemento 0. Un esempio diverso si ottiene prendendo
come G l’insieme di tutte le matrici invertibili in M(n × n, K), con
“ω” il prodotto tra matrici.

189
Definizioni 23.3. 1) In = {1, 2, . . . , n} (n ∈ N).
2) Una permutazione di In è una funzione biiettiva σ : In → In .
3) Sn denota l’insieme di tutte le permutazioni di In .
Proposizione 23.4. (i) L’insieme Sn contiene precisamente n! per-
mutazioni, per ogni n ∈ N.
(ii) La composizione di permutazioni “◦” è un’operazione binaria in
Sn .
(iii) (Sn , ◦) è un gruppo.
L’elemento neutro di (Sn , ◦) è la permutazione identica, inoltre per
ogni σ ∈ Sn vale σ −1 ∈ Sn .
Definizione 23.5. (Sn , ◦) prende il nome di gruppo simmetrico su n
oggetti.
Definizione 23.6. Ogni σ ∈ Sn si può rappresentare con una matrice
2 × n,  
1 2 ... n
,
σ(1) σ(2) . . . σ(n)
da considerarsi una semplice tabella nella quale sono riportate le im-
magini dei singoli elementi di In .
La seconda riga contiene tutti i numeri interi da 1 a n, ciascuno
una volta sola.
Esempio 23.7. Rappresentiamo tutte le permutazioni in S3 . Esse
sono 3! = 6.
     
1 2 3 1 2 3 1 2 3
id = σ1 = σ2 =
1 2 3  1 3 2 2 1 3 (23.1)
1 2 3 1 2 3 1 2 3
σ3 = σ4 = σ5 =
2 3 1 3 1 2 3 2 1
190
Esercizio 23.8. Calcolare σ5 ◦ σ2 e σ2 ◦ σ5 .
Svolgimento.

σ5 ◦ σ2 (1) = σ5 (σ2 (1)) = σ5 (2) = 2 
σ5 ◦ σ2 (2) = σ5 (σ2 (2)) = σ5 (1) = 3 =⇒ σ5 ◦ σ2 = σ3 .
σ5 ◦ σ2 (3) = σ5 (σ2 (3)) = σ5 (3) = 1

Analogamente

σ2 ◦ σ5 (1) = σ2 (σ5 (1)) = σ2 (3) = 3


σ2 ◦ σ5 (2) = σ2 (σ5 (2)) = σ2 (2) = 1.

Vale σ2 ◦ σ5 (3) = 2 perché σ2 ◦ σ5 è iniettiva1 . Quindi σ2 ◦ σ5 = σ4 .


L’esempio precedente si può generalizzare, pervenendo alla:
Proposizione 23.9. L’operazione “◦” in Sn per n ≥ 3 non è commu-
tativa.
Esercizio 23.10. Trovare gli inversi di tutti gli elementi di S3 .
Svolgimento. Vale id−1 = id. Per trovare σ1−1 (1) = x occorre risolvere
l’equazione σ1 (x) = 1 da cui x = 1. Per trovare σ1−1 (2) = y occorre
risolvere l’equazione σ1 (y) = 2 da cui y = 3. Analogamente, σ1−1 (3) = z
equivale a σ1 (z) = 3 da cui z = 2. Vale σ1−1 = σ1 .
 Si può  procedere più semplicemente. Per esempio l’inversa di σ2 =
1 2 3
si ottiene “leggendola al contrario”, ovvero scambiandone le
2 1 3  
2 1 3
righe, σ2−1 = e riordinando
1 2 3
 
1 2 3
σ2−1 = = σ2 .
2 1 3
1
Lo stesso argomento si poteva addurre anche prima.

191
Analogamente  
1 2 3
σ3−1 = = σ4
3 1 2
e ciò implica anche σ4−1 = σ3 . Infine σ5−1 = σ5 .
Osservazione 23.11. La funzione ϕ : Sn → Sn : σ 7→ σ −1 è biiettiva.
Definizione 23.12. Una σ ∈ Sn si dice scambio se l’equazione σ(x) =
x vale per esattamente n − 2 valori di x ∈ {1, 2, . . . , n}.
Esempio 23.13. In S3 gli scambi sono: σ1 , σ2 , σ5 .
Osservazione 23.14. Ogni scambio è inverso di sé stesso, infatti, se σ
è uno scambio in Sn , allora esistono precisamente due elementi x1 , x2 ∈
In tali che

σ(x1 ) = x2 , σ(x2 ) = x1 , ∀x ∈ In \ {x1 , x2 } : σ(x) = x.

Dalle tre equazioni si deduce (nell’ordine)

σ −1 (x2 ) = x1 , σ −1 (x1 ) = x2 , ∀x ∈ In \ {x1 , x2 } : σ −1 (x) = x.

Ciò prova quanto asserito.

Teorema 23.15. Ogni permutazione è composizione di un numero fi-


nito di scambi. Se una permutazione σ è ottenibile come composizione
di un numero pari [risp. dispari] di scambi, allora ogni espressione
di σ come composizione di scambi ne contiene un numero pari [risp.
dispari].

Esempio 23.16. σ3 non è uno scambio, ma è composizione di due


scambi: σ3 = σ5 ◦ σ2 (cfr. eserc. 23.8). In base al teorema non possono
esistere tre scambi σ, σ 0 , σ 00 tali che σ3 = σ ◦ σ 0 ◦ σ 00 .

192
Risposta alla domanda iniziale. Associando numeri di In a lettere
distinte, abbiamo che agli elementi di Sn si associano le n! operazioni
possibili di anagrammare. Ad esempio le lettere di ROMA possono es-
sere anagrammate in 4! = 24 modi diversi. Consideriamo l’anagramma
AMOR, che si ottiene con due scambi:

ROMA −→ AOMR −→ AMOR.

Si può ottenere anche con quattro scambi:

ROMA −→ ORMA −→ ARMO −→ AOMR −→ AMOR.

Per il teorema 23.15, non è possibile ottenere l’anagramma con sette


scambi.

Definizione 23.17. Una permutazione si dice dispari o pari a seconda


che sia composizione di un numero dispari o pari di scambi.

Osservazione 23.18. Uno scambio σ è dispari. Siccome σ ◦ σ = id,


id è una permutazione pari.

Definizione 23.19. Il segno di una permutazione σ è



1 se σ è pari,
sgn(σ) =
−1 se σ è dispari.

Definizione 23.20. Il determinante di una matrice quadrata A =


(aij ) ∈ M(n × n, K) è
X
det A = sgn(σ)a1σ(1) a2σ(2) · . . . · anσ(n) . (23.2)
σ∈Sn

193
Notazione 23.21. Il determinante di A si denota anche con |A|.

Esempi 23.22. Espandiamo la formula (23.2) per i valori più piccoli


di n.
Per n = 1 si ha S1 = {id} e det A = sgn(id)a
 1 id(1) = a11 .

1 2
Per n = 2 si ha S2 = {id, τ }, dove τ = , sgn(τ ) = −1, e
2 1

det A = sgn(id)a1 id(1) a2 id(2) + sgn(τ )a1τ (1) a2τ (2) = a11 a22 − a12 a21 .

Per n = 3, det A è somma di sei addendi corrispondenti alle sei


permutazioni in (23.1):
det A = +a11 a22 a33 + Addendo relativo a σ = id
−a11 a23 a32 + σ = σ1 che è uno scambio
−a12 a21 a33 + σ = σ2 che è uno scambio
+a12 a23 a31 + σ = σ3 che è pari, es. 23.16
+a13 a21 a32 + σ = σ4 = σ2 ◦ σ5
−a13 a22 a31 . σ = σ5 che è uno scambio
La regola di Sarrus è un metodo mnemonico per ricordare la formu-
la che abbiamo appena ottenuto e consiste nel ricopiare a destra della
matrice le prime due colonne, sommare i tre prodotti sulle diagonali
rosse e sottrarre i tre prodotti sulle diagonali azzurre.

Figura 23.1: Regola di Sarrus

194
Esercizio 23.23. Calcolare il determinante della seguente matrice rea-
le:  
−1 −2 0
P =  1 2 3 . (23.3)
4 5 6
Svolgimento. Applico la regola di Sarrus:

−1 −2 0 −1 −2

1 2 3 1 2 = −12 − 24 + 0−0 − (−15) − (−12) = −9.

4 5 6 4 5

 La regola di Sarrus vale solo per matrici 3 × 3.

Definizione 23.24. La trasposta di una matrice A = (aij ) ∈ M(m ×


n, K) è la matrice AT = (bji ) ∈ M(n×m, K) definita ponendo bji = aij
per ogni j = 1, 2, . . . , m, i = 1, 2, . . . , n.
 
  1 4
1 2 3
Esempio 23.25. Se A = allora AT = 2 5.
4 5 6
3 6

Teorema 23.26. Per ogni A ∈ M(n × n, K), vale det AT = det A.

Dimostrazione. Due considerazioni preliminari. Poniamo A = (aij ),


quindi AT = (bji ), dove bji = aij , ∀i, j.
1) Per ogni σ ∈ Sn vale sgn(σ) = sgn(σ −1 ), infatti, esprimendo σ e σ −1
come composizione di scambi:

σ = σ 1 ◦ σ2 ◦ . . . ◦ σr , σ −1 = σ10 ◦ σ20 ◦ . . . ◦ σs0 ,

si ottiene id = σ1 ◦σ2 ◦. . .◦σr ◦σ10 ◦σ20 ◦. . .◦σs0 , quindi id è composizione


di r + s scambi. Ne segue che r + s è pari. Allora r ed s sono entrambi

195
pari o entrambi dispari e tali sono σ e σ −1 .
2) Per ogni σ ∈ Sn vale

a1σ(1) a2σ(2) · . . . · anσ(n) = aσ−1 (1)1 aσ−1 (2)2 · . . . · aσ−1 (n)n ;

infatti, se j = σ(i), allora aiσ(i) = aσ−1 (j)j . (2 )


Combinando quanto sopra si ottiene:
det AT =
P Per definizione
= σ∈Sn sgn(σ)b1σ(1) b2σ(2) · . . . · bnσ(n)
di determinante
P
= Pσ∈Sn sgn(σ)bσ−1 (1)1 bσ−1 (2)2 · . . . · bσ−1 (n)n Per la premessa 2)
= σ∈Sn sgn(σ)a1σ−1 (1) a2σ−1 (2) · . . . · anσ−1 (n) Infatti bji = aij , ∀i, j
Ponendo τ = σ −1 ,
= τ ∈Sn sgn(τ −1 )a1τ (1) a2τ (2) · . . . · anτ (n)
P
cfr. oss. 23.11
P
= τ ∈Sn sgn(τ )a1τ (1) a2τ (2) · . . . · anτ (n) Cfr. premessa 1)
= det A Per definizione

Compito 23.27. Data la matrice B = (bij ) ∈ M(n × n, K) e c ∈ K,


posto d = det B, quanto vale det(cB)?

Sugg.: porre A = (aij ) = cB e sostituire in (23.2).

 
2 1 2 3
Ad esempio, se σ = , allora a1σ(1) a2σ(2) a3σ(3) = a12 a23 a31 = a31 a12 a23 =
2 3 1
aσ−1 (1)1 aσ−2 (2)2 aσ−1 (3)3 .

196
Lezione 24

Proprietà del determinante

Esiste una formula che dia direttamente l’inversa di una matrice?


Fissiamo A = (aij ) ∈ M(n × n, K).
1) Proprietà di multilinearità. Comunque presi i ∈ {1, 2, . . . , n}, A0i ,
A00i ∈ M(1 × n, K), h0 , h00 ∈ K, vale:
     
A1 A1 A1
..  ..   .. 
.  .   . 
 
 
Ai−1 Ai−1  Ai−1 
     
 
det h0 A0i + h00 A00i  = h0 det  A0i  + h00 det  A00i  .
     
Ai+1 Ai+1  Ai+1 
     
 
 ..   ..   .. 
 .   .   . 
An An An

2) Proprietà di alternanza. Sia C la matrice ottenuta da A scambian-


done due righe. Allora det C = − det A.
3) det In = 1.

197
Osservazione 24.1. Si può dimostrare che il determinante è l’unica
funzione F : M(n × n, K) → K che soddisfi 1), 2) e 3). Quindi 1), 2)
e 3) potrebbero essere prese come definizione di determinante.
Le proprietà seguenti sono (quindi) conseguenza di queste tre.
4) Se due righe di A sono uguali, allora det A = 0. Infatti, sia C la
matrice ottenuta da A scambiandone le righe uguali. Vale C = A,
quindi det C = det A. Per la 2), det C = − det A, da cui det A =
− det A e det A = 0.
5) Se la matrice C è ottenuta da A tramite l’operazione elementare
Hij (r) (i 6= j), allora det C = det A. Infatti,
     
A1 A1 A1
.. ..  . 
.  .   .. 
   
 
A + rA  A  A 
 i j
1)  i  j
det C = det 
 .
.  = det  .  + r det  ...  .
  ..   
.
 Aj   Aj   Aj 
     
 .. 
 ... 
   . 
 .. 
 . 
An An An
Nell’ultima espressione, il primo determinante è det A e il secondo è il
determinante di una matrice con due righe uguali, quindi vale zero.
6) Se una riga di A è nulla, allora det A = 0. Infatti ciò segue dalla
proprietà 1) di multilinearità.
7) Se A è triangolare superiore, cioè tutti i suoi elementi sotto la dia-
gonale principale valgono zero (aij = 0 per ogni i e j tali che i > j),
allora det A è il prodotto degli elementi della diagonale principale di
A.
Dalle proprietà 2), 5) e 7) si deduce una procedura per calcolare
det A: trasformare A in matrice a scala A0 usando solo scambi e Hij (r)
(i 6= j). Allora risulta det A = ± det A0 (considerando che ogni scam-
bio comporta un cambiamento di segno) e det A0 è il prodotto degli
elementi sulla diagonale principale.

198
Esercizio 24.2. (Cfr. es. 23.23.) Calcolare il determinante della se-
guente matrice reale:
 
−1 −2 0
P =  1 2 3 .
4 5 6
Svolgimento.
 
−1 −2 0
H21 (1)H31 (4)
det P = det  0 0 3 =
0 −3 6
 
−1 −2 0
H23
= − det 0 −3 6 = −(−1)(−3)3 = −9.

0 0 3
8) det A 6= 0 ⇐⇒ A è invertibile. Quindi per la prop. 19.8, det A 6= 0
⇐⇒ rk A = n.
Esempio 24.3. La matrice P nell’esercizio precedente è invertibile,
perché det P 6= 0.
9) Teorema di Binet. Se A, B ∈ M(n × n, K), allora det(AB) =
(det A)(det B).
10) det AT = det A (teorema 23.26).
Come conseguenza della proprietà 10), ad ogni affermazione precedente
che riguardi le righe ne corrisponde una ugualmente valida che riguarda
le colonne.
Definizione 24.4. Il complemento algebrico (o cofattore) di indici i,
j ∈ {1, 2, . . . , n} nella matrice A ∈ M(n × n, K) è
Aij = (−1)i+j det Mij ,
dove Mij è la matrice (n − 1) × (n − 1) ottenuta da A cancellandone
la i-esima riga e la j-esima colonna.

199
Esercizio 24.5. Trovare tutti i complementi algebrici della matrice P
nell’eserc. 24.2.

Svolgimento.

2 3 1 3
= (−1)1+1 = (−1)1+2

P11 = −3; P12 = −(6 − 12) = 6;
5 6 4 6

1 2
P13 = (−1)1+3

= −3;
4 5

−2 0 −1 0 −1 −2
P21 = − = 12 P22 =
4 6 = −6 P23 = − 4 5 = −3

5 6



−2 0 −1 0 −1 −2
P31 = = −6 P32 = −
1 3 = 3 P33 = 1 2 = 0.

2 3

Teorema 24.6 (Formula di Laplace). Per ogni A = (aij ) ∈ M(n ×


n, K) e i ∈ {1, 2, . . . , n} vale:

det A = ai1 Ai1 + ai2 Ai2 + · · · + ain Ain . (24.1)

La formula si chiama “sviluppo del determinante secondo la i-esima


riga”.

Esercizio 24.7. Risolvere l’eserc. 24.2 per mezzo della (24.1).

Svolgimento. Ponendo P = (pij ) e prendendo i = 1,

det P = p11 P11 + p12 P12 + p13 P13 = −1(−3) + (−2)6 + 0(−3) = −9.

Secondo svolgimento, prendendo i = 2:

det P = p21 P21 + p22 P22 + p23 P23 = 1 · 12 + 2(−6) + 3(−3) = −9.

200
Osservazione 24.8. Da det AT = det A segue che lo sviluppo del
determinante si può fare anche secondo una colonna.

Definizione 24.9. La matrice dei cofattori di A ∈ M(n × n, K) è la


matrice n × n A∗ il cui elemento generico è Aij .

Esercizio 24.10. Calcolare P∗ dove P è la matrice dell’eserc. 24.2.

Svolgimento. I calcoli sono stati già fatti nell’esercizio 24.5:


 
−3 6 −3
P∗ =  12 −6 −3 .
−6 3 0

Teorema 24.11. Se A ∈ M(n × n, K) è invertibile, allora


1
A−1 = AT∗ . (24.2)
det A

Risposta alla domanda iniziale. La (24.2) è la formula esplicita per


l’inversa di una matrice.

Esercizio 24.12. Calcolare P −1 dove P è la matrice dell’eserc. 24.2.

Svolgimento. Uso la (24.2):


   
−3 12 −6 1/3 −4/3 2/3
1 
P −1 = 6 −6 3  = −2/3 2/3 −1/3 .
−9 −3 −3 0 1/3 1/3 0
201
 
a b
Osservazione 24.13. Data una matrice 2 × 2 A = , A risulta
c d
invertibile se, e solo se, det A 6= 0 (vedi 8) ) cioè se, e solo se, ad−bc 6= 0
e in tal caso per la (24.4) abbiamo
A11 = d, A12 = −c, A21 = −b, A22 = a,
 
d −c
quindi A∗ = e per la (24.2)
−b a
 
−1 1 d −b
A = .
ad − bc −c a
Questo risultato coincide con quello trovato a suo tempo nella prop.
3.16.
Definizione 24.14. Un sistema lineare AX = B si dice sistema di
Cramer se A è una matrice quadrata invertibile.
Proposizione 24.15. Ogni sistema di Cramer ha un’unica soluzione.
Dimostrazione. Segue osservando che AX = B ⇐⇒ X = A−1 B.
Proposizione 24.16 (Formule di Cramer). L’unica soluzione del si-
stema di Cramer AX = B (A ∈ M(n × n, K) invertibile) è X =
(x1 x2 . . . xn )T dove
det Dj
xj = , j = 1, 2, . . . , n,
det A
e Dj è la matrice ottenuta da A sostituendone la j-esima colonna con
B.
 
1
Esercizio 24.17. Risolvere P X = 0 dove P è la matrice dell’eserc.

0
24.2.

202
Svolgimento.  
1 −2 0
det 0 2 3
0 5 6
x1 = .
det P
Sviluppo il determinante
a numeratore secondo la prima colonna, ot-
2 3
tenendo 1 · = −3. Quindi x1 = −3/(−9) = 1/3. Analogamente
5 6
 
−1 1 0  
det  1 0 3 1 3
1 · −
4 0 6 4 6 6 2
x2 = = = =− ,
det P  −9 −9 3
−1 −2 1  
det  1 2 0 1 2
1 · +
4 5 0 4 5 −3 1
x3 = = = = .
det P −9 −9 3
Verificare, sostituendo in

 −x1 − 2x2 = 1
x1 + 2x2 + 3x3 = 0
4x1 + 5x2 + 6x3 = 0.

Definizione 24.18. Una sottomatrice k×` di una matrice A ∈ M(m×


n, K) si ottiene scegliendo k righe ed ` colonne di A e prendendo gli
elementi sugli “incroci” tra le anzidette.
Definizione 24.19. Un minore d’ordine r estratto dalla matrice A è
il determinante di una sottomatrice r × r di A.
Teorema 24.20. Condizione necessaria e sufficiente affinché rk A = r
è che esista un minore d’ordine r di A non nullo e che tutti i minori
d’ordine maggiore di r siano nulli.

203
Esempio 24.21. La matrice
 
1 0 −1 2
A =  0 1 1 1
−1 2 3 0

ha 18 minori d’ordine due1 e quattro minori d’ordine 3. Calcoliamo il


rango di A:
   
1 0 −1 2 1 0 −1 2
H31 (1) H32 (−2)
A −→ 0 1 1 1 −→ 0 1 1 1 .
0 2 2 2 0 0 0 0

Quindi A ha almeno un minore d’ordine due non nullo (ad esempio


quello evidenziato), mentre i quattro minori d’ordine 3 sono tutti nulli.

Esercizio 24.22. Dati A ∈ M(n×n, K), det A = d, h ∈ K, esprimere


det(hA) in funzione di d, h e n.

Compito 24.23. Dimostrare o confutare la seguente affermazione:


Sia AX = On×1 un sistema lineare di n equazioni in n incognite
(n > 1) a coefficienti in un campo K. Se T ∈ K n è una soluzione
del sistema e T 6= On×1 , allora det A = 0.

4
1

Infatti, vi sono 3 modi per scegliere due righe e 2 = 6 modi per scegliere due colonne.

204
Lezione 25

Autovalori ed autovettori

Dato un endomorfismo L di uno spazio vettoriale VK di dimensione


finita, in quali casi esiste una base B di VK tale che la matrice AL B B
sia diagonale?
Risposta alla sfida 24.23. Consideriamo il sistema lineare omogeneo
AX = On×1 , dove A è n × n. Allora ricordando l’equivalenza det A 6= 0
⇔ rk A = n si ha
• se det A 6= 0, il sistema lineare ha un’unica soluzione x1 = x2 =
. . . = xn = 0;

• se det A = 0, il sistema lineare ha almeno ∞1 soluzioni.


Nell’ipotesi della sfida, il sistema ha una soluzione non nulla, quindi
necessariamente det A = 0.
Definizione 25.1. Una matrice A = (aij ) ∈ M(n×n, K) si dice diago-
nale se aij = 0 per ogni i, j ∈ {1, 2, . . . , n} tali che i 6= j; in altri termini

205
è diagonale una matrice A tale che gli elementi fuori della diagonale
principale siano nulli. Essa si denota con A = diag(a11 , a22 , . . . , ann ).

Esempi 25.2. Sono diagonali:

On×n = diag(0, 0, . . . , 0) e In = diag(1, 1, . . . , 1).

In questa lezione VK denoterà sempre uno spazio vettoriale di di-


mensione finita n. Ricordiamo che un endomorfismo di VK è una fun-
zione L : V → V lineare. In tal caso la matrice AL B B = (aij ) soddisfa
(cfr. (16.7) e (16.8)):

L(vj ) = a1j v1 + a2j v2 + · · · + anj vn , j = 1, 2, . . . , n; (25.1)


XL(v) = AL B B Xv , (25.2)

dove, al solito, per ogni vettore v ∈ V , Xv denota la colonna delle


coordinate di v rispetto alla base B.

Definizione 25.3. Un endomorfismo L di VK si dice diagonalizzabile


se esiste una base B di VK tale che AL B B sia diagonale.

Osservazione 25.4. La domanda iniziale si riformula in: Dati uno


spazio vettoriale VK di dimensione finita e un endomorfismo L di VK ,
quando L è diagonalizzabile?

Definizione 25.5. Sia L un endomorfismo di VK . Se v ∈ V soddisfa

L(v) = λv, v 6= 0, λ ∈ K, (25.3)

allora v si dice autovettore di L e λ si dice autovalore di L associato a


v.

206
Esercizio 25.6. Date

f : R3 → R3 : (x, y, z) 7→ (x + y − z, 2y, −x + y + z)

e la base B = (0, 1, 1), (1, 0, 1), (1, 1, 0) di R3 ,


(a) quali vettori della base naturale N di R3 sono autovettori di f ?
(b) Quali vettori di B sono autovettori di f ?
(c) Trovare Af N N e Af B B .
(d) f è diagonalizzabile?
Svolgimento. (a) La base naturale è

N = e1 , e2 , e3 = (1, 0, 0), (0, 1, 0), (0, 0, 1).

Vale f (e1 ) = (1, 0, −1) e (1, 0, −1) 6= λe1 per ogni λ ∈ R; quindi e1 non
è un autovettore di f . Similmente f (e2 ) = (1, 2, 1), f (e3 ) = (−1, 0, 1),
quindi nessun vettore della base naturale è un autovettore di f .
(b) Indichiamo con v1 , v2 , v3 i tre vettori di B. Vale f (v1 ) = (0, 2, 2) =
2v1 , f (v2 ) = (0, 0, 0) = 0v2 , f (v3 ) = (2, 2, 0) = 2v3 , quindi tutti e tre
i vettori di B sono autovettori di f .
(c) Posto che rispetto alla base naturale la colonna delle coordinate di
un vettore coincide con il vettore stesso, Af N N è quella matrice tale
che (25.2) L(v) = Af N N v per ogni v = (x y z)T , quindi
 
1 1 −1
Af N N =  0 2 0  . (25.4)
−1 1 1

Poi usiamo (25.1) per trovare Af B B . Vale:

f (v1 ) = a11 v1 + a21 v2 + a31 v3 = 2v1 + 0v2 + 0v3 ,


f (v2 ) = a12 v1 + a22 v2 + a32 v3 = 0v1 + 0v2 + 0v3 ,
f (v3 ) = a13 v1 + a23 v2 + a33 v3 = 0v1 + 0v2 + 2v3 ,

207
da cui  
2 0 0
Af B B = 0 0 0 . (25.5)
0 0 2
(d) Af B B è diagonale, quindi f è diagonalizzabile.

Osservazione 25.7. Il motivo per cui Af B B risulta diagonale è che


tutti i vettori di B risultano autovettori. In generale:

Teorema 25.8. Un endomorfismo L di uno spazio vettoriale VK di


dimensione finita è diagonalizzabile se, e solo se, esiste una base B di
VK i cui elementi sono tutti autovettori di L.

Dimostriamo la seguente proposizione, che ha come conseguenza il


teorema appena enunciato:

Proposizione 25.9. Dati un endomorfismo L di VK e una base B =


v1 , v2 , . . . , vn di VK , la matrice AL B B è diagonale se, e solo se, vj è un
autovettore di L, per ogni j = 1, 2, . . . , n.

Dimostrazione. “⇒” Posto AL B B = (aij ), per ipotesi aij = 0 per i, j =


1, 2, . . . , n, i 6= j. Sostituendo in (25.1), si ottiene L(vj ) = ajj vj ,
j = 1, 2, . . . , n. Quindi ogni vj soddisfa la definizione di autovettore.
“⇐” Per ipotesi esistono λ1 , λ2 , . . . , λn ∈ K tali che L(vj ) = λj vj ,
j = 1, 2, . . . , n. Combinando con (25.1) otteniamo:

a1j v1 +a2j v2 +· · ·+ajj vj +· · ·+anj vn = 0v1 +0v2 +· · ·+λj vj +· · ·+0vn

(j = 1, 2, . . . , n). Se ne deduce aij = 0 ∀i 6= j, j = 1, 2, . . . , n. Quindi


AL B B è diagonale.

208
Risposta alla domanda iniziale. La proposizione precedente dà una
condizione necessaria e sufficiente affinché AL B B sia diagonale.

Osservazione 25.10. Abbiamo visto che per decidere se un endomor-


fismo sia diagonalizzabile, sarebbe sufficiente trovarne gli autovettori.
In realtà, è più semplice trovare gli autovalori; vedremo tra poco come.

Proposizione 25.11. Sia L un endomorfismo di VK , B una base di VK


e λ ∈ K. Allora λ è un autovalore di L se, e solo se, det AL B B − λIn =
0.

Dimostrazione. Le proposizioni nella colonna di sinistra sono equiva-


lenti:
λ è autovalore di L
∃v ∈ V : v 6= 0, L(v) = λv per definizione
passando a
∃v ∈ V : Xv 6= On×1 , XL(v) = Xλv
coordinate
∃v ∈ V : Xv 6= On×1 , XL(v) = λXv Xhv = hXv sempre
∃v ∈ V : Xv 6= On×1 , AL B B Xv = λXv cfr. (25.2)
∃X ∈ K n : X 6= On×1 , AL B B X = λX
∃X ∈ K n : X 6= On×1 , AL B B X − λIn X = On×1
È un sist. lin. om.
∃X ∈ K n : X 6= On×1 , (AL B B − λIn )X = On×1
con > 1 soluzioni
det AL B B − λIn = 0

cfr. sfida 24.23

Osservazione 25.12. In virtù di questa proposizione, gli autovalori di


L sono precisamente le soluzioni della seguente equazione nell’incognita
t:
det AL B B − tIn = 0.


209
Definizione 25.13. Il polinomio  caratteristico di un endomorfismo L
B
di VK è pL (t) = det AL B − tIn .
Osservazione 25.14. Si può dimostrare che pL (t) è effettivamente un
polinomio di grado n e che pL (t) non dipende da B, cioè, comunque
prese due basi B e B 0 , vale
 
B B0

det AL B − tIn = det AL B0 − tIn .

Esercizio 25.15. Trovare gli autovalori dell’endomorfismo f definito


nell’eserc. 25.6.
Svolgimento. Gli autovalori di f sono le radici di pf (t). Considerando
(25.4),
 
1 − t 1 −1
pf (t) = det Af N N − tI3 = det  0 2 − t 0  .

−1 1 1−t

Sviluppando il determinante secondo la seconda riga,



1 − t −1
pf (t) = (2 − t) = (2 − t)(t2 − 2t).
−1 1 − t

Concludendo, gli autovalori di f sono 2 e 0.


Osservazione 25.16. Si poteva svolgere l’esercizio partendo da Af B B
in (25.5), ottenendo più facilmente

2 − t 0 0
pf (t) = 0 −t 0 = −t(t − 2)2 .

0 0 2 − t

Definizione 25.17. La molteplicità algebrica di un autovalore λ di un


endomorfismo L di VK è la sua molteplicità come radice di pL (t).

210
Definizione 25.18. Un polinomio P (x) si dice completamente riduci-
bile sul campo K se è prodotto di polinomi di grado uno a coefficienti
in K.

Esempi 25.19. pf (t) è completamente riducibile su R. P (x) = (x −


3)(x2 +1) non è completamente riducibile su R; P (x) è completamente
riducibile su C (come lo è ogni polinomio a coefficienti in C).

Osservazione 25.20. Se un polinomio P (x) è completamente riduci-


bile sul campo K, allora la somma delle molteplicità delle sue radici è
uguale al grado di P (x).

Esercizio 25.21. Sia B = v1 , v2 , v3 una base di uno spazio vettoria-


le reale VR . Sia poi g l’endomorfismo di VR definito dalle condizioni
g(v1 ) = 0, g(v2 ) = v3 , g(v3 ) = v2 . Trovare gli autovalori di g.

Svolgimento. La prima colonna di Ag B B contiene le coordinate di g(v1 ) =


0, quindi è nulla; la seconda contiene le coordinate di g(v2 ) = v3 =
0v1 + 0v2 + 1v3 , quindi contiene 0, 0 e 1; la terza colonna si ottiene
analogamente. Ne deduco
 
0 0 0 −t 0 0
Ag B B = 0 0 1 e pg (t) = 0 −t 1 = −t(t2 − 1).

0 1 0 0 1 −t

Gli autovalori di g sono 0, 1 e −1.

Compito 25.22. Trovare quanti più autovettori possibile dell’endo-


morfismo g di R3 definito da:

g(x, y, z) = (x + z, 2(x + z), 3(x + z)).

211
212
Lezione 26

Il teorema di
diagonalizzabilità

In quali casi un endomorfismo L è diagonalizzabile?


Anche in questa lezione VK è uno spazio vettoriale fissato di dimen-
sione finita n.
Definizione 26.1. Se L è un endomorfismo di VK e λ è un autovalore
di L, l’autospazio di L relativo a λ è
EL (λ) = {v ∈ V | L(v) = λv}.

Osservazioni 26.2. 1) EL (λ) contiene precisamente tutti gli autovet-


tori associati all’autovalore λ, più il vettore nullo.
2) EL (λ) è un sottospazio di VK . Infatti, riguardando la dimostrazione
della prop. 25.11, EL (λ) è determinato dal seguente sistema lineare
omogeneo n × n:
AL B B − λIn Xv = On×1 .

(26.1)

213
Siccome l’insieme delle soluzioni di un sistema lineare omogeneo n × n
è un sottospazio di K n , EL (λ) è un sottospazio di VK .
3) Siccome λ è un autovalore, vale dim EL (λ) > 0.
4) La definizione di EL (λ) si può estendere al caso in cui λ non sia un
autovalore, ma in tal caso EL (λ) = {0}.
5) Vale EL (0) = {v ∈ V | L(v) = 0} = ker L. Ricordando che L è
iniettiva se, e solo se, ker L = {0V }, otteniamo che 0 è un autovalore
di L se, e solo se, L non è iniettivo.

Ricordiamo che la molteplicità algebrica di un autovalore λ di un


endomorfismo L di VK è la sua molteplicità come radice del polinomio
B

caratteristico pL (t) = det AL B − tIn .

Definizione 26.3. Se L è un endomorfismo di VK e λ è un autovalore


di L, la molteplicità geometrica di λ è la dimensione di EL (λ).

Osservazione 26.4. Dalla teoria dei sistemi lineari sappiamo che la di-
mensione dello spazio delle soluzioni di (26.1) vale n−rk AL B B − λIn .

Quindi
dim EL (λ) = n − rk AL B B − λIn .

(26.2)

Esercizio 26.5. Trovare gli autovalori e le loro molteplicità algebriche


e geometriche del seguente endomorfismo di R3 :

f : R3 → R3 : (x, y, z) 7→ (−2x − y + z, −y − z, 2x + y − z).

Svolgimento. Vale
 
−2 −1 1
Af N N =  0 −1 −1 .
2 1 −1
214
Usando la regola di Sarrus,

−2 − t −1 1

pf (t) = 0 −1 − t −1 =
2 1 −1 − t
= (−2 − t)(−1 − t)2 + 2 − (−2 − 2t) − (2 + t) =
= −t3 − 4t2 − 4t = −t(t + 2)2 .
Gli autovalori sono λ1 = 0 con molteplicità algebrica 1 e λ2 = −2
con molteplicità algebrica 2. Uso la (26.2) per calcolare le molteplicità
geometriche:
 
−2 −1 1
dim Ef (0) = 3 − rk  0 −1 −1 = 3 − 2 = 1,
2 1 −1
 
0 −1 1
dim Ef (−2) = 3 − rk 0 1 −1 = 3 − 2 = 1.
2 1 1
Proposizione 26.6. Sia L un endomorfismo di VK e λ un suo auto-
valore. Indicate con m ed r, rispettivamente, le molteplicità algebrica
e geometrica di λ, vale 1 ≤ r ≤ m.
Dimostrazione. Consideriamo una base v1 , v2 , . . . , vr di EL (λ), che
può essere completata ad una base B = v1 , v2 , . . . , vr , . . . , vn di VK .
La matrice associata ad L ha la seguente forma:
 
λ 0 ... 0
 0 λ 0 
 .. .. . . . ..
 Mr×(n−r) 
 . . .

B
AL B =  ,

 0 0 λ 
 .. .. .
.. 
 . .
N(n−r)×(n−r)

0 0 ... 0

215
in cui vi sono delle sottomatrici delle quali sono specificati gli ordini.
Ne segue

pL (t) = det AL B B − tIn =




λ−t
 
0 ... 0
 0 λ−t 0 
 .. .. . . .. M r×(n−r)

= det 
 . . . . .

 0 0 λ−t 
O(n−r)×r N(n−r)×(n−r) − tIn−r

Sviluppando tale determinante secondo la prima colonna si ottiene λ−t


per un determinante d’ordine n − 1, ottenuto dal precedente rimuoven-
do la prima riga e la prima colonna. A sua volta l’ultimo determinante
si sviluppa secondo la prima colonna e, ripetendo il procedimento r
volte, si ottiene

pL (t) = (λ − t)r det(N(n−r)×(n−r) − tIn−r ).

Ciò implica che la molteplicità algebrica m di λ vale almeno r. La


relazione r ≥ 1, cioè dim EL (λ) ≥ 1, vale perché EL (λ) contiene almeno
un vettore non nullo.

Esercizio 26.7. Stabilire se l’endomorfismo f dell’eserc. 26.5 è dia-


gonalizzabile.

Svolgimento. Sappiamo che f è diagonalizzabile se, e solo se, esiste una


base B di R3 formata da autovettori (teorema 25.8). Gli autovettori
di f stanno in Ef (0) ∪ Ef (−2). Una eventuale base di autovettori ne
conterebbe tre, e quindi almeno due di tali autovettori sarebbero in
un autospazio Ef (λ), λ = 0 o λ = −2. Siccome dim Ef (λ) = 1, tali
vettori risulterebbero linearmente dipendenti, assurdo. Quindi f non
è diagonalizzabile.

216
Osservazione 26.8. L’esercizio appena svolto suggerisce una condi-
zione necessaria per la diagonalizzabilità. Supponiamo che un en-
domorfismo L di VK sia diagonalizzabile e abbia autovalori distinti
λ1 , λ2 , . . . , λs con molteplicità algebriche e geometriche, rispettivamen-
te, m1 , m2 , . . . , ms e r1 , r2 , . . . , rs . Siccome in ogni EL (λj ) esistono al
più rj autovettori indipendenti, j = 1, 2, . . . , s, deve risultare che
s
X
rj ≥ n. (26.3)
j=1

D’altro canto la prop. 26.6 implica


s
X s
X
rj ≤ mj , (26.4)
j=1 j=1

con l’uguaglianza valida se e solo se rj = mj per ogni j. Infine, siccome


il polinomio caratteristico ha grado n vale
s
X
mj ≤ n (26.5)
j=1

e l’uguaglianza si ha se e solo se il polinomio caratteristico è comple-


tamente riducibile. Combinando (26.3), (26.4) e (26.5) si vede che in
tutte e tre le disequazioni deve valere il segno di uguale; da ciò segue
che il polinomio caratteristico è completamente riducibile e rj = mj
per ogni j. Si può dimostrare che di quanto provato vale anche il
viceversa, da cui il seguente:
Teorema 26.9 (Teorema di diagonalizzabilità). Sia L un endomorfi-
smo di uno spazio vettoriale VK di dimensione finita n. L’endomorfi-
smo L è diagonalizzabile se, e solo se, valgono entrambe le condizioni
seguenti:

217
(i) il polinomio caratteristico pL (t) è completamente riducibile su K;
(ii) la molteplicità algebrica di ogni autovalore è uguale alla sua mol-
teplicità geometrica.
Esercizio 26.10. Sia B = v1 , v2 , v3 una base di R3 e L l’endomorfismo
di R3 definito dalle condizioni

L(v1 ) = v1 , L(v2 ) = 2v1 + 2v2 , L(v3 ) = 0.

Stabilire se L è diagonalizzabile
Svolgimento. Applico il teorema di diagonalizzabilità. Vale:
 
1 2 0
AL B B = 0 2 0 ,
0 0 0

1 − t 2 0

pL (t) = 0 2 − t 0 = −t(1 − t)(2 − t).
0 0 −t

pL (t) è completamente riducibile su R, gli autovalori sono λ1 = 0,


λ2 = 1 e λ3 = 2, tutti con molteplicità algebrica 1. Uso la (26.2) per
calcolare le molteplicità geometriche:

dim EL (0) = 3 − rk AL B B = 3 − 2 = 1;
 
0 2 0
dim EL (1) = 3 − rk 0 1 0  = 3 − 2 = 1;
0 0 −1
 
−1 2 0
dim EL (2) = 3 − rk  0 0 0  = 3 − 2 = 1.
0 0 −2

Le molteplicità geometriche coincidono con quelle algebriche.

218
Osservazione 26.11. I calcoli delle molteplicità geometriche sono su-
perflui perché, per la prop. 26.6, ogni autovalore che abbia molteplicità
algebrica uguale a 1 ha necessariamente anche molteplicità geometrica
uguale a 1.

Per il teorema di diagonalizzabilità, L è diagonalizzabile.

Esercizio 26.12. Con riferimento al precedente esercizio, trovare una


0
base B 0 tale che AL B B0 sia diagonale.

Per svolgere l’esercizio può tornare utile la seguente proposizio-


ne che è contenuta nella dimostrazione, che abbiamo omesso qui, del
teorema di diagonalizzabilità.

Proposizione 26.13. L’unione di famiglie linearmente indipendenti


di autovettori prese da due o più autospazi distinti è sempre linear-
mente indipendente.

Svolgimento. Uso la (26.1) per calcolare gli autospazi. EL (0) ha equa-


zione AL B B Xv = O3×1 ; posto Xv = (a b c)T , equivale al sistema
lineare 
 a + 2b = 0
2b = 0 ⇔ a = b = 0.
0 = 0

L’insieme delle soluzioni è {(0, 0, c) | c ∈ R}, quindi

EL (0) = {cv3 | c ∈ R} = hv3 i.

EL (1) ha equazione AL B B − I3 Xv = O3×1 , cioè





 2b = 0
b = 0 ⇔ b = c = 0,
−c = 0

219
quindi
EL (1) = {av1 | a ∈ R} = hv1 i.
EL (2) ha equazione AL B B − 2I3 Xv = O3×1 , cioè



 −a + 2b = 0 
a = 2b
0 = 0 ⇔
c = 0.
−2c = 0

Quindi
EL (2) = {2bv1 + bv2 | b ∈ R} = h2v1 + v2 i.
0
Una base B 0 di autovettori di L (quindi tale che AL B B0 sia diagonale)
è:
B 0 = v3 , v1 , 2v1 + v2 .

Esercizio 26.14. Con riferimento agli esercizi precedenti, calcolare


0
AL B B0 .

Svolgimento. Sfrutterò le seguenti relazioni:

L(v3 ) = 0;
L(v1 ) = v1 = 0v3 + 1v1 + 0(2v1 + v2 );
L(2v1 + v2 ) = 2L(v1 ) + L(v2 ) = 2v1 + 2v1 + 2v2 =
= 4v1 + 2v2 = 0v3 + 0v1 + 2(2v1 + v2 ).

Vale  
0 0 0
0
AL B B 0 = 0 1 0 .
0 0 2

Compito 26.15. Se g è l’endomorfismo di R3 definito in 25.22, trovare


una base B tale che Ag B B = diag(0, 4, 0).

220
Lezione 27

Diagonalizzabilità di matrici

Qual è il significato della relazione di similitudine tra matrici?


Ricordiamo che date due matrici A, B ∈ M(n × n, K), si dice
che A è simile a B se esiste C ∈ M(n × n, K) invertibile, tale che
C −1 AC = B. La relazione di similitudine è una relazione d’equivalenza
(prop. 8.14).
Definizione 27.1. Una matrice A ∈ M(n × n, K) si dice diagonaliz-
zabile su K se esiste una matrice C ∈ M(n × n, K) invertibile, tale
che C −1 AC sia diagonale.

Osservazione 27.2. Una matrice quadrata è diagonalizzabile se, e


solo se, è simile ad una matrice diagonale.
Definizione 27.3. Gli autovalori, autovettori, autospazi e il polinomio
caratteristico di una matrice A ∈ M(n×n, K) sono gli oggetti di ugual
nome riferiti all’endomorfismo FA : K n → K n : X 7→ AX.

221
Per la def. 25.5, se FA (X) = λX, X 6= On×1 , λ ∈ K, allora X è un
autovettore di FA e λ è l’autovalore di FA associato a X. Quindi data
una matrice A ∈ M(n × n, K), se AX = λX, X 6= On×1 , allora X è
un autovettore di A e λ è l’autovalore di A associato ad X.
Dalla definizione EL (λ) = {v ∈ V | L(v) = λv} si deduce che
l’autospazio di A associato all’autovalore λ è

EA (λ) = {X ∈ K n | AX = λX};

dalla definizione pL (t) = det AL B B − tIn e da A = AFA N N si deduce



che il polinomio caratteristico di A è

pA (t) = det(A − tIn ).

Proposizione 27.4. Siano A, C ∈ M(n × n, K). Sono equivalenti le


seguenti asserzioni:
(i) C è invertibile e C −1 AC è diagonale;
(ii) le colonne di C formano una base di K n e sono tutte autovettori
di A.

Dimostrazione. Ricordiamo innanzitutto che C è invertibile se, e solo


se, la famiglia delle colonne C 1 , C 2 , . . . , C n è una base di K n (prop.
19.8 (iv)). Se C non è invertibile, (i) e (ii) sono entrambe false, quindi
equivalenti. Perciò d’ora in avanti supponiamo che C sia invertibile.
Quindi B(C) = C 1 , C 2 , . . . , C n è una base di K n . Per brevità poniamo
F = FA : K n → K n : X 7→ AX. Vale:

Aid B(C) N = C; (27.1)

C −1 AC = Aid N B(C) AF N N Aid B(C) N .

222
Ricordando la (17.1) e applicandola due volte (la prima con G = id,
F = F , B = B 0 = N , B 00 = B(C)), otteniamo

C −1 AC = AF N B(C) Aid B(C) N = AF B(C) B(C) . (27.2)


Dalla prop. 25.9 e dalla (27.2) deduciamo che C −1 AC è diagonale se,
e solo se, tutti i vettori di B(C) sono autovettori di F , cioè di A.

Osservazione 27.5. Più precisamente, se si realizzano le condizioni


(i), (ii) della precedente proposizione, allora
C −1 AC = diag(λ1 , λ2 , . . . , λn ),
dove λ1 , λ2 , . . . , λn sono gli autovalori associati alle colonne C 1 , C 2 , . . .,
C n , nello stesso ordine.
Dalla (27.2) si vede che A è diagonalizzabile secondo la def. 27.1 se,
e solo se, F = FA è diagonalizzabile secondo la def. 25.3. Riformulando
allora il teor. 26.9 di diagonalizzabilità in cui L = FA , si ottiene:
Teorema 27.6 (Teorema di diagonalizzabilità per le matrici). Sia A ∈
M(n × n, K). La matrice A risulta diagonalizzabile su K se, e solo se,
valgono entrambe:
(i) pA (t) è completamente riducibile su K;
(ii) per ogni autovalore λ di A, la molteplicità algebrica di λ è uguale
alla molteplicità geometrica di λ.

Risposta alla domanda iniziale. La risposta viene dall’equazione (27.2):


A = AF N N è simile ad ogni AF B B , quindi due matrici che rappresen-
tano lo stesso endomorfismo di K n , rispetto a due basi di K n , sono
simili.

223
 
4 2
Esercizio 27.7. La matrice A = è diagonalizzabile su R?
1 3
Svolgimento. Applico il teorema di diagonalizzabilità.

4 − t 2
pA (t) = det(A − tI2 ) = = t2 − 7t + 10.
1 3 − t
pA (t) = (t − 5)(t − 2) è completamente riducibile su R. Gli autovalori
λ1 = 5 e λ2 = 2 hanno entrambi molteplicità algebrica uguale a 1.
Siccome ogni autovalore che abbia molteplicità algebrica 1 ha anche
molteplicità geometrica uguale a 1, la condizione (ii) del teorema di
diagonalizzabilità è soddisfatta. Quindi A è diagonalizzabile su R.
Il caso dell’esercizio si può generalizzare come segue:
Proposizione 27.8. Sia A ∈ M(n × n, K). Se A ha n autovalori
distinti in K, allora A è diagonalizzabile su K.
Esercizio 27.9. Data la matrice reale
 
1 10 5
A = 0 −4 0 ,
5 10 1
(a) A è diagonalizzabile su R? (b) Se sı̀, trovare una matrice reale 3×3
C invertibile tale che C −1 AC sia diagonale. (c) La seguente matrice è
simile ad A?  
−4 0 1
D =  0 −4 2 .
0 0 6
Svolgimento. (a) Applico il teorema di diagonalizzabilità.

1 − t 10 5
1 − t 5
pA (t) = 0 −4 − t 0 = (−4 − t)(−1)2+2

=
5 1 − t
5 10 1 − t
= (−4 − t)(t2 − 2t − 24).

224
Il determinante sopra è stato calcolando sviluppando secondo la secon-
da riga. Le radici del polinomio t2 − 2t − 24 sono 6 e −4, quindi

pA (t) = (−4 − t)(t − 6)(t + 4) = −(t + 4)2 (t − 6).

pA (t) è completamente riducibile; gli autovalori di A sono λ1 = −4 con


molteplicità algebrica uguale a 2 e λ2 = 6 con molteplicità algebrica
uguale a 1. Calcolo la molteplicità geometrica di λ1 utilizzando la
(26.2):
 
5 10 5
3 − rk(A − λ1 I3 ) = 3 − rk 0 0 0 = 3 − 1 = 2.
5 10 5

Ne segue che A è diagonalizzabile.


(b) Le colonne di C devono formare una base di R3 ed essere tutte
autovettori di A. Cerco EA (λ1 ), la cui equazione si deduce dalla (26.1):
(A − λ1 I3 )X = O3×1 ⇔
    
5 10 5 x 0
0 0 0 y  = 0 ⇔ 5x + 10y + 5z = 0 ⇔ x + 2y + z = 0,
5 10 5 z 0

da cui

EA (λ1 ) = {(−2y − z, y, z) | y, z ∈ R} =
= {(−2y, y, 0) + (−z, 0, z) | y, z ∈ R} = h(−2, 1, 0), (−1, 0, 1)i.

Analogamente, EA (λ2 ) ha equazione (A − 6I3 )X = O3×1 ⇔


    
−5 10 5 x 0
 0 −10 0  y  = 0 .
5 10 −5 z 0
225
Risolvo, trasformando a scala la matrice completa del sistema lineare:
   
−5 10 5 0 −5 10 5 0
H31 (1) H32 (2)
 0 −10 0 0  −→  0 −10 0 0 −→
5 10 −5 0 0 20 0 0
 
−5 10 5 0
 0 −10 0 0
0 0 0 0
da cui il sistema
 
−x + 2y + z = 0 x = z

y = 0 y = 0.

Quindi EA (6) = {(z, 0, z) | z ∈ R} = h(1, 0, 1)i. Dispongo in colonne i


vettori delle basi degli autospazi:
 
−2 −1 1
C =  1 0 0 .
0 1 1

Lasciamo al lettore come esercizio di verificare che C −1 AC sia diago-


nale.
(c)
−4 − t 0 1
−4 − t 2 = (6 − t)(4 + t)2 .

pD (t) = 0
0 0 6 − t
D ha autovalori λ1 = −4 con molteplicità algebrica uguale a 2 e λ2 = 6
con molteplicità algebrica uguale a 1. Cerco la molteplicità geometrica
di λ1 :
 
0 0 1
dim EL (λ1 ) = 3 − rk(D − λ1 I3 ) = 3 − rk 0 0 2  = 2.
0 0 10
226
D è diagonalizzabile ed esiste una base di R3 formata da due autovetto-
ri associati all’autovalore −4 e un autovettore associato all’autovalore
6, quindi D è simile a diag(−4, −4, 6) (cfr. oss. 27.5). Anche A è dia-
gonalizzabile e simile alla stessa matrice diagonale. Ne segue che A è
simile a D.

Compito 27.10. Date due matrici simili A, B ∈ M(n × n, K), dimo-


strare che esse hanno lo stesso polinomio caratteristico. (Sugg.: Nella
formula delle matrici simili sostituire In con C −1 In C; inoltre per il
teorema di Binet, (det C)(det C −1 ) = . . .)

227
228
Lezione 28

Esercitazione sulla
diagonalizzabilità

Esercizio 27.10. Dato l’endomorfismo L di R3 definito dalle equa-


zioni

L(1, 0, 0) = (5, 1, −1), L(1, 1, 0) = (5, 5, −1), L(1, 1, 1) = (4, 4, 4),

(a) dire se L è diagonalizzabile, (b) trovare una base di ciascun auto-


spazio.
Svolgere l’esercizio in due modi diversi, utilizzando le matrici AL N N
e AL B B , dove B = v1 , v2 , v3 = (1, 0, 0), (1, 1, 0), (1, 1, 1).
Primo svolgimento. (a) Cerco AL N N dove

N = e1 , e2 , e3 = (1, 0, 0), (0, 1, 0), (0, 0, 1).

La colonna Xv delle coordinate di un vettore di K n rispetto alla base


naturale coincide con il vettore stesso, Xv = v, quindi dalla formula

229
(16.6):
AL B B0 = YL(v1 ) YL(v2 ) . . . YL(vn ) ,


si ottiene
AL N N = (L(e1 ) |L(e2 ) |L(e3 ) ) .
Innanzitutto, L(e1 ) = (5, 1, −1). Per determinare L(e2 ), risolvo l’e-
quazione e2 = xv1 + yv2 + zv3 che dà x = −1, y = 1, z = 0; quindi
e2 = −v1 + v2 da cui per linearità

L(e2 ) = −L(v1 ) + L(v2 ) = −(5, 1, −1) + (5, 5, −1) = (0, 4, 0).

Analogamente

L(e3 ) = L(−v2 + v3 ) = −L(v2 ) + L(v3 ) = −(5, 5, −1) + (4, 4, 4) =


= (−1, −1, 5).

Quindi  
5 0 −1
AL N N =  1 4 −1 .
−1 0 5
Vale
5 − t 0 −1
pL (t) = det AL N N

− tI3 =
1 4 − t −1 .

−1 0 5 − t
Sviluppando secondo la seconda colonna,

5 − t −1
pL (t) = (4 − t)(−1)2+2 = (4 − t)(t2 − 10t + 24) =

−1 5 − t
= −(t − 4)2 (t − 6).

L ha due autovalori, λ1 = 4 con molteplicità algebrica 2, λ2 = 6


con molteplicità algebrica 1. Tale λ2 ha necessariamente molteplicità

230
geometrica uguale a 1. Calcolo la molteplicità geometrica di λ1 con la
formula (26.2):
   
5 0 −1 1 0 0
dim EL (4) = 3 − rk  1 4 −1 − 4 0 1 0 =
−1 0 5 0 0 1
 
1 0 −1
= 3 − rk  1 0 −1 = 3 − 1 = 2.
−1 0 1

Per il teorema di diagonalizzabilità, L è diagonalizzabile.


(b) L’equazione da cui si ricava EL (λ) è la (26.1). Trovo EL (4):
    
1 0 −1 x 0
 1 0 −1 y  = 0 ⇔ x − z = 0 ⇔ x = z.
−1 0 1 z 0

Quindi

EL (4) = {(z, y, z) | y, z ∈ R} = {(z, 0, z) + (0, y, 0) | y, z ∈ R} =


= {z(1, 0, 1) + y(0, 1, 0) | y, z ∈ R} = h(1, 0, 1), (0, 1, 0)i.

Una base di EL (4) è B1 = (1, 0, 1), (0, 1, 0).


Trovo ora EL (6), con l’equazione AL N N − 6I3 X = O3×1 , da cui


    
−1 0 −1 x 0 
 1 −2 −1 y  = 0 ⇔ −x − z = 0

x − 2y − z = 0
−1 0 −1 z 0

x = −z

y = −z.

Vale EL (6) = {(−z, −z, z) | z ∈ R} = h(−1, −1, 1)i. Una base di


EL (6) è B2 = (−1, −1, 1).

231
Secondo svolgimento. (a) Risolvo l’equazione L(v1 ) = xv1 + yv2 + zv3
⇔ (5, 1, −1) = x(1, 0, 0) + y(1, 1, 0) + z(1, 1, 1), ottenendo x = 4,
y = 2, z = −1. Quindi XL(v1 ) = (4 2 1)T è la prima colonna di AL B B .
Analogamente

L(v2 ) = 0v1 + 6v2 − 1v3 ,


L(v3 ) = 0v1 + 0v2 + 4v3 ,

da cui  
4 0 0
AL B B =  2 6 0 .
−1 −1 4

4 − t 0 0
pL (t) = 2 6 − t 0 = (4 − t)2 (6 − t)

−1 −1 4 − t
che si ottiene direttamente facendo il prodotto degli elementi sulla
diagonale principale. Otteniamo λ1 = 4 e λ2 = 6 come sopra con le
stesse molteplicità algebriche. La molteplicità geometrica di λ1 vale
 
0 0 0
3 − rk  2 2 0 = 2.
−1 −1 0

(b) Trovo EL (4) con l’equazione AL B B − 4I3 Xv = O3×1 , equivalente



a     
0 0 0 x 0
 2 2 0 y  = 0 ⇔ x = −y.
−1 −1 0 z 0
 Qui x, y e z sono coordinate dei vettori di EL (4). Lo sono anche
nel primo svolgimento, ma le coordinate di un vettore rispetto alla
base naturale sono uguali alle componenti e dunque in quel caso non
vi è possibilità di errore.

232
Ottengo

EL (4) = {−yv1 + yv2 + zv3 | y, z ∈ R} =


= {y(−v1 + v2 ) + zv3 | y, z ∈ R} = h−v1 + v2 , v3 i =
= h(0, 1, 0), (1, 1, 1)i.

Una base di EL (4) è quindi B10 = (0, 1, 0), (1, 1, 1).


Trovo ora EL (6) con l’equazione AL B B − 6I3 Xv = O3×1 , equiva-
lente a
    
−2 0 0 x 0 
 2 0 0  y  = 0 ⇔ x = 0
y = −2z.
−1 −1 −2 z 0
Ne segue

EL (6) = {−2zv2 + zv3 | z ∈ R} =


= {z(−2v2 + v3 ) | z ∈ R} = h−2v2 + v3 i = h(−1, −1, 1)i.

Ritrovo la stessa base B2 del precedente svolgimento.


Esercizio 28.1. Trovare, se esiste, una matrice reale invertibile C tale
che la matrice C −1 AC sia diagonale, dove
 
1 2
A= .
2 3
Svolgimento. Se A è diagonalizzabile, le colonne di C si ottengono
aggregando le basi dei singoli autospazi. Vale

1 − t 2
pA (t) = = t2 − 4t − 1.
2 3 − t
√ √ √
Le radici sono 2 ± 5. A ha due autovalori λ1 = 2 + 5, λ2 = 2 − 5,
entrambi con molteplicità algebrica 1. In generale EA (λ) ha equazione

233
(Aλ − In )X = On×1 , quindi EA (λ1 ) ha equazione
 √ 
1−2− 5 2 √
X = O2×1
2 3−2− 5
 √  
−1 − 5 2√ x
⇔ = O2×1 .
2 1− 5 y
Risolvo il sistema lineare trasformando
 √  √ √ !
−1 − 5 2√ 0 H21 (2/(1+ 5)) −1 − 5 2 √ 0 .
−→ 4√
2 1− 5 0 0 1+ 5
+1− 5 0

L’elemento in seconda riga e seconda colonna è


√ √
4 + (1 − 5)(1 + 5)
√ = 0.
1+ 5
Il sistema quindi ha un’unica equazione
√ √
(−1 − 5)x + 2y = 0 ⇒ EA (λ1 ) = h(2, 1 + 5)i.
Cerco EA (λ2 ) con (A − λ2 I2 )X = O2×1 ⇔
 √ 
1−2+ 5 2 √
X = O2×1
2 3−2+ 5
 √  
−1 + 5 2√ x
⇔ = O2×1
2 1+ 5 y

⇔ (−1 + 5)x + 2y = 0,

(1 ) da cui EA (λ2 ) = h(2, 1 − 5)i. Concludendo,
 
2√ 2√
C= .
1+ 5 1− 5
1
Stavolta abbiamo seguito un procedimento più consapevole: siccome la molteplicità geometrica
vale necessariamente 1, il rango della matrice vale 1 e quindi la seconda riga della matrice a scala
che se ne ricava vale zero.

234
Verifica.
√ √ √
det C = 2 − 2 5 − 2 − 2 5 = −4 5;
 √   √ 
1 1 − √5 −2 1 −1 +√ 5 2
C −1 =− √ = √ ;
4 5 −1 − 5 2 4 5 1 + 5 −2

 √   
−1 1 −1 +√ 5 2 1 2 2√ 2√
C AC = √ =
4 5 1 + 5 −2 2 3 1+ 5 1− 5
 √ √  
1 3 + √5 4 + 2 √5 2√ 2√
= √ =
4 5 −3 + 5 −4 + 2 5 1+ 5 1− 5
 √   √ 
1 5+2 5 0 √ 1 2+ 5 0√
= √ =√ =
5 0 −5 + 2 5 5 0 2− 5
 
λ1 0
= .
0 λ2

Esercizio 28.2. Trovare i valori a ∈ R per i quali la matrice


 
4 1 0
Ma = 0 a2 0
0 a+1 1

risulta diagonalizzabile.

Svolgimento. Utilizziamo la formula di Laplace sulla prima colonna del


determinante in

4 − t 1 0 2
a − y 0
pMa (t) = 0 a2 − t 0 = (4 − t)(−1)1+1

=
a + 1 1 − t
0 a + 1 1 − t

= (4 − t)(a2 − t)(1 − t).

235
Gli autovalori sono λ1 = 1, λ2 = 4, λ3 = a2 . Se a 6= 1, −1, 2, −2, Ma
ha tre autovalori distinti, quindi è diagonalizzabile.
Se a = 1, λ1 ha molteplicità algebrica 2 e λ2 ha molteplicità
algebrica 1. Trovo dim EM1 (1) = 3 − rk(M1 − I3 ) =
 
3 1 0
= 3 − rk 0 0 0 = 3 − 2 = 1.
0 2 0

λ1 ha molteplicità algebrica e molteplicità geometrica diverse, quindi


M1 non è diagonalizzabile.
Se a = −1, λ1 ha molteplicità algebrica 2 e λ2 ha molteplicità
algebrica 1. Trovo dim EM−1 (1) = 3 − rk(M−1 − I3 ) =
 
3 1 0
= 3 − rk 0 0 0 = 3 − 1 = 2.
0 0 0

Gli autovalori hanno molteplicità algebriche e molteplicità geometriche


uguali, quindi M−1 è diagonalizzabile.
Se a = 2, λ2 = 4 ha molteplicità algebrica 2 e λ1 ha molteplicità
algebrica 1. Trovo dim EM2 (4) = 3 − rk(M2 − 4I3 ) =
 
0 1 0
= 3 − rk 0 0 0  = 3 − 2 = 1.
0 3 −3

M2 non è diagonalizzabile.
Se a = −2, λ2 = 4 ha molteplicità algebrica 2 e λ1 ha molteplicità
algebrica 1. Trovo dim EM−2 (4) = 3 − rk(M−2 − 4I3 ) =
 
0 1 0
= 3 − rk 0 0 0  = 3 − 2 = 1.
0 −1 −3
236
M−2 non è diagonalizzabile.
Conclusione: Ma è diagonalizzabile se, e solo se, a 6= 1, ±2.

Esercizio 28.3. Trovare C invertibile tale che C −1 AC = diag(2, 0, 2),


dove  
1 0 1
A = 2 2 −2 .
1 0 1

Esercizio 28.4. È data la seguente matrice reale dipendente dal para-


metro h:  
−1 4 −1
Mh =  h 0 1 .
−5 −4 −5
(a) Determinare il valore di h per cui (1, −1, 1) è un autovettore di
Mh , (b) per tale valore di h stabilire se Mh è diagonalizzabile.

237
238
Lezione 29

Geometria

Descrivere, per mezzo di equazioni, la retta dello spazio per i punti


Q(1, 0, 1) e R(0, 2, 3)
Richiami. 1) Dati in uno spazio vettoriale VK un vettore v0 e un
sottospazio U , tali che dim U = d, l’insieme v0 + U = {v + u | u ∈ U }
si chiama varietà lineare di dimensione d.
2) Un riferimento cartesiano RC(Oijk) per lo spazio è dato da un
punto O (origine) e da tre vettori i, j, k di lunghezza 1, a due a due
perpendicolari (fig. 14.2).
3) Un riferimento cartesiano individua una corrispondenza biunivoca
tra punti dello spazio e vettori in R3 : precisamente, al punto P si
−→
associa quella terna x, y, z tale che OP = xi + yj + zk. In simboli:
P (x, y, z).
4) Notazione per i vettori: v(l, m, n) significa v = li + mj + nk.
5) Il vettore congiungente P1 (x1 , y1 , z1 ) e P2 (x2 , y2 , z2 ) è
−−→
P1 P2 (x2 − x1 , y2 − y1 , z2 − z1 ).

239
Prenderemo il seguente come presupposto per la geometria affine.

Teorema 29.1. Nella corrispondenza biunivoca tra punti dello spazio e


vettori di R3 , sopra descritta, le rette corrispondono precisamente alle
varietà lineari di dimensione 1 e i piani corrispondono precisamente
alle varietà lineari di dimensione 2.

Equazioni parametriche della retta nello spazio. Dal teorema 29.1


una retta corrisponde a una varietà lineare (x0 , y0 , z0 ) + h(l, m, n)i
((l, m, n) 6= 0) e quindi è l’insieme dei punti di coordinate

{(x0 , y0 , z0 ) + t(l, m, n) | t ∈ R} = {(x0 + lt, y0 + mt, z0 + nt) | t ∈ R}.

Le equazioni parametriche di una retta sono



 x = x0 + lt
y = y0 + mt t∈R ((l, m, n) 6= 0). (29.1)
z = z0 + nt,

Risposta alla domanda iniziale. Cerchiamo una varietà lineare v0 + U ,


con dim U = 1, tale che (1, 0, 1), (0, 2, 3) ∈ v0 +U . Proviamo a cercarne
una soddisfacente v0 = (1, 0, 1). Per costruzione, (1, 0, 1) ∈ v0 + U ,
perché 0 ∈ U . Dalla condizione (0, 2, 3) ∈ v0 + U = (1, 0, 1) + U segue
che esiste u ∈ U tale che (0, 2, 3) = (1, 0, 1) + u ⇒ u = (0, 2, 3) −
(1, 0, 1) = (−1, 2, 2) e siccome dim U = 1 si deduce U = h(−1, 2, 2)i.
Quindi la retta corrisponde alla varietà lineare (1, 0, 1) + h(−1, 2, 2)i
ed ha equazioni parametriche

 x = 1−t
y = 2t t ∈ R.
z = 1 + 2t,

240
Equazioni parametriche del piano nello spazio. In termini di varietà
lineare:

(x0 , y0 , z0 ) + h(l, m, n), (l0 , m0 , n0 )i =


= {(x0 , y0 , z0 ) + t(l, m, n) + t0 (l0 , m0 , n0 ) | t, t0 ∈ R} =
= {(x0 + lt + l0 t0 , y0 + mt + m0 t0 , z0 + nt + n0 t0 ) | t, t0 ∈ R},

dove (l, m, n) e (l0 , m0 , n0 ) sono linearmente indipendenti. Se ne dedu-


cono le equazioni parametriche di un piano nello spazio:

 x = x0 + lt + l0 t0    
l m n
y = y0 + mt + m0 t0 t, t0 ∈ R rk 0 =2 .
0 0 l m0 n0
z = z0 + nt + n t ,

(29.2)

Ci proponiamo di trovare il significato geometrico di x0 , y0 , z0 , l,


m, n in (29.1). Serve dimostrare quanto segue:

Proposizione 29.2. Sia v0 + U una varietà lineare in uno spazio


vettoriale VK . Vale quanto segue:

(i) v0 ∈ v0 + U .

(ii) ∀v1 ∈ v0 + U : v1 + U = v0 + U .

(iii) ∀v1 , v2 ∈ v0 + U : v2 − v1 ∈ U .

Dimostrazione. (i) Siccome U è un sottospazio di VK , vale 0 ∈ U . Ne


segue v0 = v0 + 0 ∈ v0 + U .
(ii) Usiamo il procedimento della doppia inclusione e l’ipotesi v1 ∈
v0 + U , cioè:
∃u ∈ U : v1 = v0 + u. (29.3)

241
Prima inclusione: v1 + U ⊆ v0 + U . Consideriamo un vettore w ∈
v1 + U , quindi
∃u0 ∈ U : w = v1 + u0 . (29.4)
Combinando (29.3), (29.4), si ha w = v0 +(u+u0 ). Essendo u+u0 ∈ U
in quanto somma di due vettori in U , risulta w ∈ v0 + U .
Seconda inclusione: v0 + U ⊆ v1 + U . Consideriamo un vettore w0 ∈
v0 + U , quindi
∃u00 ∈ U : w0 = v0 + u00 . (29.5)
Dalla (29.3) si ha v0 = v1 − u e combinando con la (29.5) otteniamo
w0 = v1 + (u00 − u). Vale u00 − u ∈ U in quanto differenza di due vettori
in U e ciò implica w0 ∈ v1 + U .
(iii) Per ipotesi esistono u1 , u2 ∈ U tali che

v1 = v0 + u1 , v2 = v0 + u2 .

Ne segue v2 − v1 = u2 − u1 ∈ U .
Interpretiamo geometricamente la prop. 29.2 con riferimento ad una
retta r associata alla varietà lineare (x0 , y0 , z0 ) + h(l, m, n)i.
(i) (x0 , y0 , z0 ) ∈ (x0 , y0 , z0 ) + h(l, m, n)i, quindi x0 , y0 , z0 sono le coor-
dinate di un punto della retta stessa.
(ii) Se (x1 , y1 , z1 ) ∈ (x0 , y0 , z0 ) + h(l, m, n)i, allora

(x1 , y1 , z1 ) + h(l, m, n)i = (x0 , y0 , z0 ) + h(l, m, n)i.

Quindi x0 , y0 , z0 nelle equazioni parametriche (29.1) possono essere so-


stituite dalle coordinate di qualsiasi punto della retta.
(iii) Dati P1 (x1 , y1 , z1 ), P2 (x2 , y2 , z2 ) sulla retta r, la prop. 29.2 implica
−−→
P1 P2 (x2 − x1 , y2 − y1 , z2 − z1 ) ∈ h(l, m, n)i.

Da questo si deduce che h(l, m, n)i è l’insieme di tutti i vettori paralleli


alla retta r.

242
Figura 29.1: l, m, n sono le coordinate di un vettore non nullo parallelo
ad r.

Considerazioni simili a quelle di cui sopra valgono anche per le


equazioni parametriche di un piano.
Definizione 29.3. Il sottospazio U si chiama spazio direttore della
varietà lineare v0 + U .
Lo spazio direttore contiene precisamente i vettori paralleli alla
retta o al piano.
Esercizio 29.4. Trovare delle equazioni parametriche del piano per i
punti P (1, 1, −1), Q(1, 0, 2), R(0, 2, 3).
Svolgimento. Il piano cercato (ammesso che sia unico) è una varietà
lineare di dimensione 2:

(x0 , y0 , z0 ) + h(l, m, n), (l0 , m0 , n0 )i.

x0 , y0 , z0 sono le coordinate di un punto del piano, scelto arbitraria-


mente, ad esempio x0 = 1, y0 = 1, z0 = −1. (l, m, n), (l0 , m0 , n0 )

243
sono due qualsiasi vettori paralleli al piano, linearmente indipenden-
−→ −→
ti; ad esempio P Q(0, −1, 3), QR(−1, 2, 1). Ottengo la varietà lineare
(1, 1, −1) + h(0, −1, 3), (−1, 2, 1)i e le equazioni

 x = 1 − t0
y = 1 − t + 2t0 t, t0 ∈ R.
z = −1 + 3t + t0 ,

Definizione 29.5. Le equazioni cartesiane di una retta o un piano


sono quelle di un sistema lineare le cui soluzioni formino la varietà
lineare corrispondente.
Proposizione 29.6. Data una varietà lineare v0 + U in Rn è sempre
possibile trovare un sistema lineare il cui insieme delle soluzioni sia
proprio v0 + U .
Esempio 29.7. Cerchiamo equazioni cartesiane della retta r della
domanda iniziale; abbiamo visto che corrisponde alla varietà lineare
(1, 0, 1) + h(−1, 2, 2)i. Ricaviamo il sistema lineare usando le seguenti
equivalenze:
(x, y, z) ∈ (1, 0, 1) + h(−1, 2, 2)i ⇔
(x, y, z) − (1, 0, 1) ∈ h(−1, 2, 2)i ⇔
(x − 1, y, z − 1) ∈ h(−1, 2, 2)i. (29.6)
Facciamo il test di appartenenza descritto a pag. 171:
   
−1 x − 1 −1 x−1
H21 (2)
2 y  −→  0 2x − 2 + y  .
H31 (2)
2 z−1 0 2x − 2 + z − 1
Quindi la condizione (29.6) equivale a

2x + y − 2 = 0
(29.7)
2x + z − 3 = 0.
244
L’insieme delle soluzioni di tale sistema lineare è la varietà lineare di
partenza. Quindi (29.7) sono le equazioni cartesiane della retta.

Siccome le soluzioni di un sistema lineare compatibile sono ∞n−r ,


con n il numero delle incognite e r il rango delle matrici del sistema,
otteniamo le seguenti equazioni generiche.
Equazioni cartesiane di una retta nello spazio:
  
ax + by + cz + d = 0 a b c
rk 0 0 0 = 2. (29.8)
a0 x + b0 y + c0 z + d0 = 0, a b c

Equazioni cartesiane di un piano:

ax + by + cz + d = 0, (a, b, c) 6= 0. (29.9)

Osservazione 29.8. Confrontando le equazioni (29.8) e (29.9), no-


tiamo come le equazioni cartesiane di una retta la rappresentino
 come
a b c
intersezione di due piani soddisfacenti la condizione rk 0 0 0 = 2.
a b c

Esercizio 29.9. Trovare l’equazione cartesiana del piano dell’eserc.


29.4.

Svolgimento. Abbiamo trovato la varietà lineare

(1, 1, −1) + h(0, −1, 3), (−1, 2, 1)i.

Ora

(x, y, z) ∈ (1, 1, −1) + h(0, −1, 3), (−1, 2, 1)i


⇔ (x − 1, y − 1, z + 1) ∈ h(0, −1, 3), (−1, 2, 1)i.

245
Il test di appartenenza dà
   
0 −1 x − 1 −1 2 y − 1
−1 2 y − 1 −→ H12
 0 −1 x − 1 H−→31 (3)

3 1 z+1 3 1 z+1
   
−1 2 y−1 −1 2 y−1
 0 −1 x−1  H−→32 (7)
 0 −1 x−1 .
0 7 3y − 3 + z + 1 0 0 7x + 3y + z − 9
L’equazione è 7x + 3y + z − 9 = 0. Lasciamo al lettore di verificare che
le coordinate dei punti P , Q ed R soddisfano tale equazione.
Esercizio 29.10. Trovare i punti di intersezione tra la retta per
A(1, 2, 3), B(1, 0, 0) e il piano per O, P (1, 0, 1), Q(1, 1, 1).
−→
Svolgimento. Vale AB(0, −2, −3). La retta AB è la varietà lineare
(1, 0, 0) + h(0, −2, −3)i. Il piano è
−→ −→
(0, 0, 0) + hOP , OQi = (0, 0, 0) + h(1, 0, 1), (1, 1, 1)i.
Cerco l’equazione cartesiana: (x, y, z) ∈ h(1, 0, 1), (1, 1, 1)i ⇔ la
matrice a scala ottenuta da
 
1 1 x
0 1 y 
1 1 z
non ha pivot in ultima colonna; trasformandola,
 
1 1 x
0 1 y ,
0 0 z−x
quindi il piano ha equazione z − x = 0. Sostituisco le coordinate del
punto generico della retta, x = 1, y = −2t, z = −3t, nell’equazione
cartesiana del piano, ottenendo −3t − 1 = 0, da cui t = −1/3. Ne
segue che c’è un unico punto di intersezione, (1, 32 , 1).

246
Compito 29.11. Supponiamo dati due numeri reali λ e µ, non en-
trambi nulli. Con riferimento alle (29.8), cosa rappresenta l’equazione

λ(ax + by + cz + d) + µ(a0 x + b0 y + c0 z + d0 ) = 0? (29.10)

247
248
Lezione 30

Parallelismo - forme bilineari


x = 1
La retta r : y = 2t (t ∈ R) è parallela al piano π di equazione
z = t−1

x − y + 2z + 7 = 0?

30.1 Parallelismo
Data una retta, associata r alla varietà lineare (x0 , y0 , z0 ) + h(l, m, n)i,
i numeri l, m, n sono coordinate di un vettore parallelo alla retta e
prendono il nome di parametri direttori di r. Essi sono individuati a
meno di un fattore non nullo.
Fatto: due varietà lineari della stessa dimensione sono parallele se, e
solo se, hanno lo stesso spazio direttore (cioè se, e solo se, sono parallele
agli stessi vettori). Due varietà lineari di dimensioni differenti sono

249
parallele se, e solo se, lo spazio direttore della varietà lineare più piccola
è contenuto nello spazio direttore della varietà lineare più grande.

Risposta alla domanda iniziale. Cerco gli spazi direttori di r e π. r


è la varietà lineare (1, 0, −1) + h(0, 2, 1)i, quindi lo spazio direttore è
U1 = h(0, 2, 1)i. Risolvo l’equazione di π per trovare la varietà lineare:
{(y − 2z − 7, y, z) | y, z ∈ R} =
= {(−7, 0, 0) + (y, y, 0) + (−2z, 0, z) | y, z ∈ R} =
= (−7, 0, 0) + h(1, 1, 0), (−2, 0, 1)i.
Lo spazio direttore di π è U2 = h(1, 1, 0), (−2, 0, 1)i. Retta e piano sono
paralleli se, e solo se, U1 ⊆ U2 . Siccome i vettori di U1 sono, in forma
generale, (0, 2t, t) e (0, 2t, t) = 2t(1, 1, 0) + t(−2, 0, 1), risulta U1 ⊆ U2
e quindi r è parallela a π.

Proposizione 30.1. Condizione necessaria e sufficiente affinché una


retta r di parametri direttori l, m, n sia parallela al piano π di equa-
zione ax + by + cz + d = 0 è:
al + bm + cn = 0. (30.1)

Dimostrazione. Lo spazio direttore di r è U1 = h(l, m, n)i. Dalla teoria


dei sistemi lineari, l’insieme delle soluzioni di ax + by + cz + d = 0
ha la forma X0 + U2 dove U2 è l’insieme delle soluzioni del sistema
lineare omogeneo ax + by + cz = 0. Quindi sono equivalenti le seguenti
affermazioni: r è parallela a π ⇔ U1 ⊆ U2 ⇔ (l, m, n) ∈ U2 ⇔
al + bm + cn = 0.
Esempio 30.2. La risposta alla domanda iniziale si ottiene anche
verificando la (30.1) con l = 0, m = 2, n = 1, a = 1, b = −1,
c = 2.

250
Proposizione 30.3. Condizione necessaria e sufficiente affinché i pia-
ni π : ax + by + cz + d = 0 e π 0 : a0 x + b0 y + c0 z + d0 = 0 siano paralleli

 
a b c
rk 0 0 0 = 1. (30.2)
a b c

Dimostrazione. Chiamiamo U e U 0 gli spazi direttori di, rispettiva-


mente, π e π 0 . Vale dim U = dim U 0 = 2.
Dimostriamo preliminarmente che U = U 0 ⇔ dim(U ∩ U 0 ) = 2:
“⇒” In questo caso per ipotesi U = U 0 , da cui U ∩ U 0 = U e dim(U ∩
U 0 ) = dim U = 2.
“⇐” Per ipotesi dim(U ∩ U 0 ) = 2. Useremo ripetutamente il fatto
che l’unico sottospazio di dimensione d di uno spazio vettoriale VK di
dimensione d è V stesso.
1) U ∩ U 0 è sottospazio di U e ha dimensione 2, quindi U ∩ U 0 = U ;
2) U ∩ U 0 è sottospazio di U 0 e ha dimensione 2, quindi U ∩ U 0 = U 0 .
Combinando 1) e 2) otteniamo U = U 0 .
Le equazioni di U e U 0 sono, rispettivamente, ax + by + cz = 0 e
a0 x + b0 y + c0 z = 0. Ne segue: π è parallelo a π 0 ⇔ (per definizione)
0 0
 = U ⇔ (v. sopra) dim(U ∩ U ) = 2 ⇔
U  il sistema
 lineare
ax + by + cz = 0 a b c
0 0 0 ha ∞2 soluzioni ⇔ rk 0 0 0 = 1.
ax+by+cz = 0 a b c

Osservazione 30.4. Confrontando le equazioni cartesiane di un piano


(29.9) e di una retta (29.8), vediamo che le seconde rappresentano la
retta come intersezione di due piani. Per la (30.2) tali piani sono non
paralleli.

251
30.2 Forme bilineari simmetriche
Definizione 30.5. Una forma bilineare in uno spazio vettoriale VK è
una funzione

b : V × V → K : (u1 , u2 ) 7→ u1 | u2 b

soddisfacente le condizioni di bilinearità: ∀u, v0 , v00 ∈ V : ∀h, k ∈ K :

hv0 + kv00 | u b = h v0 | u b + k v00 | u b , (30.3)


u | hv0 + kv00 b = h u | v0 00
b + k u | v b. (30.4)

Osservazione 30.6. Dalla bilinearità segue ∀u ∈ V : u | 0 b =0=


0 | u b.
Definizione 30.7. Una forma bilineare b si dice simmetrica (fbs) se

∀u1 , u2 ∈ V : u1 | u2 b = u2 | u1 b . (30.5)

Nelle considerazioni seguenti avremo bisogno della definizione di ma-


trice trasposta (def. 23.24), di matrice simmetrica e della formula sulla
trasposta di un prodotto.
Definizione 30.8. Una matrice A è simmetrica se AT = A.
Esempio 30.9. Ogni matrice 3 × 3 simmetrica ha la forma seguente:
 
a b c
A = b d e  .
c e f

Proposizione 30.10. Comunque date due matrici A ∈ M(m × n, K)


e B ∈ M(n × p, K), vale:

(AB)T = B T AT . (30.6)

252
In altre parole, la trasposta del prodotto di due matrici è il prodotto
delle trasposte, prese in ordine contrario.

Teorema 30.11 (Corrispondenza tra fbs e matrici simmetriche). Sia


VK uno spazio vettoriale di dimensione finita n e B = v1 , v2 , . . . , vn
una base di VK ; per ogni u ∈ V si denoti con Xu la colonna delle
coordinate di u rispetto a B.

(i) Se b è una fbs in VK , allora esiste una matrice A ∈ M(n × n, K)


simmetrica, tale che

∀u1 , u2 ∈ VK : u1 | u2 b = XuT1 AXu2 . (30.7)

(ii) Viceversa, per ogni matrice A ∈ M(n × n, K) simmetrica, la


(30.7) definisce una fbs b.

(iii) In ciascuno dei casi precedenti, posto A = (aij ), vale

aij = vi | vj b , i, j = 1, 2, . . . , n. (30.8)

Osservazione 30.12. A destra del segno di uguale in (30.7) c’è il


prodotto di tre matrici, rispettivamente 1×n, n×n e n×1, quindi una
matrice 1 × 1, che si conviene di identificare con il suo unico elemento.

Dimostrazione. (i) È data per ipotesi la fbs b; ci proponiamo di dimo-


strare che la matrice A = (aij ) definita in (30.8) soddisfa l’equazione
(30.7). Esprimiamo u1 e u2 come combinazioni lineari di B:
n
X n
X
u1 = bi vi ; u2 = cj vj .
i=1 j=1

253
Risulta
n n n n
X X (30.3) X X (30.4)
u1 | u2 b = bi vi | cj vj b = bi vi | cj vj b =
i=1 j=1 i=1 j=1
n n n X
n
X X (30.8) X
= bi cj vi | vj b = bi cj aij .
i=1 j=1 i=1 j=1

 Pn 
a c
 
c1 j=1 1j j
 c2   Pn a c 
j=1 2j j 
XuT1 AXu2 = (b1 b2 . . . bn )A  .  = (b1 b2 . . . bn ) 
 ..  . =
P ..


n
cn j=1 anj cj
n
X n
X n
X
= b1 a1j cj + b2 a2j cj + · · · + bn anj cj =
j=1 j=1 j=1
n
X n
X X n
n X
= bi aij cj = bi cj aij = u1 | u2 b .
i=1 j=1 i=1 j=1

Resta da dimostrare che A è simmetrica; ciò segue da


(30.8) (30.5)
aij = vi | vj b = vj | vi b = aji .
(ii) Bisogna dimostrare che, usando la (30.7) come definizione di
b, data A simmetrica, la funzione b è una fbs.
Verifichiamo in primo luogo le condizioni di bilinearità. Conside-
riamo u, v, v0 ∈ V e h, k ∈ K. Vale
(30.7)
hv0 + kv00 | u
= XhvT
0 +kv00 AXu =
b
= hXv0 + kXv00 )T AXu = (hXvT0 + kXvT00 AXu =


(30.7)
hXvT0 AXu + kXvT00 AXu = h v0 | u b + k v00 | u b .

254
La (30.4) si prova analogamente.
Verifichiamo che b è simmetrica. Siccome la matrice a destra in
(30.7) è una matrice 1 × 1, essa è uguale alla propria trasposta. Ne
segue:
T
u1 | u2 b = XuT1 AXu2 = XuT2 AT (XuT1 )T =
(30.7)
= XuT2 AXu1 = u2 | u1 b .

Nella penultima equazione abbiamo usato il fatto che A è simmetrica


(AT = A) e che per ogni matrice M vale (M T )T = M .
Da ultimo, resta da dimostrare che vale la (30.8). Indicati con
e1 , e2 , . . . , en i vettori della base naturale di K n (quindi ej è una
colonna con tutti zeri e un “1” in j-esima posizione, per ogni j) si
ha  
a1j
 a2j 
vi | vj b = XvTi AXvj = eTi Aej = eTi 
 ...  = aij .

anj

Osservazioni 30.13. 1) Il teorema stabilisce che, fissata una base B,


resta individuata una corrispondenza biunivoca tra fbs e matrici n × n
simmetriche.
2) Nel caso particolare V = Rn , B = N (base naturale), la (30.7)
diventa
u1 | u2 b = uT1 Au2 (30.9)
e la (30.8)
aij = ei | ej b . (30.10)

255
Compito 30.14. Trovare (x1 , x2 ) | (y1 , y2 ) b , dove b è la fbs in R2
che rispetto alla base naturale ha matrice
 
1 2
A= .
2 3

256
Lezione 31

Ortogonalità

Cosa vuol dire che due funzioni sono ortogonali?

Definizioni 31.1. 1) Una fbs b in uno spazio vettoriale reale VR si dice


definita positiva se per ogni u ∈ V \ {0} vale u | u b > 0.
2) Un prodotto scalare in uno spazio vettoriale reale è una forma
bilineare simmetrica definita positiva.

Esercizio 31.2. Stabilire se la fbs del compito 30.14 è un prodotto


scalare.

Svolgimento. Devo stabilire se per ogni (x1 , x2 ) ∈ R2 \{0}, vale (x1 , x2 ) |


(x1 , x2 ) b > 0, cioè (vedi (A.3)) se

x21 + 2x1 x2 + 2x2 x1 + 3x22 = x21 + 4x1 x2 + 3x22 > 0.

Se x2 = 0 allora x1 6= 0 e (x1 , x2 ) | (x1 , x2 ) b = x21 > 0.

257
Se x2 6= 0, allora
x21
 
x1
(x1 , x2 ) | (x1 , x2 ) b = x22 + 4 +3
x22 x2
e, sostituendo t = x1 /x2 ,
(x1 , x2 ) | (x1 , x2 ) b = x22 (t2 + 4t + 3).
Siccome ∆ = 4 > 0, esistono valori di t tali che t2 +4t+3 ≤ 0 e ponendo
corrispondentemente x2 = 1, x1 = t si ottiene (t, 1) | (t, 1) b ≤ 0.
Concludendo, b non è un prodotto scalare.
 
2 1
Esercizio 31.3. Dimostrare che la fbs associata ad A = ri-
1 3
spetto alla base naturale di R2 è un prodotto scalare.
Per risolvere problemi di questo tipo può essere utile il seguente:
Teorema 31.4. Una fbs in uno spazio vettoriale reale è definita posi-
tiva se, e solo se, tutti gli autovalori della matrice associata, rispetto
a una base qualsiasi, sono positivi.
Secondo svolgimento dell’esercizio 31.2. Trovo gli autovalori di A:

1 − t 2
pA (t) = = t2 − 4t − 1.
2 3 − t

Gli autovalori sono 2 ± 5. Siccome un autovalore è negativo, b non è
un prodotto scalare.
Un altro strumento per il medesimo problema fa uso dei minori di
Nord-Ovest di una matrice quadrata d’ordine n; essi sono gli n minori
di ordini 1, 2, . . ., n, “in alto a sinistra”. Ad esempio la matrice
 
a b c
d e f 
g h i
258
ha tre minori di Nord-Ovest e precisamente

a b c
a b
a, , d e f .
d e
g h i

Teorema 31.5. Una fbs in uno spazio vettoriale reale è definita positi-
va se, e solo se, tutti i minori di Nord-Ovest di una matrice associata,
rispetto a una base qualsiasi, sono positivi.
Terzo svolgimento dell’esercizio 31.2. I minori di Nord-Ovest di A sono
1 e det A = −1 e non sono tutti positivi.
Notazione 31.6. D’ora in avanti, quando possibile, se b è un prodotto
scalare, esso verrà sottinteso e scriveremo:
u1 · u2 = u1 | u2 b .

Definizione 31.7. Il prodotto scalare ordinario in Rn si definisce po-


nendo
∀u1 , u2 ∈ Rn : u1 · u2 = uT1 u2 . (31.1)
In futuro, quando non sarà specificato diversamente, in Rn si sup-
porrà definito il prodotto scalare ordinario.
Osservazione 31.8. L’equazione (31.1) definisce una fbs perché (31.1)
equivale alla (30.9) ponendovi A = In , che è una matrice simmetrica.
Inoltre tale fbs è un prodotto scalare perché tutti gli autovalori di A
sono uguali a 1, quindi positivi.
Definizioni 31.9. 1) Uno spazio vettoriale euclideo è uno spazio vet-
toriale in cui è fissato un prodotto scalare.
2) Il modulo (o√ la norma) di un vettore v in uno spazio vettoriale eu-
clideo è kvk = v · v.
3) Un versore è un vettore u tale che kuk = 1.

259
Esempio 31.10. Il modulo di v = (x1 , x2 , . . . , xn ) ∈ Rn rispetto al
prodotto scalare ordinario è
√ (31.1) √
q
kvk = v · v = v v = x21 + x22 + · · · + x2n .
T

Esercizio 31.11. Sia v 6= 0 un vettore in uno spazio vettoriale eucli-


deo. Dimostrare che (a) khvk = |h| kvk, (b) hv è un versore se, e solo
se, h = ±1/kvk.

Svolgimento. (a)
p (30.3) p (30.4) p
khvk = (hv) · (hv) = h[v · (hv)] = h2 (v · v) = |h| kvk.

(b) Per l’equazione precedente khvk = 1 se, e solo se, |h| kvk = 1.

Definizione 31.12 (Prodotto scalare tra vettori geometrici). Dato un


RC(Oijk), si definisce un prodotto scalare nello spazio vettoriale dei
vettori geometrici come segue:

(xi + yj + zk) · (x0 i + y 0 j + z 0 k) = xx0 + yy 0 + zz 0 . (31.2)

Osservazioni 31.13. La (31.2) definisce una fbs perché equivale alla


(30.7) dove B = i, j, k e A = I3 ed è un prodotto scalare perché I3 ha
autovalori tutti positivi.
2) Dato v = xi + yj + zk, il suo modulo è
√ (31.2) p
kvk = v·v = x2 + y 2 + z 2 ,

che è la lunghezza di v.
3) La definizione data dipende dalla scelta di una base B = i, j, k
dello spazio vettoriale dei vettori geometrici. Tuttavia la proposizione
seguente mostra che il prodotto scalare in sé è indipendente da tale
scelta.

260
Proposizione 31.14. Siano v, v0 vettori geometrici e si consideri il
prodotto scalare definito in (31.2). Allora

v · v0 = kvk kv0 k cos θ, (31.3)

dove θ è l’angolo tra i due vettori.


Sfida. Nello spazio vettoriale C 0 ([a, b]) (1 ) si ponga:
Z b
f |g b= f (x)g(x)dx.
a

(a) Dimostrare che b è una fbs; (b) dimostrare che b è un prodotto


scalare.
Osservazione 31.15. Nel precedente spazio vettoriale euclideo,
s
Z b
kf k = [f (x)]2 dx.
a

Proposizione 31.16 (Disuguaglianza di Cauchy-Schwarz). Se VR è


uno spazio vettoriale euclideo e u1 , u2 ∈ V , allora

|u1 · u2 | ≤ ku1 k ku2 k. (31.4)

Dimostrazione. Se u1 = 0, entrambe le espressioni in (31.4) valgono 0.


Supponiamo ora u1 6= 0. Vale: ∀t : ktu1 + u2 k2 ≥ 0. Ne segue

∀t : (tu1 + u2 ) · (tu1 + u2 ) ≥ 0 ⇒
2
∀t : t u1 · u1 + 2tu1 · u2 + u2 · u2 ≥ 0 ⇒
∀t : ku1 k2 t2 + 2u1 · u2 t + ku2 k2 ≥ 0.
1
Spazio vettoriale in cui i vettori sono le funzioni continue su [a, b].

261
Abbiamo dunque un trinomio di secondo grado in t per il quale risulta
∆ ≤ 0. Ne segue

= (u1 · u2 )2 − ku1 k2 ku2 k2 ≤ 0 ⇒
4
(u1 · u2 ) ≤ ku1 k2 ku2 k2 ⇒ (facendo la radice quadrata)
2

|u1 · u2 | ≤ ku1 k ku2 k.

Proposizione 31.17 (Disuguaglianza triangolare). Se u1 e u2 sono


vettori in uno spazio vettoriale euclideo, allora

ku1 + u2 k ≤ ku1 k + ku2 k. (31.5)

Dimostrazione.

ku1 + u2 k2 = (u1 + u2 ) · (u1 + u2 ) =


= u1 · u1 + 2u1 · u2 + u2 · u2 = ku1 k2 + ku2 k2 + 2u1 · u2 ≤
(31.4)
≤ ku1 k2 + ku2 k2 + 2|u1 · u2 | ≤
≤ ku1 k2 + ku2 k2 + 2ku1 k ku2 k = (ku1 k + ku2 k)2 .

Definizione 31.18. Dati due vettori non nulli u1 e u2 in uno spazio


vettoriale euclideo, l’angolo da essi formato è
u1 · u2
u
[1 u2 = arccos .
ku1 k ku2 k

262
Osservazione 31.19. La definizione ha senso perché per la disugua-
glianza di Cauchy-Schwarz vale

u1 · u2
ku1 k ku2 k ≤ 1,

quindi quell’arcocoseno è definito.

Definizione 31.20. Due vettori u1 , u2 in uno spazio vettoriale eucli-


deo si dicono ortogonali se u1 · u2 = 0.

Osservazione 31.21. Per definizione, il vettore nullo è ortogonale a


ogni vettore.

Risposta alla domanda iniziale. La risposta dipende dallo spazio vet-


toriale euclideo. In C 0 ([a, b]), con il prodotto scalare definito sopra, f
Rb
e g sono ortogonali se, e solo se, a f (x)g(x)dx = 0.

Definizione 31.22. Una famiglia ortogonale di vettori in uno spazio


vettoriale euclideo è una famiglia F = v1 , v2 , . . . , vr tale che ∀i, j =
1, 2, . . . , r : i 6= j ⇒ vi · vj = 0.

Proposizione 31.23 (L’ortogonalità implica indipendenza). Ogni fa-


miglia ortogonale di vettori non nulli F = v1 , v2 , . . . , vr in uno spazio
vettoriale euclideo risulta linearmente indipendente.

Dimostrazione. Consideriamo l’equazione in x1 , x2 , . . . , xr ∈ R:

x1 v1 + x2 v2 + · · · + xr vr = 0. (31.6)

263
Preso j ∈ {1, 2, . . . , r}, moltiplicando scalarmente (31.6) per vj si
ottiene

(x1 v1 + x2 v2 + · · · + xr vr ) · vj = 0 · vj ⇒
1
·v
x v1  

j + ·v
x2v2  

j + · · · + xj vj · vj + · · · +  · vj = 0 ⇒
xrvr 
xj kvj k2 = 0 ⇒ xj = 0,

dove l’ultima implicazione segue dal fatto che kvj k 6= 0. Quindi la


(31.6) implica xj = 0, ∀j = 1, 2, . . . , r.
Siccome tutti i vettori di una famiglia ortonormale sono non nulli,
si ha:

Corollario 31.24. Ogni famiglia ortonormale in uno spazio vettoriale


euclideo è linearmente indipendente.

Compito 31.25. Trovare due vettori ortogonali non nulli nel sot-
tospazio W = h(1, 1, 0), (1, 2, 3)i di R3 (rispetto al prodotto scalare
ordinario).

264
Lezione 32

Procedimento di
Gram-Schmidt

Trovare una base ortonormale del sottospazio W = {(x, y, z, t) ∈ R4 |


x + y + z + t = 0} di R4 .

Definizioni 32.1. Una base ortogonale di uno spazio vettoriale eu-


clideo VR è una base B = v1 , v2 , . . . , vn soddisfacente la condizione
∀i, j = 1, 2, . . . , n : i 6= j ⇒ vi · vj = 0.
Una base B = v1 , v2 , . . . , vn di uno spazio vettoriale euclideo VR è
ortonormale se

1 se i = j
∀i, j = 1, 2, . . . , n : vi · vj = (32.1)
0 se i 6= j.

265
Esempio 32.2. N = e1 , e2 , . . . , en è una base ortonormale di Rn ,
rispetto al prodotto scalare ordinario, infatti
 
0
 ..  
.
T 1 se i = j
ei · ej = ei ej = (0 . . . 1 . . . 0) 1 =
 
 ..  0 se i 6= j.
.
0

Proposizione 32.3. Sia B = v1 , v2 , . . . , vn una base dello spazio vet-


toriale euclideo VR di dimensione finita. Per ogni v ∈ V si indichi
con Xv la colonna delle coordinate di v rispetto a B. La base B risulta
ortonormale se, e solo se,

∀u1 , u2 ∈ V : u1 · u2 = XuT1 Xu2 . (32.2)

Dimostrazione. Esiste un’unica matrice A = (aij ) ∈ M(n × n, R)


simmetrica, tale che

∀u1 , u2 ∈ V : u1 · u2 = XuT1 AXu2 .

Quindi vale la (32.2) se, e solo se, A = In cioè se e solo se



1 se i = j
aij =
0 se i 6= j.

Poi aij = vi · vj (30.8), quindi vale la (32.2) se, e solo se,



1 se i = j
∀i, j = 1, 2, . . . , n : vi · vj =
0 se i 6= j,
cioè se e solo se B è ortonormale.
Affrontiamo il problema generale, dato uno spazio vettoriale eucli-
deo, di trovarne una base ortonormale.

266
Osservazione 32.4. Se v1 , v2 , . . . , vr è una base ortogonale di uno
spazio vettoriale euclideo, allora
v1 v2 vr
, , ...,
kv1 k kv2 k kvr k
è una base ortonormale (cfr. eserc. 31.11). Quindi la parte difficile del
problema è trovare una base ortogonale, visto che poi una base ortonor-
male si ottiene semplicemente dividendo i vettori per i propri moduli.
Quest’ultima parte del procedimento si chiama normalizzazione dei
vettori.
Cerchiamo dapprima una base ortogonale di uno spazio vettoriale
euclideo di dimensione 2, poniamo V = hw, vi (w, v linearmente in-
dipendenti). Siccome hw, v + cwi = V per ogni c ∈ R, sarà sufficiente
v·w
trovare c tale che w · (v + cw) = 0 ⇔ w · v + cw · w = 0 ⇔ c = − w·w
(1 ). Quindi una base ortogonale di VR è
v·w
w, v − w.
w·w
v·w
Il coefficiente c(v, w) = w·w si chiama coefficiente di Fourier di v
rispetto a w. Nel caso particolare dei vettori geometrici (vedi figura),
kvk kwk cos vw
c
c(v, w)w = w
kwk2
• ha modulo kvk | cos vw|;
c

• ha direzione di w, con stesso verso se e solo se l’angolo è acuto.


Abbiamo dimostrato in generale (anche nel caso di vettori non geo-
metrici) che w e v − c(v, w)w sono ortogonali. Il vettore c(v, w)w si
chiama proiezione di v nella direzione di w.
1
Il denominatore è positivo, cfr. def. 31.1.

267
Teorema 32.5 (Procedimento di Gram-Schmidt). Sia B = v1 , v2 , . . . ,
vn una base di uno spazio vettoriale euclideo VR . Allora, ponendo
w1 = v1 e
j
X vj+1 · wi
wj+1 = vj+1 − wi , j = 1, 2, . . . , n − 1, (32.3)
i=1
wi · wi

la famiglia Fj = w1 , w2 , . . . , wj è una base ortogonale di hv1 , v2 , . . . , vj i,


per ogni j = 1, 2, . . . , n. In particolare, Fn è una base ortogonale di
VR .

Osservazioni 32.6. 1) La (32.3) è una definizione ricorsiva.


2) La (32.3) esprime wj+1 come differenza tra vj+1 e la somma delle
sue proiezioni secondo le direzioni di w1 , w2 , . . . , wj .
Dimostrazione. La dimostrazione è per induzione.
1) Per j = 1 la tesi è che F1 = w1 = v1 è una base ortogonale di hv1 i
e questo è immediato.
2) Supponiamo che la tesi sia vera per un valore di j ∈ {1, 2, . . . , n − 1}
e dimostriamo che Fj+1 è una base ortogonale di hv1 , v2 , . . . , vj , vj+1 i.

268
2a) Dimostriamo che Fj+1 è una famiglia ortogonale di vettori. Per
ipotesi induttiva, Fj è una famiglia ortogonale, quindi

∀i, h = 1, 2, . . . , j : (i 6= h ⇒ wi · wh = 0).

Resta da dimostrare che wj+1 · wh = 0 per ogni h = 1, 2, . . . , j:


j
" #
(32.3) X vj+1 · wi
wj+1 · wh = vj+1 − wi · wh =
i=1
wi · wi
j
X vj+1 · wi
= vj+1 · wh − (wi · wh ).
i=1
wi · wi

Siccome wi · wh = 0 per i = 1, 2, . . . , j, i 6= h, si ha
vj+1 · wh
wj+1 · wh = vj+1 · wh − (wh · wh ) = 0.
wh · wh
Quindi Fj+1 è ortogonale.
2b) Dimostriamo che Fj+1 è una base di hv1 , v2 , . . . , vj , vj+1 i. Per
ipotesi induttiva vale hv1 , v2 , . . . , vj i = hw1 , w2 , . . . , wj i; ciò implica

v1 , v2 , . . . , vj ∈ hw1 , w2 , . . . , wj , wj+1 i = hFj+1 i.

Dalla (32.3) segue:


j
X
vj+1 = c(vj+1 , wi )wi + wj+1 ,
i=1

che è una combinazione lineare di w1 , w2 , . . . , wj , wj+1 = Fj+1 . Resta


dimostrato che v1 , v2 , . . . , vj , vj+1 ∈ hFj+1 i, quindi

hv1 , v2 , . . . , vj , vj+1 i ⊆ hFj+1 i.

269
Ne segue

j + 1 = dimhv1 , v2 , . . . , vj , vj+1 i ≤ dimhFj+1 i. (32.4)

D’altra parte dimhFj+1 i ≤ j + 1 perché è un sottospazio generato da


j + 1 vettori. Ne segue dimhFj+1 i = j + 1 da cui

hv1 , v2 , . . . , vj , vj+1 i = hFj+1 i

e Fj+1 è una base di tale sottospazio.

Risposta alla domanda iniziale. W = {(−y − z − t, y, z, t) | y, z, t ∈


R} = h(−1, 1, 0, 0), (−1, 0, 1, 0), (−1, 0, 0, 1)i. Siccome W è lo spazio
delle soluzioni di un sistema lineare omogeneo di rango 1 in quattro
incognite, vale dim W = 3 e questo implica che una base di W è
proprio B = v1 , v2 , v3 dove v1 = (−1, 1, 0, 0), v2 = (−1, 0, 1, 0), v3 =
(−1, 0, 0, 1). Applichiamo il procedimento di Gram-Schmidt, usando
anche la (31.1), in base alla quale

(x1 , x2 , x3 , x4 ) · (y1 , y2 , y3 , y4 ) = x1 y1 + x2 y2 + x3 y3 + x4 y4 .

270
w1 = v1 = (−1, 1, 0, 0).
(32.3) v2 · w1
w2 = v2 − w1 =
w1 · w1
(−1, 0, 1, 0) · (−1, 1, 0, 0)
= (−1, 0, 1, 0) − (−1, 1, 0, 0) =
(−1, 1, 0, 0) · (−1, 1, 0, 0)
1 1 1
= (−1, 0, 1, 0) − (−1, 1, 0, 0) = (− , − , 1, 0).
2 2 2
(32.3) v3 · w1 v3 · w2
w3 = v3 − w1 − w2 =
w1 · w1 w2 · w2
(−1, 0, 0, 1) · (−1, 1, 0, 0)
= (−1, 0, 0, 1) − (−1, 1, 0, 0) +
(−1, 1, 0, 0) · (−1, 1, 0, 0)
(−1, 0, 0, 1) · (− 21 , − 21 , 1, 0) 1 1
− 1 1 (− , − , 1, 0) =
(− 2 , − 2 , 1, 0) · (− 12 , − 21 , 1, 0) 2 2
1
1 1 1
= (−1, 0, 0, 1) − (−1, 1, 0, 0) − 23 (− , − , 1, 0) =
2 2
2 2
1 1
= (−2, −2, −2, 6) = (−1, −1, −1, 3).
6 3
Una base ortogonale di W è
1 1 1
B = (−1, 1, 0, 0), (− , − , 1, 0), (−1, −1, −1, 3).
2 2 3
Lasciamo al lettore di verificare il fatto che tutti i vettori trovati ap-
partengono a W e che i tre possibili prodotti scalari tra due vettori
distinti sono uguali a zero. Osservando che khvk = |h| kvk calcolo:
√ √
kw1 k = w1 · w1 = 2,

1 6
kw2 k = k(−1, −1, 2, 0)k = ,
2 2√ √
1 12 2 3
kw3 k = k(−1, −1, −1, 3)k = = .
3 3 3
271
Una base ortonormale è B 0 = u1 , u2 , u3 dove
w1 1
u1 = = √ (−1, 1, 0, 0),
kw1 k 2
w2 2 1 1
u2 = = √ (−1, −1, 2, 0) = √ (−1, −1, 2, 0),
kw2 k 62 6
w3 3 1 1
u3 = = √ (−1, −1, −1, 3) = √ (−1, −1, −1, 3).
kw3 k 2 3 3 2 3

Definizione 32.7. Dato un sottospazio W di uno spazio vettoriale


euclideo VR , il suo (complemento) ortogonale è (2 )
W ⊥ = {v ∈ V | ∀w ∈ W : w · v = 0}.

Esempio 32.8. Nel caso dei vettori geometrici e dim W = 2, i vettori


di W sono tutti i vettori paralleli ad un piano, in blu in fig. 32.1,
e quindi W ⊥ è l’insieme di quei vettori che sono ortogonali a tutti i
vettori “blu”; ovvero W ⊥ è l’insieme dei multipli scalari del vettore n.
Allora W ⊥ è un sottospazio di dimensione 1.

Proposizione 32.9. Sia W un sottospazio di uno spazio vettoriale


euclideo VR . Allora
(i) W ⊥ è un sottospazio di VR ,
(ii) se W = hv1 , v2 , . . . , vr i, allora i vettori di W ⊥ sono precisamente
i v ∈ V soddisfacenti le equazioni
vh · v = 0, h = 1, 2, . . . , r. (32.5)

Lasciamo la dimostrazione per esercizio.


Compito 32.10. Trovare una base di W ⊥ , dove W è il sottospazio di
R4 della domanda iniziale.
2
W ⊥ si legge “W ortogonale”.

272
Figura 32.1: Ortogonale di un sottospazio.

273
274
Lezione 33

Distanza

Trovare la distanza tra la retta rrappresentata dalla varietà lineare


x−3 = 0
(1, 2, 3) + h(1, 0, 1)i e la retta s :
y − z = 0.

Teorema 33.1. Sia W un sottospazio di dimensione finita di uno spa-


zio vettoriale euclideo VR . Allora W +W ⊥ = V e tale somma è diretta.
Più in dettaglio, se B = w1 , w2 , . . . , wr è una base ortogonale di W ,
allora ogni v ∈ V si esprime in modo unico come somma di un w ∈ W
e di un w0 ∈ W ⊥ soddisfacenti
r
X
w= c(v, wi )wi ; w0 = v − w. (33.1)
i=1

Osservazioni 33.2. 1) w in (33.1) è somma delle proiezioni di v nelle


direzioni di w1 , w2 , . . . , wr .

275
2) Se dim V è finita, in conseguenza del teorema vale dim V = dim W +
dim W ⊥ .
Dimostrazione. 1) Dimostriamo che W + W ⊥ è diretta. Consideriamo
un vettore v ∈ W ∩ W ⊥ . Da v ∈ W ⊥ segue per definizione ∀w ∈ W :
w · v = 0. Siccome v ∈ W , risulta v · v = 0 e questo implica v = 0.
Resta dimostrato che W ∩ W ⊥ = {0} e per il teorema 10.7 la somma
è diretta.
2) Dimostriamo che W + W ⊥ = V , che è conseguenza, con riferimento
a (33.1), della validità delle seguenti proprietà per ogni v ∈ V : (a) w ∈
W , (b) w0 ∈ W ⊥ , (c) v = w + w0 .
(a) La prima equazione in (33.1) esprime w come combinazione lineare
di w1 , w2 , . . . , wr , quindi w ∈ hw1 , w2 , . . . , wr i = W .
(c) Tale asserzione è immediata conseguenza della seconda equazione
in (33.1).
(b) In virtù della prop. 32.9, è sufficiente dimostrare che

∀h = 1, 2, . . . , r : w0 · wh = 0.

Vale
" r
#
(33.1) X
w 0 · wh = v− c(v, wi )wi · wh
i=1
r
X
= v · wh − c(v, wi )wi · wh .
i=1

Siccome wi · wh = 0 per i 6= h, si ottiene

w0 · wh = v · wh − c(v, wh )wh · wh =
v · wh
= v · wh − wh · wh = 0.
wh · wh

276
Definizione 33.3. I vettori w e w0 definiti in (33.1) si dicono proie-
zioni ortogonali di v su, rispettivamente, W e W ⊥ .
Esercizio 33.4. Esprimere v = (2, −2, −3) come somma di un vettore
nel sottospazio W = h(1, 0, 1), (0, 1, 1)i di R3 e di un vettore in W ⊥ .
(1 )
Svolgimento. Userò la (33.1) nella quale serve una base ortogonale di
W . La base B = v1 , v2 = (1, 0, 1), (0, 1, 1) non è ortogonale perché
(1, 0, 1) · (0, 1, 1) = 1 6= 0. Applico il procedimento di Gram-Schmidt
per trovare una base ortogonale w1 , w2 :
w1 = v1 = (1, 0, 1);
v2 · w1 (0, 1, 1) · (1, 0, 1)
w2 = v2 − w1 = (0, 1, 1) − (1, 0, 1) =
w1 · w1 (1, 0, 1) · (1, 0, 1)
1 1
= (0, 1, 1) − (1, 0, 1) = (−1, 2, 1).
2 2
Una base ortogonale di W è (1, 0, 1), 21 (−1, 2, 1), o anche, visto che
moltiplicare i singoli vettori per scalari non nulli non influisce sull’or-
togonalità,
w1 = (1, 0, 1), w20 = (−1, 2, 1).
Applico la (33.1) con v = (2, −2, −3):
v · w1 v · w20 0
w = w1 + 0 w =
w1 · w1 w2 · w20 2
(2, −2, −3) · (1, 0, 1) (2, −2, −3) · (−1, 2, 1)
= (1, 0, 1) + (−1, 2, 1)
(1, 0, 1) · (1, 0, 1) (−1, 2, 1) · (−1, 2, 1)
−1 −9 1 3
= (1, 0, 1) + (−1, 2, 1) = − (1, 0, 1) − (−1, 2, 1) =
2 6 2 2
1
= (2, −6, −4) = (1, −3, −2).
2
w0 = v − w = (2, −2, −3) − (1, −3, −2) = (1, 1, −1).
1
Se il prodotto scalare non è specificato, si intende il prodotto scalare ordinario.

277
Concludendo, v = w + w0 , dove w = (1, −3, −2) ∈ W e w0 =
(1, 1, −1) ∈ W ⊥ .
Verifica, usando le equazioni (32.5):
w0 · w1 = (1, 1, −1) · (1, 0, 1) = 0;
w0 · w20 = (1, 1, −1) · (−1, 2, 1) = 0.

Teorema 33.5. Siano v e W rispettivamente un vettore e un sotto-


spazio di uno spazio vettoriale euclideo di dimensione finita VR . In
v + W esiste un unico vettore di modulo minimo; esso è la proiezione
ortogonale di v su W ⊥ .

Dimostrazione. Per il teorema 33.1, esistono, e sono unici, w ∈ W e


w0 ∈ W ⊥ tali che v = w +w0 . Dobbiamo dimostrare le due affermazio-
ni seguenti: 1) w0 ∈ v + W , 2) ∀u ∈ v + W , u 6= w0 vale kuk > kw0 k.
1) Da v = w + w0 segue w0 = v + (−w) ∈ v + W .
2) Per la prop. 29.2 (ii) da w0 ∈ v + W segue v + W = w0 + W .
Consideriamo u ∈ v + W = w0 + W , u 6= w0 . Allora esiste y ∈ W ,
y 6= 0, tale che u = w0 + y. Ne segue
kuk2 = (w0 + y) · (w0 + y) = w0 · w0 + y · y + 2w0 · y
e siccome w0 ∈ W ⊥ e y ∈ W vale w0 · y = 0. Quindi
kuk2 = kw0 k2 + kyk2 > kw0 k2 .

Il teorema ha applicazioni al calcolo della distanza.


Definizione 33.6. La distanza di due insiemi non vuoti di punti nello
spazio I e J è
−→
dist(I, J) = inf{kP Qk | P ∈ I, Q ∈ J}.

278
Risposta alla domanda iniziale.
 Il punto generico di r è Pt (1+t, 2, 3+t).
x = 3
Risolvo l’equazione di s: , quindi il punto generico di s è
y = z,
−−→
Qz (3, z, z). Considero l’insieme di tutti i vettori Pt Qz (2 − t, z − 2, z −
3 − t):
−−→
{Pt Qz | t, z ∈ R} = {(2 − t, z − 2, z − 3 − t) | t, z ∈ R} =
= {(2, −2, −3) + (−t, 0, −t) + (0, z, z) | t, z ∈ R} =
= (2, −2, −3) + h(−1, 0, −1), (0, 1, 1)i =
= (2, −2, −3) + h(1, 0, 1), (0, 1, 1)i.
Ho ottenuto una varietà lineare. Per il teorema 33.5, esiste un unico
vettore di modulo minimo in essa ed è la proiezione w0 sull’ortogonale
di W = h(1, 0, 1), (0, 1, 1)i. Per il calcolo fatto
√ in precedenza, risulta
0 0
w = (1, 1, −1), quindi dist(r, s) = kw k = 3.

Definizione 33.7. Si dicono coseni direttori di una retta r le coordi-


nate di un versore parallelo a r.

Osservazioni 33.8. 1) I coseni direttori sono particolari parametri


direttori.
2) Siccome un vettore non nullo può essere normalizzato in due modi
(vedi eserc. 31.11), ogni retta ha due terne di coseni direttori.
Definizione 33.9. La scelta di una terna di coseni direttori individua
un orientamento (o verso) della retta. Quindi una retta ha due possi-
bili orientamenti. Una retta su cui si sia scelto un orientamento si dice
retta orientata.
Definizione 33.10. L’angolo tra due rette orientate è l’angolo tra due
vettori non nulli paralleli ad esse e concordemente orientati.

279
Figura 33.1: Angolo tra due rette

Ricordando la formula
v·w
vw
c = arccos ,
kvk kwk
se l, m, n e l0 , m0 , n0 sono terne di parametri direttori associate a due
rette orientate r ed s, allora l’angolo è
ll0 + mm0 + nn0
b = arccos √
rs √ . (33.2)
l2 + m2 + n2 l02 + m02 + n02
Calcoliamo il coseno dell’angolo formato da una retta orientata r di
coseni direttori l, m, n e l’asse orientato delle x, usando la (33.2) con
l0 = 1, m0 = 0, n0 = 0:
l l
x=√
cos rc = = l.
l2 + m2 + n2 1
Analoghe formule per gli assi orientati giustificano il nome di coseni
direttori:
cos rc
x = l, cos ry b = m, cos rz b = n.

280
Dalla (33.2) si ottiene la seguente condizione necessaria e sufficiente
per l’ortogonalità tra due rette: ll0 + mm0 + nn0 = 0.

Definizione 33.11. Un vettore n è ortogonale alla varietà lineare v +


W se n ∈ W ⊥ .

Nel caso di un piano o una retta, il vettore n di cui sopra è ortogo-


nale a tutti i vettori paralleli al piano o alla retta.

Proposizione 33.12. I vettori ortogonali al piano ε : ax+by+cz+d =


0 sono precisamente i multipli di n(a, b, c).

Dimostrazione. Se W è lo spazio direttore di ε, allora dim W = 2.


Siccome W + W ⊥ = V è diretta, si ha dim W ⊥ = 3 − 2 = 1. È
sufficiente trovare un vettore non nullo in W ⊥ . Siccome l’equazione di
W è ax + by + cz = 0, posto w(l, m, n), vale

w ∈ W ⇔ al + bm + cn = 0 ⇔ n · w = 0.

Resta dimostrato che n(a, b, c) è ortogonale a tutti i vettori in W , cioè


n ∈ W ⊥.

Corollario 33.13. Una retta di parametri direttori l, m, n è ortogo-


nale al piano ε : ax + by + cz + d = 0 se, e solo se,
 
a b c
rk = 1.
l m n

Tale condizione offre l’equazione normale del piano ortogonale al


vettore (l, m, n) 6= 0 e passante per P0 (x0 , y0 , z0 ):

l(x − x0 ) + m(y − y0 ) + n(z − z0 ) = 0.

281
Definizione 33.14. L’angolo formato da due piani è l’angolo acuto
formato da due rette ortogonali ai piani stessi.

Quindi se i piani sono ε : ax+by+cz+d = 0 e ε0 : a0 x+b0 y+c0 z+d0 =


0 tale angolo è

c0 = arccos √ |aa0 + bb0 + cc0 |


εε √ .
a2 + b2 + c2 a02 + b02 + c02

Ne segue che i due piani sono ortogonali se, e solo se, aa0 +bb+cc0 = 0.

Figura 33.2: Angolo tra due piani

Tabella riassuntiva delle condizioni necessarie e sufficienti di paral-


lelismo ed ortogonalità:

282
Due rette Due piani Piano-retta
Paral    
l m n a b c
leli rk 0 =1 rk 0 0 0 = 1 al + bm + cn = 0
l m0 n0 a b c
smo
Orto  
0 0 0 0 0 0 a b c
gona ll + mm + nn = 0 aa + bb + cc = 0 rk =1
l m n
lità
Compito 33.15. Trovare il vettore di modulo minimo nella varietà
lineare (1, 2, 3) + h(1, 1, 1)i.

283
284
Lezione 34

Il teorema spettrale

Definizione 34.1. Una matrice ortogonale d’ordine n è una matrice


H ∈ M(n × n, R) tale che H T H = In .

Osservazioni 34.2. 1) H ∈ M(n × n, R) risulta ortogonale se, e solo


se, H è invertibile e H −1 = H T .
2) Se H è ortogonale, allora anche H T è ortogonale.
Un esempio importante è la matrice
 
cos ϕ − sin ϕ
R(ϕ) = , ϕ ∈ R.
sin ϕ cos ϕ
Vale
  
T cos ϕ sin ϕ cos ϕ − sin ϕ
R(ϕ) R(ϕ) = = I2 ,
− sin ϕ cos ϕ sin ϕ cos ϕ
quindi R(ϕ) è ortogonale per ogni ϕ ∈ R. La funzione lineare di
matrice R(ϕ) rappresenta una rotazione di misura ϕ.

285
Nella proposizione seguente verrà applicata la formula (32.1) che
definisce le famiglie ortonormali.
Proposizione 34.3. Una matrice H ∈ M(n × n, R) risulta ortogo-
nale se e solo se le sue colonne formano una base ortonormale di Rn ,
rispetto al prodotto scalare ordinario.

Dimostrazione. Posto A = (aij ) = H T H, vale, per ogni i, j = 1, 2, . . . , n:

aij = (H T )i H j = (H i )T H j = H i · H j

dove l’ultima equazione segue dalla definizione di prodotto scalare ordi-


nario. La matrice H è ortogonale se e solo se H T H = In e ciò equivale
a
 
1 se i = j 1 se i = j
aij = ⇔ Hi · Hj = ⇔
0 se i 6= j 0 se i 6= j

H 1 , H 2 , . . ., H n è una base ortonormale di Rn .


 Attenzione ai termini ingannevoli: una matrice ortogonale corri-
sponde a una base ortonormale.

Teorema 34.4 (Teorema spettrale reale). Per ogni matrice reale sim-
metrica A d’ordine n, esiste una base ortogonale di Rn composta da
autovettori di A.

Corollario 34.5. Per ogni matrice reale simmetrica A d’ordine n, esi-


ste H ∈ M(n × n, R), ortogonale, le cui colonne sono tutte autovettori
di A. (Vedi anche la prop. 34.3.)
Definizione 34.6. Una matrice A ∈ M(n × n, R) si dice ortogonal-
mente diagonalizzabile se esiste H ∈ M(n × n, R) ortogonale, tale che
H T AH sia diagonale.

286
Notare che siccome nella definizione H T = H −1 , una matrice orto-
gonalmente diagonalizzabile è anche diagonalizzabile.

Corollario 34.7. (Cfr. prop. 27.4.) Ogni matrice reale simmetrica A


è ortogonalmente diagonalizzabile su R.

Esercizio 34.8. È data la seguente matrice reale:

 
0 1 1 0
1 0 0 1
A=
1
.
0 0 1
0 1 1 0

(a) Stabilire se (1, 1, 1, 1) è un autovettore di A; (b) trovare una matrice


ortogonale H tale che H T AH sia diagonale.

Svolgimento. (a) Ricordo che se AX = λX, X 6= On×1 , allora X è un


autovettore di A e λ è l’autovalore associato ad X.

     
1 2 1
1  2 
 =   = 2 1 ,
 
A
1  2  1
1 2 1

quindi (1 1 1 1)T è un autovettore con autovalore 2.

287
(b) Calcolo il polinomio caratteristico:

−t 1 1 0

1 −t 0 1
pA (t) = = (sviluppo secondo la 1a riga)
1 0 −t 1

0 1 1 −t

−t 0 1 1 0 1
= −t(−1)1+1 0 −t 1 + (−1)1+2 1 −t

1 +
1 1 −t 0 1 −t

1 −t 1
+(−1)1+3 1 0 1 =

0 1 −t
= −t(−t3 + t + t) − (t2 + 1 − 1) + (1 − 1 − t2 ) =
= t4 − 2t2 − t2 − t2 = t4 − 4t2 = t2 (t2 − 4) = t2 (t + 2)(t − 2).

Gli autovalori sono λ1 = 0, λ2 = −2, λ3 = 2. Trovo EA (0) con


l’equazione AX = O1×4 :

x2 + x3 = 0
x1 + x4 = 0

da cui

EA (0) = {(−x4 , −x3 , x3 , x4 ) | x3 , x4 ∈ R} = h(−1, 0, 0, 1), (0, −1, 1, 0)i.

EA (−2) si ottiene dall’equazione (A + 2I4 )X = O1×4 ,


  
2 1 1 0 x1
1 2 0 1  x 2 
 
  = O1×4 .
1 0 2 1  x 3 
0 1 1 2 x4
288
Si ottiene EA (−2) = h(1, −1, −1, 1)i. Analogamente EA (2) si ottiene
dall’equazione (A − 2I4 )X = O1×4 ,
  
−2 1 1 0 x1
 1 −2 0 1  x2 
 1 0 −2 1  x3  = O1×4 .
  

0 1 1 −2 x4

Si ottiene EA (2) = h(1, 1, 1, 1)i. I quattro vettori ottenuti:

(−1, 0, 0, 1), (0, −1, 1, 0), (1, −1, −1, 1), (1, 1, 1, 1),

formano già una base ortogonale di R4 . Normalizzandoli e disponendoli


in colonne si ottiene una matrice con le proprietà richieste:
 √ 
−1/ 2 0√ 1/2 1/2
 0 −1/√ 2 −1/2 1/2
H= .
 0
√ 1/ 2 −1/2 1/2 
1/ 2 0 1/2 1/2

Esercizio 34.9. È data la seguente matrice reale, dipendente dal pa-


rametro reale h:  
h 2 1
Mh =  2 2 2  .
1 2 −1
(a) Trovare, se esiste, un valore di h tale che (1, 2, 1) sia un autovet-
tore di Mh . (b) In relazione al valore trovato, calcolare una matrice
ortogonale H tale che H T Mh H sia diagonale.
Svolgimento. (a) Imponendo che (1, 2, 1) sia un autovettore,
       
1 1 h+5 1
Mh 2 = λ 2 ⇔
     8  = λ 2 ,

1 1 4 1
289
da cui λ = 4 e h = −1.
(b) Calcolo il polinomio caratteristico della matrice M = M−1 :

−1 − t 2 1
2 = −t3 + 12t + 16.

pM (t) = 2 2−t
1 2 −1 − t
Siccome λ = 4 è un autovalore, si può dividere tale polinomio per t − 4:
−1
0 12 16
4 −4 −16 −16
−1 −4 −4 //
Quindi pM (t) = (t − 4)(−t2 − 4t − 4) = −(t − 4)(t + 2)2 .
Determino gli autospazi. Siccome dim EM (4) = 1 e (1, 2, 1) è un
autovettore relativo all’autovalore 4, vale EM (4) = h(1, 2, 1)i.
L’autospazio EM (−2) si ricava dall’equazione (M + 2I3 )X = O3×1 ,
ovvero     
1 2 1 x 0
2 4 2 y  = 0 ,
1 2 1 z 0
equivalente a x + 2y + z = 0. Ne segue EM (−2) = {(−2y − z, y, z) |
y, z ∈ R} = h(−2, 1, 0), (−1, 0, 1)i. Serve una base ortogonale di tale
autospazio, quindi applico il procedimento di Gram-Schmidt partendo
dai vettori v1 = (−2, 1, 0), v2 = (−1, 0, 1). Ottengo
w1 = v1 = (−2, 1, 0),
v2 · w1 (−1, 0, 1) · (−2, 1, 0)
w2 = v2 − w1 = (−1, 0, 1) − (−2, 1, 0) =
w1 · w1 (−2, 1, 0) · (−2, 1, 0)
2 1
= (−1, 0, 1) − (−2, 1, 0) = (−1, −2, 5).
5 5
Una base di ortogonale di autovettori di M è:
(1, 2, 1), (−2, 1, 0), (−1, −2, 5).

290
Normalizzandoli si ottiene una base ortonormale:
1 1 1
√ (1, 2, 1), √ (−2, 1, 0), √ (−1, −2, 5).
6 5 30
Una matrice H con le proprietà richieste è
 √ √ √ 
1/√6 −2/√ 5 −1/√30
H = 2/√6 1/ 5 −2/√ 30 .
1/ 6 0 5/ 30

Compito 34.10. Supponiamo H T AH = D, dove H è una matrice


reale ortogonale e D è diagonale. Ricavare A in termini di H e D e
calcolare AT .

291
292
Lezione 35

Altre proprietà metriche

Cos’è l’angolo tra una retta e un piano?


L’angolo tra una retta e un piano è il complementare dell’angolo
acuto formato dalla retta data e da una retta ortogonale al piano.
L’angolo tra il piano ε : ax + by + cz + d = 0 e una retta di parametri
direttori l, m, n è
|al + bm + cn|
b = arcsin √
εr √ .
a2 + b2 + c2 l2 + m2 + n2
Proposizione 35.1. Se B = v1 , v2 , . . . , vn e B 0 = w1 , w2 , . . . , wn sono
basi ortonormali di uno spazio vettoriale euclideo VR di dimensione
0
finita, allora la matrice Aid B B è ortogonale.
Dimostrazione. Ricordiamo che indicata con Xv la colonna delle coor-
dinate di v rispetto a B, per ogni v ∈ V , vale
0
Aid B B = (Xw1 |Xw2 |. . . |Xwn ) .

293
Figura 35.1: Angolo tra una retta e un piano. Vale sin(εr)
b = cos α.

Il prodotto scalare tra due colonne qualsiasi di tale matrice soddisfa

(32.2)
Xwi · Xwj = XwT i Xwj = wi · wj .

Nell’ultima equazione abbiamo usato la (32.2) che si basa sull’ipotesi


che B sia ortonormale. Poiché anche B 0 è ortonormale, vale

1 se i=j
wi · wj =
0 se i 6= j.

0
Resta dimostrato che le colonne di Aid B B formano una base ortonor-
male di Rn , quindi tale matrice è ortogonale (prop. 34.3).

294
35.1 Cambiamenti di riferimento cartesia-
no
Dati due RC(Oijk), RC(O0 i0 j0 k0 ), indichiamo con (α, β, γ) la terna del-
le coordinate di O0 rispetto a RC(Oijk); poi indichiamo con (x, y, z)
e (x0 , y 0 , z 0 ) le coordinate di un medesimo punto P rispetto ai due
−→ −−→ −−→
RC. Intendiamo rappresentare l’equazione OP = O0 P + OO0 tramite
coordinate.
−→
• OP ha coordinate (x, y, z) rispetto a B = i, j, k;
−−→
• OO0 ha coordinate (α, β, γ) rispetto a B;
−−→
• O0 P hacoordinate (x0 , y 0 , z 0 ) rispetto a B 0 = i0 , j0 , k0 e coordinate
x0

0
Aid B B y 0  rispetto a B.
z0
0
Concludendo, posto H = Aid B B , le equazioni di cambiamento di coor-
dinate sono:
   0  
x x α
0
y  = H y  + β  , H ortogonale. (35.1)
0
z z γ

Viceversa ogni equazione nella forma (35.1) rappresenta un cambia-


mento di riferimento cartesiano.
Caso particolare: i = i0 , j = j0 , k =k0
. Abbiamo
 0  una
 cosiddetta

x x α
traslazione d’assi. Vale H = I3 , quindi y  = y 0  + β  .
z z0 γ
295
Osservazioni 35.2. Aggiungiamo alcuni fatti relativi all’argomento
senza dettagli.
1) Se H è una matrice ortogonale d’ordine n, allora det H = 1 o
det H = −1.
2) Consideriamo l’equazione (35.1) con O = O0 , quindi α = β = γ = 0.
   0
x x
• Se det H = 1, l’equazione y  = H y 0  è quella di una rota-
z z0
zione degli assi intorno ad una retta per O (teorema di Eulero).
• Se det H = −1, si ha una cosiddetta rotazione impropria, com-
posizione di una rotazione e di una riflessione.
   0  
x x α
3) In due dimensioni abbiamo l’equazione =H 0 + ,H
y y β
ortogonale 2 × 2. Se det H = 1, allora tale equazione è una rotazione
degli assi (intorno ad O nel caso α = β = 0), mentre se det H = −1 è
una riflessione rispetto ad un asse.

35.2 Esercizi di geometria


Le equazioni cartesiane della retta (x0 , y0 , z0 ) + h(l, m, n)i si possono
ottenere direttamente. Esse sono:
x − x0 y − y0 z − z0
= = . (35.2)
l m n
Alle (35.2) si dà senso anche se uno o due denominatori sono nulli,
imponendo che i corrispondenti numeratori siano pure nulli. Infatti,
tali equazioni si intendono come riformulazione di
 
x − x0 y − y0 z − z0
= 1.
l m n
296
Una formula che può tornare utile negli esercizi offre la forma
generale di un piano contenente una retta, espressa in forma cartesiana:
Proposizione 35.3. I piani contenenti la retta di equazioni (29.8)
sono precisamente quelli di equazioni
λ(ax + by + cz + d) + µ(a0 x + b0 y + c0 z + d0 ) = 0 (35.3)
al variare di λ, µ non entrambi nulli.
Esercizio
 35.4. Sono dati P (1, 0, 1), Q(−2, 1, 0), R(1, 1, −1), la retta
x − 2y − z − 1 = 0
r: e il piano π : x − 2y + z + 1 = 0. Trovare
x+z+1 = 0
delle equazioni cartesiane dei seguenti oggetti (se esistenti):
(a) La retta P Q; (b) la retta P R; (c) i piani contenenti P , Q e R; (d) la
retta per P , ortogonale a π; (e) il piano contenente P , ortogonale alla
retta r; (f ) i piani contenenti r e P ; (g) i piani contenenti entrambi
i punti P e Q e paralleli alla retta r; (h) i piani contenenti la retta
P Q e ortogonali alla retta r. (i) Trovare la distanza del punto P dalla
retta r.
Svolgimento. (a) Parametri direttori della retta sono le coordinate di
−→
P Q(−3, 1, −1). Applico la (35.2) con x0 = 1, y0 = 0, z0 = 1:
x−1 y z−1
= = .
−3 1 −1
−→
(b) Vale P R(0, 1, −2) da cui si ottiene l’equazione
x−1 y z−1
= = ,
0 1 −2
che va interpretata come sistema lineare nel modo seguente:

x−1 = 0
−2y − z + 1 = 0.
297
(c) Un piano ha equazione nella forma ax + by + cz + d = 0. Impo-
nendo che le coordinate dei tre punti siano soluzioni di tale equazione
si ottengono le condizioni

 a+c+d = 0
−2a + b + d = 0
a + b − c + d = 0.

Quest’ultimo è un sistema lineare omogeneo nelle quattro incognite


a, b, c, d. Lo risolvo trasformando in matrice a scala
   
1 0 1 1 0 1 0 1 1 0
−2 1 0 1 0 H−→ 21 (2)
0 1 2 3 0 H−→ 32 (−1)

1 1 −1 1 0 H31 (−1) 0 1 −2 0 0
 
1 0 1 1 0
0 1 2 3 0  .
0 0 −4 −3 0
Risolvo dal basso il sistema

 a + c = −d
b + 2c = −3d
−4c = 3d

in termini del parametro d, ottenendo c = −3d/4, b = −3d/2, a =


−d/4. I piani soddisfacenti le condizioni date sono quindi
d 3 3
− x − dy − dz + d = 0.
4 2 4
Moltiplicando per 4/d si ottiene un unico piano: −x − 6y − 3z + 4 = 0.
(d) Ogni retta ortogonale a π ha parametri direttori l = a = 1,
m = b = −2, n = c = 1. Posso quindi direttamente scriverne le
equazioni cartesiane:
x−1 y z−1
= = .
1 −2 1
298
(e) I coefficienti a, b e c nell’equazione del piano possono essere
presi uguali ai parametri direttori di r. Questi ultimi si ottengono
risolvendo il sistema lineare omogeneo associato a quello di r:
 
x − 2y − z = 0 x = −z

x+z = 0 y = −z.

Posso prendere l = m = −1, n = 1. Quindi il piano cercato ha


equazione nella forma −x − y + z + d = 0. Imponendo il passaggio per
il punto P ottengo −1 − 0 + 1 + d = 0 da cui d = 0. Concludendo, il
piano cercato ha equazione −x − y + z = 0.
(f ) Il piano generico contenente la retta r ha equazione (35.3):

λ(x − 2y − z − 1) + µ(x + z + 1) = 0, (λ, µ) 6= 0.

Imponendo che le coordinate di P siano soluzione di tale equazione


ottengo −λ + 3µ = 0, da cui λ = 3µ. Sostituendo nell’equazione
precedente,

4µx − 6µy − 2µz − 2µ = 0 ⇔ 2x − 3y − z − 1 = 0.

Esiste un unico piano con le proprietà richieste.


(g) Imponiamo all’equazione generica ax + by + cz + d = 0 di un
piano di avere come soluzioni le coordinate di P e di Q:

a+c+d = 0
−2a + b + d = 0.

Questo è un sistema lineare omogeneo in quattro incognite di rango


due, avente soluzioni

a = −c − d
b = −2c − 3d.
299
Quindi i piani contenenti P e Q hanno equazioni nella forma (−c−d)x+
(−2c − 3d)y + cz + d = 0, purché non si annullino contemporaneamente
i primi tre coefficienti.
I parametri direttori l = m = −1 e n = 1 di r sono stati calcolati al
punto (e). Imponiamo il parallelismo con la condizione al+bm+cn = 0:

−(−c − d) − (−2c − 3d) + c = 0 ⇔ c = −d

da cui i piani cercati hanno equazioni

−dy − dz + d = 0 ⇔ −y − z + 1 = 0.

Esiste un unico piano soddisfacente le condizioni assegnate.


(h) La retta P Q è stata determinata nel punto (a). Esprimiamola
equivalentemente: 
x + 3y − 1 = 0
−y − z + 1 = 0.
Il piano generico per tale retta ha equazione

λ(x + 3y − 1) + µ(−y − z + 1) = 0, (λ, µ) 6= 0.

 
a b c
Per poter applicare la condizione di ortogonalità, rk =
l m n
1, conviene ordinare l’equazione precedente,

λx + (3λ − µ)y − µz − λ + µ = 0. (35.4)

Impongo la condizione di ortogonalità (i parametri direttori provengo-


no dal punto (e)):
 
λ 3λ − µ −µ
rk = 1.
−1 −1 1
300
Facendo le operazioni elementari H12 e poi H21 (λ) a tale matrice, si
ottiene la condizione equivalente su di una matrice a scala:
 
−1 −1 1
rk = 1 ⇔ 2λ − µ = λ − µ = 0 ⇔ λ = µ = 0.
0 2λ − µ λ − µ
La condizione λ = µ = 0 non è accettabile, quindi non esiste alcun
piano con le proprietà richieste.
Osservazione 35.5. Un piano contiene i punti P e Q se, e solo se,
contiene la retta P Q. Quindi le prime parti degli svolgimenti (g) e (h)
sono intercambiabili. Ad esempio dopo aver trovato il piano generico
contenente la retta P Q come in (h), imponendo il parallelismo con la
retta r di parametri direttori l = m = −1, n = 1 a partire dalla (35.4)
si ottiene λ = 0 da cui ancora una volta l’equazione −y − z + 1 = 0
soluzione di (g).
(i) Risolvendo il sistema di equazioni associato ad r, con l’opera-
zione elementare H21 (−1) si ottiene
 
x − 2y − z − 1 = 0 x = −z − 1

2y + 2z + 2 = 0 y = −z − 1.
Quindi il punto generico di r è Qz (−z − 1, −z − 1, z) e il generico
−−→
vettore congiungente P con un punto di r è P Qz (−z − 2, −z − 1, z −
1). La totalità di tali vettori forma la varietà lineare (−2, −2, −1) +
h(−1, −1, 1)i. Il vettore di modulo minimo in tale varietà lineare è la
proiezione ortogonale di (−2, −2, −1) su h(−1, −1, 1)i⊥ . La proiezione
su h(−1, −1, 1)i è
(−2, −1, −1) · (−1, −1, 1) 2
w= (−1, −1, 1) = (−1, −1, 1)
(−1, −1, 1) · (−1, −1, 1) 3
e la proiezione su h(−1, −1, 1)i⊥ è
2 1
w0 = (−2, −1, −1) − (−1, −1, 1) = (−4, −1, −5).
3 3
301
La distanza cercata vale

1 42
kw0 k = k(−4, −1, −5)k = .
3 3
Osservazione 35.6. Il procedimento per svolgere la parte (i) è corret-
to ma sconsigliato. In generale, per trovare la distanza tra due varietà
−→
lineari, imporremo che il vettore P Q congiungente il generico punto
P della prima con il generico punto Q della seconda sia ortogonale ad
entrambe le varietà lineari e il modulo del vettore cosı̀ ottenuto è la
distanza cercata. Nel caso dell’esercizio, osservando che un vettore pa-
−−→
rallelo ad r è v(−1, −1, 1), dobbiamo imporre la condizione P Qz ·v = 0,
da cui
(z + 2) + (z + 1) + (z − 1) = 0.
−−→
Ne segue z = −2/3 e risostituendo in P Qz si ottiene il vettore
1
(−4, −1, −5),
3
il cui modulo è la distanza cercata.

302
Lezione A

Soluzioni dei compiti

1.31. L’affermazione è falsa e la confuto con un controesempio. Con-


sideriamo le funzioni

α : [0, +∞] → R : x 7→ x,

β : R → [0, +∞[: x 7→ x2 .
Vale
√ √
β ◦ α : [0, +∞[→ [0, +∞[: x 7→ β(α(x)) = β( x) = ( x)2 = x =

id[0,+∞[ (x).
β ◦ α e id[0,+∞[ hanno stessi dominio, codominio e legge, quindi β ◦ α =
id[0,+∞[ . Tuttavia im α = [0, +∞[6= R, quindi α non è suriettiva, quindi
α non è biiettiva.

Osservazione A.1. α ◦ β : R → R : x 7→ α(β(x)) = α(x2 ) = x2 =
|x|, quindi α ◦ β 6= idR .

303
2.26. La matrice B è uguale a una matrice (bj1 ) definita ponendo
br1 = 1 e bj1 = 0 per j = 1, 2, . . . , r − 1, r + 1, . . . , n. Il prodotto è
una matrice m × 1, AB = (ci1 ). Per definizione di prodotto, per ogni
i = 1, 2, . . . , m
n
X
ci1 = aij bj1 .
j=1

In quella sommatoria sono zero tutti gli addendi con j 6= r, quindi


ci1 = air br1 = air . Gli elementi di AB sono ordinatamente uguali agli
elementi a1r , a2r , . . ., amr che formano la r-esima colonna di A. Quindi
il prodotto di A per B è la r-esima colonna di A: AB = Ar .

3.19. Applicando la formula (3.2), con a = d = α, b = −β, c = β, si


ottiene immediatamente
 
1 α β
A−1 = 2 .
α + β2 −β α

4.16. Poniamo α = a + ib, a, b ∈ R. Vale:

α + α = a + ib + a − ib = 2a = 2<(α); (A.1)
αα = (a + ib)(a − ib) = a2 − (ib)2 = a2 + b2 = |α|2 . (A.2)

Quindi, per ogni numero complesso α, i numeri α + α e αα apparten-


gono al campo dei numeri reali.

5.11. Il numero complesso α = −1 ha modulo ρ = 1 e argomento

304
θ = π. Sostituisco in (5.5), con n = 4, per ottenere le soluzioni:
π π π 1 1
z1 = ei 4 = cos + i sin = √ + i √ ,
4 4 2 2
3π 3π 3π 1 1
z2 = ei 4 = cos + i sin = −√ + i√ ,
4 4 2 2
5π 5π 5π 1 1
z3 = ei 4 = cos + i sin = −√ − i√ ,
4 4 2 2
7π 7π 7π 1 1
z4 = ei 4 = cos + i sin = √ − i√ .
4 4 2 2

6.11. Il sistema è 2 × 2 e lo risolvo con lo stesso metodo seguito a pag.


30. Ottengo
    
−1 1 −i −1 cos θ 1 −i cos θ + sin θ
X=A B= = .
−2i −i 1 − sin θ −2i −i cos θ − sin θ
Le soluzioni sono quindi
1 1 1
x= (−i cos θ + sin θ) = (cos θ + i sin θ) = eiθ ,
−2i 2 2
1 1 1
y= (−i cos θ − sin θ) = (cos θ − i sin θ) = e−iθ .
−2i 2 2

8.38. Una matrice A è simile ad In se, e solo se, esiste una matrice
invertibile C d’ordine n tale che C −1 In C = A, cioè In = A. Ne segue
che l’unica matrice simile ad In è In stessa. La classe d’equivalenza
individuata da In contiene solo In .
9.17. L’insieme W contiene (1, 1) e (2, 4), ma non (1, 1) + (2, 4) =
(3, 5). Quindi W non è un sottospazio di R2 .
10.10.
W + W = {w1 + w2 | w1 , w2 ∈ W }.

305
Ogni vettore di W + W è somma di due vettori di W ; siccome W è
chiuso rispetto alla somma, se ne deduce che ogni vettore di W + W
è anche un vettore di W , cioè W + W ⊆ W . D’altra parte, comunque
preso un vettore w1 ∈ W , osservando che 0 ∈ W , la somma w1 + 0 =
w1 dei due appartiene a W + W . Resta dimostrato che ogni vettore di
W appartiene a W + W , ovvero W ⊆ W + W . Mettendo insieme le
due cose dimostrate, W + W = W .

11.15. No. Se lo fossero, per l’oss. 11.14 esisterebbe uno scalare h


tale che (1, 0, 0) = h(1, 2, 3) oppure (1, 2, 3) = h(1, 0, 0). Nel primo
caso h dovrebbe essere soluzione del sistema 1 = h, 0 = 2h, 0 = 3h,
nel secondo di 1 = h, 2 = 0, 3 = 0 ed entrambi sono impossibili.

12.16. No. Osservo che il vettore (0, 0, 1) non si può ottenere come
combinazione lineare della famiglia assegnata. Quindi B non è una
famiglia di generatori di R3 .

13.8 Sı̀. Per la prop. 13.4 (i) (in uno spazio vettoriale di dimensione
n, ogni famiglia con più di n vettori è linearmente dipendente.), in R3
ogni famiglia formata da quattro vettori è linearmente dipendente.

14.12. Sı̀. Come esempio prendiamo W1 = h(1, 0, 0), (0, 1, 0)i e W2 =


h(0, 1, 0), (0, 0, 1)i. Per la prop. 14.2, unendo le due famiglie di gene-
ratori considerate si ottiene una famiglia di generatori di W1 + W2 ,
quindi
W1 + W2 = h(1, 0, 0), (0, 1, 0), (0, 0, 1)i = R3 .

Siccome poi 4 = dim W1 + dim W2 6= dim(W1 + W2 ) = 3, tale somma


non è comunque diretta (cfr. cor. 14.4), qualunque sia la soluzione che
si trovi per il compito.

306
15.18. Osservo che ad esempio (1, 1, 1) ∈ 6 im f . Infatti f (x, y) =
(1, 1, 1) equivale a (2x, y, x − y) = (1, 1, 1) e quindi al sistema lineare

 2x = 1
y = 1
x − y = 1,

privo di soluzioni. Siccome im f 6= R3 , la funzione f non è suriettiva.


16.14. La risposta è affermativa e viene dal Teorema 16.1, facendo-
vi v1 = (1, 0), v2 = (1, 1), w1 = (2, 0, 1), w2 = (2, 1, 0). Siccome
B = v1 , v2 è una base di R2 , tutte le ipotesi del teorema sono soddi-
sfatte, quindi esiste un’unica funzione lineare tale che f (v1 ) = w1 e
f (v2 ) = w2 . Per calcolarla possiamo esprimere ogni (x, y) ∈ R2 come
combinazione lineare di B:
(x, y) = (x − y)v1 + yv2 .
Usando la linearità di f ,
f (x, y) = (x − y)f (v1 ) + yf (v2 ) = (x − y)w1 + yw2 =
(x − y)(2, 0, 1) + y(2, 1, 0) = (2x, y, x − y).
Abbiamo trovato la legge di f .
17.14 No. Se per assurdo una tale f esistesse, ciò significherebbe
im f = R3 , da cui dim(im f ) = 3. Allora per il teorema delle dimen-
sioni varrebbe dim(ker f ) = dim(R2 ) − dim(im f ) = −1, ma nessun
sottospazio ha dimensione −1.
18.10. L’immagine di f è generata dalle immagini degli elementi
di una qualsiasi base del dominio. Scelgo proprio B. Allora im f =
hf (7, 8), f (9, 10)i. Per definizione, le colonne di Af B B0 contengono le
coordinate di tali immagini rispetto a B 0 . Quindi
f (7, 8) = 1(1, 0, 0) + 0(0, 1, 0) − 1(1, 1, 1),

307
f (9, 10) = 2(1, 0, 0) + 0(0, 1, 0) − 1(1, 1, 1).
Ne concludo che una famiglia di generatori di im f è
(0, −1, −1), (1, −1, −1).

19.21. L’affermazione è falsa e la confuto con un controesempio per


n = 2. Il sistema lineare

 x = 0
y = 0
x+y = 1

è evidentemente incompatibile e la sua matrice completa


 
1 0 0
C= 0 1 0
1 1 1
ha rango 3.
Osservazione A.2. In realtà è vera proprio l’affermazione contraria
di quella proposta. Infatti, se C è invertibile, allora ha rango n + 1.
La matrice incompleta A del sistema è (n + 1) × n e quindi ha rango
non superiore ad n; ciò implica che in ogni caso rk C 6= rk A e per
il teorema di Rouché-Capelli questo significa che il sistema lineare è
incompatibile.

23.27. Con il suggerimento dato, siccome aij = cbij per ogni i e j, si


ottiene
X
det A = sgn(σ)a1σ(1) a2σ(2) · . . . · anσ(n) =
σ∈Sn
X
= sgn(σ)(cb1σ(1) )(cb2σ(2) ) · . . . · (cbnσ(n) ) =
σ∈Sn
X
n
= c sgn(σ)b1σ(1) b2σ(2) · . . . · bnσ(n) = cn det B = cn d.
σ∈Sn

308
24.23. L’affermazione è vera e la dimostro. Il sistema è omogeneo,
quindi è compatibile e le sue soluzioni formano un sottospazio W di
K n avente dimensione d = n − rk A. Siccome T ∈ W e T 6= On×1 ,
tale sottospazio ha dimensione d > 0, quindi rk A < n. La proprietà
8) dei determinanti afferma che una matrice quadrata d’ordine n ha
determinante diverso da zero se, e solo se, il suo rango vale n. Allora
la matrice A ha determinante nullo.
25.22. Vale g(1, 2, 3) = 4(1, 2, 3), g(1, 0, −1) = (0, 0, 0), g(0, 1, 0) =
(0, 0, 0), quindi (1, 2, 3), (1, 0, −1), (0, 1, 0) sono autovettori con auto-
valori, rispettivamente, 4, 0 e 0.
Osservazione A.3. Siccome g(x, y, z) è un multiplo di (1, 2, 3) per
ogni x, y, z, se un autovettore v ha autovalore diverso da zero, allora
v = h(1, 2, 3) per qualche h ∈ R∗ , altrimenti v ∈ ker g, v 6= 0.

26.15. La base B deve essere composta da tre autovettori linearmente


indipendenti, associati agli autovalori 0, 4, 0, in quest’ordine. Tra le
possibili soluzioni abbiamo B = (1, 0, −1), (1, 2, 3), (0, 1, 0).
27.10.
Proposizione A.4. Comunque date due matrici simili A, B ∈ M(n ×
n, K) esse hanno lo stesso polinomio caratteristico.

Dimostrazione. Per ipotesi esiste C ∈ M(n × n, K) invertibile tale che


C −1 AC = B. Ne segue
pB (t) = det(C −1 AC − tIn ) = det(C −1 AC − tC −1 In C) =
= det(C −1 AC − C −1 tIn C) = det{C −1 (A − tIn )C}.
Per il teorema di Binet (il determinante di un prodotto di due matrici
quadrate è il prodotto dei determinanti), vale
pB (t) = det(C −1 ) det(A − tIn ) det C = det(C −1 )pA (t) det C.

309
Inoltra, ancora per il teorema di Binet, det(C −1 ) det C = det(C −1 C) =
det In = 1. Ne segue la tesi.

29.11. Se un punto P (x0 , y0 , z0 ) appartiene alla retta di equazioni


cartesiane (29.8), allora la terna delle sue coordinate è soluzione di
entrambe le equazioni che compaiono nel sistema. Ne segue che è anche
soluzione dell’equazione (29.10), indipendentemente dalla scelta di λ e
µ. D’altro canto, (29.10) è l’equazione di un piano1 . Se ne conclude
che (29.10) è l’equazione di un piano contenente la retta (29.8).
Osservazione A.5. Si può dimostrare che, viceversa, ogni piano che
contenga la retta (29.8) ha equazione nella forma (29.10). Questo è
di fondamentale importanza negli esercizi, perché allora la (29.10) è
l’equazione del piano generico per la retta data.

30.14. Applico la (30.9) con u1 = (x1 , x2 ), u2 = (y1 , y2 ):


    
1 2 y1 y1 + 2y2
(x1 , x2 ) | (y1 , y2 ) b = (x1 x2 ) = (x1 x2 ) =
2 3 y2 2y1 + 3y2
= x1 (y1 + 2y2 ) + x2 (2y2 + 3y2 ) = x1 y1 + 2x1 y2 + 2x2 y1 + 3x2 y2 .
(A.3)

31.25. Due vettori generici in W hanno la forma


u1 = (a + b, a + 2b, 3b), u2 = (x + y, x + 2y, 3y) (A.4)
e la condizione che siano non nulli equivale ad (a, b) 6= (0, 0) 6= (x, y).
Per definizione essi risultano ortogonali se e solo se u1 · u2 = uT1 u2 = 0,
da cui
(a + b)(x + y) + (a + 2b)(x + 2y) + 9by = 0.
 
1 a b c
La condizione rk 0 = 2 fa sı̀ che i coefficienti di x, y e z in (29.10) non siano tutti
a b0 c0
zero.

310
Notiamo che per qualunque scelta di a e b tale equazione ha infinite
soluzioni nelle incognite x e y e siccome è richiesta soltanto una coppia
di vettori, poniamo a = 1 e b = 0. L’equazione si trasforma in 2x+3y =
0 e una tra le infinite soluzioni è x = 3, y = −2. Sostituendo tali a, b,
x, y nella (A.4) otteniamo come soluzione (tra le infinite possibili)
u1 = (1, 1, 0), u2 = (1, −1, −6).

32.10. Applichiamo la prop. 32.9 (ii), con v1 = (−1, 1, 0, 0), v2 =


(−1, 0, 1, 0), v3 = (−1, 0, 0, 1) e v = (x, y, z, t). Le (32.5) danno

 (−1, 1, 0, 0) · (x, y, z, t) = 0
(−1, 0, 1, 0) · (x, y, z, t) = 0
(−1, 0, 0, 1) · (x, y, z, t) = 0,

da cui si deduce W ⊥ = h(1, 1, 1, 1)i.


33.15. Pongo v = (1, 2, 3) e W = h(1, 1, 1)i. La proiezione di v su W

(1, 2, 3) · (1, 1, 1) 6
w= (1, 1, 1) = (1, 1, 1) = (2, 2, 2).
(1, 1, 1) · (1, 1, 1) 3
Il vettore cercato è la proiezione di v su W ⊥ , cioè
w0 = v − w = (−1, 0, 1).

34.10. Moltiplico l’equazione a sinistra per H e a destra per H T ,


ottenendo HH T AHH T = HDH T =⇒ A = HDH T . Ne segue:
AT = (HDH T )T = (H T )T DT H T = HDT H T ,
ma D è simmetrica, quindi AT = HDH T = A.
Osservazione A.6. Deduciamo da quanto sopra che se una matrice
reale è ortogonalmente diagonalizzabile, allora è simmetrica, che è il
viceversa del Cor. 34.7.

311

Potrebbero piacerti anche