Sei sulla pagina 1di 103

Algebra Lineare e Geometria

Francesco Pavese

F. Pavese: Dipartimento di Meccanica Matematica e Management, Politecnico di Bari, Via Orabona


4, I-70125 Bari, Italy
e-mail: francesco.pavese@poliba.it

1
Indice
1 Nozioni preliminari 4
1.1 Strutture algebriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Gruppi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Campi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 Somma tra matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.2 Prodotto righe per colonne . . . . . . . . . . . . . . . . . . . . . . . 8

2 Spazi vettoriali su un campo 10


2.1 Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1.1 Sottospazi somma e intersezione . . . . . . . . . . . . . . . . . . . . 13
2.2 Lineare dipendenza e lineare indipendenza . . . . . . . . . . . . . . . . . . 13
2.3 Basi e dimensione di uno spazio vettoriale . . . . . . . . . . . . . . . . . . 17

3 Spazi vettoriali euclidei 25


3.1 Prodotti scalari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2 Basi ortonormali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

4 Matrici 34
4.1 Determinante di una matrice quadrata . . . . . . . . . . . . . . . . . . . . 34
4.2 Matrici invertibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3 Rango di una matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.3.1 Metodo di Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.3.2 Metodo degli orlati . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

5 Sistemi di equazioni lineari 49


5.1 Metodo di eliminazione di Gauss–Jordan . . . . . . . . . . . . . . . . . . . 52
5.2 Sistemi lineari omogenei e sottospazi vettoriali di Rn . . . . . . . . . . . . 55

6 Spazi affini 57
6.1 Sottospazi affini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
6.1.1 Rappresentazione parametrica di un sottospazio affine . . . . . . . . 60
6.1.2 Rappresentazione cartesiana di un sottospazio affine . . . . . . . . . 61

7 Spazi euclidei reali 64


7.1 Il piano euclideo reale E2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
7.1.1 Posizione reciproca di due rette in E2 . . . . . . . . . . . . . . . . . 67
7.2 Lo spazio euclideo reale E3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
7.2.1 Posizione reciproca di due piani di E3 . . . . . . . . . . . . . . . . . 72
7.2.2 Posizione reciproca di un piano ed una retta in E3 . . . . . . . . . . 73
7.2.3 Posizione reciproca di due rette in E3 . . . . . . . . . . . . . . . . . 74

2
7.2.4 Angoli e distanze . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.3 Prodotto vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
7.4 Prodotto misto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

8 Applicazioni lineari 83
8.1 Nucleo e Immagine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
8.2 Matrice associata ad un’applicazione lineare rispetto ad una coppia di basi 87
8.3 Applicazioni lineari e matrici . . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.4 Cambiamento di base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
8.5 Matrici associate ad un endomorfismo . . . . . . . . . . . . . . . . . . . . . 92

9 Diagonalizzabilità di un endomorfismo e di una matrice quadrata 95


9.1 Polinomio caratteristico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
9.2 Molteplicità algebrica e geometrica . . . . . . . . . . . . . . . . . . . . . . 98

3
1 Nozioni preliminari
Siano X, Y due insiemi non vuoti. L’insieme
X × Y = {(x, y) | x ∈ X, y ∈ Y }
si definisce prodotto cartesiano di X e Y . Più in generale, se X1 , X2 , . . . , Xn sono n insiemi
non vuoti, allora l’insieme
X1 × X2 × . . . × Xn = {(x1 , x2 , . . . , xn ) | xi ∈ Xi , 1 ≤ i ≤ n}
si definisce prodotto cartesiano di X1 , X2 , . . . , Xn . Il simbolo X n indica il prodotto carte-
siano X × X × . . . × X.

Un’applicazione o funzione o mappa da X a Y è una corrispondenza f : X −→ Y


tale che ∀x ∈ X, ∃! y ∈ Y tale che f (x) = y. Gli insiemi X e Y si definiscono dominio e
codominio di f , rispettivamente.
i) f si definisce iniettiva se ∀x1 , x2 ∈ X tali che f (x1 ) = f (x2 ), allora x1 = x2 .

ii) f si definisce suriettiva se ∀y ∈ Y , ∃ x ∈ X tale che f (x) = y.

iii) f si definisce biettiva se è sia iniettiva che suriettiva.


Si definisce immagine di f l’insieme
Im(f ) = {f (x) | x ∈ X} = {y ∈ Y | ∃ x ∈ X, f (x) = y}.
Se y ∈ Y , si definisce controimmagine di y l’insieme
f −1 (y) = {x ∈ X | f (x) = y}.
Si ottiene facilmente il seguente risultato.
Proposizione 1.1. f è iniettiva se e solo se ∀y ∈ Y , |f −1 (y)| ≤ 1.

f è suriettiva se e solo se Im(f ) = Y .


Si definisce funzione identità o applicazione identica di X la mappa
idX : x ∈ X 7−→ x ∈ X.
Si noti che la funzione identità è biettiva. Siano X, Y, Z insiemi non vuoti e siano f :
X −→ Y e g : Y −→ Z due funzioni. Allora si definisce funzione composta e si denota
con g ◦ f la funzione
g ◦ f : x ∈ X 7−→ g(f (x)) ∈ Z.
Una funzione f : X −→ Y si dice invertibile se esiste una funzione g : Y −→ X tale che
f ◦ g = g ◦ f = idX .
Proposizione 1.2. Una funzione f è invertibile se e solo se f è biettiva.
Sia X un insieme non vuoto. Un’operazione interna su X è un’applicazione :
G × G −→ G, che associa ad ogni coppia (a, b) ∈ G × G l’elemento a b ∈ G.

4
1.1 Strutture algebriche
1.1.1 Gruppi
Sia G un insieme non vuoto dotato di un’operazione interna

: G × G −→ G,

che associa ad ogni coppia (a, b) ∈ G × G un elemento a b ∈ G.


La coppia (G, ) si dice gruppo se valgono le seguenti proprietà:

1) ∀a, b, c ∈ G, a (b c) = (a b) c (associativa);

2) ∃ un elemento u ∈ G tale che ∀a ∈ G, a u = u a = a (esistenza dell’elemento


neutro);

3) ∀a ∈ G, ∃ a0 ∈ K tale che a a0 = u (esistenza dell’opposto o dell’inverso).

Quando l’operazione è determinata, il gruppo (G, ) si denoterà semplicemente con G.


Se inoltre soddisfa la seguente proprietà:

∀a, b ∈ G, a b = b a (commutativa)

il gruppo G si dice commutativo o abeliano.

Esempi 1.3. Si considerino l’insieme dei numeri naturali N, dei numeri interi Z, dei
numeri razionali Q, dei numeri reali R e dei numeri complessi C dotati delle usuali ope-
razioni di somma “+” e prodotto “·”. Allora (Z, +), (Q, +), (R, +), (C, +), (Q \ {0}, ·),
(R\{0}, ·), (C\{0}, ·) forniscono esempi di gruppi abeliani. Mentre le coppie (N, +), (N, ·)
e (Z \ {0}, ·) non sono gruppi.

1.1.2 Campi
Sia K un insieme non vuoto dotato di due operazioni interne

+ : K × K −→ K, · : K × K −→ K

dette somma e prodotto, rispettivamente, che associano ad ogni coppia (a, b) ∈ K × K un


elemento a + b ∈ K, detto somma di a più b ed un elemento a · b ∈ K, detto prodotto di a
per b, rispettivamente. La terna (K, +, ·) si dice campo se valgono le seguenti proprietà:

1) (K, +) è un gruppo abeliano con elemento neutro 0;

2) (K \ {0}, ·) è un gruppo abeliano con elemento neutro 1;

3) ∀a, b, c ∈ K, a · (b + c) = a · b + a · c (distributiva della somma rispetto al prodotto).

5
Anche in questo caso, quando non vi sia possibilità di equivoco sulle operazioni che sono
definite, il campo (K, +, ·) si denoterà semplicemente con la lettera K. Gli elementi di un
campo K si dicono scalari.

Esempi 1.4. Con le usuali operazioni l’insieme dei numeri razionali Q, dei numeri reali R
e dei numeri complessi C forniscono esempi di campi. D’altro canto l’insieme dei numeri
naturali N e l’insieme dei numeri interi Z non sono campi.

Proposizione 1.5. Sia K un campo, allora ∀λ, µ ∈ K, λ · µ = 0 se e solo se λ = 0 oppure


µ = 0.

Dimostrazione. Siano λ, µ ∈ K. Se µ = 0, λ · 0 = λ · (0 + 0) = λ · 0 + λ · 0. Pertanto


0 = λ · 0 − λ · 0 = (λ · 0 + λ · 0) − λ · 0 = λ · 0. Similmente se λ = 0.
Viceversa, se λ·µ = 0, con µ 6= 0, allora λ = λ·(µ·µ−1 ) = (λ·µ)·µ−1 = 0·µ−1 = 0.

1.2 Matrici
Sia K un campo e siano n, m interi positivi. Una matrice m × n ad elementi in K è una
tabella rettangolare  
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A =  ..
 
.. . . .. 
 . . . . 
am1 am2 . . . amn
di mn elementi di K. Scriveremo anche A = (aij ). La i–esima riga di A è la matrice 1 × n

A(i) = (ai1 . . . ain ), 1 ≤ i ≤ m,

La j–esima colonna di A è la matrice m × 1


 
a1j
 a2j 
A(j) =  ..  , 1 ≤ j ≤ n.
 
 . 
amj

Ogni elemento di una matrice è contrassegnato da due indici: il primo è l’indice riga, il
secondo è l’indice colonna. L’elemento aij è anche detto elemento di A di posto i, j. Se
m = n, la matrice A si dice quadrata di ordine n. L’insieme di tutte le matrici m × n ad
elementi in K si denota con Mm,n (K), mentre l’insieme delle matrici quadrate di ordine
n si denota con Mn (K).
Sia λ ∈ K, il prodotto dello scalare λ per la matrice A è la matrice λA = (λaij ) ∈
Mm,n (K).

Proposizione 1.6. i) ∀λ, µ ∈ K, ∀A ∈ Mm,n (K), (λ + µ)A = λA + µA;

ii) ∀λ, µ ∈ K, ∀A ∈ Mm,n (K), λ(µA) = (λµ)A;

6
iii) ∀A ∈ Mm,n (K), 1A = A.
Se A = (aij ) ∈ Mn (K) è una matrice quadrata, gli elementi a11 , a22 , . . . , ann costi-
tuiscono la diagonale principale di A. Si definisce traccia della matrice A e si denota
con T r(A) la somma degli elementi della diagonale principale della matrice A. Pertanto
T r(A) = ni=1 aii . A si dice triangolare superiore se aij = 0 per ogni i > j, mentre si dice
P

triangolare inferiore se aij = 0 per ogni i < j. Una matrice A = (aij ) ∈ Mn (K) si dice
diagonale se aij = 0 se i 6= j. Una particolare matrice diagonale è la matrice identità In
 
1 0 ... 0
 0 1 ... 0 
In =  .. .. . . .. 
 
 . . . . 
0 0 ... 1
La trasposta di A è la matrice n × m ottenuta scambiando tra loro le righe e le colonne
di A:  
a11 a21 . . . am1
 a12 a22 . . . am2 
At = (aji ) =  ..
 
.. .. .. 
 . . . . 
a1n a2n . . . amn
A si dice simmetrica se At = A, mentre si dice antisimmetrica se At = −A. Denoteremo
con Symn (K) l’insieme delle matrici simmetriche di Mn (K), mentre denoteremo con
ASymn (K) l’insieme delle matrici antisimmetriche di Mn (K).
Proposizione 1.7. i) ∀A ∈ Mm,n (K), (At )t = A;

ii) ∀λ ∈ K, ∀A ∈ Mm,n (K), (λA)t = λAt ;

1.2.1 Somma tra matrici


La somma tra matrici è l’operazione interna su Mm,n (K) che associa a due matrici A =
(aij ), B = (bij ) ∈ Mm,n (K) la matrice A + B = C = (cij ) ∈ Mm,n (K), dove cij = aij + bij .
Proposizione 1.8. (Mm,n (K), +) è un gruppo abeliano. Infatti:
i) ∀A, B ∈ Mm,n (K), A + B = B + A;

ii) ∀A, B, C ∈ Mm,n (K), A + (B + C) = (A + B) + C;

iii) ∀A ∈ Mm,n , A + 0 = 0 + A = A;

iv) ∀A ∈ Mm,n (K), A − A = −A + A = 0;


Proposizione 1.9. ∀A, B ∈ Mm,n (K), At + B t = (A + B)t .
Dimostrazione. Se A = (aij ) ∈ Mm,n (K) e B = (bij ) ∈ Mm,n (K), allora l’elemento di
posto p, s della matrice (A + B)t coincide con l’elemento di posto s, p della matrice A + B
che pertanto risulta essere asp + bsp . D’altro canto l’elemento di posto p, s della matrice
At + B t è asp + bsp e pertanto (A + B)t = At + B t .

7
1.2.2 Prodotto righe per colonne
Dato un vettore riga A = (a1i ) ∈ M1,n (K) ed un vettore colonna B = (bj1 ) ∈ Mn,1 , il
loro prodotto è l’elemento di K definito come segue
 
b11
 b21  Xn
(a11 a12 . . . a1n )  ..  = a1k bk1 = a11 b11 + a12 b21 + . . . + a1n bn1
 
 .  k=1
bn1
Più in generale, se A = (ail ) ∈ Mm,n (K) e B = (bkj ) ∈ Mn,p , il loro prodotto righe per
colonne è una matrice AB = (cij ) ∈ Mm,p (K), dove cij è il prodotto dell’i–esima riga di
A per la j–esima colonna di B.
n
X
AB = (A(i) B(j) ) = (cij ), dove cij = aik bkj = ai1 b1j + ai2 b2j + . . . + ain bnj
k=1

Osservazione 1.10. Date due matrici A e B, è possibile definire la matrice prodotto AB


se il numero delle colonne di A coincide con il numero delle righe di B.
Osservazione 1.11. In generale AB 6= BA. Infatti, se
   
1 1 1 0
A= ,B = ∈ M2 (R),
0 1 1 0
allora    
2 0 1 1
AB = 6= = BA
1 0 1 1
Proposizione 1.12. Se A, B ∈ Mm,n (K), C, D ∈ Mn,p (K), E ∈ Mp,s (K), k ∈ K, allora
1) (A + B)C = AC + BC,

2) A(C + D) = AC + AD,

3) A(kC) = k(AC) = (kA)C,

4) A(CE) = (AC)E,

5) AIn = A, In C = C.
Dimostrazione. 1) Sia A = (aij ), B = (bij ), C = (cij ). L’elemento di posto i, k della
matrice (A + B)C si ottiene moltiplicando la i–esima riga della matrice A + B per la
k–esima colonna della matrice C. Pertanto
n
X
(i) t
(A + B) C(k) = (ai1 + bi1 . . . ain + bin )(c1k . . . cnk ) = (aij + bij )cjk =
j=1
n
X n
X
= aij cjk + bij cjk = (ai1 + . . . ain )(c1k . . . cnk )t + (bi1 . . . bin )(c1k . . . cnk )t =
j=1 j=1

= A(i) C(k) + B (i) C(k) .

8
Si ha, dunque, che l’elemento di posto i, k della matrice (A + B)C coincide con la somma
dell’elemento di posto i, k della matrice AC con l’elemento di posto i, k della matrice BC,
come volevasi.
Le proprietà 2) e 3) si dimostrano in maniera analoga alla 1).
4) Si noti che la i–esima riga di AC risulta

(AC)(i) = A(i) C(1) A(i) C(2) . . . A(i) C(p) ,




mentre, se E = (eij ), la h–esima colonna di CE è


t
(CE)(h) = C (1) E(h) C (2) E(h) . . . C (n) E(h) .

Pertanto, l’elemento di posto i, h della matrice (AC)E è

(AC)(i) E(h) = A(i) C(1) A(i) C(2) . . . A(i) C(p) (e1h e2h . . . eph )t =


= A(i) C(1) e1h + A(i) C(2) e2h + . . . + A(i) C(p) eph =


= (ai1 c11 + · · · + ain cn1 )e1h + (ai1 c12 + . . . + ain cn2 )e2h + . . . + (ai1 c1p + . . . + ain cnp )eph =
= ai1 (c11 e1h + . . . + c1p eph ) + ai2 (c21 e1h + . . . + c2p eph ) + . . . + ain (cn1 e1h + . . . + cnp eph ) =
= ai1 C (1) E(h) + ai2 C (2) E(h) + . . . + ain C (n) E(h) =
t
= (ai1 ai2 . . . ain ) C (1) E(h) C (2) E(h) . . . C (n) E(h) = A(i) (CE)(h)

e quindi coincide con l’elemento di posto i, h della matrice A(CE). Se ne deduce che
A(CE) = (AC)E come volevasi.
5) L’elemento di posto i, j della matrice AIn è

A(i) In(j) = (ai1 ai2 . . . ain )(0 0 . . . 0 1 0 . . . 0)t = aij

e pertanto coincide con l’elemento di posto i, j della matrice A. Segue che AIn = A.
Analogamente si dimostra che In C = C.

Proposizione 1.13. Se A e B possono essere moltiplicate, allora At e B t possono essere


moltiplicate e (AB)t = B t At .

Dimostrazione. Se A ∈ Mm,n (K) e B ∈ Mn,p (K), allora A ∈ Mn,m (K) e B ∈ Mp,n (K).
Pertanto è possibile definire la matrice B t At . Inoltre l’elemento di posto i, j della matrice
B t At è
(i)
B t At(j) = A(j) B(i)
e dunque coincide con l’elemento di posto j, i della matrice AB. D’altro canto, si noti che
l’elemento di posto j, i della matrice AB coincide con l’elemento di posto i, j della matrice
(AB)t . Ne segue che (AB)t = B t At .

9
2 Spazi vettoriali su un campo
Sia K un campo. Uno spazio vettoriale su K (o K–spazio vettoriale) è un insieme non
vuoto V dotato di due operazioni interne

(v, w) ∈ V × V 7−→ v + w ∈ V, (λ, v) ∈ K × V 7−→ λv ∈ V

dette somma e prodotto per uno scalare, rispettivamente, in modo che le seguenti proprietà
siano soddisfatte:

1) (V, +) è un gruppo abeliano.

2) ∀v ∈ V , ∀λ, µ ∈ K, (λ + µ)v = λv + µv (distributività rispetto alla somma di


scalari)

3) ∀v, w ∈ V , ∀λ ∈ K, λ(v + w) = λv + λw (distributività rispetto alla somma di


vettori)

4) ∀v ∈ V , ∀λ, µ ∈ K, λ(µv) = (λµ)v

5) ∀v ∈ V , 1v = v.

Gli elementi di V si dicono vettori. Se k ∈ K, i vettori v e kv si dicono proporzionali


o multipli.

Esempi 2.1. 1. Sia K un campo e sia n ≥ 1 un intero. Sia V = Kn = K × . . . × K =


{(x1 , x2 , . . . , xn ) ∈ Kn | xi ∈ K, 1 ≤ i ≤ n}. Se definiamo la somma di due elementi
(x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn ) ∈ Kn come

(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn )

e il prodotto per uno scalare k ∈ K come

k(x1 , x2 , . . . , xn ) = (kx1 , kx2 , . . . , kxn ),

allora è immediato verificare che, con queste operazioni, Kn è un K–spazio vettoriale


(detto anche n–spazio numerico su K).

2. Sia K un campo e sia D un insieme non vuoto. Sia V = {f : D −→ K | f applicazione}.


Se definiamo la somma di due funzioni f, g ∈ V e il prodotto per uno scalare λ ∈ K
come segue:

f + g : x ∈ D 7−→ f (x) + g(x) ∈ K, λf : x ∈ D 7−→ λf (x) ∈ K,

allora è immediato verificare che, con queste operazioni, V è un K–spazio vettoriale.

10
3. L’insieme R[X] dei polinomi a coefficienti reali nell’indeterminata X è un R–spazio
vettoriale rispetto alle usuali operazioni di somma tra polinomi e prodotto di un
polinomio per uno scalare.

4. Sia n ≥ 1 un intero. L’insieme dei polinomi di grado minore o uguale a n a coefficienti


in K:
Kn [X] = {a0 + a1 X + a2 X 2 + . . . + an X n | a0 , a1 , . . . , an ∈ K}
è un K–spazio vettoriale rispetto alle usuali operazioni di somma tra polinomi e
prodotto di un polinomio per uno scalare.

5. L’insieme Mm,n (K) delle matrici m × n ad elementi in K, dotato delle operazioni


di somma e moltiplicazione per uno scalare, è uno spazio vettoriale sul campo K. Il
vettore nullo di Mm,n (K) è la matrice nulla (che denoteremo con 0), ossia la matrice
m × n i cui elementi sono tutti uguali a zero.

Esercizi 2.2. 1. Siano a, b ∈ R due numeri fissati e poniamo S = {(x, y) ∈ R2 | ax +


by = 0} l’insieme delle soluzioni (x, y) ∈ R2 dell’equazione lineare omogenea ax +
by = 0. Dimostrare che S è un R–spazio vettoriale.

2. Siano a, b, c ∈ R numeri fissati, dove c 6= 0. Dimostrare che S = {(x, y) ∈ R2 | ax +


by + c = 0} non è uno spazio vettoriale.

Proposizione 2.3. Sia V un K–spazio vettoriale.

a) In V esiste un unico vettore nullo.

b) ∀v ∈ V , esiste un unico opposto.

c) ∀λ ∈ K, ∀v ∈ V , λv = 0 se e solo se λ = 0 oppure v = 0.

Dimostrazione. a) Siano 01 , 02 ∈ V due vettori nulli. Allora ∀v ∈ V , 01 + v = 02 + v = v.


Pertanto 01 + 02 = 01 e 02 + 01 = 02 . Quindi 01 = 01 + 02 = 02 .
b) Sia v1 ∈ V tale che v + v1 = 0. Allora v1 = v1 + 0 = v1 + (v − v) = (v1 + v) − v =
0 − v = −v.
c) Se λ = 0, poichè 0v = (0 + 0)v = 0v + 0v, si ha λv = 0v = 0v − 0v = 0.
Analogamente, se v = 0, poichè λ0 = λ(0 + 0) = λ0 + λ0, si ha λv = λ0 = λ0 − λ0 = 0.
Viceversa, sia λv = 0, con v 6= 0. Se λ 6= 0, allora v = 0/λ = 0, contraddizione. Quindi
λ = 0. Similimente, se λv = 0 e λ 6= 0, allora v = (λ−1 λ)v = λ−1 (λv) = λ−1 0 = 0.

2.1 Sottospazi vettoriali


Sia V un K–spazio vettoriale. Un sottoinsieme non vuoto W di V si dice sottospazio
vettoriale di V se

1) ∀w1 , w2 ∈ W , w1 + w2 ∈ W ,

11
2) ∀w ∈ W , ∀k ∈ K, kw ∈ W .

Le due condizioni precedenti sono equivalenti alla seguente:

3) ∀w, w0 ∈ W , ∀k, k 0 ∈ K, kw + k 0 w0 ∈ W .

Infatti se vale la 3) allora, posto k = k 0 = 1 vale la 1), mentre per k 0 = 0 vale la 2).
Viceversa se valgono 1) e 2), allora kw, k 0 w0 ∈ W e kw + k 0 w0 ∈ W e quindi vale la 3).
Dalla proprietà 2), considerati gli scalari 0 e −1, rispettivamente, si ha che ∀w ∈ W ,
0 = 0w ∈ W e −w ∈ W . In particolare è possibile verificare che W soddisfa tutti gli
assiomi che definiscono uno spazio vettoriale e che quindi W è esso stesso uno spazio
vettoriale.

Osservazione 2.4. Si noti che se W è un sottospazio vettoriale di V e U è un sottospazio


vettoriale di W , allora U è sottospazio vettoriale di V , mentre se U e W sono sottospazi
vettoriali di V e U ⊂ W , allora U è sottospazio vettoriale di W .

Esempi 2.5. 1. V e {0} sono sottospazi vettoriali, detti banali.

2. Sia v ∈ V , l’insieme hvi = {kv | k ∈ K} costituito dai multipli di v è un sottospazio


vettoriale di V , detto sottospazio generato da v.

3. Siano a1 , . . . , an ∈ K. L’insieme H = {(x1 , . . . , xn ) ∈ Kn | a1 x1 + . . . an xn = 0} è un


sottospazio vettoriale di Kn . Infatti, ∀(x1 , . . . , xn ), (y1 , . . . , yn ) ∈ H, ∀k ∈ K, si ha

a1 (x1 + y1 ) + . . . + an (xn + yn ) = (a1 x1 + . . . + an xn ) + (a1 y1 + . . . + an yn ) = 0 + 0 = 0,

a1 (kx1 ) + . . . + an (kxn ) = k(a1 x1 + . . . + an xn ) = k0 = 0.


Pertanto (x1 , . . . , xn ) + (y1 , . . . , yn ) ∈ H e k(x1 , . . . , xn ) ∈ H, come volevasi.

Esercizi 2.6. 1. Stabilire se l’insieme S = {(x, y, z) ∈ R3 | x+z ≥ 0} è un sottospazio


di R3 .

2. Dimostrare che ciascuno dei seguenti insiemi è un sottospazio di R3 :

U = {(x, y, 0) | x, y ∈ R}, W = {(x, 0, z) | x, z ∈ R}, W 0 = {(x, x, x) | x ∈ R};

si determini, inoltre, U ∩ W e U ∩ W 0 .

3. Verificare che ciascuno dei seguenti insiemi è un sottospazio vettoriale di Mn (K):

• l’insieme delle matrici diagonali di Mn (K);


• l’insieme delle matrici di Mn (K) aventi traccia nulla;
• Symn (K);
• ASymn (K).

12
2.1.1 Sottospazi somma e intersezione
Siano U e W sottospazi dello spazio vettoriale V . Si consideri l’intersezione

U ∩ W = {v ∈ V | v ∈ U e v ∈ W }.

Si verifica facilmente che U ∩ W è ancora un sottospazio di V .


D’altro canto l’unione di due sottospazi U e W

U ∪ W = {v ∈ V | v ∈ U oppure v ∈ W }

non definisce un sottospazio di V . Infatti se V = R2 , U = {(x, 0) ∈ V | x ∈ R} e


W = {(0, y) ∈ V | y ∈ R}, allora il vettore (1, 0) ∈ U e il vettore (0, 1) ∈ W . Quindi
(1, 0), (0, 1) ∈ U ∪ W , ma (1, 0) + (0, 1) = (1, 1) ∈
/ U ∪ W.
Consideriamo il seguente sottoinsieme di V :

U + W = {u + w ∈ V | u ∈ U, w ∈ W }.

U + W è un sottospazio vettoriale di V . Infatti ∀u1 , u2 ∈ U , ∀w1 , w2 ∈ W , ∀k ∈ K, se


(u1 +w1 ), (u2 +w2 ) ∈ U +W , allora (u1 +w1 )+(u2 +w2 ) = (u1 +u2 )+(w1 +w2 ) ∈ U +W
e k(u1 + w1 ) = ku1 + kw1 ∈ U + W . U + W è detto sottospazio somma di U e W . Se
U ∩ W = {0}, allora U + W è detto somma diretta e si denota con U ⊕ W .

Osservazione 2.7. Si noti che U ∩ W ⊂ U ∪ W ⊂ U + W . Infatti ∀u ∈ U , ∀w ∈ W ,


u = u + 0 ∈ U + W e w = 0 + w ∈ U + W , pertanto U ⊂ U + W e W ⊂ U + W .

Proposizione 2.8. Ogni vettore di U ⊕ W si esprime in modo unico come somma di un


vettore di U e di un vettore di W .

Dimostrazione. Siano u, u0 ∈ U , w, w0 ∈ W tali che u + w = u0 + w0 . Allora u − u0 =


w0 − w ∈ U ∩ W = {0}, pertanto u − u0 = w0 − w = 0 e u = u0 , w = w0 .

2.2 Lineare dipendenza e lineare indipendenza


Siano v1 , . . . , vn ∈ V , a1 , . . . , an ∈ K. Il vettore a1 v1 + . . . + an vn si dice combinazione
lineare dei vettori v1 , . . . , vn . Gli scalari a1 , . . . , an si dicono coefficienti della combinazione
lineare.
Se ai = 0, per ogni 1 ≤ i ≤ n, allora la combinazione lineare a1 v1 + . . . + an vn = 0 si
dice combinazione lineare banale di v1 , . . . , vn . Altrimenti si dice non banale.

Osservazione 2.9. Se a ∈ K, a 6= 0, la combinazione lineare 0v + a0 = 0 è non banale.

Le combinazioni lineari di un vettore v ∈ V sono i suoi multipli. Inoltre, dalla defi-


nizione di sottospazio, se W è sottospazio vettoriale di V e v1 , . . . , vn ∈ W , allora ogni
combinazione lineare di v1 , . . . , vn è un vettore appartenente a W .

13
Siano v1 , . . . , vn ∈ V . Consideriamo il sottoinsieme di V costituito dalle combinazioni
lineari di v1 , . . . , vn :

hv1 , . . . , vn i = {a1 v1 + . . . + an vn ∈ V | ai ∈ K, 1 ≤ i ≤ n}.

hv1 , . . . , vn i è un sottospazio vettoriale di V . Infatti ∀a1 v1 + . . . + an vn , b1 v1 + . . . + bn vn ∈


hv1 , . . . , vn i, ∀k ∈ K, allora

(a1 v1 + . . . + an vn ) + (b1 v1 + . . . + bn vn ) = (a1 + b1 )v1 + . . . + (an + bn )vn ∈ hv1 , . . . , vn i

e
k(a1 v1 + . . . + an vn ) = ka1 v1 + . . . + kan vn ∈ hv1 , . . . , vn i.
hv1 , . . . , vn i è detto sottospazio generato da v1 , . . . , vn . Il prossimo risultato mostra che
hv1 , . . . , vn i è il più piccolo sottospazio di V contenente i vettori v1 , . . . , vn .

Proposizione 2.10. hv1 , . . . , vn i è uguale all’intersezione di tutti i sottospazi di V che


contengono v1 , . . . , vn .

Dimostrazione. Denotiamo con W l’intersezione di tutti i sottospazi di V che conten-


gono {v1 , . . . , vn }. Poichè hv1 , . . . , vn i è un sottospazio di V contenente {v1 , . . . , vn },
si ha W ⊆ hv1 , . . . , vn i. D’altro canto W , essendo un sottospazio, contiene tutte le
combinazioni lineari dei suoi vettori. In particolare, poichè v1 , . . . , vn ∈ W , W con-
tiene tutte le combinazioni lineari di v1 , . . . , vn . Pertanto hv1 , . . . , vn i ⊆ W . Quindi
hv1 , . . . , vn i = W .

Se V = hv1 , . . . , vn i, allora si dirà che i vettori v1 , . . . , vn generano V oppure che


l’insieme {v1 , . . . , vn } è un sistema di generatori di V .

Osservazione 2.11. i) I vettori v1 , . . . , vn generano V se e solo se ∀v ∈ V , ∃ a1 , . . . , an ∈


K tale che v = a1 v1 + . . . + an vn .

ii) Se 1 ≤ m ≤ n, allora hv1 , . . . , vm i è sottospazio di hv1 , . . . , vn i.

Esercizi 2.12. 1. Stabilire se il vettore v = (2, 3, 1) di R3 appartiene allo spazio


vettoriale generato dai vettori w1 = (1, 1, 2) e w2 = (5, 7, 4).

2. Siano U, W sottospazi di R3 . Stabilire se la somma di U e W è diretta e determinare


un sistema di generatori per il sottospazio somma U + W .

• U = {(x, y, 0) | x, y ∈ R}, W = {(z, z, z) | z ∈ R},


• U = {(x + y, y, 0) | x, y ∈ R}, W = {(x + y, 0, y) | x, y ∈ R}.

I vettori v1 , . . . , vn ∈ V si definiscono linearmente dipendenti se ∃ a1 , . . . , an ∈ K non


tutti nulli tali che
a1 v1 + . . . + an vn = 0.

14
Altrimenti, i vettori v1 , . . . , vn si dicono linearmente indipendenti. Equivalentemente i
vettori v1 , . . . , vn sono linearmente indipendenti se vale la seguente proprietà:

se ∀a1 , . . . , an ∈ K, tali che a1 v1 + . . . + an vn = 0, allora a1 = . . . = an = 0.

In altri termini, i vettori v1 , . . . vn sono linearmente indipendenti se la loro unica combi-


nazione lineare che è uguale al vettore nullo è la combinazione lineare banale.
Esempi 2.13. 1. I vettori di R3 : v = (1, 2, 1), w = (2, 0, −1) e u = (3, 2, 0) sono
linearmente dipendenti, infatti si ha v + w − u = 0.

2. I vettori di R3 : e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1) sono linearmente


indipendenti.
Esercizi 2.14. 1. Siano v1 = (1, 0, 1, 1), v2 = (3, 2, 5, 1), v3 = (0, 4, 4, −4) vettori di
4
R . Dimostrare che v1 , v2 , v3 sono linearmente dipendenti.
Siano λ1 , λ2 , λ3 ∈ R tali che

λ1 v1 + λ2 v2 + λ3 v3 = (λ1 + 3λ2 , 2λ2 + 4λ3 , λ1 + λ2 − 4λ3 ) = (0, 0, 0).

Allora 
 λ1 + 3λ2 = 0
2λ2 + 4λ3 = 0 ,
λ1 + λ2 − 4λ3 = 0

da cui si ottiene che λ1 = −3λ2 , λ3 = −λ2 /2. Pertanto esiste una combinazione non
banale di v1 , v2 , v3 che è uguale al vettore nullo, ad esempio:

−6v1 + 2v2 − v3 = 0.

Quindi i vettori v1 , v2 , v3 sono linearmente dipendenti.

2. Siano v1 = (1, 0, 1), v2 = (2, 0, 1), w1 = (3, 0, 2), w2 = (1, 0, 0) vettori di R3 . Si


considerino i seguenti sottospazi vettoriali di R3 :

V = hv1 , v2 i, W = hw1 , w2 i.

Dimostrare che V = W .
Si osservi che v1 , v2 ∈ W e che w1 , w2 ∈ V . Infatti
1 1 1 1
v1 = w1 − w2 , v2 = w1 + w2 ,
2 2 2 2
w 1 = v1 + v 2 , w 2 = v 2 − v1 .

Si noti ora che ∀ v ∈ V , ∃ λ1 , λ2 ∈ R tali che v = λ1 v1 + λ2 v2 . Ma allora v ∈ W ,


poichè v1 , v2 ∈ W e quindi V ⊆ W . Analogamente ∀ w ∈ W , ∃ µ1 , µ2 ∈ R tali che
w = µ1 w1 + µ2 w2 . Ma allora w ∈ V , poichè w1 , w2 ∈ V e quindi W ⊆ V . Pertanto
V = W.

15
3. Si considerino i seguenti sottospazi vettoriali di R3 :

U = h(1, 0, −1), (−1, 2, 1)i, W = {(x, y, z) ∈ R3 | x + z = y + 2z = 0}.

Determinare U ∩ W .
∀ u ∈ U, ∃ α, β ∈ R tali che u = α(1, 0, −1) + β(−1, 2, 1) = (α − β, 2β, −α + β). Il
vettore u appartiene a W se e solo se

α−β−α+β =0
2β − 2(α − β) = 0

Pertanto α = 2β e U ∩ W = {(β, 2β, −β) | β ∈ R} = h(1, 2, −1)i.

4. Determinare due sottospazi vettoriali U, W di R4 tali che R4 = U + W senza che la


somma sia diretta.
È possibile scegliere U = h(1, 0, 0, 0), (0, 1, 0, 0)i, W = h(0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)i.
In tal caso U + W = R4 , ma la somma non è diretta, poichè U ∩ W = h(0, 1, 0, 0)i.

Esercizi 2.15. 1. Determinare se i seguenti vettori sono linearmente dipendenti o


indipendenti.

• v1 = (1, 1, 1), v2 = (1, −1, 1), v3 = (2, 0, 2),


• v1 = (−1, 2, 3), v2 = (0, −1, 0), v3 = (1, 0, 1),
• v1 = (1, 2, 1, 0), v2 = (1, −1, 0, 1), v3 = (−1, 2, −1, 0), v4 = (−1, 1, 0, −1), v5 =
(1, 1, 0, 1).

2. Determinare per quali valori di a ∈ R i vettori v1 = (1, 2, 0), v2 = (0, 1, a), v3 =


(1, a, −1) di R3 sono linearmente indipendenti.

Osservazione 2.16. Sia V un K–spazio vettoriale e sia 0 6= v ∈ V . Allora v è linearmente


indipendente. Infatti, se αv = 0, per qualche α ∈ K, allora, dalla Proposizione 2.3, c),
necessariamente α = 0.

Proposizione 2.17. I vettori v1 , . . . , vn ∈ V , n ≥ 2, sono linearmente dipendenti se e


solo se almeno uno di essi si può esprimere come combinazione lineare dei rimanenti.

Dimostrazione. Se v1 , . . . , vn sono linearmente dipendenti, allora ∃ a1 , . . . , an ∈ K, non


tutti nulli, tali che a1 v1 + . . . + an vn = 0. Sia j, con 1 ≤ j ≤ n tale che aj 6= 0, allora
aj vj = −(a1 v1 + . . . + aj−1 vj−1 + aj+1 vj+1 + . . . + an vn ). Pertanto vj è combinazione
lineare dei rimanenti:

vj = −a−1
j (a1 v1 + . . . + aj−1 vj−1 + aj+1 vj+1 + . . . + an vn ) =
= −a−1 −1 −1 −1
j a1 v1 − . . . − aj aj−1 vj−1 − aj aj+1 vj+1 − . . . − aj an vn .

16
Viceversa, se per qualche i, 1 ≤ i ≤ n, vi è combinazione lineare dei rimanenti, allora
vi = b1 v1 + . . . + bi−1 vi−1 + bi+1 vi+1 + . . . + bn vn . Pertanto

0 = b1 v1 + . . . + bi−1 vi−1 − vi + bi+1 vi+1 + . . . + bn vn

è una combinazione lineare non banale di v1 , . . . , vn . Ne segue che v1 , . . . , vn sono linear-


mente dipendenti.
Osservazione 2.18. i) Se un insieme di vettori contiene il vettore nullo, allora esso è
un insieme di vettori linearmente dipendenti.

ii) Aggiungendo un vettore qualsiasi ad un insieme di vettori linearmente dipendenti,


si ottiene ancora un insieme di vettori linearmente dipendenti.

iii) Aggiungendo un vettore qualsiasi ad un sistema di generatori, si ottiene ancora un


sistema di generatori.
Osservazione 2.19. Sia V un K–spazio vettoriale e siano v1 , . . . , vk ∈ V . Allora
1. hv1 , v2 , . . . , vk i = hv2 , v1 , . . . , vk i.
Infatti ∀ v ∈ hv1 , v2 , . . . , vk i, v = a1 v1 +a2 v2 +. . .+ak vk = a2 v2 +a1 v1 +. . .+ak vk ∈
hv2 , v1 , . . . , vk i e viceversa.

2. ∀ α ∈ K, α 6= 0, hv1 , v2 , . . . , vk i = hαv1 , v2 , . . . , vk i.
Infatti ∀ v ∈ hv1 , v2 , . . . , vk i, v = a1 v1 + a2 v2 + . . . + ak vk = aα1 (αv1 ) + a2 v2 + . . . +
ak vk ∈ hαv1 , v2 , . . . , vk i. Viceversa ∀ w ∈ hαv1 , v2 , . . . , vk i, w = a1 (αv1 ) + a2 v2 +
. . . + ak vk = (a1 α)v1 + a2 v2 + . . . + ak vk ∈ hv1 , v2 , . . . , vk i.

3. ∀ α ∈ K, hv1 , v2 , . . . , vk i = hv1 + αvj , v2 , . . . , vk i, dove 1 ≤ j ≤ k.


Infatti ∀ v ∈ hv1 , v2 , . . . , vk i, v = a1 v1 + . . . + aj vj + . . . + ak vk = a1 (v1 + αvj ) +
. . . + (aj − a1 α)vj + . . . + ak vk ∈ hv1 + αvj , v2 , . . . , vk i. Viceversa ∀ w ∈ hv1 +
αvj , v2 , . . . , vk i, w = a1 (v1 + αvj ) + . . . + aj vj + . . . + ak vk = a1 v1 + . . . + (a1 α +
aj )vj + . . . + ak vk ∈ hv1 , v2 , . . . , vk i.

2.3 Basi e dimensione di uno spazio vettoriale


Un insieme di vettori {v1 , . . . , vn } di V si dice base di V se v1 , . . . , vn generano V e sono
linearmente indipendenti.
Proposizione 2.20. Se {v1 , . . . , vn } è una base di V , allora ogni vettore di V si esprime
in modo unico come combinazione lineare di v1 , . . . , vn .
Dimostrazione. Sia v ∈ V . Poiche v1 , . . . , vn generano V , allora v è combinazione lineare
di v1 , . . . , vn . Siano a1 , . . . , an , b1 , . . . , bn ∈ K tali che v = a1 v1 + . . . + an vn = b1 v1 + . . . +
bn vn . Poichè 0 = a1 v1 + . . . + an vn − b1 v1 − . . . − bn vn = (a1 − b1 )v1 + . . . + (an − bn )vn
e v1 , . . . , vn sono linearmente indipendenti, si ha ai − bi = 0, i = 1, . . . , n.

17
Sia B = {v1 , . . . , vn } una base del K–spazio vettoriale V , sia v un vettore di V e sia
v = a1 v1 + . . . + an vn l’unica espressione di v come combinazione lineare di v1 , . . . , vn .
Allora gli scalari a1 , . . . , an si dicono coordinate o componenti di v rispetto alla base B.
Il prossimo risultato mostra che in uno spazio vettoriale V , il massimo numero di vettori
linearmente indipendenti è minore o uguale al minimo numero di vettori che generano V .

Lemma 2.21. Siano {v1 , . . . , vn } un sistema di generatori di V e siano w1 , . . . , wm ∈ V .


Se w1 , . . . , wm sono linearmente indipendenti, allora m ≤ n.

Dimostrazione. Poichè v1 , . . . , vn generano V , ogni vettore di V si può scrivere come


combinazione lineare di v1 , . . . , vn . In particolare w1 = k1 v1 + . . . + kn vn . Inoltre almeno
uno dei coefficienti k1 , . . . , kn deve essere diverso da zero, altrimenti si avrebbe w1 = 0 (e di
conseguenza w1 , . . . , wm sarebbero dipendenti). Non è restrittivo supporre che sia k1 6= 0.
Allora v1 è combinazione lineare di w1 , v2 , . . . , vn . In questo modo abbiamo costruito un
nuovo sistema di n generatori per V = hw1 , v2 , . . . , vn i. Ripetiamo il procedimento per w2 .
Poichè w1 , v2 , . . . , vn generano V , si potrà scrivere w2 = h1 w1 + k2 v2 + k3 v3 + . . . + kn vn .
Almeno uno dei coefficienti k2 , . . . , kn è diverso da zero (altrimenti si avrebbe w2 = h1 w1 ,
contro l’ipotesi di indipendenza lineare di w1 , . . . , wm ). Al solito, non è restrittivo supporre
k2 6= 0. Ne segue che v2 è combinazione lineare di w1 , w2 , v3 , . . . , vn e quindi abbiamo
costruito un nuovo sistema di generatori per V = hw1 , w2 , v3 , . . . , vn i. Supponiamo ora,
per assurdo, che sia m > n. Se iteriamo il procedimento descritto precedentemente n volte,
otteniamo un sistema di generatori di V costituito da w1 , . . . , wn . Ma allora il vettore wn+1
è combinazione lineare di w1 , . . . , wn , contro l’ipotesi di indipendenza lineare dei vettori
w1 , . . . , wm .

Corollario 2.22. Siano {v1 , . . . , vn } e {w1 , . . . , wm } due basi dello spazio vettoriale V .
Allora m = n.

Dimostrazione. Poichè v1 , . . . , vn generano V e w1 , . . . , wm sono linearmente indipenden-


ti, per il Lemma precedente, si ha m ≤ n. Analogamente, poichè w1 , . . . , wn generano V
e v1 , . . . , vm sono linearmente indipendenti, si ha n ≤ m.

Un K–spazio vettoriale V ha dimensione finita se esiste una base di V costituita da


un insieme finito di vettori di V . Si noti che due basi di V hanno lo stesso numero di
elementi.
La dimensione di uno spazio vettoriale di dimensione finita è il numero di elementi di
una sua qualsiasi base. La dimensione di V si denota con dim V .
Una base per lo spazio vettoriale costituito dal solo vettore nullo V = {0} è l’insieme
vuoto ∅ e la sua dimensione è zero (dim{0} = 0).

Osservazione 2.23. Può accadere che uno spazio vettoriale non abbia dimensione finita,
in quanto non esista un insieme finito di vettori che lo generi. Ad esempio lo spazio
vettoriale R[X] dei polinomi a coefficienti reali nell’indeterminata X non ha dimensione

18
finita. Infatti, sia S = {p1 , . . . , pn } un qualunque insieme finito di polinomi di R[X]. Sia
h il massimo dei loro gradi. Allora ogni combinazione lineare di p1 , . . . , pn e quindi ogni
elemento del sottospazio vettoriale generato da S ha grado minore o uguale ad h. Pertanto
il sottospazio vettoriale generato da S non può coincidere R[X].
Da ora in avanti considereremo soltanto spazi vettoriali di dimensione finita.
Esempi 2.24. 1. I vettori e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) di R3 formano
una base di R3 , detta base canonica di R3 .

2. In generale, l’insieme di vettori {e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en =


(0, . . . , 0, 1)} è una base di Kn . Infatti ∀(x1 , . . . , xn ) ∈ Kn , (x1 , . . . , xn ) = x1 e1 +
. . . + xn en e quindi e1 , . . . , en generano Kn . Inoltre, se a1 , . . . , an ∈ K sono tali che
a1 e1 + . . . + an en = 0, allora (a1 , . . . , an ) = 0, quindi a1 = a2 = . . . = an = 0 e
e1 , . . . , en sono linearmente indipendenti. Ne segue che {e1 , . . . , en } è una base di
Kn (detta base canonica di Kn ) e dim Kn = n.

3. Una base di Rn [X] = {a0 + a1 X + a2 X 2 + a3 X 3 + . . . + an X n | a0 , . . . , an ∈ R} è


costituita da B = {1, X, X 2 , X 3 , . . . , X n }.

4. Sia Eij la matrice di Mm,n (K), 1 ≤ i ≤ m, 1 ≤ j ≤ n, definita come segue



0 se (i, j) 6= (l, k)
Eij = (elk ), elk = ,
1 se (i, j) = (l, k)
L’insieme delle matrici {E11 , E12 , . . . , E1n , E21 , E22 . . . , Emn } è una base di Mm,n (K).
Infatti ∀A = (aij ) ∈ Mm,n (K), A = a11 E11 +. . .+amn Emn e quindi E11 , . . . , Emn ge-
nerano Mm,n (K). Inoltre, se b11 , . . . , bmn ∈ K sono tali che b11 E11 +. . .+bmn Emn = 0,
allora (bij ) = 0, quindi b11 = b12 = . . . = bmn = 0 e E11 , . . . , Emn sono linearmen-
te indipendenti. Ne segue che {E11 , . . . , Emn } è una base di Mm,n (K) (detta base
canonica di Mm,n (K)) e dim(Mm,n (K)) = mn.

5. Sia S = {E11 , E22 , . . . , Enn , E12 + E21 , E13 + E31 , . . . , E1n + En1 , E23 + E32 , . . . , E2n +
En2 , . . . , En−1n + Enn−1 }. Mostreremo che le n(n + 1)/2 matrici di S formano una
base di Symn (K). Sia A ∈ Mn (K) una matrice simmetrica. Allora A = At e quindi
aij = aji , 1 ≤ i, j ≤ n. In altri termini, l’elemento di A di posto i, j è uguale
all’elemento di A di posto j, i. Ne segue che
A = a11 E11 + a22 E22 + . . . + ann Enn + a12 (E12 + E21 ) + a13 (E13 + E31 ) + . . . +
+ a1n (E1n + En1 ) + a23 (E23 + E32 ) + . . . + a2n (E2n + En2 ) + . . . + an−1n (En−1n + Enn−1 )
e le matrici E11 , E22 , . . . , Enn , E12 +E21 , E13 +E31 , . . . , E1n +En1 , E23 +E32 , . . . , E2n +
En2 , . . . , En−1n + Enn−1 generano Symn (K). Inoltre, se bij ∈ K, 1 ≤ i, j ≤ n, i ≤ j,
sono tali che
b11 E11 + . . . + bnn Enn + b12 (E12 + E21 ) + . . . + b1n (E1n + En1 )+
+b23 (E23 + E32 ) + . . . + b2n (E2n + En2 ) + . . . + bn−1n (En−1n + Enn−1 ) = 0,

19
allora bij = bji e (bij ) = 0, quindi b11 = b12 = . . . = bnn = 0. Pertanto le ma-
trici E11 , E22 , . . . , Enn , E12 + E21 , E13 + E31 , . . . , E1n + En1 , E23 + E32 , . . . , E2n +
En2 , . . . , En−1n + Enn−1 sono linearmente indipendenti, S è una base di Symn (K) e
dim(Symn (K)) = n(n + 1)/2.

6. Sia A = {E12 − E21 , E13 − E31 , . . . , E1n − En1 , E23 − E32 , . . . , E2n − En2 , . . . , En−1n −
Enn−1 }. Mostreremo che le n(n−1)/2 matrici di A formano una base di ASymn (K).
Sia A ∈ Mn (K) una matrice antisimmetrica. Allora At = −A e quindi aij = −aji ,
1 ≤ i, j ≤ n, i 6= j, e aii = 0, 1 ≤ i ≤ n. In altri termini, l’elemento di A di posto
i, j, i 6= j, è uguale all’opposto dell’elemento di A di posto j, i, mentre gli elementi
della diagonale principale di A sono nulli. Ne segue che

A = a12 (E12 − E21 ) + a13 (E13 − E31 ) + . . . + a1n (E1n − En1 )+


+ a23 (E23 − E32 ) + . . . + a2n (E2n − En2 ) + . . . + an−1n (En−1n − Enn−1 )

e le matrici E12 −E21 , E13 −E31 , . . . , E1n −En1 , E23 −E32 , . . . , E2n −En2 , . . . , En−1n −
Enn−1 generano Symn (K). Inoltre, se bij ∈ K, 1 ≤ i, j ≤ n, i < j, sono tali che

b12 (E12 − E21 ) + . . . + b1n (E1n − En1 ) + b23 (E23 − E32 ) + . . . + b2n (E2n − En2 )+
+ . . . + bn−1n (En−1n − Enn−1 ) = 0,

allora bij = −bji e (bij ) = 0, quindi b11 = b12 = . . . = bnn = 0. Pertanto le matrici
E12 − E21 , E13 − E31 , . . . , E1n − En1 , E23 − E32 , . . . , E2n − En2 , . . . , En−1n − Enn−1
sono linearmente indipendenti, A è una base di ASymn (K) e dim(ASymn (K)) =
n(n − 1)/2.

Lemma 2.25. Mn (K) = Symn (K) ⊕ ASymn (K).

Dimostrazione. Sia M = (cij ) ∈ Symn (K) ∩ ASymn (K). Allora, poichè M ∈ ASymn (K),
si ha che cii = 0, 1 ≤ i ≤ n, cij = −cji , i 6= j. D’altro canto, poichè M ∈ Symn (K), si ha
che cij = cji , i 6= j. Allora necessariamente cij = 0, 1 ≤ i, j ≤ n, e M = 0. Ne segue che
Mn (K) è somma diretta di Symn (K) e ASymn (K). Si noti, infine, che ∀ A ∈ Mn (K) si
ha che (A + At )/2 ∈ Symn (K), (A − At )/2 ∈ ASymn (K) e
A + At A − At
A= + .
2 2

Esercizi 2.26. Determinare la dimensione ed una base dei seguenti sottospazi di R4 :

1. W1 = {(x1 , x2 , x3 , x4 ) ∈ R4 | x1 − x4 = 0, x2 + x3 = 0};

2. W2 = {(x1 , x2 , x3 , x4 ) ∈ R4 | x4 − x2 + x3 = 0}.

Teorema 2.27. (Teorema del completamento ad una base)


Sia V un K–spazio vettoriale tale che dim(V ) = n.

20
1) Se v1 , . . . , vn ∈ V sono linearmente indipendenti, allora {v1 , . . . , vn } è una base di
V.

2) Se v1 , . . . , vk ∈ V , k < n, sono lineamente indipendenti, allora esistono vk+1 , . . . , vn ∈


V tali che {v1 , . . . , vn } è una base di V .

Dimostrazione. 1) È sufficiente mostrare che hv1 , . . . , vn i = V . Poichè dim(V ) = n esiste


una base {w1 , . . . , wn } di V , in particolare {w1 , . . . , wn } è un sistema di generatori di V .
Sia v ∈ V , con v 6= vi , i = 1, . . . , n. Se {v1 , . . . , vn , v} fossero linearmente indipendenti,
allora, dal Lemma 2.21, otterremmo che n + 1 ≤ n, contraddizione. Pertanto v1 , . . . , vn , v
sono linearmente dipendenti ed esistono a1 , . . . , an , a ∈ K non tutti nulli, tali che a1 v1 +
. . . + an vn + av = 0. Se a = 0, allora v1 , . . . , vn sarebbero linearmente dipendenti,
contraddicendo l’ipotesi che v1 , . . . , vn sono linearmente indipendenti. Pertanto a 6= 0 e
v = −a−1 a1 v1 − . . . − a−1 an vn . Dunque v ∈ hv1 , . . . , vn i. Poichè vi ∈ hv1 , . . . , vn i, si ha
che V = hv1 , . . . , vn i, come volevasi.
2) Poichè k < n, i vettori v1 , . . . , vk non generano V , altrimenti {v1 , . . . , vk } sarebbe
una base costituita da k 6= n vettori. Pertanto esiste vk+1 ∈ V con vk+1 ∈ / hv1 , . . . , vk i. Di-
mostriamo che v1 , . . . , vk , vk+1 sono linearmente indipendenti. Siano a1 , . . . , ak , ak+1 ∈ K
tali che a1 v1 + . . . + an vk + ak+1 vk+1 = 0, allora ak+1 = 0, altrimenti vk+1 = −a−1 k+1 a1 v1 −
−1
. . . − ak+1 ak vk . Ma allora vk+1 ∈ hv1 , . . . , vk i, che è una contraddizione. Ne segue che
a1 v1 + . . . + an vk = 0 e a1 = a2 = . . . = ak = 0 in quanto v1 , . . . , vk sono linearmen-
te indipendenti per ipotesi. Allora a1 = . . . = ak = ak+1 = 0 e v1 , . . . , vk , vk+1 sono
linearmente indipendenti. Se k + 1 = n, il risultato segue da 1). Se k + 1 < n, allora
possiamo ripetere il ragionamento precedente e trovare vk+2 ∈ V \ hv1 , . . . , vk , vk+1 i tale
che v1 , . . . , vk , vk+1 , vk+2 siano linearmente indipendenti. Iterando questo procedimento
n − k volte è possibile trovare vk+1 , vk+2 , . . . , vn ∈ V tali che v1 , . . . , vn siano linearmente
indipendenti. Allora da 1) {v1 , . . . , vn } è una base di V .

Corollario 2.28. Il numero di elementi di una base di V coincide con il massimo numero
di vettori linearmente indipendenti in V .

Dimostrazione. Sia B = {v1 , . . . , vn } una base di V e sia r il massimo numero di vettori


linearmente indipendenti in V . Poichè i vettori v1 , . . . , vn sono generatori di V , dal Lemma
2.21 si ha che r ≤ n. D’altro canto v1 , . . . , vn sono n vettori linermente indipendenti,
quindi r = n.

Teorema 2.29. Sia V un K–spazio vettoriale e sia W un sottospazio di V , allora


i) dim(W ) ≤ dim(V ),
ii) se dim(W ) = dim(V ) allora W = V .

Dimostrazione. i) Sia dim(V ) = n e sia {v1 , . . . , vn } una base di V ; in particolare


{v1 , . . . , vn } è un sistema di generatori di V . Sia B = {w1 , . . . , wm } una base di W . Al-
lora w1 , . . . , wm sono vettori di W linearmente indipendenti. Poichè W ⊆ V , w1 , . . . , wm

21
sono vettori di V linearmente indipendenti. Dal Lemma 2.21 si ha m ≤ n. Quindi
dim(W ) ≤ dim(V ).
ii) Se dim(W ) = dim(V ) = n, sia B = {w1 , . . . , wn } una base di W . Poichè W ⊆ V ,
w1 , . . . , wn sono vettori di V linearmente indipendenti. Dal Teorema 2.27, 1), B è una
base di V . Allora W = hw1 , . . . , wn i = V , come volevasi.

Teorema 2.30. (Formula dimensionale di Grassmann)


Siano U e W sottospazi dello spazio vettoriale V . Allora

dim(U ) + dim(W ) = dim(U ∩ W ) + dim(U + W ).

In particolare, U + W è somma diretta di U e W se e solo se dim(U ) + dim(W ) =


dim(U + W ).

Dimostrazione. Sia {z1 , . . . , zq } una base di U ∩W . Dal teorema del completamento ad una
base esistono u1 , . . . , ut ∈ U e w1 , . . . , ws ∈ W tali che {z1 , . . . , zq , u1 , . . . , ut } è una base
di U e {z1 , . . . , zq , w1 , . . . , ws } è una base di W . Poichè dim(U )+dim(W )−dim(U ∩W ) =
q +t+q +s−q = q +t+s, per dimostrare la prima parte del teorema è sufficiente mostrare
che {z1 , . . . , zq , u1 , . . . , ut , w1 , . . . , ws } è una base di U + W .
Dimostriamo che sono generatori di U + W . Sia u + w ∈ U + W , dove u ∈ U e w ∈ W .
Esistono allora a1 , . . . , aq , b1 , . . . , bt , a01 , . . . , a0q , c1 , . . . , cs ∈ K tali che u = a1 z1 + . . . +
aq zq + b1 u1 + . . . + bt ut e w = a01 z1 + . . . + a0q zq + c1 w1 + . . . + cs ws . Dunque

u + w = (a1 + a01 )z1 + . . . + (aq + a0q )zq + b1 u1 + . . . + bt ut + c1 w1 . . . + cs ws ,

come volevasi.
Dimostriamo che sono linearmente indipendenti. Siano a1 , . . . , aq , b1 , . . . , bt , c1 , . . . , cs ∈
K tali che a1 z1 + . . . + aq zq + b1 u1 + . . . + bt ut + c1 w1 . . . + cs ws = 0. Allora

c1 w1 . . . + cs ws = −(a1 z1 + . . . + aq zq + b1 u1 + . . . + bt ut ), (2.1)

dove c1 w1 . . . + cs ws ∈ W , mentre a1 z1 + . . . + aq zq + b1 u1 + . . . + bt ut ∈ U . Pertanto


a1 z1 +. . .+aq zq +b1 u1 +. . .+bt ut ∈ U ∩W . Poichè {z1 , . . . , zq } è una base di U ∩W , esistono
d1 , . . . , dq ∈ K tali che a1 z1 +. . .+aq zq +b1 u1 +. . .+bt ut = d1 z1 +. . .+dq zq . Si ha pertanto
(a1 −d1 )z1 +. . .+(aq −dq )zq +b1 u1 +. . .+bt ut = 0, ma z1 , . . . , zq , u1 , . . . , ut sono linearmente
indipendenti e quindi tutti i coefficienti sono nulli, in particolare b1 = b2 = . . . = bt = 0.
Da (2.1), si ha a1 z1 + . . . + aq zq + c1 w1 + . . . + cs ws = 0, ma z1 , . . . , zq , w1 , . . . , ws sono
linearmente indipendenti e quindi tutti i coefficienti a1 , . . . , aq , c1 , . . . , cs sono nulli, come
volevasi.
L’ultima parte del teorema segue dal fatto che la somma è diretta.

Esercizi 2.31. 1. Si considerino i sottospazi vettoriali U, W di R3 , dove U = h(1, 2, −1), (0, 1, 0)i
e W = {(x, y, z) ∈ R3 | x + z = 0}. Determinare U ∩ W , U + W e le dimensioni
dim(U ), dim(W ), dim(U ∩ W ), dim(U + W ).

22
Sia v ∈ U , allora esistono α, β ∈ R tali che v = (α, 2α + β, −α). Inoltre v ∈ W ,
infatti α − α = 0. Quindi U ⊆ W . Si noti che W = h(1, 0, −1), (0, 1, 0)i e che
sia i generatori di U che i generatori di W sono linearmente indipendenti, quindi
dim(U ) = dim(W ) = 2. Pertanto U = W = U ∩ W = U + W e dim(U ∩ W ) =
dim(U + W ) = 2.

2. Si considerino i vettori v1 = (1, −1, 1) e v2 = (1, 0, 3) di R3 .

• Mostrare che v1 , v2 sono linearmente indipendenti.


v1 , v2 non sono proporzionali.
• Completare {v1 , v2 } ad una base di R3 in tre modi distinti.
{v1 , v2 , (1, 0, 0)}, {v1 , v2 , (0, 1, 0)}, {v1 , v2 , (0, 0, 1)}.
• Per ciascuno dei sottospazi hv1 i, hv2 i, hv1 , v2 i, determinare un sottospazio
vettoriale di R3 tale che il sottospazio somma sia R3 e che sia somma diretta
con esso.
R3 = hv1 i⊕hv2 , (1, 0, 0)i, R3 = hv2 i⊕hv1 , (1, 0, 0)i, R3 = hv1 , v2 i⊕h(1, 0, 0)i.

Esercizi 2.32. 1. Si consideri l’insieme S = {(x, y, z, t) ∈ R4 | (1−k)x2 +y +2z −3t =


k 2 − 1}, dove k ∈ R.

• Stabilire per quali valori del parametro reale k l’insieme S è un sottospazio


vettoriale di R4 .
• Nel caso in cui S è un sottospazio vettoriale, determinare una base B e la
dimensione di S ed estendere la base B di S ad una base di R4 .

2. Si considerino i seguenti vettori di R4 :

u = (1, 3, 0, 3), v = (−1, −2, 1, −1), w = (0, k − 1, k 2 − 1, 3k − 2),

dove k ∈ R.

• Determinare il valore di k ∈ R tale che dim(hu, v, wi) = 2.


• Per il valore di k trovato in precedenza, esprimere uno dei tre vettori come
combinazione lineare dei rimanenti.

3. Sia V un K–spazio vettoriale. Dimostrare che se i vettori u, v, w ∈ V sono linear-


mente indipendenti, allora anche u + v + w, v + w, w sono linearmente indipendenti.

4. Si considerino, al variare di k ∈ R, i seguenti sottospazi vettoriali di R3 :

Sk = h(k, 0, k), (1, k, 1), (1, 1, k)i.

Determinare la loro intersezione \


Sk .
k∈R

23
5. Siano f1 , f2 , f3 , f4 ∈ R3 [X], dove f1 (X) = 2X, f2 (X) = X 2 +X +1, f3 (X) = −3X +
2, f4 (X) = 1. Calcolare la dimensione del sottospazio vettoriale W = hf1 , f2 , f3 , f4 i.

6. Considerati i vettori v1 = (1, −1, 0, 0, 0), v2 = (0, 2, 0, −1, 1), v3 = (0, 0, 0, 0, 2i) ∈
C5 , costruire una base di C5 contenente i vettori v1 , v2 , v3 .

7. Siano v1 = (a, b), v2 = (c, d) ∈ R2 . Dimostrare v1 , v2 sono linearmente dipendenti


se e solo se ad − bc = 0.

8. Sia V un R–spazio vettoriale tale che dim V = 3 e sia B = {v1 , v2 , v3 } una base di
V . Siano U = hv1 + v2 , v1 − v2 i, W = hv1 + v3 , v1 − v3 i. Mostrare che V = U + W
e che la somma U + W non è diretta.

24
3 Spazi vettoriali euclidei
Gli spazi vettoriali considerati in questo capitolo sono definiti sul campo K = R dei numeri
reali.

3.1 Prodotti scalari


Sia V un R–spazio vettoriale. Si definisce prodotto scalare un’applicazione

· : (u, v) ∈ V × V 7−→ u · v ∈ R

tale che le seguenti proprietà sono soddisfatte:

i) Bilinearità: ∀u, u0 , v, v0 ∈ V , ∀λ ∈ R, si ha che

(u + u0 ) · v = u · v + u0 · v,
u · (v + v0 ) = u · v + u0 · v,
(λu) · v = u · (λv) = λ(u · v).

ii) Simmetria: ∀u, v ∈ V , u · v = v · u.

iii) Definita positiva: ∀u ∈ V , u · u ≥ 0, u · u = 0 se e solo se u = 0.

Un R–spazio vettoriale dotato di un prodotto scalare si dice spazio vettoriale euclideo


reale.

Esempi 3.1. 1. L’esempio fondamentale di spazio vettoriale euclideo è Rn con il pro-


dotto interno standard, o prodotto euclideo, · : Rn × Rn −→ R che ad ogni coppia
v1 = (x1 , . . . , xn ), v2 = (y1 , . . . , yn ) di vettori di Rn associa il numero reale

v1 · v2 = x1 y1 + . . . + xn yn .

Si noti che se v1 , v2 si considerano come vettori riga (v1 , v2 ∈ M1,n (R)), allora

v1 · v2 = v1 v2t .

2. Se V = Mm,n (R) è lo spazio vettoriale della matrici di ordine m×n definite sul cam-
po dei numeri reali, allora l’applicazione · che associa alle matrici A, B ∈ Mm,n (R)
il numero reale
A · B = T r(AB t )
è un prodotto scalare.

25
3. Sia V = R4 . Allora l’applicazione che associa alla coppia di vettori u = (x1 , x2 , x3 , x4 ), v =
(y1 , y2 , y3 , y4 ) ∈ R4 , il numero reale

u · v = x1 y1 + 2x2 y2 + 3x3 y3 + 4x4 y4

è un prodotto scalare.
Nei vari casi, la verifica delle proprietà dell’applicazione “·” di essere bilineare, simme-
trica e definita positiva è lasciata come esercizio.

Sia V uno spazio vettoriale euclideo reale. Due vettori v, u ∈ V si definiscono ortogonali
se v · u = 0 e si denota con v ⊥ u. Più in generale due sottospazi U, W di V si definiscono
ortogonali se ∀ u ∈ U , ∀ w ∈ W , si ha che u · w = 0.

Osservazione 3.2. Il vettore nullo è ortogonale a tutti i vettori di V . Infatti v · 0 =


v · (u − u) = v · u − v · u = 0.

Si definisce modulo (o norma o lunghezza) di un vettore v ∈ V e si denota con ||v||, la


radice quadrata del prodotto scalare v · v:

||v|| = v · v.

Un vettore v ∈ V avente norma 1 (||v|| = 1) si definisce versore.

Teorema 3.3. L’applicazione || || : v ∈ V 7−→ ||v|| ∈ R soddisfa le seguenti proprietà:


∀v, u ∈ V , ∀λ ∈ R,

i) ||v|| ≥ 0, ||v|| = 0 se e solo se v = 0;

ii) ||λv|| = |λ| ||v||;

iii) v · u = 21 (||v + u||2 − ||v||2 − ||u||2 ) (Formula di Polarizzazione);

iv) |v · u| ≤ ||v|| ||u|| (Disuguaglianza di Schwarz), inoltre |v · u| = ||v|| ||u|| se e solo


se u = λv, per qualche λ ∈ R;

v) ||v + u|| ≤ ||v|| + ||u|| (Disuguaglianza triangolare).



Dimostrazione. i) Essendo v · v ≥ 0, si ha che ||v|| = v · v ≥ 0. Inoltre ||v|| = 0 se e
solo se v · v = 0 se e solo se v = 0.
ii) Essendo ||λv||2 = (λv) · (λv) = λ2 v · v, si ha che
√ √
||λv|| = λ2 v · v = |λ| v · v = |λ| ||v||.

iii)
||v + u||2 = (v + u) · (v + u) = ||v||2 + 2v · u + ||u||2 .

26
iv) Se entrambi i vettori v, u sono nulli, la disuguaglianza è vera. Assumiamo allora
che u è non nullo. Allora
 u · v  2  u · v  2 u · v
0 ≤ v − u = ||v||2 + u − 2v · u

u·u u·u u·u
2
 u · v 2
2 (u · v)2 2 (u · v)2 2 (u · v)2
= ||v|| + ||u|| − 2 = ||v|| − = ||v|| − .
u·u u·u u·u ||u||2

Pertanto (u · v)2 ≤ ||u||2 ||v||2 e |u · v| ≤ ||u|| ||v||.


Inoltre, se u = λv, per qualche λ ∈ R, allora

|u · v| = |λv · v| = |λ| |v · v| = |λ|v · v = |λ| ||v||2 = ||u|| ||v||.

Viceversa, se |u · v| = ||u|| ||v||, allora (u · v)2 = ||u||2 ||v||2 e quindi

(u · v)2  u · v  2
0 = ||v||2 − = v − u .

||u||2 u·u

u·v

Allora v − u·u
u = 0 e pertanto
u · v
v= u.
u·u
v) Dalla Disuguaglianza di Schwarz si ha che

||v + u||2 = (v + u) · (v + u) = ||v||2 + 2v · u + ||u||2 ≤ ||v||2 + 2|v · u| + ||u||2


≤ ||v||2 + 2||v|| ||u|| + ||u||2 = (||v|| + ||u||)2 .

Pertanto
||v + u|| ≤ ||v|| + ||u||.

Se v, u ∈ V sono vettori non nulli, dalla Disuguaglianza di Schwarz, si ha che

|v · u|
≤1
||v|| ||u||
e pertanto
v·u
−1≤ ≤ 1. (3.1)
||v|| ||u||
Tenendo conto di (3.1) e delle proprietà della funzione coseno, esiste, un unico numero
reale θ ∈ [0, π] tale che
v·u
cos θ = ≤ 1, i.e., v · u = ||v|| ||u|| cos θ.
||v|| ||u||

Il numero reale θ si dice angolo (convesso) tra i vettori v, u ∈ V .

27
Proposizione 3.4. i) L’angolo θ tra due vettori non nulli v, u ∈ V è π/2 se e solo
se v e u sono ortogonali, i.e., v · u = 0.

ii) L’angolo θ tra due vettori non nulli v, u ∈ V è 0 oppure π se e solo se v, u sono
linearmente dipendenti.

Dimostrazione. i) Poichè ||v|| > 0 e ||u|| > 0, allora v · u = ||v|| ||u|| cos θ = 0 se e solo
se cos θ = 0 se e solo se θ = π/2.
ii) I vettori v, u ∈ V sono proporzionali se e solo se v = λu, per qualche 0 6= λ ∈ R.
Allora 
v·u λu · u λ 1 se θ = 0
cos θ = = = =
||v|| ||u|| |λ| ||u||2 |λ| −1 se θ=π

Proposizione 3.5. Se v1 , . . . , vn ∈ V sono vettori non nulli a due a due ortogonali,


allora sono linearmente indipendenti.

Dimostrazione. Siano λi ∈ R, 1 ≤ i ≤ n, tali che λ1 v1 + . . . + λn vn = 0. Allora

0 = vj · 0 = vj · (λ1 v1 + . . . + λn vn ) = λ1 vj · v1 + . . . + λn vj · vn = λj vj · vj .

Poichè vj · vj > 0, si ha che λj = 0, 1 ≤ j ≤ n.

Sia A un sottoinsieme di V . Si consideri l’insieme dei vettori di V che sono ortogonali


a tutti i vettori di A:
A⊥ = {v ∈ V | v · u = 0, ∀u ∈ A}.

Lemma 3.6. A⊥ è un sottospazio vettoriale di V .

Dimostrazione. ∀v1 , v2 ∈ A⊥ , ∀λ1 , λ2 ∈ R, si ha che ∀u ∈ A,

(λ1 v1 + λ2 v2 ) · u = λ1 v1 · u + λ2 v2 · u = λ1 0 + λ2 0 = 0.

Pertanto λ1 v1 + λ2 v2 ∈ A⊥ .

Proposizione 3.7. Sia A = hv1 , . . . , vm i. Allora v ∈ A⊥ se e solo se v ⊥ vi , 1 ≤ i ≤ m.

Dimostrazione. Se v ∈ A⊥ , allora v ⊥ w, ∀ w ∈ A e quindi v ⊥ vi , 1 ≤ i ≤ m, in quanto


vi ∈ A, 1 ≤ i ≤ m.
Viceversa se v ⊥ vi , 1 ≤ i ≤ m, allora ∀ w ∈ A, ∃ α1 , . . . αm ∈ R, tali che w =
α1 v1 + . . . + αm vm . Ne discende che

v · w = v · (α1 v1 + . . . + αm vm ) = α1 v · v1 + . . . + αm v · vm = 0

e quindi v ∈ A⊥ .

A⊥ si definisce complemento ortogonale di A.

28
Esercizi 3.8. Nei seguenti esercizi si consideri Rn dotato del prodotto interno standard.

1. In R3 , si determini h ∈ R tale che i vettori v = (1, h, 3) e w = (h, 2, −4) sono


ortogonali.
v · w = (1, h, 3) · (h, 2, −4) = 3h − 12 = 0.
Quindi v · w = 0 se e solo se h = 4.

2. In R4 si determini una base di W e di W ⊥ , dove

W = {(x, y, z, t) ∈ R4 | x + z = x − t = t + z = 0}.

Si noti che W = {(−z, y, z, −z) | y, z ∈ R} = hw1 = (1, 0, −1, 1), w2 = (0, 1, 0, 0)i.
Allora v = (x1 , x2 , x3 , x4 ) ∈ W ⊥ se e solo se v ⊥ w1 e v ⊥ w2 . Pertanto

0 = (x1 , x2 , x3 , x4 ) · (1, 0, −1, 1) = x1 − x3 + x4


0 = (x1 , x2 , x3 , x4 ) · (0, 1, 0, 0) = x2

e v = (x1 , 0, x1 +x4 , x4 ). Quindi W ⊥ = {(a, 0, a+b, b) | a, b ∈ R} = h(1, 0, 1, 0), (0, 0, 1, 1)i.

3. Siano v1 = (1, 0, 1, 0), v2 = (3, 1, −1, h) ∈ R4 .

• Determinare, se esiste, h ∈ R tale che l’angolo θ tra i vettori v1 e v2 risulta


60◦ .
√ √
Poichè cos(θ) = ||vv1 ||1 ·v||v2 2 || , dove ||v1 || = 2, ||v2 || = 11 + h2 e v1 · v2 = 2.
p
Quindi se θ = 60◦ , allora cos(θ) = 12 e 2(11 + h2 ) = 4, da cui si ottiene
h2 = −3 e quindi h ∈ / R.
• Determinare, se esiste, h ∈ R tale che l’angolo θ tra i vettori v1 e v2 risulta
90◦ .
Tale valore di h non esiste, poichè θ = 90◦ se e solo se v1 ·v2 = 0, ma v1 ·v2 = 2.

4. In R3 si determini W ⊥ ed S = {u ∈ W ⊥ | ||u|| = 1}, dove

W = h(0, 1, 0), (1, 3, −2)i.

Sia u = (x1 , x2 , x3 ) ∈ R3 . Allora u ∈ W ⊥ se e solo se u ⊥ (0, 1, 0) e u ⊥ (1, 3, −2).

u · (0, 1, 0) = x2 = 0
u · (1, 3, −1) = x1 + 3x2 − x3 = 0.

Quindi u = (2x3 , 0, x3 ) e W ⊥ = {(2a, 0, a) | a ∈ R} = h(2, 0, 1)i. Inoltre se


√ √
u ∈ W ⊥ , allora ||u|| = 4a2 + a2 = 5|a2 | e ||u|| = 1 se e solo se a = ± √15 .
n   o
2 1 2 1
Pertanto S = √
5
, 0, 5 , − 5 , 0, − 5 .
√ √ √

29
3.2 Basi ortonormali
Sia V uno spazio vettoriale euclideo reale tale che dim(V ) = n e sia B = {e1 , . . . , en } una
base di V .
B si definisce ortogonale se ei · ej = 0, per ogni i 6= j.
B si dice ortonormale se è ortogonale e ||ei || = 1, 1 ≤ i ≤ n. Equivalentemente B è
ortonormale se (
1 if i = j
ei · ej = δi,j :=
0 if i 6= j
La funzione δi,j si chiama delta di Kronecker. Una base ortonormale è formata da versori.
Osservazione 3.9. Si noti che se B = {e1 , . . . , en } è una base ortonormale di V , allora
∀ v = x1 e1 + . . . + xn en , w = y1 e1 + . . . + yn en ∈ V , si ha che

v · w = x1 y1 + . . . + xn yn .

Quindi il prodotto scalare di due vettori è il prodotto interno standard dei vettori di Rn
delle loro componenti rispetto a B.
Sia W un sottospazio di V tale che dim(W ) = r e sia {w1 , . . . , wr } una base ortogonale
di W . Se v ∈ V , si definisce proiezione ortogonale di v su W il vettore:
v · w1 v · wr
vW = w1 + . . . + wr .
w1 · w1 wr · wr
Teorema 3.10. Sia W un sottospazio di V tale che dim(W ) = r e sia {w1 , . . . , wr } una
base ortogonale di W . Allora vale quanto segue:
i) vW ∈ W .

ii) v − vW ∈ W ⊥ .

iii) ∀ w ∈ W , ||v − vW || ≤ ||v − w||.


Dimostrazione. i) Per definizione vW è combinazione lineare dei vettori di una base di
W . Allora vW ∈ W .
ii) Sia w ∈ W , allora esistono λ1 , . . . , λr ∈ R tali che w = λ1 w1 + . . . + λr wr . Quindi

(v − vW ) · w = (v − vW ) · (λ1 w1 + . . . + λr wr ) =
= v · (λ1 w1 + . . . + λr wr ) − vW · (λ1 w1 + . . . + λr wr ) =
 
v · w1 v · wr
= λ1 v · w1 + . . . + λr v · wr − w1 + . . . + wr · (λ1 w1 + . . . + λr wr ) =
w1 · w1 wr · wr
= λ1 v · w1 + . . . + λr v · wr − λ1 v · w1 − . . . − λr v · wr = 0.

iii) Sia w ∈ W . Poichè v − vW ∈ W ⊥ e vW ∈ W , si ha che (v − vW ) · w = 0 e


(v − vW ) · vW = 0. Allora

(v − vW ) · (vW − w) = (v − vW ) · vW − (v − vW ) · w = 0 − 0 = 0.

30
Dal Teorema 3.3, iii) si ha che

||v − w||2 = ||v − vW + vW − w||2 = ||v − vW ||2 + ||vW − w||2 ≥ ||v − vW ||2

e quindi ||v − w|| ≥ ||v − vW ||.

Teorema 3.11. (Teorema di ortogonalizzazione di Gram–Schmidt) Sia V uno spazio


vettoriale euclideo e siano v1 , . . . , vm vettori di V . Allora esistono w1 , . . . , wm vettori di
V tali che

i) hv1 , . . . , vm i = hw1 , . . . , wm i,

ii) wi · wj = 0, i 6= j, i.e., i vettori w1 , . . . , wm sono a due a due ortogonali tra loro.

Dimostrazione. Per induzione su m. Base d’induzione. Per m = 1, consideriamo w1 = v1 .


Allora risultano verificate i) e ii).
Ipotesi d’induzione: le tesi i), ii) sono vere per m.
Tesi d’induzione. Sia
m
X wj · vm+1
wm+1 = vm+1 − wj .
j=1
wj · wj

Dalla definizione segue che vm+1 è combinazione lineare di w1 , w2 , . . . , wm+1 e per ipotesi
d’induzione hv1 , . . . , vm i = hw1 , . . . , wm i, quindi hv1 , . . . , vm , vm+1 i ⊆ hw1 , . . . , wm , wm+1 i.
D’altro canto, tenendo conto della definizione di wm+1 , se ne deduce che wm+1 è combina-
zione lineare di w1 , w2 , . . . , wm , vm+1 . Per ipotesi d’induzione i vettori w1 , w2 , . . . , wm ∈
hv1 , . . . , vm i, quindi hw1 , . . . , wm , wm+1 i ⊆ hv1 , . . . , vm , vm+1 i e la proprietà i) è verifica-
ta.
Inoltre, fissato i, con 1 ≤ i ≤ m, si ha che
m
!
X wj · vm+1
wm+1 · wi = vm+1 − wj · wi =
j=1
w j · wj
m
X wj · vm+1
= (vm+1 · wi ) − (wj · wi ) = vm+1 · wi − wi · vm+1 = 0,
j=1
wj · wj

in quanto per ipotesi d’induzione wi · wj = 0, per i 6= j, 1 ≤ i, j ≤ m. Quindi anche la


proprietà ii) è verificata.

Corollario 3.12. Ogni spazio vettoriale euclideo possiede una base ortonormale.

Dimostrazione. Se dim(V ) = n e {v1 , . . . , vn } è una base di V , allora dal Teorema di


ortogonalizzazione di Gram–Schmidt (Teorema 3.11), esistono w1 , . . . , wn ∈ V a due a
due ortogonali tra loro e tali che V = hv1 , . . . , vn i = hw1 , . . . , wn i. Si noti che nessu-
no dei vettori w1 , . . . , wn è il vettore nullo, altrimenti se wi = 0 per qualche i, allora
{w1 , . . . , wi−1 , wi+1 , . . . , wn } è un sistema di generatori di V costituito da n − 1 vettori

31
e {v1 , . . . , vn } è un insieme di n vettori di V linearmente indipedenti. Dal Lemma 2.21
si avrebbe n < n − 1, contraddizione. Allora dalla Proposizione 3.5, i vettori w1 , . . . , wn
risultano linearmente indipendenti e quindi formano una base ortogonale di V . Ne segue
che  
w1 wm
,...,
||w1 || ||wm ||
è una base ortonormale di V .

Proposizione 3.13. Sia V uno spazio vettoriale euclideo e sia W un sottospazio vettoriale
di V . Allora V = W ⊕ W ⊥ e quindi dim(V ) = dim(W ) + dim(W ⊥ ).

Dimostrazione. Mostriamo che V = W +W ⊥ . Si noti che W è esso stesso uno spazio vetto-
riale euclideo e quindi dal Corollario 3.12, W possiede una base ortonormale, {e1 , . . . , em },
dove m = dim(W ). Sia v ∈ V e poniamo

w = (v · e1 )e1 + . . . + (v · em )em e w0 = v − w.

Allora v = w + w0 e w ∈ he1 , . . . , em i = W . Inoltre, fissato i, con 1 ≤ i ≤ m, si ha che


w0 · ei = 0, infatti

w0 · ei = (v − w) · ei =
= (v · ei ) − (w · ei ) = (v · ei ) − (((v · e1 )e1 + . . . + (v · em )em ) · ei ) =
= (v · ei ) − (v · ei )(ei · ei ) = (v · ei ) − (v · ei ) = 0.

Quindi w0 ⊥ ei , per ogni 1 ≤ i ≤ m. Allora w0 è ortogonale ad ogni combinazione lineare


dei vettori e1 , . . . , em , i.e., w0 ∈ he1 , . . . , em i⊥ = W ⊥ .
Mostriamo infine che V = W ⊕ W ⊥ . Sia w ∈ W ∩ W ⊥ . Poichè w ∈ W ⊥ , si ha che w
è ortogonale a tutti i vettori di W , ma w ∈ W e quindi w ⊥ w, i.e., w · w = 0 e quindi
w = 0.

Proposizione 3.14. Sia V uno spazio vettoriale euclideo e sia W un sottospazio vettoriale
di V . Allora W ⊥⊥ = W .

Dimostrazione. Sia w ∈ W , allora ∀u ∈ W ⊥ si ha che w · u = 0. Quindi w ∈ W ⊥⊥ e


W ⊆ W ⊥⊥ . Se dim(V ) = n e dim(W ) = r, allora dim(W ⊥ ) = n − r e dim(W ⊥⊥ ) =
n − (n − r) = r. Quindi W = W ⊥⊥ , poichè W ⊆ W ⊥ e dim(W ) = dim(W ⊥⊥ ).

Esercizi 3.15. Nei seguenti esercizi si consideri Rn dotato del prodotto interno standard.

1. In R3 si determinino i vettori ortogonali a v = (1, 1, 1) e tra questi, quelli di norma


1.
Sia w = (x, y, z) ∈ R3 , allora w ∈ v⊥ se e solo se x + y + z = 0. Pertanto

v⊥ = {(x, y, z) ∈ R3 | x + y + z = 0}.

32

Sia w un
pvettore di v . Allora p esistono x, y ∈ R tali che w = (x, y, −x − y) e
||w|| = x + y + (x + y) = 2(x2 + y 2 ). Pertanto i vettori ortogonali a v di
2 2 2

norma 1 formano il seguente insieme


( √ )
p 2
(x, y, −x − y) ∈ R3 | x2 + y 2 = .
2

2. In R3 si determini W ⊥ , dim(W ⊥ ) ed una sua base, dove W = {(x, y, z) ∈ R3 | x −


y = 3x = z − x}.
Si noti che W = {(x, y, z) ∈ R3 | 2x + y = 4x − z = 0} = {(α, −2α, 4α) | α ∈
R} = h(1, −2, 4)i. Sia v = (x, y, z) ∈ R3 , allora v ∈ W ⊥ se e solo se x − 2y + 4z = 0.
Pertanto

W ⊥ = {(2λ − 4µ, λ, µ) | λ, µ ∈ R} = h(2, 1, 0), (−4, 0, 1)i.

Quindi dim(W ⊥ ) = 2 ed una sua base è {(2, 1, 0), (−4, 0, 1)}.

3. Si considerino i sottospazi vettoriali U, W di R3 , dove U = h(−1, 2, −2)i e W =


{(x, y, z) ∈ R3 | x + y − 2z = x − z = 0}. Determinare due sottospazi vettoriali
Z, T di R3 tali che R3 = U ⊕ Z e R3 = W ⊕ T .
È possibile scegliere Z = U ⊥ e T = W ⊥ . Quindi Z = h(2, 1, 0), (0, 1, 1)i e T =
h(1, −1, 0), (1, 0, −1)i, in quanto W = h(1, 1, 1)i.

33
4 Matrici
4.1 Determinante di una matrice quadrata
Una sottomatrice p × q di una matrice A ∈ Mm,n (K) è una matrice costituita dagli
elementi di A comuni a p righe e q colonne fissate di A.
Sia A = (aij ) ∈ Mn (K) e sia Ai,j la sottomatrice che si ottiene da A cancellando la
i–esima riga e la j–esima colonna.
Diamo ora una definizione ricorsiva del determinante di una matrice quadrata di ordine
n. Sia A = (aij ) ∈ Mn (K). Si definisce determinante di A la funzione:

det : A ∈ Mn (K) 7−→ det(A) ∈ K,

dove n n
X X
i+j
det(A) = (−1) aij det(Aij ) = (−1)i+j aij det(Aij ).
j=1 i=1

Pertanto

se n = 1,
A = (a11 ) e det(A) = a11 ;

se n = 2,  
a11 a12
A= e det(A) = a11 a22 − a12 a21 ;
a21 a22

se n = 3,
 
a11 a12 a13
A =  a21 a22 a23  e per la regola di Sarrus si ha che
a31 a32 a33

det(A) = a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a13 a22 a31 − a23 a32 a11 − a33 a12 a21 .

Una matrice A ∈ Mn (K) si dice singolare se det(A) = 0. L’elemento det(A) ∈ K verrà


anche indicato con |A|.
Si definisce minore complementare o minore dell’elemento aij il determinante della
sottomatrice Aij che si ottiene da A cancellando la i–esima riga e la j–esima colonna.
Si definisce complemento algebrico dell’elemento aij il minore complementare dell’ele-
mento aij , con il proprio segno se i + j è pari, con il segno opposto se i + j è dispari.
Quindi il complemento algebrico dell’elemento ai,j risulta essere

(−1)i+j det(Aij ).

34
Osservazione 4.1. La definizione fornita di determinante si può enunciare come segue:
Il determinante di una matrice quadrata è la somma dei prodotti degli elementi di una
sua riga o di una sua colonna per i rispettivi complementi algebrici. 2

Teorema 4.2. (Secondo Teorema di Laplace)


Sia A ∈ Mn (K), allora la somma dei prodotti degli elementi di una sua riga o di una
sua colonna per i complementi algebrici corrispondenti ad un’altra riga o colonna è pari
a zero:
n
X n
X
(−1)k+j aij det(Akj ) = 0, i 6= k, (−1)i+k aij det(Aik ) = 0, j 6= k.
j=1 i=1

Esempi 4.3. Sia  


1 2 4
A =  3 −1 2  ∈ M3 (R).
1 1 1
Allora
3
X
(−1)2+j a1j det(A2j ) = −a11 det(A21 ) + a12 det(A22 ) − a13 det(A23 ) =
j=1

2 4 1 4 1 2
= −1 +2 −4 = 2 − 6 + 4 = 0.
1 1 1 1 1 1

3
X
(−1)i+2 ai1 det(Ai2 ) = −a11 det(A12 ) + a21 det(A22 ) − a31 det(A32 ) =
i=1
3 2 1 4 1 4
= −1 +3 −1 = −1 − 9 + 10 = 0.
1 1 1 1 3 2

Proposizione 4.4. Sia A ∈ Mn (K), allora valgono le seguenti proprietà:

i) Il determinante di A è uguale a quello della sua trasposta det(A) = det(At ),


   
1 2 1 3
det = det = −2.
3 4 2 4

ii) Il determinante di una matrice triangolare (inferiore o superiore) è il prodotto degli


elementi della sua diagonale principale.

iii) det(In ) = 1.

iv) Se una riga o una colonna di A è nulla, allora det(A) = 0.


2
Si noti che la definizione di determinante di una matrice quadrata può essere data differentemente
(utilizzando il concetto di permutazione o in maniera assiomatica). In tal caso si può dimostrare (Primo
Teorema di Laplace) che il determinante si può calcolare come indicato dalla definizione ricorsiva.

35
v) Moltiplicando per uno scalare α ∈ K una riga o una colonna di A si ottiene una
matrice B tale che det(B) = α det(A),
 
1 2
A= , det(A) = 7 − 10 = −3
5 7
 
(1) (1) (2) (2) α 2α
B = αA , B = A , B = , det(B) = 11α − 14α = −3α.
7 11

vi) Se B = αA, allora det(B) = αn det(A).


 

(1)
 
(1)
 A(1)
B αA
.. ..
 αA(2) 
det(B) = det   = det   = α det  =
     
. . ..
.
B (n) αA(n)
 
αA(n)
 
A(1)  

 A(2) 
 A(1)

αA(3)  . 
= α2 det   = αn det  ..  = αn det(A)
 
..
A(n)
 
 . 
αA(n)
 
1 2
A= , det(A) = 7 − 10 = −3
5 7
 
α 2α
B = αA = , det(B) = 11α2 − 14α2 = −3α2 .
7α 11α

vii) Scambiando tra loro due righe oppure due colonne di A si ottiene una matrice B
tale che det(A) = − det(B),
   
1 2 3 4
det = −2, det = 2.
3 4 1 2

viii) Se due righe o colonne di A sono uguali, allora A è singolare, det(A) = 0.


Se la matrice A ha due righe uguali, allora scambiando tali righe tra loro otteniamo
ancora la matrice A, ma tenendo conto della vii) si ha che det(A) = − det(A).
Quindi det(A) = 0.  
1 2
det = 2 − 2 = 0.
1 2

36
ix) Se due righe o colonne di A sono proporzionali allora A è singolare, det(A) = 0.
Se A(i) = αA(j) , i 6= j, allora
 (1)   (1)   (1) 
A A A
 ..   ..   .. 
 .   .   . 
 (i)  (j)   (j) 
 A   αA   A 

 .   .   . 
det(A) = det   ..  = det  ..  = α det  ..  = α0 = 0
    
 A(j)   A(j)   A(j) 
     
 .   .   . 
 ..   ..   .. 
(n) (n)
A A A(n)
 
1 2
det = 4 − 4 = 0.
2 4

x) Se la i–esima riga A(i) (colonna) di A è somma di due vettori riga (colonna) R, S ∈


Kn , i.e., A(i) = R + S, allora
A(1) A(1) A(1) A(1)
       
.. .. .. ..

 . 


 .



 .



 .


 (i−1)   (i−1)   (i−1)   (i−1) 
 A   A   A   A 
(i) 
det(A) = det  A  = det  R + S  = det  R  + det  S  .
      
 (i+1)   (i+1)   (i+1)   (i+1) 
 A   A   A   A 

 .
..



 .
..



 .
..



 .
..


A(n) A(n) A(n) A(n)
     
1 0 1 1 0 1 1 0 1
−11 = det  −3 −8 0  = det  −3 −2 0 +det  0 −6 0  = −23+12.
4 9 2 4 9 2 4 9 2
xi) Se ad una riga (colonna) di A si somma una combinazione lineare di altre righe
(colonne) di A, si ottiene una matrice B tale che det(B) = det(A).
Sia B tale che B (i) = A(i) + α1 A(1) + . . . + αi−1 A(i−1) + αi+1 A(i+1) + · · · + αn A(n) e
B (j) = A(j) , per ogni 1 ≤ j ≤ n, con j 6= i. Allora
 
B (1)
det(B) = det  ...  =
 
B (n)

A(1)
 
..

 . 

(i−1)
A
 
 
= det  A(i) + α1 A(1) + . . . + αi−1 A(i−1) + αi+1 A(i+1) + . . . + αn A(n)  =
 
A(i+1)
 
 

 .
..


(n)
A

37
A(1) A(1) A(1) A(1)
       
.. .. .. ..

 . 


 . 


 . 


 . 

 (i−1) 
 A A(i−1)  A(i−1)  A(i−1) 
     
   
(i) (1) (2)
= det  A +α1 det  A +α2 det  A +. . .+αn det  A(n)  =
       
 (i+1) 
 A A(i+1)  A(i+1)  A(i+1) 
     
   
 ..   ..   ..   .. 
 .   .   .   . 
αA(n) A(n) A(n) A(n)
= det(A) + α1 0 + . . . + αn 0 = det(A).
 
1 2
A= , det(A) = 7 − 10 = −3
5 7
 
1 2
B (1) = A(1) , B (2) (1) (2)
= 2A + A , B = , det(B) = 11 − 14 = −3.
7 11
Il prossimo risultato mostra che se det(A) 6= 0, allora le righe (o colonne) di A sono
linearmente indipendenti.
Proposizione 4.5. Se le righe (colonne) di una matrice quadrata A formano un insieme
di vettori linearmente dipendenti, allora A è singolare.
Dimostrazione. Sia A ∈ Mn (K) e siano α1 , . . . , αn ∈ K non tutti nulli, tali che α1 A(1) +
. . . + αn A(n) = 0. In particolare, se αi 6= 0, allora sia B la matrice ottenuta da A, dove
B (j) = A(j) , 1 ≤ j ≤ n, j 6= i, e
α1 αi−1 (i−1) αi+1 (i+1) αn (n)
B (i) = A(i) + A(1) + . . . + A + A + ... + A = 0.
αi αi αi αi
Allora da xi) si ha che det(A) = det(B). Inoltre la i–esima riga di B è la riga nulla,
pertanto det(B) = 0, e dunque det(A) = 0.
Teorema 4.6. (Teorema di Binet)
Se A, B ∈ Mn (K), allora det(AB) = det(A) det(B).

4.2 Matrici invertibili


Una matrice quadrata A ∈ Mn (K) si dice invertibile se esiste una matrice M ∈ Mn (K)
tale che AM = M A = In .
Lemma 4.7. Se esiste l’inversa di una matrice, allora essa è unica.
Dimostrazione. Sia A ∈ Mn (K) e siano M, N ∈ Mn (K) tali che AM = M A = In
e AN = N A = In . Allora M = M In = M (AN ) = (M A)N = In N = N . Quindi
M = N.
L’inversa di A si denota con A−1 . Denoteremo con GLn (K) il sottoinsieme di Mn (K)
costituito dalle matrici invertibili.

GLn (K) = {A ∈ Mn (K) | A invertibile}.

38
Lemma 4.8. i) Siano A, M ∈ Mn (K). Se AM = In , allora M A = In .

ii) Se A, B ∈ GLn (K), allora AB ∈ GLn (K) e (AB)−1 = B −1 A−1 .

iii) In ∈ GLn (K) e In−1 = In .

iv) Se A ∈ GLn (K), allora det(A−1 ) = det(A)−1 .

v) Se A ∈ GLn (K), allora A−1 ∈ GLn (K) e (A−1 )−1 = A.

Dimostrazione. i) Supponiamo che AM = In , allora M A = In (M A) = (A−1 A)M A =


A−1 (AM )A = A−1 In A = A−1 A = In .
ii) Si noti che (AB)(B −1 A−1 ) = A(BB −1 )A−1 = AIn A−1 = AA−1 = In . Pertanto
(AB)−1 = B −1 A−1 .
iv) Poichè A è invertibile, esiste A−1 ∈ Mn (K) tale che AA−1 = A−1 A = In . Allora
det(AA−1 ) = det(A) det(A−1 ) = det(In ) = 1. Pertanto det(A−1 ) = 1/ det(A) = det(A)−1 .

Proposizione 4.9. GLn (K) è un gruppo. Infatti:

i) ∀A, B, C ∈ GLn (K), A(BC) = (AB)C;

ii) ∀A ∈ GLn , AIn = In A = A;

iii) ∀A ∈ GLn (K), allora A−1 ∈ GLn (K) e AA−1 = A−1 A = In .

Si dice matrice aggiunta di A = (aij ) ∈ Mn (K), e si denota con Agg(A), la matrice


che ha come elemento di posto i, j, il complemento algebrico dell’elemento di At di posto
i, j, che è (−1)i+j det(Aji ).
 
det(A11 ) − det(A21 ) · · · (−1)n+1 det(An1 )
 − det(A12 ) det(A22 ) · · · (−1)n+2 det(An2 ) 
Agg(A) = 
 
.. .. . . .. 
 . . . . 
1+n 2+n
(−1) det(A1n ) (−1) det(A2n ) · · · det(Ann )

Esempi 4.10. 1. Sia


   
1 2 4 −3 2 8
A =  3 −1 2  ∈ M3 (R), Agg(A) =  −1 −3 10  .
1 1 1 4 1 −7

2. Sia    
1 1 2 1 −1 2
A =  0 1 0  ∈ M3 (R), Agg(A) =  0 1 0  .
−1 0 1 1 −1 1
Il seguente risultato caratterizza le matrici invertibili.

39
Teorema 4.11. A ∈ GLn (K) è se e solo se det(A) 6= 0.

Dimostrazione. Se A è invertibile, esiste A−1 ∈ GLn (K) tale che AA−1 = In . Quindi
det(AA−1 ) = det(A) det(A−1 ) = det(In ) = 1. Allora det(A) 6= 0.
Sia det(A) 6= 0. Mostriamo che AAgg(A) = det(A)In . Infatti

AAgg(A) =
  
a11 a12 · · · a1n det(A11 ) − det(A21 ) · · · (−1)n+1 det(An1 )
 a21 a22 · · · a2n   − det(A12 ) det(A22 ) · · · (−1)n+2 det(An2 ) 
=
  
.. .. ... ..   .. .. . . .. 
 . . .  . . . . 
an1 an2 · · · ann (−1)1+n det(A1n ) (−1)2+n det(A2n ) · · · det(Ann )
 Pn Pn Pn 
j=1 (−1)1+j a1j det(A1j ) j=1 (−1)2+j a1j det(A2j ) · · · j=1 (−1)n+j a1j det(Anj )
Pn 1+j
Pn 2+j
Pn n+j

j=1 (−1) a2j det(A1j ) j=1 (−1) a2j det(A2j ) · · · j=1 (−1) a2j det(Anj ) 
=
 
.. .. ... .. 

Pn . Pn . Pn . 
1+j 2+j n+j
j=1 (−1) anj det(A1j ) j=1 (−1) anj det(A2j ) · · · j=1 (−1) anj det(Anj )
 
det(A) 0 ··· 0
 0 det(A) · · · 0 
=  = det(A)In .
 
.. .. .. ..
 . . . . 
0 0 · · · det(A)

Pertanto A−1 , l’inversa di A, si può ottenere dividendo ciascun elemento dell’aggiunta


di A per il determinante di A.

Corollario 4.12. A−1 = 1


det(A)
Agg(A).

Esempi 4.13. 1. Sia


 
1 2 4
A =  3 −1 2  ∈ M3 (R), det(A) = 11.
1 1 1
   
−3 2 8 −3/11 2/11 8/11
Agg(A) =  −1 −3 10  , A−1 =  −1/11 −3/11 10/11  .
4 1 −7 4/11 1/11 −7/11

2. Sia  
1 1 2
A =  0 1 0  ∈ M3 (R), det(A) = 3.
−1 0 1
   
1 −1 2 1/3 −1/3 −2/3
Agg(A) =  0 1 0  , A−1 =  0 1/3 0 .
1 −1 1 1/3 −1/3 1/3

40
4.3 Rango di una matrice
Sia A ∈ Mm,n (K), il rango per righe di A è il massimo numero di righe linearmente indi-
pendenti di A, dove i vettori riga di A sono considerati come vettori di Kn . Analogamente,
il rango per colonne di A è il massimo numero di colonne linearmente indipendenti di A,
dove i vettori colonna di A (trasposti) sono considerati come vettori di Km .

Osservazione 4.14. Dalla definizione di rango per righe o colonne e dal Corollario 2.28

segue che il rango per righe di A è pari a dim hA(1) , . . . , A(m) i , mentre il rango per

colonne di A è pari a dim hA(1) , . . . , A(n) i .

Proposizione 4.15. Sia A ∈ Mm,n (K), allora il rango per righe ed il rango per colonne
di A coincidono.
 
Dimostrazione. Sia A = (aij ), dove dim hA(1) , . . . , A(m) i = r e dim hA(1) , . . . , A(n) i =

s. Vogliamo provare che r = s. Poichè dim hA(1) , . . . , A(m) i = r, vi sono r vettori
A(i1 ) , . . . , A(ir ) che formano una base per hA(1) , . . . , A(m) i. Allora


 A(1) = λ11 A(i1 ) + λ12 A(i2 ) + . . . + λ1r A(ir )
 A(2) = λ21 A(i1 ) + λ22 A(i2 ) + . . . + λ2r A(ir )

.. (4.1)


 .
 A(m) = λ A(i1 ) + λ A(i2 ) + . . . + λ A(ir )
m1 m2 mr

Uguagliando le j–esime componenti dei due membri della (4.1) si ha




 a1j = λ11 ai1 j + λ12 ai2 j + . . . + λ1r air j
 a2J = λ21 ai j + λ22 ai j + . . . + λ2r ai j

1 2 r
.. (4.2)


 .
 a
mj = λm1 ai1 j + λm2 ai2 j + . . . + λmr air j

In forma matriciale la (4.2) si esprime come segue


       
a1j λ11 λ12 λ1r
 a2J   λ21   λ22   λ2r 
 ..  = ai1 j  ..  + ai2 j  .. + . . . + a . (4.3)
       
 ir j  ..
 .   .   .   . 
amj λm1 λm2 λmr

Posto      
λ11 λ12 λ1r
 λ21   λ22   λ2r 
L(1) =   , L(2) =   , . . . , L(r) =  ,
     
.. .. ..
 .   .   . 
λm1 λm2 λmr
dalla (4.3), si ha che

A(j) = ai1 j L(1) + ai2 j L(2) + . . . + air j L(r)

41
e pertanto
A(j) ∈ hL(1) , L(2) , . . . , L(r) i, 1 ≤ j ≤ n.
Ne segue che
 
s = dim hA(1) , . . . , A(n) i ≤ dim hL(1) , . . . , L(r) i ≤ r.
Analogamente, partendo dalle colonne di A invece che dalle righe, si ottiene r ≤ s.
In base al risultato precedente possiamo definire il rango di A come il massimo numero
di righe o colonne linearmente indipendenti di A. Il rango di A si denota con rg(A).

4.3.1 Metodo di Gauss


Proposizione 4.16. Il rango di una matrice non cambia se essa viene sottoposta ad una
qualunque selle seguenti operazioni, dette operazioni elementari di riga:
i) scambio di due righe,

ii) moltiplicazione di una riga per uno scalare non nullo,

iii) somma di un multiplo di una riga ad un’altra riga.


Dimostrazione. Sia A ∈ Mm,n (K). Sia B la matrice ottenuta da A scambiando le righe
s, t, dove 1 ≤ s < t ≤ m. Allora
hA(1) , . . . , A(t) , . . . , A(s) , . . . , A(m) i = hA(1) , . . . , A(s) , . . . , A(t) , . . . , A(m) i
e
rg(B) = dim hA(1) , . . . , A(t) , . . . , A(s) , . . . , A(m) i =


= dim hA(1) , . . . , A(s) , . . . , A(t) , . . . , A(m) i = rg(A).




Sia B la matrice ottenuta moltiplicando la t–esima riga di A per uno scalare c ∈ K,


con c 6= 0. Allora
hA(1) , . . . , cA(t) , . . . , A(m) i = hA(1) , . . . , A(t) , . . . , A(m) i
e
rg(B) = dim hA(1) , . . . , cA(t) , . . . , A(m) i =


= dim hA(1) , . . . , A(t) , . . . , A(m) i = rg(A).




Infine, se B è la matrice ottenuta da A sostituendo alla s–esima riga di A, A(s) , la


combinazione lineare A(s) + cA(t) , per qualche c ∈ K e s 6= t. Si noti che
hA(1) , . . . , A(s) + cA(t) , . . . , A(m) i ⊆ hA(1) , . . . , A(t) , . . . , A(m) i.
Inoltre, poichè A(s) = (A(s) + cA(t) ) − cA(t) , si ha che
hA(1) , . . . , A(m) i ⊆ hA(1) , . . . , A(s) + cA(t) , . . . , A(m) i.
Pertanto anche in questo caso rg(A) = rg(B). Per maggiori dettagli si veda Osservazione
2.19.

42
Il prossimo risultato, che si dimostra facilmente utilizzando le proprietà del determi-
nante (Proposizione 4.4), osserva che il determinante di una matrice non è preservato se
la matrice è sottoposta ad operazioni elementari di riga.
Proposizione 4.17. Sia A ∈ Mn (K).
i) Se B è ottenuta da A scambiando tra loro due righe, allora det(B) = − det(A);

ii) Se B è ottenuta da A moltiplicando una riga per uno scalare 0 6= λ ∈ K, allora


det(B) = λ det(A);

iii) Se B è ottenuta da A sommando ad una riga di A un multiplo di un’altra riga,


allora det(B) = det(A).
Sia A = (aij ) ∈ Mm,n (K). Il pivot di una riga è il primo elemento non nullo di quella
riga. In altri termini l’elemento aij si definisce pivot della i–esima riga di A, se j è il più
piccolo intero tale che aij 6= 0. Quindi aij 6= 0 e aih = 0, per ogni h < j.
La matrice A si dice a gradini se le righe nulle della matrice si trovano in basso ed ogni
pivot si trova a sinistra di tutti i pivots delle righe successive. Pertanto A è a gradini se
valgono le seguenti proprietà:
i) se aij è il pivot della i–esima riga, allora akj = 0 per ogni i < k ≤ m,

ii) se aij è il pivot della i–esima riga e akh è il pivot della k–esima riga, con i < k, allora
j < h,

iii) ogni riga non nulla precede ogni riga nulla.


Teorema 4.18. (Metodo di Gauss)
Ogni matrice può essere trasformata in una matrice a gradini mediante operazioni ele-
mentari di riga. Il rango di una matrice a gradini è pari al numero delle sue righe non
nulle.
Esempi 4.19. 1. Sia
 
1 −2 3 4
A= 0 1 3 1  ∈ M3,4 (R), 1 ≤ rg(A) ≤ 3.
−2 1 1 2
   
1 −2 3 4 1 −2 3 4
R30 = R2 + 2R1  0 1 3 1  , R30 = R3 + 3R2  0 1 3 1  ,
0 −3 7 10 0 0 16 13
pertanto rg(A) = 3.
2. Sia  
1 4 0 −2 5 6
 1 1 1 2 1 0 
A=  ∈ M4,6 (R), 1 ≤ rg(A) ≤ 4.
 5 6 1 1 8 7 
3 1 0 1 2 1

43
 
1 4 0 −2 5 6
R20 = R2 − R1  0 −3 1 4 −4 −6 
R30 = R3 − 5R1 0 14 1 11 −17 −23  ,
 
R40 = R4 − 3R1
0 −11 0 7 −13 −17
 
1 4 0 −2 5 6
R30 = 3R3 − 14R2 
 0 −3 1 4 −4 −6  ,
0
R4 = 3R4 − 11R2  0 0 −11 −23 5 15 
0 0 −11 −23 5 15
 
1 4 0 −2 5 6
 0 −3 1 4 −4 −6 
R40 = R4 − R3 
 0 0 −11 −23 5 15  ,

0 0 0 0 0 0
pertanto rg(A) = 3.

Calcolo dell’inversa

Sia A ∈ Mn (K). Si consideri la matrice (A|In ). Se A è invertibile, effettuando ope-


razioni elementari di riga, è possibile ottenere una matrice della forma (In |B). Allora
B = A−1 .

Esempi 4.20. 1. Sia


 
1 2 4
A=  3 −1 2  ∈ M3 (R), det(A) = 11.
1 1 1
 
1 2 4 1 0 0
(A|I3 ) =  3−1 2 0 1 0  ∈ M3,6 (R).
1 1 1 0 0 1
 
0 1 2 4 1 0 0
R2 = R2 − 3R1 
0 −7 −10 −3 1 0  ,
R30 = R3 − R1
0 −1 −3 −1 0 1
 
1 2 4 1 0 0
R30 = 7R3 − R2  0 −7 −10 −3 1 0  ,
0 0 −11 −4 −1 7
 
7 0 8 1 2 0
R10 = 7R1 + 2R2  0 −7 −10 −3 1 0  ,
0 0 −11 −4 −1 7
 
0 77 0 0 −21 14 56
R1 = 11R1 + 8R3 
0 −77 0 7 21 −70  ,
R20 = 11R2 − 10R3
0 0 −11 −4 −1 7

44
R10 = R1 /77
 
1 0 0 −3/11 2/11 8/11
R20 = R2 / − 77  0 1 0 −1/11 3/11 10/11  = (I3 |A−1 ).
R30 = R3 / − 11 0 0 1 4/11 1/11 −7/11

2. Sia  
1 1 2
A =  0 1 0  ∈ M3 (R), det(A) = 3.
−1 0 1
 
1 1 2 1 0 0
(A|I3 ) =  0 1 0 0 1 0  ∈ M3,6 (R).
−1 0 1 0 0 1
 
1 1 2 1 0 0
R30 = R3 + R1  0 1 0 0 1 0  ,
0 1 3 1 0 1
 
0 1 0 2 1 −1 0
R3 = R3 − R2 
0 1 0 0 1 0 ,
R10 = R1 − R2
0 0 3 1 −1 1
 
3 0 0 1 −1 −2
R10 = 3R1 − 2R3  0 1 0 0 1 0 ,
0 0 3 1 −1 1
 
0 1 0 0 1/3 −1/3 −2/3
R1 = R1 /3 
0 1 0 0 1/3 0  = (I3 |A−1 ).
R30 = R3 /3
0 0 1 1/3 −1/3 1/3

4.3.2 Metodo degli orlati


Sia A ∈ Mm,n (K). Si chiama minore di ordine k, con k ≤ min{m, n}, il determinante di
una qualunque sottomatrice quadrata di ordine k ottenuta sopprimendo m − k righe ed
n − k colonne di A.
Sia A ∈ Mm,n (K) e sia M una sua sottomatrice, orlare M significa completare la
sottomatrice M con una riga ed una colonna di A non appartenenti ad M .

Proposizione 4.21. Se B è una sottomatrice di A, allora rg(B) ≤ rg(A).

Dimostrazione. Sia B una sottomatrice p × q della matrice A ∈ Mm,n (K). Sia C ∈


Mp,n (K) la matrice formata dalle p righe di A in comune con B. Poichè

hC (1) , . . . , C (p) i ⊆ hA(1) , . . . , A(m) i,

si ha che rg(C) ≤ rg(A). Analogamente, poichè

hB(1) , . . . , B(q) i ⊆ hC(1) , . . . , C(n) i,

segue che rg(B) ≤ rg(C). Quindi rg(B) ≤ rg(A).

45
Proposizione 4.22. i) Se A ∈ Mm,n (K), B ∈ Mn,p (K), allora rg(AB) ≤ min{rg(A), rg(B)}.

ii) Se A ∈ GLm (K), B ∈ Mm,n (K), C ∈ GLn (K), allora rg(AB) = rg(B) = rg(BC).

Dimostrazione. i) Se A = (aij ) ∈ Mm,n (K) e B = (bij ) ∈ Mn,p (K), allora la i–esima riga
della matrice AB ∈ Mm,p (K) risulta

A(i) B = (ai1 b11 + . . . + ain bn1 , ai1 b12 + . . . + ain bn2 , . . . , ai1 b1p + . . . + ain bnp ) =

= (ai1 b11 , ai1 b12 , . . . , ai1 b1p ) + (ai2 b21 , ai2 b22 , . . . , ai2 b2p ) + . . . + (ain bn1 , ain bn2 , . . . , ain bnp ) =
= ai1 B (1) + ai2 B (2) + . . . + ain B (n) .
Pertanto A(i) B ∈ hB (1) , B (2) , . . . , B (n) i, 1 ≤ i ≤ m e quindi rg(AB) ≤ rg(B). Inoltre si
ha che
rg(AB) = rg((AB)t ) = rg(B t At ) ≤ rg(At ) = rg(A).
ii) Dalla i) si ha che

rg(AB) ≤ rg(B) = rg((A−1 A)B) = rg(A−1 (AB)) ≤ rg(AB),

e quindi rg(AB) = rg(B). Analogamente

rg(BC) ≤ rg(B) = rg(B(CC −1 )) = rg((BC)C −1 ) ≤ rg(BC),

da cui segue che rg(BC) = rg(B).

Teorema 4.23. Una matrice quadrata di ordine n è invertibile se e solo se ha rango n.

Dimostrazione. Se la matrice A ∈ Mn (K) è invertibile, allora dalla Proposizione 4.22 ii),


si ha che rg(A) = rg(AA−1 ) = rg(In ) = n e la matrice A ha lo stesso rango di In . In
particolare rg(In ) = n. Viceversa, se A ha rango n, le sue righe A(1) , A(2) , . . . , A(n) sono
linearmente indipendenti e quindi costituiscono una base di Kn . Esistono, pertanto, per
ogni i = 1, . . . , n, degli scalari bi1 , . . . , bin ∈ K tali che

ei = bi1 A(1) + bi2 A(2) + . . . + bin A(n) .

Sia B = (bij ) ∈ Mn (K). Allora ei = B (i) A, quindi In = BA ed A è invertibile.

Teorema 4.24. Sia A ∈ Mm,n (K), allora rg(A) coincide con il massimo ordine dei
minori non nulli di A.

Dimostrazione. Sia ρ il massimo ordine dei minori non nulli di A. Mostriamo prima che
ρ ≤ rg(A). Infatti se denotiamo con M una sottomatrice quadrata di A di ordine ρ che
ha determinante diverso da zero, allora, dalla Proposizione 4.5, si ha che le righe di M
sono linermente indipendenti e quindi rg(M ) = ρ. Inoltre, essendo M una sottomatrice
di A, dalla Proposizione 4.21 si ottiene ρ ≤ rg(A).

46
Viceversa, se r = rg(A), allora in A vi sono r righe linearmente indipendenti ed in
particolare r è il massimo numero di righe di A linearmente indipendenti. Sia B ∈ Mr,n (K)
la sottomatrice di A costituita dalle righe di A che sono linearmente indipendenti. Per
costruzione, le r righe della matrice B sono linermente indipendenti, pertanto rg(B) ≥ r.
Dalla Proposizione 4.21, si ha che rg(B) = r ed allora B contiene r colonne linearmente
indipendenti. Sia C la sottomatrice quadrata di ordine r di B formata dalle r colonne di B
linearmente indipendenti. La matrice C ha rango r e dal Teorema 4.23 risulta invertibile.
Dal Teorema 4.11 si ha che det(C) 6= 0, det(C) è un minore non nullo di A di ordine r e
ρ ≥ r.

I seguenti risultati discendono facilmente dal teorema appena dimostrato.

Teorema 4.25. (Teorema di Kronecker o Metodo degli orlati)


Sia A ∈ Mm,n (K), allora rg(A) = k se e solo se esiste in A un minore non nullo di
ordine k per il quale tutti i minori orlati sono nulli.

Corollario 4.26. Sia A ∈ Mn (K), allora rg(A) = n se e solo se det(A) 6= 0.

Corollario 4.27. Una matrice quadrata è invertibile se e solo se è non singolare.

Corollario 4.28. Una matrice quadrata è singolare se e solo se le sue righe (colonne)
formano un insieme di vettori linearmente dipendenti.

Esempi 4.29. 1. Sia


 
1 −2 3 4
A= 0 1 3 1  ∈ M3,4 (R), 1 ≤ rg(A) ≤ 3.
−2 1 1 2
 
1 −2 3
det  0 1 3  = 16,
−2 1 1
pertanto rg(A) = 3.
2. Sia  
1 4 0 −2 5 6
 1 1 1 2 1 0 
A=  ∈ M4,6 (R), 1 ≤ rg(A) ≤ 4.
 5 6 1 1 8 7 
3 1 0 1 2 1
 
1 4
det = −3 6= 0, rg(A) ≥ 2,
1 1
 
1 4 0
det  1 1 1  = −5 + 16 = 11 6= 0, rg(A) ≥ 3,
5 6 1

47
     
1 4 0 −2 1 4 0 5 1 4 0 6
 1 1 1 2   1 1 1 1   1 1 1 0 
det 
 5
 = det   = det   = 0,
6 1 1   5 6 1 8   5 6 1 7 
3 1 0 1 3 1 0 2 3 1 0 1
pertanto rg(A) = 3.

48
5 Sistemi di equazioni lineari
Siano X1 , . . . , Xn indeterminate. Un’equazione lineare (o di primo grado) nelle incognite
X1 , . . . , Xn a coefficienti nel campo K è della forma

a1 X1 + . . . + an Xn = b, ai , b ∈ K, 1 ≤ i ≤ n. (5.1)

Una soluzione di (5.1) è un elemento (x1 , . . . , xn ) ∈ Kn tale che sostituito al posto della
n–upla delle indeterminate (X1 , . . . , Xn ) dà luogo ad un’identità. L’equazione (5.1) si dice
omogenea se b = 0, altrimenti si dice non omogenea.
Se si considerano simultaneamente m ≥ 1 equazioni lineari nelle incognite X1 , . . . , Xn :


 a11 X1 + a12 X2 + . . . + a1n Xn = b1
 a21 X1 + a22 X2 + . . . + a2n Xn = b2

.. , (5.2)


 .
 a X + a X + ... + a X = b
m1 1 m2 2 mn n m

si ottiene un sistema di m equazioni lineari nelle incognite X1 , . . . , Xn .


Il sistema (5.2) si dice omogeneo se b1 = . . . = bm = 0, mentre si dice non omogeneo se
bi 6= 0, per qualche i, con 1 ≤ i ≤ m. Una soluzione di (5.2) è una n–upla (x1 , . . . , xn ) ∈ Kn
tale che essa è soluzione simultanea delle m equazioni lineari di (5.2). Il sistema (5.2) si
dice compatibile se ammette soluzioni, altrimenti si dice non compatibile.
Si noti che ogni sistema omogeneo è compatibile, in quanto ammette sempre come
soluzione il vettore nullo di Kn . Tale soluzione è detta soluzione banale. Una soluzione
diversa dal vettore nullo si dice soluzione non–banale.
Il sistema 

 a11 X1 + a12 X2 + . . . + a1n Xn = 0
 a21 X1 + a22 X2 + . . . + a2n Xn = 0

.. , (5.3)


 .
 a X + a X + ... + a X = 0
m1 1 m2 2 mn n

si dice sistema omogeneo associato a (5.2).


Al sistema (5.2) è possibile associare la matrice formata dai coefficienti del sistema:
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A =  .. ..  ,
 
.. ..
 . . . . 
an1 an2 . . . ann

A è detta matrice associata al sistema (5.2) o matrice dei coefficienti del sistema (5.2) o
matrice incompleta del sistema (5.2). Aggiungendo ad A come (n + 1)–esima colonna la

49
 
b1
 b2 
colonna dei termini noti b =   si ottiene
 
..
 . 
bm
 
a11 a12 . . . a1n b1
 a21 a22 . . . a2n b2 
Ā = 
 
.. .. ... .. .. 
 . . . . 
an1 an2 . . . ann bm

che è 
detta matrice
 completa del sistema (5.2) ed verrà denotata anche con (A|b). Ponendo
X1
 X2 
X =  .. , si ha che il sistema (5.2) si può esprimere in forma matriciale come segue
 
 . 
Xm

AX = b.

Analogamente il sistema omogeneo associato (5.3) risulta


 
0
t  .. 
AX = 0 =  .  .
0

Pertanto un vettore v = (x1 , . . . , xn ) ∈ Kn è soluzione del sistema AX = b se


 
x1
Avt = A  ...  = b.
 
xn

Due sistemi di equazioni lineari nelle incognite X1 , . . . , Xn si dicono equivalenti se


possiedono le stesse soluzioni. (Si noti che due sistemi equivalenti non necessariamente
hanno lo stesso numero di equazioni).

Proposizione 5.1. Se il sistema AX = b è compatibile, allora le sue soluzioni sono tutte


e sole le n–uple ottenute sommando ad una di esse le soluzioni del sistema omogeneo
associato AX = 0t .

Dimostrazione. Si denotino con S e S0 i sottoinsiemi di Kn le cui n–uple sono rispetti-


vamente le soluzioni del sistema AX = b e del sistema omogeneo associato AX = 0t . Se
v = (x1 , . . . , xn ) ∈ S, allora ∀ w = (y1 , . . . , yn ) ∈ S0 , si ha che v + w = (x1 , . . . , xn ) +
(y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ) ∈ S. Infatti

A(v + w)t = A(vt + wt ) = Avt + Awt = b + 0t = b.

50
Viceversa, se v = (x1 , . . . , xn ) ∈ S, allora ∀ u = (z1 , . . . , zn ) ∈ S, si ha che u − v =
(z1 − x1 , z2 − x2 , . . . , zn − xn ) ∈ S0 . Infatti

A(u − v)t = A(ut − vt ) = Aut − Avt = b − b = 0t .

Un sistema di equazioni lineari nelle incognite X1 , . . . , Xn si dice a gradini se la matrice


associata al sistema è a gradini.

Proposizione 5.2. Un sistema a gradini di m equazioni in n incognite è compatibile se


e solo se rg(A) = rg(Ā) = r. In tal caso esso ammette un’unica soluzione oppure ∞n−r
soluzioni a seconda che n = r oppure r < n.

Dimostrazione. Sia rg(A) = r. Se rg(Ā) 6= rg(A), allora rg(Ā) = r + 1 ed il sistema sarà


del tipo 

 a11 X1 + a12 X2 + . . . + a1n Xn = b1
a22 X2 + . . . + a2n Xn = b2


..


 .
 0 = br+1
e quindi non compatibile.
Se rg(Ā) = r, allora o r = n oppure r < n. Nel primo caso (se r = n) il sistema sarà
del tipo 

 a11 X1 + a12 X2 + . . . + a1n Xn = b1
a22 X2 + . . . + a2n Xn = b2


..


 .
 a X =b
nn n n

Allora dall’ultima equazione si ha xn = a−1 nn bn e procedendo con le sostituzioni a ritroso


si ottiene un’unica soluzione (x1 , . . . , xn ) ∈ Kn . Pertanto un sistema di equazioni lineari
a gradini di n equazioni in n incognite è compatibile e possiede un’unica soluzione.
Nel secondo caso (se r < n), sia aij il pivot della i–esima riga della matrice A associata
al sistema. Si noti che se aij è il pivot della i–esima riga e akh è il pivot della k–esima riga,
con i < k, allora j < h. Possiamo supporre che X1 , . . . , Xr siano le incognite del sistema
aventi come coefficienti i pivot della matrice A. Allora il sistema considerato è equivalente
al seguente:


 a11 X1 + a12 X2 + . . . + a1r Xr = b1 − (a1r+1 Xr+1 + . . . + a1n Xn )
a22 X2 + . . . + a2r Xr = b2 − (a2r+1 Xr+1 + . . . + a2n Xn )


.. (5.4)


 .
 arr Xr = br − (arr+1 Xr+1 + . . . + arn Xn )

Attribuendo valori arbitrari tm+1 , . . . , tn ∈ K alle incognite Xr+1 , . . . , Xn si ottiene un


sistema a gradini di r equazioni nelle r incognite X1 , . . . , Xr , il quale ha un’unica soluzione.

51
Pertanto il sistema (5.4) ammette le infinite soluzioni al variare dei parametri tr+1 , . . . , tn ∈
K. Pertanto un sistema di equazioni lineari a gradini di m equazioni in n incognite è
compatibile e possiede ∞n−r soluzioni.

Osservazione 5.3. Un’equazione lineare a1 X1 + . . . + an Xn = b, con (a1 , . . . , an ) 6=


(0, . . . , 0), si può considerare come un sistema a gradini, pertanto essa possiede ∞n−1
soluzioni.

5.1 Metodo di eliminazione di Gauss–Jordan


Il metodo di eliminazione di Gauss–Jordan consente di stabilire se un sistema è compa-
tibile ed in caso affermativo di trovarne le soluzioni. Esso consiste nel sostituire il siste-
ma assegnato con un sistema a gradini ad esso equivalente mediante passaggi successivi
detti operazioni elementari sulle equazioni del sistema, che corrispondono ad altrettante
operazioni elementari di riga sulle righe della matrice completa del sistema.

Proposizione 5.4. Le soluzioni di un sistema non cambiano se esso viene sottoposto ad


una qualunque selle seguenti operazioni, dette operazioni elementari sulle equazioni:

i) scambio di due equazioni,

ii) moltiplicazione di entrambi i membri di un’equazione per uno scalare non nullo,

iii) somma di un multiplo di una equazione ad un’altra equazione.

Se si effettua su un sistema un’operazione elementare di tipo i), il nuovo sistema che


si ottiene è equivalente al precedente in quanto le soluzioni di un sistema non dipendono
dall’ordine in cui si considerano le sue equazioni.
Analogamente, se si effettua un’operazione di tipo ii), le soluzioni non cambiano in
quanto equazioni proporzionali hanno le stesse soluzioni.
Infine se si effettua una operazione di tipo iii), allora anche in tal caso si ottengono
sistemi equivalenti. Infatti la n–upla (x1 , . . . , xn ) ∈ Kn soddisfa due equazioni

ai1 X1 + . . . + ain Xn = bi , aj1 X1 + . . . + ajn Xn = bj ,

se e solo se è soluzione delle equazioni

ai1 X1 + . . . + ain Xn = bi , c(ai1 X1 + . . . + ain Xn ) + (aj1 X1 + . . . + ajn Xn ) = cbi + bj ,

per ogni scalare c ∈ K.

Esempi 5.5. Sia K = R.

1.   
 X1 + 2X2 + 3X3 = 1 1 2 3 1
2X1 + X2 + 4X3 = 2 , Ā =  2 1 4 2 
3X1 − 3X2 + X3 = 1 3 −3 1 1

52
 
1 2 3 1
R20 = R2 − 2R1 
0 −3 −2 0  ,
R30 = R3 − 3R1
0 −9 −8 −2
 
1 2 3 1
R30 = R3 − 3R2  0 −3 −2 0  ,
0 0 −2 −2

 X1 + 2X2 + 3X3 = 1
−3X2 − 2X3 = 0 ,
−2X3 = −2

pertanto l’unica soluzione del sistema è − 23 , − 32 , 1 ∈ R3 .




2.   
 X3 + 2X4 = 3 0 0 1 2 3
2X1 + 4X2 − 2X3 = 4 , Ā =  2 4 −2 0 4 
2X1 + 4X2 − X3 + 2X4 = 7 2 4 −1 2 7

 
2 4 −1 2 7
R30 = R1  2 4 −2 0 4  ,
0 0 1 2 3
 
2 4 −1 2 7
0
R2 = R2 − R1 0 0 −1 −2 −3
 ,
0 0 1 2 3
 
2 4 −1 2 7
R30 = R3 + R2  0 0 −1 −2 −3 ,
0 0 0 0 0

 2X1 + 4X2 − X3 + 2X4 = 7
−X3 − 2X4 = −3 , X4 = u, X2 = t, X3 = 3 − 2u, X1 = 5 − 2u − 2t,
0=0

pertanto il sistema ammette le ∞2 soluzioni: (5 − 2u − 2t, t, 3 − 2u, u) ∈ R4 , t, u ∈ R.

3.   

 X1 + X2 + 2X3 + X4 = 0 1 1 2 1 0
X1 + X2 + X3 + 2X4 − X5 = 0 1 1 1 2 −1 
 
, Ā =  

 X1 + X2 + 3X4 − 2X5 = 0  1 1 0 3 −2 
X1 + X2 + 3X3 + X5 = 0 1 1 3 0 1

 
0 1 1 2 1 0
R2 = R2 − R1 
0 0 −1 1 −1 
R30 = R3 − R1 
 0 0 −2 2
,
−2 
R40 = R4 − R1
0 0 1 −1 1
 
1 1 2 1 0
R30 = R3 − 2R2 
 0 0 −1 1 −1 
,
0
R4 = R4 − R2  0 0 0 0 0 
0 0 0 0 0

53

X1 + X2 + 2X3 + X4 = 0
, X4 = u, X5 = v, X2 = t, X3 = u−v, X1 = −t−3u+2v,
−X3 + X4 − X5 = 0
pertanto il sistema ammette le ∞3 soluzioni: (−t − 3u + 2v, t, u − v, u, v) ∈ R5 ,
t, u, v ∈ R.
4.   

 X1 − 5X2 − 8X3 + X4 = 3 1 −5 −8 1 3
3X1 + X2 − 3X3 − 5X4 = 1  3 1 −3 −5 1 

, Ā =  

 X 1 − 7X 3 + 2X 4 = −5  1 0 −7 2 −5 
11X2 + 20X3 − 9X4 = 2 0 11 20 −9 2

 
1 −5 −8 1 3
R20 = R2 − 3R1   0 16 21 −8 −8  ,

0
R3 = R3 − R1  0 5 1 1 −8 
0 11 20 −9 2
 
1 −5 −8 1 3
 0 16 21 −8 −8 
R30 = R3 − R2   0 −11 −20 9
,
0 
0 11 20 −9 2
 
1 −5 −8 1 3
 0 16 21 −8 −8 
R40 = R4 + R3   0 −11 −20 9
,
0 
0 0 0 0 2


 X1 − 5X2 − 8X3 + X4 = 3
16X2 + 21X3 − 8X4 = −8

,

 −11X2 − 20X3 + 9X4 = 0
0=2

pertanto il sistema non ammette soluzioni.

Teorema 5.6. (Teorema di Rouché–Capelli)


Un sistema di m equazioni in n incognite AX = b, dove A ∈ Mm,n (K), b ∈ Mm,1 (K),
X = (X1 , . . . , Xn )t , è compatibile se e solo se rg(A) = rg(A|b) = r. In tal caso esso
ammette un’unica soluzione oppure ∞n−r soluzioni a seconda che n = r oppure r < n.

Dimostrazione. Sia A = (aij ). Allora la n–upla (x1 , . . . , xn ) ∈ Kn è soluzione di AX = b


se e solo se
       
a11 a12 a1n b1
 a21   a22   a2n   b2 
x1  ..  + x2  ..  + . . . + xn  ..  =  .
       
..
 .   .   .   . 
am1 am2 amn bm

Pertanto il vettore colonna b è combinazione lineare dei vettori colonna di A. Questa


ultima condizione è equivalente a rg(A|b) = rg(A).

54
Se il sistema è compatibile e r = rg(A), allora possiamo supporre che le prime r righe
di A siano linearmente indipendenti ed applicando Gauss–Jordan è possibile trasformarlo
in un sistema a gradini con r equazioni. Allora, dalla Proposizione 5.2, esso ammetterà
un’unica soluzione oppure ∞n−r soluzioni a seconda che n = r oppure r < n.

Teorema 5.7. (Teorema di Cramer)


Un sistema di n equazioni in n incognite AX = b, dove A ∈ GLn (K), b ∈ Mm,1 (K),
X = (X1 , . . . , Xn )t , è compatibile ed ammette l’unica soluzione (x1 , . . . , xn ) ∈ Kn , dove
Pn
(−1)k+i bk det(Aki )
xi = k=1 , 1 ≤ i ≤ n.
det(A)

Dimostrazione. Poichè A ∈ GLn (K), allora esiste A−1 ∈ GLn (K). Pertanto

A−1 (AX) = A−1 b.

Inoltre A−1 (AX) = (A−1 A)X = In X = X e quindi X = A−1 b. Se ne deduce che


Pn
(−1)k+j bk det(Akj )
xj = k=1 . (5.5)
det(A)

Si noti che il numeratore di (5.5) è il determinante della matrice ottenuta sostituendo alla
j–esima colonna di A la colonna dei termini noti b sviluppato secondo Laplace rispetto
alla j–esima colonna.

5.2 Sistemi lineari omogenei e sottospazi vettoriali di Rn


Si consideri un sistema lineare omogeneo di m equazioni nelle n indeterminate X1 , . . . , Xn
a coefficienti in un campo K:


 a11 X1 + a12 X2 + . . . + a1n Xn = 0
 a21 X1 + a22 X2 + . . . + a2n Xn = 0

.. .


 .
 a X + a X + ... + a X = 0
m1 1 m2 2 mn n

Sia A = (aij ) ∈ Mm,n (K) la matrice associata al sistema, allora in forma matriciale tale
sistema risulta
AX = 0t .
Il prossimo risultato mostra che l’insieme delle soluzioni forma un sottospazio vettoriale
di Kn .

Proposizione 5.8. Sia S0 ⊆ Kn l’insieme delle soluzioni del sistema omogeneo AX = 0t .


Allora S0 è uno sottospazio vettoriale di Kn e dim(S0 ) = n − r, dove r = rg(A).

55
Dimostrazione. Siano v1 , v2 ∈ S0 . Allora v1 + v2 ∈ S0 . Infatti A(v1 + v2 )t = A(v1t +
v2t ) = Av1t + Av2t = 0t + 0t = 0t . Inoltre se λ ∈ K e v ∈ S0 , allora λv ∈ S0 . Infatti
A(λv)t = Aλvt = λAvt = λ0t = 0t .
Se rg(A) = r, allora il sistema AX = 0t ammette ∞n−r soluzioni. Pertanto la sua
generica soluzione presenterà n − r parametri indipendenti e quindi dim(S0 ) = n − r.

Sia K = R. Allora mostreremo che ogni sottospazio vettoriale di Rn è l’insieme delle


soluzioni di un sistema lineare omogeneo.

Teorema 5.9. Sia U un sottospazio vettoriale di Rn tale che dim(U ) = n − r. Allora


esiste un sistema lineare omogeneo di r equazioni in n incognite a coefficienti in R tale
che l’insieme delle sue soluzioni coincide con U .

Dimostrazione. Si consideri U ⊥ , il complemento ortogonale di U rispetto al prodotto


interno standard di Rn . Se dim(U ) = n − r, allora dim(U ⊥ ) = r. Sia

v1 = (a11 , a12 , . . . , a1n ), v2 = (a21 , a22 , . . . , a2n ), . . . , vr = (ar1 , ar2 , . . . , arn )

una base di U ⊥ . Allora i vettori di U sono tutte e sole le soluzioni del sistema omogeneo

 a11 X1 + a12 X2 + . . . + a1n Xn = 0

 a21 X1 + a22 X2 + . . . + a2n Xn = 0

.. .


 .
 a X + a X + ... + a X = 0
r1 1 r2 2 rn n

56
6 Spazi affini
Sia K un campo e sia V un K–spazio vettoriale.
Si definisce spazio affine (su V o associato a V ) un insieme non–vuoto A, i cui elementi
sono detti punti, per cui esiste un’applicazione
−→
(P, Q) ∈ A × A 7−→ P Q ∈ V

tale che

1) per ogni punto P ∈ A e per ogni vettore v ∈ V esiste un unico punto Q ∈ A tale
−→
che P Q = v,
−→ −→ −→
2) per ogni terna P, Q, R ∈ A si ha P Q + QR = P R.

Proposizione 6.1. i) Fissato P ∈ A, l’applicazione


−→
Q ∈ A 7−→ P Q ∈ V

è una biezione.
−→ −→ −→
ii) Per ogni coppia di punti P, Q ∈ A si ha P Q = −QP , P P = 0.

Dimostrazione. i) Sia v ∈ V . Dalla definizione di spazio affine esiste un punto X ∈ A tale


−−→
che P X = v. Pertanto l’applicazione è suriettiva. D’altro canto, se esistessero X, Y ∈ A
−−→ −→
tali che P X = P Y = v, allora avremmo X = Y , dalla definizione di spazio affine. Pertanto
l’applicazione è anche iniettiva.
−→ −→ −→ −→
ii) Dalla 2), scelti Q = R = P , si ha che P P = P P + P P . Pertanto P P = 0. D’altro
−→ −→ −→ −→ −→
canto P Q + QP = P P , da cui segue P Q = −QP .
−→
P Q è detto vettore di punto iniziale P e punto finale Q. La dimensione di V è detta
dimensione dello spazio affine A e si denota con dim(A).

Esempi 6.2. 1. Sia V un K–spazio vettoriale, allora ponendo A = V e considerando


l’applicazione
(v, w) ∈ V × V 7−→ w − v ∈ V
viene definito uno spazio affine (su V ). Infatti, per ogni punto p ∈ V e per ogni
vettore v ∈ V , vi è un unico punto q ∈ V tale che q − p = v, che è q = v + p.
Inoltre, per ogni terna p, q, r ∈ V , si ha che (q − p) + (r − q) = r − p. Quindi V
definisce uno spazio affine su se stesso.

2. Un caso particolare dell’esempio precedente si ottiene considerando V = Kn . In


tal caso lo spazio affine su se stesso definito da Kn si chiama spazio affine n–
dimensionale su K e lo si denota con An (K).

57
Sia V un K–spazio vettoriale tale che dim(V ) = n e sia A uno spazio affine su V . Un
sistema di riferimento affine di A è una coppia R = (O, {e1 , . . . , en }), dove O è un punto
di A, detto origine del riferimento R e {e1 , . . . , en } è una base di V .

Osservazione 6.3. i) Fissato un sistema di riferimento R di uno spazio affine A


su V , per ogni punto P ∈ A, esiste un’unica n–upla (x1 , . . . , xn ) ∈ Kn tale che
−→
OP = x1 e1 + . . . + xn en . In particolare (x1 , . . . , xn ) si dice n–upla delle coordinate
−→
di P rispetto ad R. Poichè OO = 0, l’origine O ha (0, . . . , 0) quale n–upla delle
coordinate.

ii) Se (a1 , . . . , an ) è la n–upla delle coordinate del punto A e (b1 , . . . , bn ) è la n–upla


delle coordinate del punto B rispetto ad R, allora
−→ −→ −−→ −−→ −→
AB = AO + OB = OB − OA = (b1 − a1 )e1 + . . . + (bn − an )en .
−→
Pertanto la n–upla delle componenti del vettore AB ∈ V rispetto alla base {e1 , . . . , en }
risulta (b1 − a1 , . . . , bn − an ).
−−→
iii) Dalla Proposizione 6.1, i), esistono P1 , . . . , Pn ∈ A tali che OPi = ei , 1 ≤ i ≤ n.
Pertanto un sistema di riferimento affine si può definire in maniera equivalente come
−−→ −−→ −−→
una (n + 1)–upla di punti (O, P1 , . . . , Pn ) tali che OP1 , OP2 , . . . , OPn è una base di
V.

Da ora in avanti considereremo soltanto An (R) lo spazio affine n–dimensionale su R.

6.1 Sottospazi affini


Sia An (R) lo spazio affine n–dimensionale su R. Siano P un punto di A e W un sotto-
spazio vettoriale di Rn . Si definisce sottospazio affine passante per P e parallelo a W il
−→
sottoinsieme S ⊆ A costituito da tutti i punti Q ∈ A tali che P Q ∈ W .
−→
S = {Q ∈ An (R) | P Q ∈ W } =
= {Q ∈ An (R) | ∃ w ∈ W, Q − P = w} = {P + w | w ∈ W }.
−→
Si noti che P ∈ S, poichè P P = 0 ∈ W . Il sottospazio W si dice giacitura di S. La
dimensione di W è detta dimensione di S e si denota con dim(S).
Un sottospazio affine S avente dimensione 0, 1, 2, 3, n − 1 si dice punto, retta, piano,
solido, iperpiano di A, rispettivamente.
Se S è una retta e W è la sua giacitura, allora W è un sottospazio vettoriale di Rn di
dimensione 1. In tal caso se 0 6= w ∈ W , allora W = hwi ed il vettore w si dice vettore
direttore di S.

Proposizione 6.4. i) Un sottospazio affine è determinato dalla sua giacitura e da


uno qualsiasi dei suoi punti.

58
ii) Se S un sottospazio affine di A avente giacitura W , allora S è uno spazio affine su
W.

iii) Per due punti distinti di An (R) passa un’unica retta

Dimostrazione. i) Sia S il sottospazio affine di A passante per Q ed avente giacitura W .


Sia M un punto di S e sia S0 il sottospazio affine passante per M ed avente giacitura W .
Mostriamo che S = S0 . Infatti, se P ∈ S, allora
−−→ −−→ −→ −−→ −→
M P = M Q + QP = −QM + QP ,
−−→ −→ −−→
dove QM , QP ∈ W . Quindi M P ∈ W e P ∈ S0 . D’altro canto, se P ∈ S0 , allora
−→ −−→ −−→ −−→ −−→
QP = QM + M P = −M Q + M P ,
−−→ −−→ −→
dove M Q, M P ∈ W . Quindi QP ∈ W e P ∈ S.
ii) Sia S il sottospazio affine passante per P ed avente giacitura W . Allora il punto P
−→
appartiene ad S, in quanto 0 = P P ∈ W e quindi S non è vuoto. Si consideri l’applicazione
−→
(P, Q) ∈ S × S 7−→ P Q ∈ W

si ha che le proprietà 1), 2) sono entrambe verificate e quindi S è uno spazio affine su W .
−→
iii) Sia W = hP Qi. Allora W è un sottospazio vettoriale di Rn di dimensione 1. Sia
S = {P + w | w ∈ W }. Allora S è una retta che contiene P (in quanto 0 ∈ W ) e Q (in
quanto Q − P ∈ W ). Inoltre dalla i), la retta S è determinata univocamente da P e da
W.

Esercizi 6.5. 1. Si determini il sottospazio affine S di A3 (R) passante per P = (1, 2, 3)


e parallelo al sottospazio vettoriale W di R3 , dove W = {(x, y, z) ∈ R3 | x+y +z =
0}.
−→
S = {Q ∈ A3 (R) | P Q ∈ W } = {Q = (a, b, c) ∈ A3 (R) | Q − P = (1 − a, 2 −
b, 3 − c) ∈ W } = {(a, b, c) ∈ A3 (R) | a + b + c = 6}. Si noti che dim(W ) = 2,
quindi S è un piano.

2. Si determini il sottospazio affine S di A3 (R) passante per P = (1, 2, 3) e parallelo


al sottospazio vettoriale W di R3 , dove W = {(x, y, z) ∈ R3 | x + y = y + z = 0}.
−→
S = {Q ∈ A3 (R) | P Q ∈ W } = {P = (a, b, c) ∈ A3 (R) | Q − P = (1 − a, 2 −
b, 3 − c) ∈ W } = {(a, b, c) ∈ A3 (R) | a + b = 3, b + c = 5}. Si noti che dim(W ) = 1,
quindi S è una retta.

Siano S ed S0 due sottospazi affini aventi giacitura W e W 0 , rispettivamente. Allora S


ed S0 si definiscono

disgiunti se S ∩ S0 = ∅;

59
paralleli se W ⊆ W 0 oppure W 0 ⊆ W .

Osservazione 6.6. Due rette sono parallele se e solo se i loro vettori direttori sono
proporzionali.

Dalla Proposizione 6.4, i), si ha quanto segue.

Corollario 6.7. Siano S ed S0 due sottospazi affini paralleli, allora S ed S0 sono disgiunti
oppure S = S0 .

6.1.1 Rappresentazione parametrica di un sottospazio affine


Sia S il sottospazio affine di An (R) passante per P = (x1 , . . . , xn ) e parallelo a W , con
dim(S) = s. Sia {w1 , . . . , ws } una base di W , dove wi = (zi1 , zi2 , . . . , zin ), 1 ≤ i ≤ s.
−→
Allora ∀ Q = (y1 , . . . , yn ) ∈ S, P Q ∈ W e pertanto esistono t1 , . . . , ts ∈ R tali che
−→
P Q = (y1 − x1 , . . . , yn − xn ) = t1 w1 + . . . + ts ws .

Quindi 

 y1 = x1 + t1 z11 + t2 z21 + · · · + ts zs1
 y2 = x2 + t1 z12 + t2 z22 + · · · + ts zs2

.. , t1 , t2 , . . . , ts ∈ R. (6.1)


 .
 y = x + t z + t z + ··· + t z
n n 1 1n 2 2n s sn

Al variare di t1 , . . . , ts ∈ R, le equazioni (6.1) forniscono tutti i punti di S e sono dette


equazioni parametriche di S.

Osservazione 6.8. Si noti che le equazioni parametriche di un sottospazio affine S non


sono univocamente determinate da S, ma dipendono dalla scelta di P e della base di W .

Esempi 6.9. 1. Sia S la retta del piano affine A2 (R) passante per P = (x0 , y0 ) e
parallela a W = h(l, m)i. Allora le equazioni parametriche di S risultano

x = x0 + λl
, λ ∈ R.
y = y0 + λm

Il vettore (l, m) è un vettore direttore di S.

2. Sia S la retta dello spazio affine A3 (R) passante per P = (x0 , y0 , z0 ) e parallela a
W = h(l, m, r)i. Allora le equazioni parametriche di S risultano

 x = x0 + λl
y = y0 + λm , λ ∈ R.
z = z0 + λr

Il vettore (l, m, r) è un vettore direttore di S.

60
3. Sia S il piano dello spazio affine A3 (R) passante per P = (x0 , y0 , z0 ) e parallelo a
W = h(l, m, r), (l0 , m0 , r0 )i. Allora le equazioni parametriche di S risultano

 x = x0 + λl + µl0
y = y0 + λm + µm0 , λ, µ ∈ R.
z = z0 + λr + µr0

4. Sia S il piano dello spazio affine A4 (R) passante per P = (1, 2, 3, 4) e parallelo a
W = {(x, y, z, t) ∈ R4 | x + y = x + z − t = 0}. W è un sottospazio vettoriale di
R4 di dimensione 2 ed una sua base è {(−1, 1, 1, 0), (1, −1, 0, 1)}. Allora le equazioni
parametriche di S risultano


 x=1−λ+µ
y =2+λ−µ

, λ, µ ∈ R.

 z =3+λ
t=4+µ

6.1.2 Rappresentazione cartesiana di un sottospazio affine


Si consideri un sistema lineare di m equazioni nelle n indeterminate X1 , . . . , Xn a coeffi-
cienti in R: 

 a11 X1 + a12 X2 + . . . + a1n Xn = b1
 a21 X1 + a22 X2 + . . . + a2n Xn = b2

.. .


 .
 a X + a X + ... + a X = b
m1 1 m2 2 mn n m

Sia A = (aij ) ∈ Mm,n (R) la matrice associata al sistema, allora in forma matriciale tale
sistema risulta
AX = b.
Il prossimo risultato mostra che l’insieme delle soluzioni forma un sottospazio affine di
An (R).

Proposizione 6.10. Sia S ⊆ An (R) l’insieme delle soluzioni del sistema lineare AX = b.
Allora S è uno sottospazio affine di An (R) e dim(S) = n − r, dove r = rg(A).

Dimostrazione. Sia S0 ⊆ Rn l’insieme delle soluzioni del sistema omogeneo associato


AX = 0 e sia P una soluzione particolare del sistema AX = b, quindi P ∈ S. Dalla
Proposizione 5.8, S0 è un sottospazio vettoriale di Rn di dimensione n−r, dove r = rg(A).
Inoltre dalla Proposizione 5.1, gli elementi di S0 sono tutti e soli i punti di An (R) che si
ottengono sommando a P gli elementi di S0 . Allora i punti di S danno luogo al sottospazio
affine passante per P e parallelo ad S0 .

Viceversa mostreremo che ogni sottospazio affine di An (R) è l’insieme delle soluzioni
di un sistema lineare.

61
Teorema 6.11. Sia S un sottospazio affine di An (R) tale che dim(S) = n − r. Allora
esiste un sistema lineare omogeneo di r equazioni in n incognite a coefficienti in R tale
che l’insieme delle sue soluzioni coincide con S.

Dimostrazione. Sia S il sottospazio affine di An (R) passante per P = (x1 , . . . , xn ) ∈


An (R) e parallelo a W . Quindi W è un sottospazio vettoriale di Rn avente dimensione
n − r. Dal Teorema 5.9 esiste un sistema lineare omogeneo di r equazioni in n incognite
a coefficienti in R tale che l’insieme delle sue soluzioni coincide con W .


 a11 X1 + a12 X2 + . . . + a1n Xn = 0
 a21 X1 + a22 X2 + . . . + a2n Xn = 0

.. .


 .
 a X + a X + ... + a X = 0
r1 1 r2 2 rn n

Siano bj ∈ R tali che


aj1 x1 + · · · + ajn xn = bj , 1 ≤ j ≤ r.
Allora i punti di S sono le soluzioni del sistema


 a11 X1 + a12 X2 + . . . + a1n Xn = b1
 a21 X1 + a22 X2 + . . . + a2n Xn = b2

.. . (6.2)


 .
 a X + a X + ... + a X = b
r1 1 r2 2 rn n r

−→
Infatti, ∀ Q = (y1 , . . . , yn ) ∈ An (R), il punto Q appartiene ad S se e solo se P Q =
(y1 − x1 , . . . , yn − xn ) ∈ W , da cui si ha necessariamente che

aj1 y1 + · · · + ajn yn = bj , 1 ≤ j ≤ r.

Le equazioni (6.2) si dicono equazioni cartesiane del sottospazio affine S.

Osservazione 6.12. i) Le equazioni cartesiane di un sottospazio affine non sono uni-


vocamente determinate, infatti sistemi lineari equivalenti definiscono lo stesso sot-
tospazio affine.

ii) I punti di sottospazio affine di An (R) formano un sottospazio vettoriale di Rn se e


solo se le sue equazioni cartesiane sono omogenee. In altri termini un sottospazio
affine di An (R) è uno spazio vettoriale di Rn se e solo se passa per l’origine.

Esempi 6.13. 1. Equazione cartesiana di una retta nel piano affine A2 (R):

a1 X1 + a2 X2 = b, (a1 , a2 ) 6= (0, 0).

62
2. Equazione cartesiana di un piano nello spazio affine A3 (R):
a1 X1 + a2 X2 + a3 X3 = b, (a1 , a2 , a3 ) 6= (0, 0, 0),
equazione cartesiana di una retta nello spazio affine A3 (R):
  
a1 X 1 + a2 X 2 + a3 X 3 = b 1 a1 a2 a3
, rg = 2.
a01 X1 + a02 X2 + a03 X3 = b2 a01 a02 a03

3. Equazione cartesiana di un iperpiano nello spazio affine An (R):


a1 X1 + . . . + an Xn = b, (a1 , . . . , a2 ) 6= (0, . . . , 0).
Esercizi 6.14. 1. In A3 (R), si considerino i punti A = (−2, 1, 0), B = (−3, 1, −2),
C = (3, 0, 2). Determinare le equazioni parametriche e cartesiane del piano π con-
tenente A, B, C.
−→ −→
Sia W la giacitura di π, allora AB = (−1, 0, 2), AC = (5, −1, 2) ∈ W . Inoltre
−→ −→
dim(W ) = 2 e {AB, AC} è una base di W . Poichè π è il piano di A3 (R) passante
per A e parallelo a W , un punto Q = (x, y, z) appartiene a π se e solo se ∃ w ∈ W
tale che Q = A + w e quindi esistono λ, µ ∈ R tali che Q = (x, y, z) = (−2, 1, 0) +
λ(−1, 0, −2) + µ(5, −1, 2). Pertanto, le equazioni parametriche di π risultano:

 x = −2 − λ + 5µ
y =1−µ , λ, µ ∈ R.
z = −2λ + 2µ

Inoltre W ⊥ = {(2a, 8a, −a) | a ∈ R} = h(2, 8, −1)i. Quindi W ⊂ R3 è l’insieme


delle soluzioni di
2X1 + 8X2 − X3 = 0
e l’equazione cartesiana di π risulta:
2X1 + 8X2 − X3 = 4.

2. In A3 (R), dati il punto A = (2, 4, −3) ed il sottospazio vettoriale W = h(1, −5, 4)i
di R3 , si determinino le equazioni parametriche e cartesiane della retta ` per A e
parallela a W .
Le equazioni parametriche di ` risultano:

 x=2+λ
y = 4 − 5λ , λ ∈ R.
z = −3 + 4λ

Inoltre W ⊥ = h(5, 1, 0), (4, 0, −1)i. Quindi W ⊂ R3 è l’insieme delle soluzioni di



5x + y = 0
4x − z = 0
e le equazioni cartesiane di ` risultano:

5x + y = 14
.
4x − z = 11

63
7 Spazi euclidei reali
Sia V un R–spazio vettoriale e sia A uno spazio affine su V . Allora A si definisce spazio
euclideo se V è uno spazio vettoriale euclideo. Poichè Rn è uno spazio vettoriale euclideo, in
quanto dotato di prodotto scalare, si ha che An (R) è uno spazio euclideo che denoteremo
con En .
Un riferimento di coordinate cartesiane (o riferimento cartesiano) dello spazio euclideo
reale En è una coppia R = (O, {e1 , . . . , en }), dove O è un punto arbitrario di En , detto
origine del riferimento R, e {e1 , . . . , en } è una base ortonormale di Rn . Se P ∈ En è tale
−→
che OP = x1 e1 + . . . + xn en , allora (x1 , . . . , xn ) è si dicono coordinate cartesiane di P
rispetto ad R.
Siano P, Q due punti di En . Si definisce distanza euclidea tra P e Q e si denota con
d(P, Q) la quantità:
−→
d(P, Q) = ||P Q||.
Pertanto, fissato un riferimento cartesiano R, se P = (x1 , . . . , xn ), Q = (y1 , . . . , yn ) sono
le coordinate cartesiane di P, Q rispetto ad R, si ha che
−→ p
d(P, Q) = ||P Q|| = (y1 − x1 , . . . , ym − xn ) =
p p
= (y1 − x1 )e1 + . . . + (yn − xn )en = (y1 − x1 )2 + . . . + (yn − xn )2 .

Più in generale, se S, S0 sono due sottospazi affini, allora si definisce distanza euclidea
tra S ed S0 la quantità

d(S, S0 ) = min{d(P, Q) | P ∈ S, Q ∈ S0 }.

I punti P0 ∈ S e Q0 ∈ S0 tale che d(S, S0 ) = d(P0 , Q0 ) si definiscono punti di minima


distanza.
Proposizione 7.1. Siano S, S0 sono due sottospazi affini aventi giacitura W, W 0 , rispet-
−−−→
tivamente e siano P0 ∈ S, Q0 ∈ S0 punti di minima distanza. Allora P0 Q0 ∈ W ⊥ ∩
W 0⊥ .
Dimostrazione. Sia S il sottospazio affine di En passante per R ed avente giacitura W . Si
−−→ −→
noti che se P ∈ S0 , allora d(P, Q0 ) = ||P Q0 || ≤ d(P, Q) = ||P Q||, ∀ Q ∈ S. In particolare
−→ −→ −→ −→ −→ −→ −→
||P Q|| = ||P R + RQ|| = ||P R − QR|| = ||v − w||, dove v = P R ∈ Rn e w = QR ∈ W .
D’altro canto dal Teorema 3.10, si ha che ||v − w|| ≥ ||v − vW ||, ∀ w ∈ W . Quindi Q0 è
−−→
il punto di S tale che Q0 R = vW e P Q0 = v − vW ∈ W ⊥ .
−−−→
Analogamente si dimostra che se Q ∈ S, allora QP0 ∈ W 0⊥ e quindi P0 Q0 ∈ W ⊥ ∩
W 0⊥ .

Siano `, `0 due rette di En aventi vettori direttori v, v0 , rispettivamente. Si definisce


angolo (convesso) tra le rette `1 , `2 , l’angolo (convesso) θ tra i vettori v, v0 , dove
v · v0
cos θ = .
||v|| ||v0 ||

64
Si definiscono assi cartesiani le rette passanti per l’origine O ed aventi come vettore
direttore i vettori e1 , e2 , . . . , en , rispettivamente.
Sia ` una retta di En avente vettore direttore v = v1 e1 + . . . + vn en . Si definiscono
coseni direttori di `, i coseni degli angoli tra la retta ` e gli assi cartesiani. Pertanto i
coseni direttori di ` risultano
  !
v · e1 v · en v1 vn
,..., = p 2 ,..., p 2
||v|| ||v|| v1 + . . . + vn2 v1 + . . . + vn2

Due sottospazi affini S, S0 di En aventi giacitura W , W 0 , rispettivamente, si definiscono


ortogonali se W ⊆ W 0⊥ oppure W 0 ⊆ W ⊥ .

Per semplicità, da ora in avanti considereremo come base ortonormale


{e1 , . . . , en } la base canonica di Rn e come prodotto scalare il prodotto interno standard.

7.1 Il piano euclideo reale E2


Sia R = (O, {e1 , e2 }) un riferimento di coordinate cartesiane del piano euclideo reale E2
è.
Sia ` la retta di E2 individuata da due punti distinti A, B ∈ E2 di coordinate cartesiane

− →
− −→
A = (x0 , y0 ), B = (x1 , y1 ). Indichiamo con ` la giacitura di `. Allora ` = hABi è un
−→
sottospazio vettoriale di R2 di dimensione 1 ed il vettore AB è una sua base. Per ogni
−→ −→
punto P ∈ ` i vettori AB e AP sono linearmente dipendenti, quindi esiste λ ∈ R tale che
−→ −→
AP = λAB.

Pertanto, indicate con (x, y) le coordinate cartesiane del generico punto P ∈ `, si ha che
−→
AP = (x − x0 , y − y0 ) = λ(x1 − x0 , y1 − y0 )

e quindi 
x − x0 = λ(x1 − x0 )
y − y0 = λ(y1 − y0 )

x = x0 + λ(x1 − x0 )
, λ ∈ R. (7.1)
y = y0 + λ(y1 − y0 )
Le equazioni (7.1) sono le equazioni parametriche della retta ` = AB.
−→ −→
Si noti che poichè i vettori AB e AP sono linearmente dipendenti si ha che
 
x − x0 y − y 0
rg = 1,
x1 − x0 y 1 − y 0

quindi    
x y 1 x − x0 y − y 0 0
rg  x0 y0 1  = rg  x0 y0 1  = 2,
x1 y 1 1 x1 − x0 y1 − y0 0

65
in quanto
 
x − x0 y − y 0 0  
x − x0 y − y 0
det  x0 y0 1  = − det =0
x1 − x0 y1 − y0
x1 − x0 y 1 − y 0 0

ed almeno uno tra    


x0 1 y0 1
det , det
x1 1 y1 1
è non nullo. Quindi  
x y 1
det  x0 y0 1  = 0.
x1 y 1 1
Sviluppando secondo Laplace rispetto alla prima riga si ottiene una equazione lineare nelle
indeterminate x, y del tipo
ax + by + c = 0, (7.2)
dove a, b non sono entrambi nulli. L’equazione (7.2) è l’equazione cartesiana della retta
` = AB.
Sia ` la retta di equazione cartesiana ax + by + c = 0, con (a, b) 6= (0, 0). Allora


l’equazione ax + by = 0 si dice equazione cartesiana della giacitura ` . Infatti un vettore


direttore di ` è soluzione dell’equazione cartesiana della giacitura ` . In particolare (b, −a)


è un vettore direttore di ` e (a, b) ∈ R2 è ortogonale a ` .
Sia P0 il punto di coordinate cartesiane (x0 , y0 ). L’unica retta `0 passante per P0 e
parallela ad ` ha equazione cartesiana

ax + by − ax0 − by0 = 0.

Infatti P0 ∈ `0 ed i vettori direttori di ` ed `0 sono proporzionali. Le equazioni parametriche


di `0 risultano: 
x = x0 + λb
, λ ∈ R.
y = y0 − λa
L’unica retta `00 passante per P0 e perpendicolare ad ` ha equazione cartesiana

bx − ay − bx0 + ay0 = 0.

Infatti P0 ∈ `00 ed i coefficienti direttori di ` ed `00 sono ortogonali. Le equazioni parame-


triche di `00 risultano: 
x = x0 + λa
, λ ∈ R. (7.3)
y = y0 + λb
Sia P1 = (x1 , y1 ) l’unico punto in comune tra ` ed `00 . Si definisce distanza tra il punto
P0 e la retta ` e si denota con d(P0 , `), la distanza euclidea tra P0 e P1 .
−−→ → − −−→
Poichè P1 P0 ∈ `00 , esiste λ ∈ R tale che P1 P0 = λ(a, b). Ne segue che
−−→ √
d(P0 , `) = d(P0 , P1 ) = ||P1 P0 || = ||(λa, λb)|| = |λ| a2 + b2 .

66
Inoltre x0 − x1 = λa e y0 − y1 = λb, da cui si ottiene x1 = x0 − λa e y1 = y0 − λb. Poichè
P1 ∈ ` si ha che
a(x0 − λa) + b(y0 − λb) + c = 0
e quindi
ax0 + by0 + c
λ= .
a2 + b 2
Pertanto
|ax0 + by0 + c|
d(P0 , `) = √ .
a2 + b 2
Analogamente se `, `0 sono rette parallele, allora si definisce distanza tra le rette ` ed
`0 e si denota con d(`, `0 ), la distanza tra P ed `0 , dove P è un qualsiasi punto di `.

7.1.1 Posizione reciproca di due rette in E2


Siano `, `0 due rette del piano euclideo E2 aventi equazioni cartesiane ` : ax + by + c = 0
e `0 : a0 x + b0 y + c0 = 0, (a, b) 6= (0, 0) e (a0 , b0 ) 6= (0, 0). La loro intersezione ` ∩ `0 è
rappresentata dal sistema lineare:

ax + by = −c
,
a0 x + b0 y = −c0
dove    
a b a b −c
A= , Ā =
a0 b 0 a0 b0 −c0
sono rispettivamente la matrice incompleta e completa associata al sistema. Si noti che
1 ≤ rg(A) ≤ 2, vi sono pertanto tre possibilità:
1) rg(Ā) = 1 (e quindi rg(A) = 1). In tal caso le rette `, `0 coincidono.

2) rg(A) = 1 e rg(Ā) = 2. In tal caso le rette ` e `0 sono parallele e disgiunte.

3) rg(A) = 2 (e quindi rg(Ā) = 2). In tal caso le rette ` e `0 sono incidenti ed hanno un
bc0 −cb0 ca0 −ac0

unico punto P0 in comune. Da Cramer P0 ha coordinate cartesiane ab 0 −a0 b , ab0 −a0 b .

Si definisce fascio proprio di rette l’insieme di tutte le rette di E2 che passano per uno
stesso punto P0 , detto il centro del fascio.
Teorema 7.2. Siano ` : ax+by+c = 0, (a, b) 6= (0, 0), `0 : a0 x+b0 y+c0 = 0, (a0 , b0 ) 6= (0, 0),
due rette distinte di un fascio proprio. Allora tutte e sole le rette di tale fascio hanno
un’equazione del tipo λ(ax + by + c) + µ(a0 x + b0 y + c0 ) = 0, con (λ, µ) 6= (0, 0).
Dimostrazione. Sia P0 = (x0 , y0 ) l’unico punto in comune tra ` ed `0 e siano λ, µ ∈ R
non entrambi nulli. Allora λ(ax + by + c) + µ(a0 x + b0 y + c0 ) = 0 rappresenta l’equazione
cartesiana di una retta r. Infatti (λa + µa0 , λb + µb0 ) 6= (0, 0), altrimenti se
λa + µa0 = 0


λb + µb0 = 0

67
 
a b
avremmo che rg = 1 e le due rette `, `0 risulterebbero parallele, contro le
a0 b 0
ipotesi. Inoltre, poichè λ(ax0 + by0 + c) + µ(a0 x0 + b0 y0 + c0 ) = λ0 + µ0 = 0, si ha che
P0 ∈ r.
Viceversa, se r è una qualsiasi retta passante per P0 e se Q = (x1 , y1 ) è un punto di r
distinto da P0 , allora se λ = a0 x1 + b0 y1 + c0 e µ = −(ax1 + by1 + c), si ha che l’equazione
cartesiana della retta r = P0 Q è data da λ(ax + by + c) + µ(a0 x + b0 y + c0 ) = 0.

Si definisce fascio improprio di rette l’insieme di tutte le rette di E2 parallele ad una


stessa retta. Analogamente al Teorema 7.2, valgono i seguenti risultati.
Teorema 7.3. Sia ` : ax + by + c = 0, (a, b) 6= (0, 0), una retta di un fascio improprio.
Allora tutte e sole le rette di tale fascio hanno un’equazione del tipo ax + by + λ = 0, con
λ ∈ R.
Teorema 7.4. Tre rette distinte ` : ax + by + c = 0, (a, b) 6= (0, 0), `0 : a0 x + b0 y + c0 = 0,
(a0 , b0 ) 6= (0, 0), `00 : a00 x + b00 y + c00 = 0, (a00 , b00 ) 6= (0, 0), appartengono ad uno stesso fascio
(proprio oppure improprio) se e solo se
 
a b c
det  a0 b0 c0  = 0.
a00 b00 c00
Esercizi 7.5. 1. Determinare le equazioni parametriche e cartesiane della retta r pas-
sante per A = (5, −2) e parallela ad ` : 2x − 3y + 4 = 0 e della retta s passante per
B = (7, 7) e perpendicolare ad `.
r : 2x − 3y − 16 = 0, s : 3x + 2y − 35 = 0.

2. Determinare la distanza tra il punto A = (5, −4) e la retta ` : 2x + 3y − 5 = 0.


d(A, `) = √7 .
13

3. Si consideri il punto A = (3, 2) e le retta ` : 3x + y − 2 = 0.



• Determinare i punti di ` a distanza 13 da A.

x=λ
`: , λ ∈ R.
y = 2 − 3λ
p √
Sia P = (λ, 2 − 3λ) ∈ `. Se d(A, P ) = (λ − 3)2 + (3λ)2 = 13, allora
5λ2 − 3λ − 2 = 0 e λ ∈ − 52 , 1 . Pertanto P ∈ − 52 , 16
  
5
, (1, −1) .
• Determinare d(A, `), la retta r per A ed ortogonale ad ` e r ∩ `.
d(A, `) = |9+2−2| √9 ; r : x − 3y + 3 = 0; r ∩ ` =
 3 11 

9+1
= 10
,
10 10
.

x = 2 + 2λ
4. Si consideri il punto A = (3, 1) e le rette ` : , λ ∈ R ed `0 :
y = −1 + 3λ
−4x + y + 3 = 0.

68
• Determinare la retta r per A e parallela ad `.
r : 3x − 2y − 7 = 0.
• Determinare la retta r0 per A e parallela ad `0 .
r0 : 4x − y − 11 = 0.

7.2 Lo spazio euclideo reale E3


Sia R = (O, {e1 , e2 , e3 }) un riferimento di coordinate cartesiane dello spazio euclideo
reale E3 .
Sia σ il piano di E3 individuato dai tre punti distinti non allineati A, B, C ∈ E3 di
coordinate cartesiane A = (x0 , y0 , z0 ), B = (x1 , y1 , z1 ), C = (x2 , y2 , z2 ). Sia →

σ la giacitura

− 3 −→ −→
di σ. Allora σ è un sottospazio vettoriale di R di dimensione due ed i vettori AB, AC
formano una sua base. Quindi, per ogni punto P ∈ σ, esistono λ, µ ∈ R tali che
−→ −→ −→
AP = λAB + µAC.

Pertanto, indicate con (x, y, z) le coordinate cartesiane del generico punto P ∈ σ, si ha


che
−→
AP = (x − x0 , y − y0 , z − z0 ) = λ(x1 − x0 , y1 − y0 , z1 − z0 ) + µ(x2 − x0 , y2 − y0 , z2 − z0 )

e quindi 
 x − x0 = λ(x1 − x0 ) + µ(x2 − x0 )
y − y0 = λ(y1 − y0 ) + µ(y2 − y0 )
z − z0 = λ(z1 − z0 ) + µ(z2 − z0 )


 x = x0 + λ(x1 − x0 ) + µ(x2 − x0 )
y = y0 + λ(y1 − y0 ) + µ(y2 − 20 ) , λ, µ ∈ R. (7.4)
z = z0 + λ(z1 − z0 ) + µ(z2 − z0 )

Le equazioni (7.4) sono le equazioni parametriche del piano σ.


−→ −→ −→ −→
Si noti che poichè i vettori AB, AC sono linearmente indipendenti mentre AB, AC e
−→
AP sono linearmente dipendenti si ha che
 
  x − x0 y − y0 z − z0
x1 − x0 y1 − y0 z1 − z0
rg = 2, rg  x1 − x0 y1 − y0 z1 − z0  = 2,
x2 − x0 y2 − y0 z2 − z0
x2 − x0 y2 − y0 z2 − z0

quindi    
x y z 1 x − x0 y − y0 z − z0 0
 x0 y0 z0 1   x0 y0 z0 1 
rg   = rg   = 3,
 x1 y1 z1 1   x1 − x0 y1 − y0 z1 − z0 0 
x2 y2 z2 1 x2 − x0 y2 − y0 z2 − z0 0

69
in quanto
 
x − x0 y − y0 z − z0 0  
x − x 0 y − y 0 z − z 0
 x0 y0 z0 1 
 = det  x1 − x0 y1 − y0 z1 − z0  = 0
det 
 x1 − x0 y1 − y0 z1 − z0 0 
x2 − x0 y2 − y0 z2 − z0
x2 − x0 y2 − y0 z2 − z0 0
ed almeno uno tra
     
y0 z0 1 x0 z0 1 x0 y0 1
det  y1 − y0 z1 − z0 0  , det  x1 − x0 z1 − z0 0  , det  x1 − x0 y1 − y0 0 
y2 − y0 z2 − z0 0 x2 − x0 z2 − z0 0 x2 − x0 y 2 − y 0 0
è non nullo. Quindi  
x y z 1
 x0 y0 z0 1 
det 
 x1 y1 z1
 = 0.
1 
x2 y2 z2 1
Sviluppando secondo Laplace rispetto alla prima riga si ottiene una equazione lineare nelle
indeterminate x, y, z del tipo
ax + by + cz + d = 0, (7.5)
dove (a, b, c) 6= (0, 0, 0). L’equazione (7.5) è l’equazione cartesiana del piano σ.
Se il piano σ ha equazione cartesiana ax + by + cz + d = 0, con (a, b, c) 6= (0, 0, 0),
allora l’equazione ax + by + cz = 0 si dice equazione cartesiana della giacitura → −
σ . Infatti
un vettore della giacitura σ è soluzione dell’equazione cartesiana della giacitura →

− −
σ.
3 →

Il vettore n = (a, b, c) ∈ R è ortogonale a σ ed è detto vettore normale al piano σ.
In altri termini h→−σ i⊥ = hni Da quanto detto precedentemente vale quanto segue.

Lemma 7.6. Siano σ : ax+by +cz +d = 0, (a, b, c) 6= (0, 0, 0) e σ 0 : a0 x+b0 y +c0 z +d0 = 0
(a0 , b0 , c0 ) 6= (0, 0, 0) due piani di E3 .

i) σ, σ 0 sono paralleli se e solo se i vettori (a, b, c), (a0 , b0 , c0 ) ∈ R3 sono proporzionali.

ii) σ, σ 0 sono perpendicolari se e solo se i vettori (a, b, c), (a0 , b0 , c0 ) ∈ R3 sono ortogonali.

Sia σ il piano di equazioni cartesiane ax + by + cz + d = 0 e sia P0 un punto di


coordinate cartesiane (x0 , y0 , z0 ). L’unico piano σ 0 passante per P0 e parallelo a σ ha
equazione cartesiana
ax + by + cz − ax0 − by0 − cz0 = 0.
Infatti P0 ∈ σ 0 ed i vettori normali dei due piani sono proporzionali.

Sia ` la retta di E3 individuata dai due punti distinti A = (x0 , y0 , z0 ), B = (x1 , y1 , z1 ) ∈


−→ →

E3 . Il vettore (non nullo) AB ∈ R3 è una base della giacitura ` di `. Pertanto, se P ∈ `,
−→ −→
i vettori AB e AP sono linearmente dipendenti e quindi
−→ −→
AP = λAB, λ ∈ R.

70
Se P = (x, y, z), allora si ha

 x = x0 + λ(x1 − x0 )
y = y0 + λ(y1 − y0 ) , λ ∈ R. (7.6)
z = z0 + λ(z1 − z0 )

Le equazioni (7.6) le equazioni parametriche della retta ` = AB.


−→ −→
Si noti che poichè i vettori AB e AP sono linearmente dipendenti si ha che
 
x − x0 y − y0 z − z0
rg = 1,
x1 − x0 y1 − y0 z1 − z0
quindi    
x y z 1 x − x0 y − y0 z − z0 0
rg  x0 y0 z0 1  = rg  x0 y0 z0 1  = 2,
x1 y1 z1 1 x1 − x0 y1 − y0 z1 − z0 0
in quanto almeno uno tra
     
x0 1 y0 1 z0 1
det , det , det ,
x1 1 y1 1 z1 1
è non nullo. Quindi se  
x y z 1
M =  x0 y0 z0 1  ,
x1 y1 z1 1
per il Teorema di Kronecker, esiste una sottomatrice quadrata di ordine due di M che
ha determinante diverso da zero mentre le sue due orlate hanno determinante nullo. Si
ottengono due equazioni lineari nelle indeterminate x, y, z del tipo
  
ax + by + cz + d = 0 a b c
, rg =2 (7.7)
a0 x + b 0 y + c 0 z + d = 0 a0 b 0 c 0
Le equazioni (7.7) sono le equazioni cartesiane della retta ` = AB.


Le equazioni cartesiane della giacitura ` sono
  
ax + by + cz = 0 a b c
, rg = 2.
a0 x + b 0 y + c 0 z = 0 a0 b 0 c 0


Infatti un vettore direttore di ` è soluzione delle equazioni cartesiane della giacitura ` .
Si noti che se la retta ` ha equazioni cartesiane
  
ax + by + cz + d = 0 a b c
` , rg = 2,
a0 x + b 0 y + c 0 z + d 0 = 0 a0 b0 c0
allora ` = σ ∩ σ 0 , dove σ : ax + by + cz = 0 e σ 0 : a0 x + b0 y + c0 z = 0. Siano n, n0 i vettori
normali ai piani σ e σ 0 , rispettivamente, allora un vettore direttore di ` risulta
      
0 b c c a a b
n × n = det , det , det = (bc0 − b0 c, a0 c − ac0 , ab0 − a0 b),
b0 c 0 c 0 a0 a0 b 0

71
Sia ` la retta di E3 avente equazioni cartesiane
  
ax + by + cz + d = 0 a b c
, rg =2
a0 x + b 0 y + c 0 z + d 0 = 0 a0 b 0 c 0

e sia P0 un punto di coordinate cartesiane (x0 , y0 , z0 ). L’unica retta `0 passante per P0 e


parallela ad ` ha equazione cartesiana
  
ax + by + cz − ax0 − by0 − cz0 = 0 a b c
, rg =2
a0 x + b0 y + c0 z − a0 x0 − b0 y0 − c0 z0 = 0 a0 b 0 c 0

Infatti P0 ∈ `0 ed i vettori direttori di ` ed `0 sono proporzionali. Le equazioni parametriche


di `0 risultano:   
b c
x = x0 + λ det

 0 0
 b c 




c a

y = y0 + λ det , λ ∈ R.

  c 0 a0 
a b


 z = z0 + λ det


a0 b 0
Sia σ : ax + by + cz + d = 0, (a, b, c) 6= (0, 0, 0) un piano di E3 e sia P0 un punto di
coordinate cartesiane (x0 , y0 , z0 ). L’unica retta `0 passante per P0 e perpendicolare a σ ha
equazioni parametriche 
 x = x0 + λa
y = y0 + λb , λ ∈ R.
z = z0 + λc

D’altro canto, se una retta ` di E3 ha equazioni cartesiane


  
ax + by + cz + d = 0 a b c
, rg =2
a0 x + b 0 y + c 0 z + d 0 = 0 a0 b 0 c 0

e P0 è il punto di coordinate cartesiane (x0 , y0 , z0 ), allora l’unico piano σ passante per P0


e perpendicolare ad ` ha equazione cartesiana
     
b c c a a b
det (x − x0 ) + det (y − y0 ) + det (z − z0 ) = 0.
b0 c 0 c 0 a0 a0 b 0
− →
→ −
Due rette `, `0 di E3 si definiscono sghembe se ` ∩ `0 = ∅ e ` ∩ `0 = 0.

7.2.1 Posizione reciproca di due piani di E3


Siano σ, σ 0 due piani dello spazio euclideo E3 aventi equazioni cartesiane σ : ax + by +
cz + d = 0 e σ 0 : a0 x + b0 y + c0 z + d0 = 0, (a, b, c) 6= (0, 0, 0) e (a0 , b0 , c0 ) 6= (0, 0, 0). La loro
intersezione σ ∩ σ 0 è rappresentata dal sistema lineare:

ax + by + cz = −d
,
a0 x + b0 y + c0 z = −d0

72
dove    
a b c a b c −d
A= , Ā =
a0 b 0 c 0 a0 b0 c0 −d0
sono rispettivamente la matrice incompleta e completa associata al sistema. Si noti che
1 ≤ rg(A) ≤ 2, vi sono pertanto tre possibilità:

1) rg(Ā) = 1 (e quindi rg(A) = 1). In tal caso i piani σ, σ 0 coincidono.

2) rg(A) = 1 e rg(Ā) = 2. In tal caso i piani σ e σ 0 sono paralleli e disgiunti.

3) rg(A) = 2 (e quindi rg(Ā) = 2). In tal caso i piani σ e σ 0 sono incidenti ed hanno
una retta ` in comune. In particolare la retta ` ha equazioni cartesiane
  
ax + by + cz = −d a b c
`: , rg = 2.
a0 x + b0 y + c0 z = −d0 a0 b 0 c 0

Si definisce fascio proprio di piani l’insieme di tutti i piani di E3 che contengono una
stessa retta `, detta asse del fascio.

Teorema 7.7. Siano σ : ax+by +cz +d = 0, (a, b, c) 6= (0, 0, 0), `0 : a0 x+b0 y +c0 z +d0 = 0,
(a0 , b0 , c0 ) 6= (0, 0, 0), due piani distinti di un fascio proprio di E3 . Allora tutti e soli i piani
di tale fascio hanno un’equazione del tipo λ(ax + by + cz + d) + µ(a0 x + b0 y + c0 z + d0 ) = 0,
con (λ, µ) 6= (0, 0).

Si definisce fascio improprio di piani l’insieme di tutti i piani di E3 paralleli ad uno


stesso piano. Analogamente al Teorema 7.7, valgono i seguenti risultati.

Teorema 7.8. Sia σ : ax + by + c + d = 0, (a, b, c) 6= (0, 0, 0), un piano di un fascio


improprio di E3 . Allora tutti e soli i piani di tale fascio hanno un’equazione del tipo
ax + by + cz + λ = 0, con λ ∈ R.

Teorema 7.9. Tre piani distinti σ : ax + by + cz + d = 0, (a, b, c) 6= (0, 0, 0), σ 0 : a0 x +


b0 y + c0 z + d0 = 0, (a0 , b0 , c0 ) 6= (0, 0, 0), σ 00 : a00 x + b00 y + c00 z + d00 = 0, (a00 , b00 , c00 ) 6= (0, 0, 0),
appartengono ad uno stesso fascio di E3 (proprio oppure improprio) se e solo se
 
a b c d
rg  a0 b0 c0 d0  < 3.
a00 b00 c00 d00

7.2.2 Posizione reciproca di un piano ed una retta in E3


In E3 si considerino il piano σ : ax + by + cz + d = 0 e la retta

αx + βy + γz + δ = 0
`: .
α0 x + β 0 y + γ 0 z + δ 0 = 0

73
Posto    
a b c a b c d
M =  α β γ  , M̄ =  α β γ δ  ,
α0 β 0 γ 0 α0 β 0 γ 0 δ 0
si ha che 2 ≤ rg(M ) ≤ 3. Vi sono pertanto tre possibilità:

1) rg(M̄ ) = 2 (e quindi rg(M ) = 2). In tal caso la retta ` è contenuta nel piano σ.

2) rg(M ) = 2 e rg(M̄ ) = 3. In tal caso la retta ` ed il piano σ sono paralleli e disgiunti.

3) rg(M ) = 3 (e quindi rg(M̄ ) = 3). In tal caso la retta ` ed il piano σ hanno un punto
in comune e si dicono incidenti.

In particolare valgono i seguenti risultati:

Teorema 7.10. In E3 , sia σ : ax + by + cz + d = 0 un piano ed ` una retta con vettore


direttore (r1 , r2 , r3 ).

i) La retta ` è parallela a σ se e solo se ar1 + br2 + cr3 = 0.


 
a b c
ii) La retta ` è perpendicolare a σ se e solo se rg = 1.
r1 r2 r3

7.2.3 Posizione reciproca di due rette in E3


Se `, `0 sono le rette di equazioni cartesiane
  
ax + by + cz + d = 0 a b c
` , rg = 2,
a0 x + b 0 y + c 0 z + d = 0 a0 b0 c0
  
0 αx + βy + γz + δ = 0 α β γ
` , rg = 2.
α0 x + β 0 y + γ 0 z + δ = 0 α0 β 0 γ 0
La loro intersezione ` ∩ `0 è rappresentata dal sistema lineare:


 ax + by + cz = −d
 0
a x + b0 y + c0 z = −d0
,

 αx + βy + γz = −δ
 0
α x + β 0 y + γ 0 z = −δ 0

dove    
a b c a b c −d
 a0 b0 c0   a0 b0 c0 −d0 
A=  , Ā =  
 α β γ   α β γ −δ 
0 0 0
α β γ α0 β 0 γ 0 −δ 0
sono rispettivamente la matrice incompleta e completa associata al sistema. Si noti che
2 ≤ rg(A) ≤ 3, vi sono pertanto quattro possibilità:

74
1) rg(A) = rg(Ā) = 2. In tal caso le rette `, `0 coincidono.

2) rg(A) = 2 e rg(Ā) = 3. In tal caso le rette ` e `0 sono parallele e disgiunte (si noti
− →
→ −
che in tal caso ` ∩ `0 6= 0).

3) rg(A) = rg(Ā) = 3. In tal caso le rette ` e `0 sono incidenti ed hanno un punto in


comune.

4) rg(Ā) = 4 (e quindi rg(A) = 3). In tal caso le rette `, `0 sono sghembe.

Valgono i seguenti risultati:

Teorema 7.11. Siano `, `0 due rette di E3 con vettori direttori (r1 , r2 , r3 ) e (r10 , r20 , r30 ),
rispettivamente.
 
0 r1 r2 r3
i) Le rette `, ` sono parallele se e solo se rg = 1 (i loro vettori direttori
r1 r2 r3
sono proporzionali).

ii) Le rette `, `0 sono perpendicolari se e solo se r1 r10 + r2 r20 + r3 r30 = 0 (i loro vettori
direttori sono ortogonali).

7.2.4 Angoli e distanze


Si definisce angolo (convesso) tra due piani π, π 0 , l’angolo (convesso) tra i vettori normali
dei piani π, π 0 .
Si definisce angolo (convesso) tra un piano π con vettore normale n ed una retta ` con
vettore direzione v, l’angolo π2 − θ, dove θ è l’angolo tra i vettori n e v.
Sia π : ax + by + cz + d = 0, (a, b, c) 6= (0, 0, 0) un piano di E3 , P0 un punto di
coordinate cartesiane (x0 , y0 , z0 ) ed ` l’unica retta passante per P0 e perpendicolare a π.
Sia P1 = (x1 , y1 , z1 ) l’unico punto in comune tra ` e π. Si definisce distanza tra il punto
P0 ed il piano π e si denota con d(P0 , π), la distanza euclidea tra P0 e P1 .
−−→ −−→
Poichè P1 P0 è ortogonale alla giacitura di π, si ha che P1 P0 ∈ hni, dove n = (a, b, c) è
−−→
il vettore normale al piano π. Pertanto esiste λ ∈ R tale che P1 P0 = λ(a, b, c). Ne segue
che √
−−→
d(P0 , σ) = d(P0 , P1 ) = ||P1 P0 || = ||λ(a, b, c)|| = |λ| a2 + b2 + c2 .
Inoltre x0 − x1 = λa, y0 − y1 = λb e z0 − z1 = λc da cui si ottiene x1 = x0 − λa e
y1 = y0 − λb. Poichè P1 ∈ σ si ha che

a(x0 − λa) + b(y0 − λb) + c(z0 − λc) + d = 0

e quindi
ax0 + by0 + cz0 + d
λ= .
a2 + b 2 + c 2

75
Pertanto
|ax0 + by0 + cz0 + d|
d(P0 , σ) = √ .
a2 + b 2 + c 2
Siano π, π 0 due piani di E3 paralleli e disgiunti. Si definisce distanza tra i piani π, π 0 e si
denota con d(π, π 0 ), la distanza d(A, π 0 )(= d(π, B)), dove A è un punto arbitrario di π (B
un punto arbitrario di π 0 ). Se π, π 0 sono incidenti oppure coincidono, allora d(π, π 0 ) = 0.
Sia ` una retta di E3 , P0 un punto di E3 e σ l’unico piano di E3 passante per P0 e
perpendicolare a `. Sia P1 l’unico punto in comune tra ` e σ. Definiamo la distanza d(P0 , `)
tra P0 e la retta ` come la distanza euclidea tra P0 e P1 .
Siano ` una retta e π un piano. Se ` e π sono incidenti oppure ` è contenuta in π, allora
d(`, π) = 0. Se ` e σ sono paralleli e disgiunti, allora definiamo distanza tra la retta ` ed
il piano π come d(`, π) = d(P, π), dove P e un punto arbitrario di `.
Infine siano `, `0 due rette sghembe di E3 e σ l’unico piano di E3 contenente ` e
parallelo a `0 . Si definisce la distanza d(`, `0 ) tra le rette `, `0 come la distanza euclidea tra
P e σ, dove P è un punto qualsiasi di `0 . Siano P0 ∈ `, Q0 ∈ `0 i punti di minima distanza
(d(`, `0 ) = d(P0 , Q0 )). Allora la retta passante per P0 e Q0 si definisce retta di minima
distanza. Pertanto la retta di minima distanza è incidente ed ortogonale ad entrambe le
rette ` ed `0 .

76
7.3 Prodotto vettoriale
Sia V uno spazio vettoriale euclideo di dimensione 3 e sia · : V × V −→ R un prodotto
scalare. Sia {i, j, k} una base ortonormale di V .
Si definisce prodotto vettoriale l’applicazione da V × V a V che associa alla coppia di
vettori (v1 , v2 ) ∈ V × V , dove v1 = x1 i + y1 j + z1 k, v2 = x2 i + y2 j + z2 k, il vettore v1 × v2
(si legge “v1 vettor v2 ”), dove
 
i j k
y1 z1

x1 z1

x1 y 1

v1 × v2 = det  x1 y1 z1  := i −
x2 z2 j + x2 y2 k =

y2 z2
x2 y2 z2

= (y1 z2 − y2 z1 )i − (x1 z2 − x2 z1 )j + (x1 y2 − x2 y1 )k.


Il prossimo risultato mostra alcune proprietà del prodotto vettoriale.

Proposizione 7.12. ∀ v1 , v2 , v3 ∈ V , ∀ λ ∈ R,

i) v1 × v2 = −v2 × v1 ,

ii) v1 × (v2 + v3 ) = v1 × v2 + v1 × v3 , (v1 + v2 ) × v3 = v1 × v3 + v2 × v3 ,

iii) λ(v1 × v2 ) = (λv1 ) × v2 = v1 × (λv2 ),

iv) v1 × v2 = 0 se e solo se v1 , v2 sono linearmente dipendenti,

v) ||v1 × v2 ||2 = ||v1 ||2 ||v2 ||2 − (v1 · v2 )2 ,

vi) ||v1 × v2 || = ||v1 || ||v2 || sen θ, dove θ è l’angolo tra v1 e v2 .

Dimostrazione. Siano v1 = x1 i + y1 j + z1 k, v2 = x2 i + y2 j + z2 k e v3 = x3 i + y3 j + z3 k.
i)    
i j k i j k
v1 × v2 = det  x1 y1 z1  = − det  x2 y2 z2  = −v2 × v1 .
x2 y2 z2 x1 y1 z1
ii)
 
i j k
v1 × (v2 + v3 ) = det  x1 y1 z1  =
x2 + x3 y2 + y3 z2 + z3
   
i j k i j k
= det  x1 y1 z1  + det  x1 y1 z1  = v1 × v3 + v2 × v3 .
x2 y2 z2 x3 y3 z3

iii)
   
i j k i j k
λ(v1 × v2 ) = λ det  x1 y1 z1  = det  λx1 λy1 λz1  = (λv1 ) × v2 .
x2 y2 z2 x2 y2 z2

77
iv) Essendo {i, j, k} una base di V,

y z x1 z1 x1 y 1
v1 × v2 = 1 1

i −
x2 z2 j + x2 y2 k = 0

y2 z2

se e solo se
y1 z1 x1 z1 x1 y1
y2 z2 = x2 z2 = x2 y2 = 0

se e solo se  
x1 y1 z1
rg =1
x2 y2 z2
se e solo se v1 , v2 sono linearmente dipendenti.
v)

||v1 × v2 ||2 = (y1 z2 − y2 z1 )2 + (x1 z2 − x2 z1 )2 + (x1 y2 − x2 y1 )2 =


= (x1 + y1 + z1 )2 + (x2 + y2 + z2 )2 − (x1 x2 + y1 y2 + z1 z2 )2 = ||v1 ||2 ||v2 ||2 − (v1 · v2 )2 .

vi)

||v1 × v2 ||2 = ||v1 ||2 ||v2 ||2 − (v1 · v2 )2 = ||v1 ||2 ||v2 ||2 − ||v1 ||2 ||v2 ||2 cos2 θ =
= ||v1 ||2 ||v2 ||2 (1 − cos2 θ) = ||v1 ||2 ||v2 ||2 sen2 θ.

Pertanto ||v1 × v2 || = ||v1 || ||v2 || sen θ, essendo sen θ ≥ 0, se θ ∈ [0, π].

7.4 Prodotto misto


Siano v1 , v2 , v3 ∈ V . Si definisce prodotto misto dei vettori v1 , v2 , v3 ∈ V il numero reale

(v1 × v2 ) · v3 .

Se v1 = x1 i + y1 j + z1 k, v2 = x2 i + y2 j + z2 k e v3 = x3 i + y3 j + z3 k, allora
 
y1 z1 x1 z1 x1 y 1
(v1 × v2 ) · v3 = i −
x2 z2 j + x2 y2 k · (x3 i + y3 j + z3 k) =

y2 z2
 

y1 z1

x1 z1

x1 y 1
x1 y1 z1
= x − y + z = det  x2 y2 z2  .
y2 z2 3 x2 z2 3 x2 y2 3
x3 y3 z3

Pertanto  
x1 y1 z1
(v1 × v2 ) · v3 = det  x2 y2 z2  . (7.8)
x3 y3 z3
Proposizione 7.13. ∀ v1 , v2 , v3 , v4 ∈ V ,

i) (v1 × v2 ) · v3 = 0 se e solo se v1 , v2 , v3 sono linearmente dipendenti,

78
ii) (v1 × v2 ) · v3 = (v2 × v3 ) · v1 = (v3 × v1 ) · v2 ,
 
v1 · v3 v1 · v4
iii) (v1 × v2 ) · (v3 × v4 ) = det .
v2 · v3 v2 · v4
Dimostrazione. Siano v1 = x1 i + y1 j + z1 k, v2 = x2 i + y2 j + z2 k, v3 = x3 i + y3 j + z3 k e
v4 = x4 i + y4 j + z4 k.
i) Tenendo conto della (7.8), si ha che
 
x1 y1 z1
(v1 × v2 ) · v3 = det  x2 y2 z2  = 0
x3 y3 z3

se e solo se v1 , v2 , v3 sono linearmente indipendenti.


ii)
   
x1 y1 z1 x2 y2 z2
(v1 × v2 ) · v3 = det  x 2 y2 z2
 = det x3
 y3 z3  = (v2 × v3 ) · v1 ,
x3 y3 z3 x1 y1 z1
   
x1 y1 z1 x3 y3 z3
(v1 × v2 ) · v3 = det  x 2 y 2 z2
 = det x1
 y1 z1  = (v3 × v1 ) · v2 .
x3 y3 z3 x2 y2 z2
iii)

(v1 × v2 ) · (v3 × v4 ) =
   
y1 z1 x1 z1 x1 y1 y3 z3 x3 z3 x3 y 3
= i − j + k · i − j +
x4 y 4 k =

y2 z2 x2 z2 x2 y2 y4 z4 x4 z4

y z y3 z3 x1 z1 x3 z3 x1 y1 x3 y3
= 1 1 y4 z4 + x2
+ =
y2 z2 z2 x4 z4 x2 y2 x4 y4
= (x1 x3 + y1 y3 + z1 z3 )(x2 x4 + y2 y4 + z2 z4 ) − (x1 x4 + y1 y4 + z1 z4 )(x2 x3 + y2 y3 + z2 z3 ) =
 
v1 · v3 v1 · v4
= det .
v2 · v3 v2 · v4

Corollario 7.14. Siano v1 , v2 ∈ V vettori linearmente indipendenti, allora

i) v ∈ hv1 , v2 i⊥ se e solo se v = λ(v1 × v2 ), per qualche λ ∈ R,

ii) {v1 , v2 , v1 × v2 } è una base di V .

Dimostrazione. i) Sia 0 6= v = λ(v1 × v2 ) = (λv1 ) × v2 , per qualche λ ∈ R, λ 6= 0. Poichè


λv1 , v1 , v2 sono linearmente dipendenti, dalla Proposizione 7.13, i), si ha che v · v1 =
((λv1 ) × v2 ) · v1 = 0 e v · v2 = ((λv1 ) × v2 ) · v2 = 0. Allora v ⊥ v1 , v ⊥ v2 e quindi
v ∈ hv1 , v2 i⊥ .

79
Viceversa, poichè v1 , v2 sono linearmente indipendenti (quindi dim(hv1 , v2 i) = 2) e
dim(V ) = 3, dalla Proposizione 3.13, si ha che dim(hv1 , v2 i⊥ ) = 1. Inoltre dalla Proposi-
zione 7.12, iv), v1 × v2 6= 0, mentre dalla Proposizione 7.13, i), si ha che v1 · (v1 × v2 ) =
v2 ·(v1 ×v2 ) = 0 e quindi (v1 ×v2 ) ⊥ v1 , (v1 ×v2 ) ⊥ v2 . Pertanto v1 ×v2 ∈ hv1 , v2 i⊥ e quin-
di {v1 × v2 } è una base di hv1 , v2 i⊥ . Ne segue che se v ∈ hv1 , v2 i⊥ , allora v = λ(v1 × v2 ),
per qualche λ ∈ R.
ii) Poichè v1 × v2 ∈/ hv1 , v2 i, si ha che v1 , v2 , v1 × v2 sono linearmente indipendenti.
Quindi hv1 , v2 , v1 × v2 i ⊆ V e dim(hv1 , v2 , v1 × v3 i) = dim(V ) = 3. Allora hv1 , v2 , v1 ×
v3 i = V e {v1 , v2 , v1 × v2 } è una base di V .
Esercizi 7.15. 1. Determinare l’equazione del piano  σ passante per i punti A =
x + y − 4z − 1 = 0
(2, 1, 0), B = (−1, 0, 1) e parallelo alla retta ` : .
x − y + 2z + 1 = 0

 σ : ax + by + cz + d = 0 e sia n = (a, b, c). Poichè A, B ∈ σ si ha che


Sia
2a + b + d = 0
. Pertanto n = (c + d, −2c − 3d, c). Se v è un vettore diret-
−a + c + d = 0  
1 −4 1 −4 1 1
tore di `, allora v ∈ −1 2 , − 1 2 , 1 −1
= h(−2, −6, −2)i e
v = (1, 3, 1). Inoltre n ∈ hvi⊥ e quindi (c + d, −2c − 3d, c) · (1, 3, 1) = 0, da cui si
ottiene c = −2d. Pertanto σ : x − y + 2z − 1 = 0.

− −→ −→
Un altro modo
si noti che n ⊥ ` e n ⊥ AB, allora n ∈ hv × ABi, dove
è il seguente:
i j k
−→
v × AB = 1 3 1 = (4, −4, 8). Allora n = (1, −1, 2) e σ : x − y + 2z + d = 0.
−3 −1 1
Poichè A ∈ σ, si ha che d = −1.

2. Determinare la posizione reciproca delle rette


 
 x = −2 − 2λ  x = 1 + 2µ
`: y = 1 + 4λ , λ ∈ R, `0 : y = −2 + µ , µ ∈ R.
z=λ z =2−µ
 

I vettori direttori di `, `0 sono v = (−2, 4, 1), v0 = (2, 1, −1), rispettivamente. Poichè


v, v0 non sono proporzionali, le due rette non sono parallele. Pertanto sono incidenti
o sghembe.
Le loro equazioni cartesiane sono
 
x + 2z + 2 = 0 0 x − 2y − 5 = 0
`: , ` : .
y − 4z − 1 = 0 y+z =0
 
1 0 2 2
 0 1 −4 −1 
Poichè rg 
 1 −2 0 −5  = 4, si ha che le rette sono sghembe.

0 1 1 0

80
Un altro modo è il seguente: siano A = (−2, 1, 0) ∈ `, B = (1, −2, 2) ∈ `0 . Allora `, `0
−→ −→
sono complanari se e solo se AB ∈ hv, v0 i se e solo se AB, v, v0 sono linearmente
−→ 0 −→ −→ 0
dipendenti
se (AB ×v)·v = 0, dove AB = (3, −3, 2). Poichè (AB ×v)·v =
se e solo
3 −3 2

−2 4 1 = −35 6= 0, le rette sono sghembe.

2 1 −1
3. Verificare che le rette

 x=λ 
0 x+y−z =0
`: y=λ , λ ∈ R, ` :
2y + z − 4 = 0
z =1+λ

sono incidenti e determinare il piano π che le contiene.

Siano v, v0 vettori
 direttori
0
di `, ` , rispettivamente. Allora v = (1, 1, 1) e v0 ∈
1 −1 1 −1 1 1
2 1 ,− 0 1 , 0 2
= h(3, −1, 2)i e v0 = (3, −1, 2). Poichè v, v0
non sono proporzionali, allora `, `0 sono sghembe oppure incidenti. Siano A =
(0, 0, 1) ∈ ` e B = (4, 0, 4) ∈ `0 . Le rette `, `0 sono complanari
(e quindi incidenti) se
4 0 3
−→ −→
e solo se (AB × v) · v0 = 0. Infatti (AB × v) · v0 = 1 1 1 = 0.
3 −1 2
Sia π : ax + cy + cz + d = 0 e sia n = (a, b, c) un vettore normale al piano π. Allora
* i j k +

n ∈ hv × v0 i = 1 1 1 = h(3, 1, −4)i e π : 3x + y − 4z + d = 0. Poichè
3 −1 2
A ∈ π, si ha che d = 4. Quindi π : 3x + y − 4z + 4 = 0.

4. Sia π il piano passante per i punti A = (0, 0, 3), B = (2, 4, −1), C = (6, 0, 0).
Determinare
 il punto D di intersezione tra π e l’asse y e la distanza tra π e la retta
2x + 3y = 0
`: .
z=0

Sia π : ax + by + cz + d = 0 e sia n = (a, b, c) un vettore normale al piano π. Allora


−→ −→ −→ −→
n ∈ hAB × ACi, dove AB = (2, 4, −4) e AC = (6, 0, −3). Quindi n = (2, 3, 4).
Poichè A ∈ π, si ha che d = −12 e π : 2x + 3y + 4z − 12 = 0.

 2x + 3y + 4z − 12 = 0
Il punto D è soluzione di x=0 . Quindi D = (0, 4, 0). Un vetto-
z=0

 
3 0 2 0 2 3
,−
re direttore v della retta ` risulta v = 0 1 , 0 0 = (3, −2, 0).

0 1
Poichè v · n = (2, 3, 4) · (3, −2, 0) = 0, la retta ` è parallela al piano π. Inoltre
O = (0, 0, 0) ∈ ` e O ∈ / π, allora la retta ` è parallela e disgiunta al piano π.
Pertanto d(`, π) = d(O, π) = |−12|
||n||
= √1229 .

81
5. Verificare che le rette
 
 x=2  x=1+µ
0
`: y = 2 + λ , λ ∈ R, ` : y =1−µ , µ∈R
z = 1 − 2λ z=3
 

sono sghembe. Determinare la retta r di minima distanza e la distanza tra le rette


`, `0 .

Siano v, v0 vettori direttori di `, `0 , rispettivamente. Allora v = (0, 1, −2) e v0 =


(1, −1, 0). Poichè v e v0 non sono proporzionali, le rette `, `0 sono incidenti o sghembe.
Siano A = (2, 2, 1) ∈ ` e B = (1, 1, 3) ∈ `0 . Le rette `, `0 sono complanari
(e quindi
−1 −1 2
−→ −→
incidenti) se e solo se (AB × v) · v0 = 0. Poichè (AB × v) · v0 = 0 1 −2 =
1 −1 0
0
2 6= 0, `, ` sono sghembe.
−−→
Siano P = (2, 2 + λ, 1 − 2λ) ∈ `, P 0 = (1 + µ, 1 − µ, 3) ∈ `0 . Allora P, P 0 = (−1 +
−−→ −−→
µ, −1 − λ − µ, 2 + 2λ). Imponendo che P P 0 ⊥ v e P P 0 ⊥ v0 si ha che λ = 5/9 e µ =
−10/9. Pertanto i punti di minima distanza sono P1 = 2, 98 , 29 14 4
 
e P 2 = , , 3 .
−−→
9 4 4 2  9 9
Unvettore direttore della retta r è (2, 2, 1) ∈ hP1 P2 i = − 9 , − 9 , − 9 . Allora
 x = 14 9
+ 2t
−−→ q
r: y = 94 + 2t , t ∈ R e d(`, `0 ) = d(P1 , P2 ) = ||P1 P2 || = 16 81
+ 16
81
4
+ 81 = 23 .
z =3−t

Un altro modo per calcolare la distanza tra ` ed `0 è il seguente:


−→
0 |AB · (v × v0 )| |2| 2
d(`, ` ) = 0
=√ = ,
||v × v || 9 3

dove v × v0 = (−2, 2, −1).

82
8 Applicazioni lineari
Siano V, W due K–spazi vettoriali. Un’applicazione F : V −→ W si dice lineare o
omomorfismo o mappa lineare o operatore lineare se

1) ∀v, v0 ∈ V , F (v + v0 ) = F (v) + F (v0 ),

2) ∀v ∈ V , ∀c ∈ K, F (cv) = cF (v).

Le due condizioni precedenti sono equivalenti alla seguente:

3) ∀v, v0 ∈ V , ∀c, c0 ∈ K, F (cv + c0 v0 ) = cF (v) + c0 F (v0 ).

Infatti se vale la 3) allora, posto c = c0 = 1 vale la 1), mentre per c0 = 0 vale la 2).
Viceversa se valgono 1) e 2), allora F (cv + c0 v0 ) = F (cv) + F (c0 v0 ) = cF (v) + c0 F (v0 ) e
quindi vale la 3).

Osservazione 8.1. i) Applicando la 2) per c = 0, si ha che se F è lineare, allora


F (0) = 0.

ii) Iterando la 3), si ha che se F è lineare, allora ∀v1 , . . . , vn ∈ V , ∀c1 , . . . , cn ∈ K,


F (c1 v1 + · · · + cn vn ) = c1 F (v1 ) + . . . cn F (vn ).

Un’applicazione lineare F : V −→ V si dice endomorfismo di V , mentre un’applica-


zione lineare F : V −→ K si dice funzionale lineare su V .
Un’applicazione F : V −→ W si dice iniettiva se ∀v, v0 ∈ V , tali che F (v) = F (v0 ),
allora v = v0 .
Un’applicazione F : V −→ W si dice suriettiva se ∀w ∈ W , allora ∃ v ∈ V tale che
F (v) = w.
Un’applicazione che è sia iniettiva che suriettiva si dice biettiva. Un’applicazione lineare
biettiva si dice isomorfismo.

Esempi 8.2. 1. L’applicazione 0V : V −→ W tale che 0V (v) = 0, ∀v ∈ V , è


un’applicazione lineare detta applicazione lineare nulla.

2. L’applicazione idV : V −→ V tale che F (v) = v, ∀v ∈ V , è un isomorfismo detto


identità di V .

3. Sia V un K–spazio vettoriale tale che dim(V ) = n e sia B = {e1 , . . . , en } una base
di V . L’applicazione FB : V −→ Kn tale che ∀v ∈ V , se v = x1 e1 + . . . + xn en , allora

FB (v) = FB (x1 e1 + . . . + xn en ) = (x1 , . . . , xn ) ∈ Kn

è un isomorfismo.

4. L’applicazione F : Mn (K) −→ K tale che se A ∈ Mn (K), F (A) = T r(A) è un


funzionale lineare.

83
5. L’applicazione F : Mn (K) −→ Mn (K) tale che se A ∈ Mn (K), F (A) = A + At è
un’applicazione lineare.

6. L’applicazione F : Mn (K) −→ Mn (K) tale che se A ∈ Mn (K), F (A) = A − At è


un’applicazione lineare.

Lemma 8.3. i) Siano V, W, U K–spazi vettoriali e siano F : V −→ W , G : W −→ U


applicazioni lineari, allora G ◦ F : v ∈ V 7−→ (G ◦ F )(v) = G(F (v)) ∈ U è
un’applicazione lineare.

ii) Se F : V −→ W un isomorfismo, allora F −1 : W −→ V è un isomorfismo.

Dimostrazione. i) Mostriamo che G ◦ F è lineare: ∀c, c0 ∈ K, ∀v, v0 ∈ V , siano v, v0 ∈ V


tali che F (v) = w, F (v0 ) = w0 , quindi F −1 (w) = v, F −1 (w0 ) = v0 , si ha che

(G ◦ F )(cv + c0 v0 ) = G(F (cv + c0 v0 )) = G(cF (v) + c0 F (v0 )) =


= cG(F (v)) + c0 G(F (v0 )) = c(G ◦ F )(v) + c0 (G ◦ F )(v0 ).

ii) Mostriamo che F −1 è lineare: ∀c, c0 ∈ K, ∀w, w0 ∈ W , siano v, v0 ∈ V tali che


F (v) = w, F (v0 ) = w0 , quindi F −1 (w) = v, F −1 (w0 ) = v0 , si ha che

F −1 (cw + c0 w0 ) = F −1 (cF (v) + c0 F (v0 )) = F −1 (F (cv + c0 v0 )) =


= cv + c0 v0 = cF −1 (w) + c0 F −1 (w0 ).

Esempi 8.4. 1. Siano F e G le due applicazioni lineari date da:

F : (x, y) ∈ R2 7−→ (x + y, 2x, x − y) ∈ R3 ,

G : (x, y, z) ∈ R3 7−→ (2x + z, −2x + y + z, y + 2z) ∈ R3 .


Allora G ◦ F : R2 −→ R3 , dove

(G ◦ F )(x, y) = G(F (x, y)) = G(x + y, 2x, x − y) = (3x + y, x − 3y, 4x − 2y)

e G2 = G ◦ G : R3 −→ R3 , dove

G2 (x, y, z) = (G ◦ G)(x, y, z) = G(G(x, y, z)) = G(2x + z, −2x + y + z, y + 2z)


= (4x + y + 4z, −6x + 2y + z, −2x + 3y + 5z)

2. Sia V un K–spazio vettoriale, e sia F un endomorfismo su V tale che F 2 −F +idV =


0V . Allora F è un isomorfismo e F −1 = idV − F . Infatti

(idV − F ) ◦ F = idV ◦ F − F ◦ F = F − F 2 = idV .

84
8.1 Nucleo e Immagine
Sia F : V −→ W un’applicazione lineare. Si definisce nucleo di F il seguente sottoinsieme
di V :
Ker(F ) = {v ∈ V | F (v) = 0}.
Si definisce immagine di F il seguente sottoinsieme di W :

Im(F ) = {w ∈ W | ∃ v ∈ V con F (v) = w} = {F (v) | v ∈ V }.

Proposizione 8.5. i) Ker(F ) è un sottospazio vettoriale di V .

ii) Im(F ) è un sottospazio vettoriale di W .

Dimostrazione. Infatti ∀c1 , c2 ∈ K, ∀v1 , v2 ∈ Ker(F ), si ha che F (c1 v1 + c2 v2 ) =


c1 F (v1 ) + c2 F (v2 ) = c1 0 + c2 0 = 0 e quindi c1 v1 + c2 v2 ∈ Ker(F ).
Inoltre ∀w1 , w2 ∈ Im(F ), con v1 , v2 ∈ V tali che F (v1 ) = w1 e F (v2 ) = w2 , allora
F (c1 v1 + c2 v2 ) = c1 w1 + c2 w2 . Pertanto c1 w1 + c2 w2 ∈ Im(F ).

Osservazione 8.6. Sia F : V −→ W un omomorfismo e sia {e1 , . . . , en } una base di V ,


allora Im(F ) = hF (e1 ), . . . , F (en )i.

Osservazione 8.7. Sia F : V −→ W un omomorfismo. F è suriettiva se e solo se


Im(F ) = W o equivalentemente dim(Im(F )) = dim(W ).

Il prossimo risultato caratterizza le applicazioni lineari iniettive.

Teorema 8.8. Siano V, W due K–spazi vettoriali. Un’applicazione lineare F : V −→ W


è iniettiva se e solo se Ker(F ) = {0}.

Dimostrazione. Se F è iniettiva, allora si supponga per assurdo che 0 6= v ∈ Ker(F ). Si


ha che F (v) = 0 = F (0), ma allora v = 0, che è un assurdo.
Viceversa, se Ker(F ) = 0, siano v, v0 ∈ V tali che F (v) = F (v0 ). Allora F (v − v0 ) =
F (v) − F (v0 ) = 0, quindi v − v0 ∈ Ker(F ). Pertanto v − v0 = 0 e v = v0 . Dunque F è
iniettiva.

Proposizione 8.9. i) Sia F : V −→ W un’applicazione lineare. Se v1 , . . . , vn ∈


V sono linearmente dipendenti, allora F (v1 ), . . . , F (vn ) ∈ W sono linearmente
dipendenti.

ii) Sia F : V −→ W un’applicazione lineare iniettiva. I vettori v1 , . . . , vn ∈ V sono li-


nearmente dipendenti se e solo F (v1 ), . . . , F (vn ) ∈ W sono linearmente dipendenti.

Dimostrazione. i) Siano c1 , . . . , cn ∈ K scalari non tutti nulli tali che c1 v1 + . . . + cn vn =


0, allora c1 F (v1 ) + . . . + cn F (vn ) è una combinazione lineare non banale dei vettori
F (v1 ), . . . , F (vn ) che è uguale al vettore nullo: c1 F (v1 ) + . . . + cn F (vn ) = F (c1 v1 + . . . +
cn vn ) = F (0) = 0. Pertanto F (v1 ), . . . , F (vn ) sono linearmente dipendenti.

85
ii) Viceversa, se v1 , . . . , vn ∈ V sono linearmente indipendenti, allora siano c1 , . . . , cn ∈
K tali che c1 F (v1 ) + . . . + cn F (vn ) = 0. Ne segue che F (c1 v1 + . . . + cn vn ) = 0 e quindi
c1 v1 + . . . cn vn ∈ Ker(F ). Ma Ker(F ) = {0}, poichè F è iniettiva. Quindi c1 v1 + . . . +
cn vn = 0 da cui segue che c1 = . . . = cn = 0, come volevasi.

Osservazione 8.10. Dalla Proposizione 8.9, i), si ha che se F (v1 ), . . . , F (vn ) ∈ W sono
linearmente indipendenti, allora v1 , . . . , vn ∈ V sono linearmente indipendenti.

Teorema 8.11. (Formula dimensionale per applicazioni lineari)


Siano V, W due K–spazi vettoriali e sia F : V −→ W un’applicazione lineare. Allora

dim(Ker(F )) + dim(Im(F )) = dim(V ).

Dimostrazione. Sia n = dim(V ) e s = dim(Ker(F )). Poichè Ker(F ) è sottospazio


vettoriale di V , si ha s ≤ n. Sia {n1 , . . . , ns } una base di Ker(F ). Dal Teorema del
completamento ad una base possiamo trovare n − s vettori vs+1 , . . . , vn ∈ V tali che
{n1 , . . . , ns , vs+1 , . . . , vn } è una base di V . Per completare la dimostrazione sarà sufficiente
mostrare che {F (vs+1 ), . . . , F (vn )} è una base di Im(F ).
Mostriamo che F (vs+1 ), . . . , F (vn ) generano Im(F ). Sia w ∈ Im(F ) e sia v = a1 n1 +
. . .+as ns +as+1 vs+1 +. . .+an vn ∈ V tale che F (v) = w, allora w = F (v) = F (a1 n1 +. . .+
as ns + as+1 vs+1 + . . . + an vn ) = a1 F (n1 ) + . . . + as F (ns ) + as+1 F (vs+1 ) + . . . + an F (vn ) =
as+1 F (vs+1 ) + . . . + an F (vn ). Pertanto Im(F ) = hF (vs+1 ), . . . , F (vn )i.
Mostriamo ora che F (vs+1 ), . . . , F (vn ) sono linearmente indipendenti. Siano cs+1 , . . . , cn ∈
K tali che cs+1 F (vs+1 )+. . .+cn F (vn ) = 0. Allora F (cs+1 vs+1 +. . .+cn vn ) = cs+1 F (vs+1 )+
. . . + cn F (vn ) = 0. Pertanto cs+1 vs+1 + . . . + cn vn ∈ Ker(F ). Poiche {n1 , . . . , ns } è una
base di Ker(F ), esistono b1 , . . . , bs ∈ K tali che cs+1 vs+1 + . . . + cn vn = b1 n1 + · · · + bs ns
e quindi b1 n1 + . . . + bs ns − cs+1 vs+1 − . . . − cn vn = 0. Ma n1 , . . . , ns , vs+1 , . . . , vn sono
linearmente indipendenti, allora b1 = . . . = bs = cs+1 = . . . = cn = 0. Ne segue che
F (vs+1 ), . . . , F (vn ) sono linearmente indipendenti.

Esempi 8.12. 1. Si consideri l’applicazione lineare

F : A ∈ Mn (K) 7−→ A + At ∈ Mn (K).

Allora Im(F ) = Symn (K) e Ker(F ) = ASymn (K).

2. Si consideri l’applicazione lineare

F : A ∈ Mn (K) 7−→ A − At ∈ Mn (K).

Allora Im(F ) = ASymn (K) e Ker(F ) = Symn (K).

Corollario 8.13. Sia F : V −→ V 0 un omomorfismo, con dim(V ) = dim(V 0 ) = n. Allora


F è iniettiva se e solo se F è suriettiva.

86
Dimostrazione. F è iniettiva se e solo se Ker(F ) = {0} se e solo se dim(Ker(F )) = 0 se
e solo se dim(Im(F )) = dim(V ) = n se e solo se F è suriettiva.
Il prossimo risultato esprime il fatto che un’applicazione lineare è determinata dalle
immagini dei vettori di una base del dominio.
Proposizione 8.14. Siano V, W due K–spazi vettoriali, sia B = {e1 , . . . , en } una base di
V e siano w1 , . . . , wn vettori di W . Allora esiste un’ unica appliczione lineare F : V −→
W , tale che F (ei ) = wi , 1 ≤ i ≤ n.
Dimostrazione. Se F esiste, allora essa è unica. Infatti ∀ v ∈ V , siano x1 , . . . , xn ∈ K tali
che v = x1 e1 + . . . + xn en , allora poichè F è lineare si ha che F (v) = x1 F (e1 ) + . . . +
xn F (en ) = x1 w1 + . . . + xn wn .
Basta, quindi mostrare che l’applicazione F : v = x1 e1 +. . .+xn en ∈ V 7−→ x1 w1 +. . .+
xn wn ∈ W è lineare. Siano c, c0 ∈ K, v = x1 e1 +. . .+xn en , v0 = y1 e1 +. . .+yn en ∈ V , allora
cv + c0 v0 = c(x1 e1 + . . . + xn en ) + c0 (y1 e1 + . . . + yn en ) = (cx1 + c0 y1 )e1 + . . . + (cxn + c0 yn )en
e quindi F (cv + c0 v0 ) = (cx1 + c0 y1 )w1 + . . . + (cxn + c0 yn )wn = c(x1 w1 + . . . + xn wn ) +
c0 (y1 w1 + . . . + yn wn ) = cF (v) + c0 F (v0 ).
Due K–spazi vettoriali V, W si dicono isomorfi se esiste un isomorfismo F : V −→ W .
Teorema 8.15. Due K–spazi vettoriali V, W (di dimensione finita) sono isomorfi se e
solo se dim(V ) = dim(W ).
Dimostrazione. Se esiste un isomorfismo F : V −→ W , allora dalla Formula dimensionale
per le applicazioni lineari, si ha che dim(V ) = dim(W ), in quanto dim(Ker(F )) = 0 e
dim(Im(F )) = dim(W ).
Viceversa, se dim(V ) = dim(W ), siano {v1 , . . . , vn } una base di V e {w1 , . . . , wn } una
base di W . Dalla Proposizione 8.14 esiste un’unica applicazione lineare F : V −→ W ,
tale che F (vi ) = wi , 1 ≤ i ≤ n. Allora {w1 , . . . , wn } è una base di Im(F ) e quindi
dim(Im(F )) = dim(W ) = n ed F è suriettiva. Inoltre, dal Corollario 8.13, si ha che F è
iniettiva. Allora F è un isomorfismo.

8.2 Matrice associata ad un’applicazione lineare rispetto ad una


coppia di basi
Siano V, W due K–spazi vettoriali tali che dim(V ) = n, dim(W ) = m e siano B =
{v1 , . . . , vn }, B 0 = {w1 , . . . , wm } basi di V e W , rispettivamente. Sia F : V −→ W
un’applicazione lineare. La matrice m × n la cui j–esima colonna, 1 ≤ j ≤ n, è costituita
dalle coordinate del vettore F (vj ) ∈ W rispetto alla base B 0 si dice matrice associata ad
F rispetto alle basi B, B 0 .
F (v1 ) = a11 w1 + a21 w2 + . . . + am1 wm
F (v2 ) = a12 w1 + a22 w2 + . . . + am2 wm
..
.
F (vn ) = a1n w1 + a2n w2 + . . . + amn wm

87
La matrice associata ad F rispetto a B, B 0 è:
 
a11 a12 ... a1n
 a21 a22 ... a2n 
AB,B0 =  ..
 
.. .. .. 
 . . . . 
am1 am2 . . . amn

Si noti che AB,B0 dipende, oltre che da F , anche dalle basi di V e W . Inoltre, fissate
una base di V e W , dalla matrice è possibile risalire all’applicazione lineare.

Proposizione 8.16. Siano V, W K–spazi vettoriali tali che dim(V ) = n, dim(W ) = m


e siano B = {v1 , . . . , vn }, B 0 = {w1 , . . . , wm } basi di V e W , rispettivamente. Sia F :
V −→ W un’applicazione lineare, allora ∀v = x1 v1 + . . . + xn vn ∈ V , si ha F (v) =
y1 w1 + . . . + ym wm , dove    
y1 x1
 y2   x2 
 ..  = AB,B0  .. 
   
 .   . 
ym xn
Dimostrazione. F (v) = F (x1 v1 + . . . + xn vn ) = x1 F (v1 ) + . . . + xn F(vn ) = x1 (a 11 w1 +
Pn
a21 w2 + . . . + am1 wm ) + . . . + xn (a1n w1 + a2n w2 + . . . + amn wm ) = j=1 a1j xj w1 +
P 
n
... + j=1 amj xj wm = y1 w1 + . . . + ym wm . Poichè un vettore si esprime in maniera
P 
n
unica come combinazione lineare di una base si ha che yi = j=1 aij xj , 1 ≤ i ≤ m,
come volevasi.

Osservazione 8.17. Tenendo conto dell’Osservazione 8.6 e dell’Esempio 8.2, 3., le colonne
della matrice AB,B0 formano un insieme di generatori di un sottospazio isomorfo a Im(F ).
Inoltre, si noti che dim(Im(F )) = rg(AB,B0 ).

Esempi 8.18. 1. Siano V, W due K–spazi vettoriali tali che dim(V ) = 2 e dim(W ) =
3. Siano B = {v1 , v2 }, B 0 = {w1 , w2 , w3 } basi di V e W . Si consideri l’applicazione
lineare F , dove

F (v1 ) = 3w1 − w2 + 17w2


F (v2 ) = w1 + w2 − 1w3 .

Allora la matrice associata ad F rispetto a B, B 0 è:


 
3 1
AB,B0 =  −1 1 
17 −1

2. Si consideri l’applicazione lineare

F : (x, y) ∈ R2 7−→ (x + y, 2x, x − y) ∈ R3 .

88
Siano B = {v1 = (1, 0), v2 = (1, 1)}, B 0 = {w1 = (1, 0, 0), w2 = (1, 1, 0), w3 =
(1, 1, 1)} basi di R2 e R3 . Allora

F (v1 ) = (1, 2, 1) = −w1 + w2 + w2


F (v2 ) = (2, 2, 0) = 0w1 + 2w2 + 0w3

e la matrice associata ad F rispetto a B, B 0 è:


 
−1 0
AB,B0 =  1 2 
1 0

Siano λ, µ ∈ R e sia v = λv1 + µv2 = (λ + µ, µ). Allora F (v) = F (λ + µ, µ) =


(λ + 2µ, 2λ + 2µ, λ). Lo stesso risultato si può ottenere come segue:
 
  −λ
λ
AB,B0 =  λ + 2µ 
µ
λ

F (v) = −λw1 + (λ + 2µ)w2 + λw3 = (λ + 2µ, 2λ + 2µ, λ).

8.3 Applicazioni lineari e matrici


Denotiamo con Hom(V, W ) l’insieme di tutte le applicazioni lineari da V in W .

Hom(V, W ) = {F : V −→ W | F omomorfismo}.

Siano F1 , F2 ∈ Hom(V, W ) e λ ∈ K. Definiamo

F1 + F2 : v ∈ V 7−→ (F1 + F2 )(v) = F1 (v) + F2 (v) ∈ W,

λF1 : v ∈ V 7−→ λF1 (v) ∈ W.

Proposizione 8.19. F1 + F2 e λF1 sono applicazioni lineari da V in W .

Dimostrazione. Siano v1 , v2 ∈ V , allora (F1 + F2 )(v1 + v2 ) = F1 (v1 + v2 ) + F2 (v1 + v2 ) =


F1 (v1 )+F1 (v2 )+F2 (v1 )+F2 (v2 ) = (F1 (v1 )+F2 (v1 ))+(F1 (v2 )+F2 (v2 )) = (F1 +F2 )(v1 )+
(F1 + F2 )(v2 ).
Sia c ∈ K e sia v ∈ V , allora (F1 + F2 )(cv) = F1 (cv) + F2 (cv) = cF1 (v) + cF2 (v) =
c(F1 (v) + F2 (v)) = c(F1 + F2 )(v).
Analogamente siano v1 , v2 ∈ V , allora (λF )(v1 + v2 ) = λF (v1 + v2 ) = λ(F (v1 ) +
F (v2 )) = λF (v1 ) + λF (v2 ) = (λF )(v1 ) + (λF )(v2 ).
Sia c ∈ K e sia v ∈ V , allora (λF )(cv) = λF (cv) = λcF (v) = c(λF (v)) = c(λF )(v).

Pertanto F1 + F2 , λF1 ∈ Hom(V, W ) e vale quanto segue.

89
Corollario 8.20. Hom(V, W ) è un K–spazio vettoriale.

Teorema 8.21. Siano V, W due K–spazi vettoriali e siano B = {v1 , . . . , vn } e B 0 =


{w1 , . . . , wm } basi di V e W , rispettivamente. L’applicazione:

ΦB,B0 : F ∈ Hom(V, W ) 7−→ AB,B0 ∈ Mm,n (K)

è lineare. In particolare ΦB,B0 è un isomorfismo di spazi vettoriali e dim(Hom(V, W )) =


dim(Mm,n (K)) = mn.

Dimostrazione. Siano F, G ∈ Hom(V, W ) e siano AB,B0 , BB,B0 ∈ Mm,n (K) le matrici


associate ad F e G, rispettivamente, rispetto alle basi B, B 0 . Dalla Proposizione 8.16, se
x è il vettore colonna delle coordinate di v rispetto alla base B, allora il vettore colonna
delle coordinate di F (v) rispetto alla base B 0 risulta AB,B0 x, mentre il vettore colonna
delle coordinate di G(v) rispetto alla base B 0 è BB,B0 x. Poichè ∀ v ∈ V , (F + G)(v) =
F (v) + G(v), il vettore colonna delle coordinate di (F + G)(v) rispetto a B 0 è AB,B0 x +
BB,B0 x = (AB,B0 + BB,B0 ) x. Pertanto la matrice associata ad F + G rispetto alle basi B,
B 0 è AB,B0 + BB,B0 . Analogamente si può mostrare che λAB,B0 è la matrice associata a λF
rispetto alle basi B, B 0 . Abbiamo allora mostrato che ΦB,B0 è un’applicazione lineare.
Mostriamo ora che ΦB,B0 è suriettiva. Infatti, se M ∈ Mm,n (K), sia FM : V −→ W
l’applicazione definita come segue. Se v = x1 v1 + . . . + xn vn ∈ V , allora

FM (v) = (M (1) x)w1 + . . . + (M (m) x)wm ,

dove x = (x1 , . . . , xn )t . Si noti che il vettore colonna delle coordinate di FM (v) è M x.


Inoltre FM è lineare. Infatti se c, c0 ∈ K e v = x1 v1 +. . .+xn vn , v0 = y1 v1 +. . .+yn vn ∈ V ,
posto x = (x1 , . . . , xn )t e y = (y1 , . . . , yn )t , si ha che

FM (cv + c0 v0 ) = (M (1) (cx + c0 y))w1 + . . . + (M (m) (cx + c0 y))wm =

= (cM (1) x + c0 M (1) y)w1 + . . . + (cM (m) x + c0 M (m) y)wm =


= c (M (1) x)w1 + . . . + (M (m) x)wm + c0 (M (1) y)w1 + . . . + (M (m) y)wm =
 

= cFM (v) + c0 FM (v0 ).


Poichè la matrice associata ad FM rispetto alle basi B e B 0 è la matrice M , si ha che
ΦB,B0 (FM ) = M .
Mostriamo, infine, che ΦB,B0 è iniettiva. Se F : V −→ W è un’applicazione lineare la
cui matrice associata rispetto alle basi B e B 0 è la matrice nulla, allora F (v) = 0, ∀ v ∈ V .
Pertanto F è l’applicazione lineare nulla e Ker(ΦB,B0 ) = {0}.

Proposizione 8.22. Siano V, W, U K–spazi vettoriali, B, B 0 , B 00 basi di V , W ed U ,


rispettivamente. Siano F : V −→ W , G : W −→ U applicazioni lineari. Se A è la matrice
associata ad F rispetto a B e B 0 e B è la matrice associata a G rispetto a B 0 e B 00 , allora
BA è la matrice associata a G ◦ F rispetto alle basi B e B 00 .

90
Dimostrazione. Siano B = {v1 , . . . , vn }, B 0 = {w1 , . . . , wm } e B 00 = {u1 , . . . , us }. Se

v = z1 v1 + . . . + zn vn ∈ V,

siano

F (v) = x1 w1 + . . . + xm wm e (G ◦ F )(v) = G(F (v)) = y1 u1 + . . . + ys us .

Posto z = (z1 , . . . , zn )t , x = (x1 , . . . , xm )t e y = (y1 , . . . , ys )t , dalla Proposizione 8.16, si


ha che
x = Az
e
y = Bx = B(Az) = (BA)z,
come volevasi.

Corollario 8.23. Se F ∈ Hom(V, W ) è un isomorfismo e AB,B0 è la matrice associata


ad F rispetto alle basi B, B 0 , allora A−1
B,B0 è la matrice associata ad F
−1
rispetto alle basi
0
B , B.

8.4 Cambiamento di base


Sia V un K–spazio vettoriale tale che dim(V ) = n e siano E = {e1 , . . . , en }, F =
{f1 , . . . , fn } due basi di V . Allora esistono degli scalari aij ∈ K tali che

f1 = a11 e1 + a21 e2 + . . . + an1 en = (Pni=1 ai1 ei )


P
f2 = a12 e1 + a22 e2 + . . . + an2 en = ( ni=1 ai2 ei )
..
.
fn = a1n e1 + a2n e2 + . . . + ann en = ( ni=1 ain ei )
P

Si consideri la matrice quadrata di ordine n


 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
M =  ..
 
.. .. .. 
 . . . . 
an1 an2 . . . ann

La matrice M si chiama matrice del cambiamento di base da E ad F o anche matrice di


passaggio da E ad F.

Osservazione 8.24. Si noti che M ∈ GLn (K). Questo fatto si può vedere in due modi.
Infatti da una parte M è la matrice associata all’applicazione lineare identica idV
rispetto alle basi F ed E e idV è un isomorfismo.
Inoltre, tenendo conto dell’Esempio 8.2, 3., le colonne della matrice M formano un
insieme di vettori linearmente indipendenti di Kn .

91
Sia v ∈ V , allora v = x1 e1 + . . . + xn en e v = y1 f1 + . . . + yn fn . Si noti che la matrice
M può essere considerata come matrice associata all’applicazione identica (Esempio 8.2,
2.) idV : v ∈ V 7−→ v ∈ V rispetto alle basi F e E. Allora, dalla Proposizione 8.16 e dal
Corollario 8.23, si ha che    
x1 y1
 x2   y2 
 ..  = M  .. 
   
 .   . 
xn yn
da cui si ricava    
y1 x1
 y2   x2 
 = M −1 
   
 .. .. 
 .   . 
yn xn
Vale, pertanto, il seguente risultato.

Corollario 8.25. Siano E ed F due basi dello spazio vettoriale V . Se M è la matrice di


passaggio da E ad F, allora M −1 è la matrice di passaggio da F ad E.

8.5 Matrici associate ad un endomorfismo


Due matrici A, B ∈ Mn (K) si dicono simili, se esiste C ∈ GLn (K) tale che B = C −1 AC.

Lemma 8.26. Matrici simili hanno lo stesso determinante.

Dimostrazione. Siano A, B ∈ Mn (K) simili. Allora ∃ C ∈ GLn (K) tale che B = C −1 AC


e det(B) = det(C −1 AC) = det(C −1 ) det(A) det(C) = det(C)−1 det(A) det(C) = det(A).

Il prossimo risultato mostra che matrici associate ad un endomorfismo sono simili.

Proposizione 8.27. Sia V un K–spazio vettoriale tale che dim(V ) = n, siano E =


{e1 , . . . , en }, F = {f1 , . . . , fn } due basi di V e sia F : V −→ V un endomorfismo. Se M
è la matrice di passaggio da E ad F, AE,E è la matrice associata ad F rispetto alla base
E e AF ,F è la matrice associata ad F rispetto alla base F, allora AF ,F = M −1 AE,E M

Dimostrazione. Sia v ∈ V . Allora esistono (e sono uniche) le n–uple (x1 , . . . , xn ), (y1 , . . . , yn ) ∈


Kn tali che v = x1 e1 + . . . + xn en = y1 f1 + . . . + yn fn . Inoltre
       
x1 y1 y1 x1
 x2   y2   y2   x2 
 ..  = M  ..  ,  ..  = M −1  ..  .
       
 .   .   .   . 
xn yn yn xn

92
Poichè F (v) ∈ V , allora esistono (e sono uniche) le n–uple (x01 , . . . , x0n ), (y10 , . . . , yn0 ) ∈ Kn
tali che F (v) = x01 e1 + . . . + x0n en = y10 f1 + . . . + yn0 fn . Inoltre
       
x01 y10 y10 x01
 x0   y0   y0   x0 
 2   2   2  −1  2 
 ..  = M  ..  ,  ..  = M  ..  .
 .   .   .   . 
0 0 0
xn yn yn x0n

Dalla Proposizione 8.16 si ha che


       
y10 x01 x1 y1
 y0   x0   x2   y2 
 2   2 
 ..  = M −1  ..  = M −1 AE,E   = M −1 AE,E M  .
   
.. ..
 .   .   .   . 
0 0
yn xn xn yn

La matrice AE,E associata all’endomorfismo F rispetto alla base E sarà anche denotata
con AE .

Esempi 8.28. 1. Sia F : (x, y, z) ∈ R3 7−→ (2x + y, y − z, 2y + 4z) ∈ R3 . La matrice


associata ad F rispetto alla base canonica B = {e1 , e2 , e3 } di R3 è
 
2 1 0
AB =  0 1 −1  .
0 2 4

Si consideri la seguente base di R3 : B 0 = {v1 = (0, 0, 1), v2 = (0, 1, 1), v3 = (1, 1, 1)}.
Sia M ∈ M3 (R) la matrice di passaggio da B a B 0 , allora

(0, 0, 1) = 0e1 + 0e2 + 1e3 , (0, 1, 1) = 0e1 + 1e2 + 1e3 , (1, 1, 1) = 1e1 + 1e2 + 1e3 ,
 
0 0 1
M =  0 1 1 .
1 1 1
Mentre la matrice di passaggio da B 0 a B risulta
 
0 −1 1
M −1 =  −1 1 0  .
1 0 0

Allora la matrice associata ad F rispetto alla base B 0 è


 
5 6 6
−1
AB0 = M AB M =  −1 −1 −3  .
0 1 3

93
Infatti

F (v1 ) = 5v1 − 1v2 + 0v3 = (0, −1, 4),


F (v2 ) = 6v1 − 1v2 + 1v3 = (1, 0, 6),
F (v3 ) = 6v1 − 3v2 + 3v3 = (3, 0, 6).

2. Sia F l’endomorfismo su R2 tale che F (1, 1) = (1, 2) e F (0, 2) = (4, 4). Allora è
possibile determinare F . Sia B = {e1 , e2 } la base canonica di R2 e sia B 0 = {v1 =
(1, 1), (0, 2)}. Si noti che B 0 è una base di R2 . Inoltre
1
F (v1 ) = (1, 2) = v1 + v2
2
F (v2 ) = (4, 4) = 4v1 + 0v2 ,

quindi  
1 4
AB0 = 1
2
0
La matrice di passaggio da B a B 0 è
 
1 0
M= .
1 2

Pertanto la matrice di passaggio da B 0 a B risulta


 
−1 1 0
M = .
− 12 21

Allora  
−1 −1 2
AB = M A B 0 M =
0 2
e quindi
F : (x, y) ∈ R2 7−→ (−x + 2y, 2y) ∈ R2 .

94
9 Diagonalizzabilità di un endomorfismo e di una
matrice quadrata
Sia V un K–spazio vettoriale tale che dim(V ) = n e sia F : V −→ V un endomorfismo.
F si definisce diagonalizzabile se esiste una base E di V tale che AE,E , la matrice
associata ad F rispetto alla base E, risulti diagonale.
 
λ1 0 . . . 0
 0 λ2 . . . 0 
AE,E =  .. ..  .
 
.. . .
 . . . . 
0 0 . . . λn

Se questo accade, allora E è detta base diagonalizzante per F .


Una matrice A ∈ Mn (K) si dice diagonalizzabile se è simile ad una matrice diagonale.
In altri termini una matrice A ∈ Mn (K) si dice diagonalizzabile se esiste una matrice
P ∈ GLn (K) tale che P −1 AP = D, dove D ∈ Mn (K) è una matrice diagonale.
Osservazione 9.1. Sia B una base di V e sia F : V −→ V un endomorfismo. F è diago-
nalizzabile se e solo se la matrice associata ad F rispetto alla base B è diagonalizzabile.
Osservazione 9.2. Si noti che F : V −→ V è un endomorfismo diagonalizzabile ed
E = {e1 , . . . , en } è una base diagonalizzante per F se e solo se esistono λi ∈ K tali che
F (ei ) = λi ei , 1 ≤ i ≤ n.
Sia V un K–spazio vettoriale e sia F : V −→ V un endomorfismo. Un vettore 0 6= v ∈
V si dice autovettore di F se esiste uno scalare λ ∈ K tale che F (v) = λv. Lo scalare λ si
dice autovalore di F (relativo all’autovettore v).
Sia A ∈ Mn (K) e sia F : Kn −→ Kn l’endomorfismo la cui matrice associata rispetto
alla base canonica è A. Un autovettore di A è un autovettore di F , mentre un autovalore
di A è un autovalore di F . Equivalentemente un vettore 0 6= v = (x1 , . . . , xn ) ∈ Kn si dice
autovettore di A se esiste uno scalare λ ∈ K tale che
   
x1 x1
Avt = A  ...  = λ  ...  = λvt .
   
xn xn

Lo scalare λ si dice autovalore di A (relativo all’autovettore v).


Lemma 9.3. L’autovalore relativo ad un autovettore è univocamente determinato.
Dimostrazione. Siano λ, µ ∈ K autovalori relativi all’autovettore v. Allora F (v) = λv =
µv e quindi (λ − µ)v = 0. Poichè v 6= 0, si ha che λ − µ = 0 e pertanto λ = µ.

Sia Vλ (F ) = {v ∈ V | F (v) = λv} l’insieme degli autovettori di F relativi ad un


fissato autovalore λ ∈ K munito del vettore nullo. Il prossimo risultato mostra che Vλ (F )
è un sottospazio vettoriale di V .

95
Proposizione 9.4. Vλ (F ) è un sottospazio vettoriale di V .

Dimostrazione. Siano v1 , v2 ∈ V autovettori dell’endomorfismo F : V −→ V relativi allo


stesso autovalore λ e siano c1 , c2 ∈ K. Se c1 v1 + c2 v2 6= 0, allora il vettore c1 v1 + c2 v2 è
ancora un autovettore di F relativo all’autovalore λ. Infatti F (c1 v1 + c2 v2 ) = c1 F (v1 ) +
c2 F (v2 ) = c1 λv1 + c2 λv2 = λ(c1 v1 + c2 v2 ).

Vλ (F ) è detto autospazio relativo all’autovalore λ. Inoltre autovettori relativi ad auto-


valori distinti risultano linearmente indipendenti, come mostrato dal prossimo risultato.

Proposizione 9.5. Se λ1 , . . . , λn ∈ K sono a due a due distinti e v1 , . . . , vn ∈ V sono


autovettori di F relativi agli autovalori λ1 , . . . , λn , rispettivamente, allora v1 , . . . , vn sono
linearmente indipendenti.

Dimostrazione. Per induzione su n.


Base d’induzione. Per n = 1, v1 è linearmente indipendente, in quanto v1 6= 0.
Ipotesi d’induzione: la tesi è vera per n − 1.
Tesi d’induzione. Siano v1 , . . . , vn ∈ V autovettori relativi agli autovalori λ1 , . . . , λn ,
rispettivamente. Siano c1 , . . . , cn ∈ K tali che c1 v1 + . . . + cn vn = 0, allora

λ 1 c1 v 1 + . . . + λ 1 cn v n = λ 1 0 = 0 (9.1)

F (c1 v1 +. . .+cn vn ) = c1 F (v1 )+. . .+cn F (vn ) = c1 λ1 v1 +. . .+cn λn vn = F (0) = 0. (9.2)

Sottraendo la (9.1) dalla (9.2), si ha

c2 (λ2 − λ1 )v2 + . . . + cn (λn − λ1 )vn = 0.

Per ipotesi d’induzione v2 , . . . , vn sono linearmente indipendenti, quindi c2 (λ2 − λ1 ) =


. . . = cn (λn − λ1 ) = 0. Poichè λi − λ1 6= 0, per ogni i = 2, . . . , n, si ha che c2 = . . . =
cn = 0. Quindi otteniamo che c1 v1 = 0 e pertanto anche c1 = 0, essendo v1 6= 0, come
volevasi.

Analogamente, se A ∈ Mn (K), si definisce Vλ (A) = {v ∈ Kn | A(vt ) = λvt } l’insieme


degli autovettori di A relativi ad un fissato autovalore λ ∈ K munito del vettore nullo.
Similmente si dimostra quanto segue.

Proposizione 9.6. Sia A ∈ Mn (K).

i) Vλ (A) è un sottospazio vettoriale di Kn .

ii) Se λ1 , . . . , λn ∈ K sono a due a due distinti e v1 , . . . , vn ∈ Kn sono autovetto-


ri di A relativi agli autovalori λ1 , . . . , λn , rispettivamente, allora v1 , . . . , vn sono
linearmente indipendenti.

96
Proposizione 9.7. Sia A ∈ Mn (K) una matrice diagonalizzabile. Allora

i) Ak = P Dk P −1 , per ogni k ≥ 1;

ii) se λ ∈ K è autovalore di A relativo all’autovettore v, allora λk è autovalore di Ak


relativo all’autovettore v, per ogni k ≥ 1.

Dimostrazione. Per induzione su k.


i) Base d’induzione. Se k = 1, allora A = P DP −1 , poichè A è diagonalizzabile.
Ipotesi d’induzione: la tesi è vera per k. Quindi Ak = P Dk P −1 .
Tesi d’induzione. Mostriamo che Ak+1 = P Dk+1 P −1 . Infatti

Ak+1 = AAk = A(P Dk P −1 ) = (P DP −1 )(P Dk P −1 ) =


= P D(P P −1 )Dk P −1 = P DIn Dk P = P Dk+1 P −1 .

ii) Base d’induzione. Se k = 1, allora ∃ v ∈ Kn , v 6= 0, tale che Avt = λvt , poichè λ è


autovalore di A.
Ipotesi d’induzione: la tesi è vera per k. Quindi Ak vt = λvt .
Tesi d’induzione. Mostriamo che Ak+1 vt = λk+1 vt . Infatti

Ak+1 vt = (AAk )vt = A(Ak vt ) = A(λk vt ) = λk (Avt ) = λk (λvt ) = λk+1 vt .

9.1 Polinomio caratteristico


Sia A ∈ Mn (K) e sia X un’indeterminata. Il determinante della matrice A − XIn è un po-
linomio di grado n a coefficienti in K nell’indeterminata X, detto polinomio caratteristico
di A. Il polinomio caratteristico di A si denota con pA (X):

pA (X) = |A − XIn |.

Sia F : V −→ V un endomorfismo, sia E una base di V e sia AE,E la matrice associata


ad F rispetto ad E. Allora pAE,E (X) è detto polinomio caratteristico di F e si denota con
pF (X). Il prossimo risultato mostra che il polinomio caratteristico di F non dipende dalla
base E.

Lemma 9.8. Matrici simili hanno lo stesso polinomio caratteristico.

Dimostrazione. Siano A, B ∈ Mn (K) matrici simili. Esiste, pertanto, M ∈ GLn (K) tale
che B = M −1 AM . Allora B − XIn = M −1 AM − XIn = M −1 (A − XIn )M . Pertanto
|B − XIn | = |M −1 (A − XIn )M | = |M −1 ||A − XIn ||M | = |A − XIn |.

Il prossimo risultato fornisce un metodo pratico per calcolare autovalori ed autovettori


di un endomorfismo F .

97
Teorema 9.9. Sia V un K–spazio vettoriale tale che dim(V ) = n e sia F : V −→ V un
endomorfismo. Allora λ ∈ K è un autovalore di F se e solo se λ è radice del polinomio
caratteristico di F . In particolare F possiede al più n autovalori distinti.
Dimostrazione. Lo scalare λ è un autovalore di F se e solo se esiste 0 6= v ∈ V tale
che F (v) = λv se e solo se (F − λidV )(v) = 0, dove idV è l’applicazione identica e
F − λidV : V −→ V è un endomorfismo. Inoltre se E = {v1 , . . . , vn } è una base di V e
AE,E è la matrice associata ad F rispetto ad E, allora AE,E − λIn è la matrice associata ad
F − λidV rispetto ad E. Pertanto se v = x1 v1 + . . . + xn vn , allora 0 6= (x1 , . . . , xn ) ∈ Kn
è soluzione non–banale del sistema omogeneo la cui matrice associata è A − λIn . Allora
si ha che det(A − λIn ) = 0.
Infine F possiede al più n autovalori distinti poichè un polinomio di grado n a coeffi-
cienti in K possiede al più n radici in K.

Analogamente si dimostra il seguente risultato.


Teorema 9.10. Sia A ∈ Mn (K). Allora λ ∈ K è un autovalore di A se e solo se λ
è radice del polinomio caratteristico di A. In particolare A possiede al più n autovalori
distinti.

9.2 Molteplicità algebrica e geometrica


Sia λ un autovalore dell’endomorfismo F : V −→ V (o della matrice A ∈ Mn (K)). Se λ
è radice del polinomio caratteristico di F (o di A) con molteplicità uguale ad m, si dice
che l’autovalore λ ha molteplicità algebrica pari ad m. La molteplicità algebrica di λ viene
indicata con ma (λ).
Osservazione 9.11. Se λ è un autovalore dell’endomorfismo F (o della matrice A), dal
Teorema 9.9 (o dal Teorema 9.10) si ha che ma (λ) ≤ n.
La dimensione dell’autospazio Vλ (F ) (o di Vλ (A)) relativo all’autovalore λ, viene detta
molteplicità geometrica di λ. La molteplicità geometrica di λ viene indicata con mg (λ).
Vale il seguente risultato.
Proposizione 9.12. Se λ è un autovalore dell’endomorfismo F : V −→ V , allora 1 ≤
mg (λ) ≤ ma (λ).
Dimostrazione. Sia B = {v1 , . . . , vn } una base di V e sia A la matrice associata ad F
rispetto alla base B. Si noti che un vettore 0 6= v = x1 v1 + . . . + xn vn ∈ V appartiene a Vλ
se e solo se (x1 , . . . , xn ) ∈ Kn è soluzione non–banale del sistema omogeneo di n equazioni
nelle n incognite X = (X1 , . . . , Xn )t

(A − λIn ) X = 0.

Poichè det(A − λIn ) = 0, si ha che rg(A − λIn ) = r < n. Allora mg (λ) = dim(Vλ ) =
n − r ≥ 1.

98
Sia d = mg (λ) e sia {e1 , . . . , ed } una base di Vλ . Dal Teorema del completamento ad
una base esistono n − d vettori di V \ Vλ , ed+1 , . . . , en , tali che E = {e1 , . . . , en } è una
base di V . Se M è la matrice associata ad F rispetto alla base E, allora
 
λId B
M= ,
0 C

dove 0 ∈ Mn−d,d (K) è la matrice nulla, B ∈ Md,n−d (K) e C ∈ Mn−d (K). Allora il
polinomio caratteristico di F risulta

pF (X) = det(M − XIn ) = (λ − X)d det(C − XIn−d ) = (λ − X)d pC (X),

dove pC (X) è il polinomio caratteristico di C che è quindi un polinomio di grado n − d in


X. Pertanto ma (λ) ≥ d = mg (λ).

Il prossimo teorema fornisce un criterio di diagonalizzabilità per un endomorfismo.

Teorema 9.13. Sia V un K–spazio vettoriale tale che dim(V ) = n e sia F : V −→ V un


endomorfismo. Allora F è diagonalizzabile se e solo se

i) la somma delle molteplicità algebriche degli autovalori di F è pari ad n,

ii) per ogni autovalore la molteplicità geometrica coincide con la molteplicità algebrica.

Dimostrazione. Siano λ1 , . . . , λr , r ≤ n, gli autovalori distinti di F , siano m1 , . . . , mr le


rispettive molteplicità algebriche e Vλ1 , . . . , Vλr i rispettivi autospazi. Si supponga che
valgano le proprietà i) e ii), quindi m1 + . . . + mr = n e dim(Vλj ) = mj , 1 ≤ j ≤ r. Siano
rispettivamente B1 = {v1 , ..., vm1 } una base di Vλ1 , B2 = {u1 , . . . , um2 } una base di Vλ2 ,
. . . , Br = {w1 , . . . , wmr } una base di Vλr . Allora B = B1 ∪ . . . ∪ Br è un insieme di n
autovettori di F . Per concludere la dimostrazione, basta provare che B è una base di V , in
tal caso, infatti B sarà una base diagonalizzante per F . A tal fine, mostriamo che i vettori
di B sono linearmente indipendenti. Siano α1 , . . . , αm1 , β1 , . . . , βm2 , . . . , γ1 , . . . , γmr ∈ K
tali che

α1 v1 + . . . + αm1 vm1 + β1 u1 + . . . + βm2 um2 + . . . + γ1 w1 + . . . + γmr wmr = 0.

Posto

e1 = α1 v1 +. . .+αm1 vm1 , e2 = β1 u1 +. . .+βm2 um2 , . . . , er = γ1 w1 +. . .+γmr wmr , (9.3)

si ha che
e1 + . . . + er = 0. (9.4)
Inoltre dalla Proposizione 9.4, si ha che ei ∈ Vλi , mentre dalla Proposizione 9.5, i vettori
e1 , e2 , . . . , er sono linearmente indipendenti. Allora, da (9.4), necessariamente e1 = e2 =
. . . = er = 0. Infine, tenendo conto delle (9.3) e del fatto che i vettori di Bi , 1 ≤ i ≤ r,

99
sono linearmente indipendenti, si ha che α1 = . . . = αm1 = β1 = . . . = βm2 = γ1 = . . . =
γmr = 0, come volevasi.
Viceversa, se F è diagonalizzabile e B è una base diagonalizzante per F , allora gli
n vettori di B sono autovettori di F . Inoltre, la matrice M ∈ Mn (K) associata ad F
rispetto a B è una matrice diagonale e gli elementi della diagonale principale di M sono
autovalori di F . Ne segue che la somma delle molteplicità geometriche degli autovalori di
F è maggiore o uguale ad n. D’altro canto, dalla Proposizione 9.12 e dall’Osservazione
9.11, si ha che la somma delle molteplicità geometriche degli autovalori di F è esattamente
n. Allora, necessariamente valgono le proprietà i) e ii).

Corollario 9.14. Sia V un K–spazio vettoriale tale che dim(V ) = n e sia F : V −→ V


un endomorfismo. Se F possiede n autovalori distinti, allora F è diagonalizzabile.

Analogamente valgono i seguenti risultati.

Teorema 9.15. Sia A ∈ Mn (K).

1) Se λ è un autovalore di A, allora 1 ≤ mg (λ) ≤ ma (λ) ≤ n.

2) A è diagonalizzabile se e solo se

i) la somma delle molteplicità algebriche degli autovalori di A è pari ad n,


ii) per ogni autovalore la molteplicità geometrica coincide con la molteplicità al-
gebrica.

3) Se A possiede n autovalori distinti, allora A è diagonalizzabile.

Osservazione 9.16. Una base diagonalizzante per un endomorfismo o per una matrice
quadrata si ottiene scegliendo una base per ogni autospazio e prendendone l’unione.

Esempi 9.17. 1. Sia F : (x, y, z) ∈ R3 7−→ (2x + y, y − z, 2y + 4z) ∈ R3 . La matrice


associata ad F rispetto alla base canonica di R3 è
 
2 1 0
A =  0 1 −1  .
0 2 4

Il polinomio caratteristico di F è pA (X) = (2 − X)(X 2 − 5X + 6) = −(X −


3)(X − 2)2 . Pertanto F possiede due autovalori distinti: 2, 3. In particolare ma (2) =
2 e ma (3) = 1. Per determinare l’autospazio relativo 3, consideriamo il sistema
omogeneo associato a A − 3I3 :

 −X1 + X2 = 0
−2X2 − X3 = 0
2X2 + X3 = 0

100
Esso ammette le ∞ soluzioni (t, t, −2t) ∈ R3 , t ∈ R. Pertanto V3 (F ) = {(t, t, −2t) ∈
R3 | t ∈ R} = h(1, 1, −2)i. Allora mg (3) = dim(V3 (F )) = 1.
Per determinare l’autospazio relativo 2, consideriamo il sistema omogeneo associato
a A − 2I3 : 
 X2 = 0
−X2 − X3 = 0
2X2 + 2X3 = 0

Esso ammette le ∞ soluzioni (t, 0, 0) ∈ R3 , t ∈ R. Pertanto V2 (F ) = {(t, 0, 0) ∈


R3 | t ∈ R} = h(1, 0, 0)i. Allora mg (2) = dim(V2 (F )) = 1. F non è diagonalizzabile
in quanto ma (2) 6= mg (2).

2. Se    
2 1 0 0
M= ,N = ,
1 2 0 1
si consideri l’endomorfismo F : M2 (R) −→ M2 (R) definito da F (X) = XM − N X.
Mostreremo che F è diagonalizzabile e troveremo una base diagonalizzante per F .
Se  
x11 x12
X= ,
x21 x22
allora  
2x11 + x12 x11 + 2x12
F (X) = .
x21 + x22 x21 + x22
La matrice associata ad F rispetto alla base canonica di M2 (R) è
 
2 1 0 0
 1 2 0 0 
A=  0 0 1 1 .

0 0 1 1

Il polinomio caratteristico di F è pA (X) = det(A−XI4 ) = (X 2 −4X +3)(X 2 −2X).


Esso ha quattro radici distinte: 0, 1, 2, 3, che sono gli autovalori di F (e di A).
Pertanto ma (0) = ma (1) = ma (2) = ma (3) = 1. Cercare una base per gli autospazi
corrispondenti a ciascun autovalore corrisponde a trovare delle basi rispettivamente
per V0 (F ), V1 (F ), V2 (F ), V3 (F ). Per l’autovalore 0 il sistema


 2X1 + X2 = 0
X1 + 2X2 = 0


 X3 + X4 = 0
X3 + X4 = 0

ammette le ∞ soluzioni (0, 0, t, −t) ∈ R4 , t ∈ R. Pertanto


    
0 0 0 0
V0 (F ) = | t∈R = .
t −t 1 −1

101
Allora mg (0) = dim(V0 (F )) = 1. Per l’autovalore 1 il sistema


 X1 + X2 = 0
X1 + X2 = 0


 X4 = 0
X3 = 0

ammette le ∞ soluzioni (t, −t, 0, 0) ∈ R4 , t ∈ R. Pertanto


    
t −t 1 −1
V1 (F ) = | t∈R = .
0 0 0 0
Allora mg (1) = dim(V1 (F )) = 1. Per l’autovalore 2 il sistema


 X2 = 0
X1 = 0


 −X3 + X4 = 0
X3 − X4 = 0

ammette le ∞ soluzioni (0, 0, t, t) ∈ R4 , t ∈ R. Pertanto


    
0 0 0 0
V2 (F ) = | t∈R = .
t t 1 1
Allora mg (2) = dim(V2 (F )) = 1. Per l’autovalore 3 il sistema


 −X1 + X2 = 0
X1 − X2 = 0


 −2X3 + X4 = 0
X3 − 2X4 = 0

ammette le ∞ soluzioni (t, t, 0, 0) ∈ R4 , t ∈ R. Pertanto


    
t t 1 1
V3 (F ) = | t∈R = .
0 0 0 0
Allora mg (3) = dim(V3 (F )) = 1. Ne segue che una base di M2 (R) rispetto alla quale
F ha una matrice diagonale è data da
       
0 0 1 −1 0 0 1 1
, , , .
−1 1 0 0 1 1 0 0
La matrice associata ad F rispetto a tale base di M2 (R) è
 
0 0 0 0
 0 1 0 0 
D=  0 0 2
.
0 
0 0 0 3
Si noti che la matrice  
0 1 0 1
 0 −1 0 1 
B= 
 −1 0 1 0 
1 0 1 0
è tale che D = B −1 AB.

102
Riferimenti bibliografici
[1] V. Abatangelo, B. Larato, A. Terrusi, Complementi ed esercizi di algebra, Laterza,
Bari, 2009.

[2] A. Cavicchioli, F. Spaggiari, Primo modulo di Geometria, Pitagora Editrice,


Bologna, 2002.

[3] E. Dedò, Algebra lineare e geometria, Pitagora Editrice, Bologna, 2004.

[4] V. Giordano, Geometria e Algebra Lineare, Mondadori, Milano, 2017.

[5] S. Lang, Algebra Lineare, Bollati Boringhieri, Torino, 1984.

[6] E. Sernesi, Geometria 1, Bollati Boringhieri, Torino, 1989.

103

Potrebbero piacerti anche